L'ús maliciós de la IA en eleccions afecta gairebé la meitat dels països del món

Un estudi de l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC) alerta sobre la manipulació electoral mitjançant deepfakes i xatbots.

Representació abstracta de la intel·ligència artificial manipulant informació en un context electoral.
IA

Representació abstracta de la intel·ligència artificial manipulant informació en un context electoral.

L'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de Girona, ha presentat un estudi que detalla com la intel·ligència artificial s'ha utilitzat de manera maliciosa per influir en processos electorals a gairebé la meitat dels països del món.

La proliferació de vídeos falsos generats per intel·ligència artificial (IA) i l'ús de xatbots per difondre missatges ideològics a les xarxes socials són fenòmens cada cop més habituals. Aquestes eines, entre d'altres, s'han emprat per manipular votants i alterar resultats electorals, segons l'informe encarregat pel Departament de Justícia i Qualitat Democràtica de la Generalitat.
L'estudi, titulat Estudi sobre riscos de la IA en l'àmbit dels processos electorals, ha analitzat incidents ocorreguts entre el 2023 i el 2026. Un dels casos destacats és el d'un deepfake viralitzat a Buenos Aires (Argentina) l'any 2025, on un candidat falsament anunciava la seva retirada i demanava el vot per al seu rival.
El document identifica cinc tipus d'eines amb un alt potencial de manipulació electoral:
  • Els deepfakes, vídeos hiperrealistes però falsos.
  • Els grans models de llenguatge, com ChatGPT, capaços de generar desinformació a gran escala.
  • Els bots d'amplificació automàtica a les xarxes socials.
  • La suplantació d'identitat automatitzada.
  • La microsegmentació psicogràfica, que utilitza dades psicològiques per enviar missatges hiperpersonalitzats.
L'any 2024 va ser particularment significatiu a causa de la gran quantitat de convocatòries electorals. Segons el director de l'OEIAC, gairebé la meitat dels països del món van experimentar usos maliciosos de la IA durant aquest període. Un exemple va ser el xatbot Grok, de la xarxa social X, que va difondre informació falsa sobre la candidata demòcrata als Estats Units.

"L'estudi no va sobre si van canviar el resultat electoral, però sí que el van alterar d'alguna manera."

el director de l'OEIAC
El director de l'OEIAC adverteix que és

"plausible que la IA s'utilitzi amb intenció de manipular a les properes eleccions municipals, previstes per la primavera de l'any que ve."

el director de l'OEIAC
A més, subratlla que la ràpida i generalitzada adopció de noves tecnologies pot contribuir a la viralització de continguts maliciosos sense que els usuaris siguin conscients de les conseqüències. Aquests missatges busquen erosionar la confiança ciutadana en el sistema.

"Nosaltres mateixos, sense voler, participem d'aquesta viralització de continguts de desinformació i de manipulació."

el director de l'OEIAC
Per fer front a aquesta problemàtica, es proposa una actualització de la Llei orgànica del règim electoral general (LOREG), ja que la normativa actual és

"analògica"

el director de l'OEIAC
. També es considera essencial una llei de transparència que obligui els partits polítics a declarar l'ús de la intel·ligència artificial en les seves campanyes.