La proliferación de vídeos falsos generados por inteligencia artificial (IA) y el uso de chatbots para difundir mensajes ideológicos en las redes sociales son fenómenos cada vez más habituales. Estas herramientas, entre otras, se han empleado para manipular votantes y alterar resultados electorales, según el informe encargado por el Departamento de Justicia y Calidad Democrática de la Generalitat.
El estudio, titulado Estudio sobre riesgos de la IA en el ámbito de los procesos electorales, ha analizado incidentes ocurridos entre 2023 y 2026. Uno de los casos destacados es el de un deepfake viralizado en Buenos Aires (Argentina) en el año 2025, donde un candidato falsamente anunciaba su retirada y pedía el voto para su rival.
El documento identifica cinco tipos de herramientas con un alto potencial de manipulación electoral:
- Los deepfakes, vídeos hiperrealistas pero falsos.
- Los grandes modelos de lenguaje, como ChatGPT, capaces de generar desinformación a gran escala.
- Los bots de amplificación automática en las redes sociales.
- La suplantación de identidad automatizada.
- La microsegmentación psicográfica, que utiliza datos psicológicos para enviar mensajes hiperpersonalizados.
El año 2024 fue particularmente significativo debido a la gran cantidad de convocatorias electorales. Según el director del OEIAC, casi la mitad de los países del mundo experimentaron usos maliciosos de la IA durante este período. Un ejemplo fue el chatbot Grok, de la red social X, que difundió información falsa sobre la candidata demócrata en los Estados Unidos.
“"El estudio no trata sobre si cambiaron el resultado electoral, pero sí que lo alteraron de alguna manera."
El director del OEIAC advierte que es
“"plausible que la IA se utilice con intención de manipular en las próximas elecciones municipales, previstas para la primavera del año que viene."
Además, subraya que la rápida y generalizada adopción de nuevas tecnologías puede contribuir a la viralización de contenidos maliciosos sin que los usuarios sean conscientes de las consecuencias. Estos mensajes buscan erosionar la confianza ciudadana en el sistema.
“"Nosotros mismos, sin querer, participamos de esta viralización de contenidos de desinformación y de manipulación."
Para hacer frente a esta problemática, se propone una actualización de la Ley orgánica del régimen electoral general (LOREG), ya que la normativa actual es
. También se considera esencial una ley de transparencia que obligue a los partidos políticos a declarar el uso de la inteligencia artificial en sus campañas.