Por: Lautaro González Amato*
En la noche del 18 de mayo, mientras regía la veda electoral porteña, un video de Mauricio Macri empezó a circular en X. En la pieza, generada con inteligencia artificial, el expresidente anunciaba que bajaba la candidatura de Silvia Lospennato y pedía el voto para Manuel Adorni, aliado de Javier Milei. El deepfake alcanzó millones de impresiones en horas, fue impulsado por cuentas libertarias muy activas y obligó al PRO a denunciar la campaña sucia en plena veda.
La escena parece de ciencia ficción, pero ya forma parte del paisaje electoral argentino y latinoamericano: campañas que no terminan nunca, contenidos fabricados por IA y una frontera cada vez más borrosa entre libertad de expresión, manipulación y fraude.
La campaña que no se ve: deepfakes y veda en Argentina
El caso Macri–Lospennato no es un episodio aislado, sino la punta de un iceberg. La Fiscalía Nacional Electoral registró decenas de denuncias vinculadas a videos falsos generados con IA durante las legislativas de 2025, en un contexto de más de 360 denuncias totales por violaciones a la veda y desinformación.
El patrón se repite: formato breve y emocional: videos de pocos segundos pensados para consumo móvil y compartidos en cadena.Esto es acompañado por un timing quirúrgico donde se disparan en la víspera de la elección, cuando la ley prohíbe hacer campaña y la capacidad de respuesta institucional es mínima.
Además la amplificación segmentada de una constelación de cuentas anónimas, influencers y militancia digital empuja el contenido hasta jugarlo dentro del debate de los asuntos públicos.
La respuesta institucional llega tarde y en modo analógico: denuncias penales, resoluciones judiciales para bajar publicaciones de X y comunicados de desmentida. En el caso de Macri, el Tribunal Electoral porteño ordenó eliminar el video, pero lo hizo cuando el daño simbólico ya estaba hecho.
El problema de fondo es que la veda electoral fue pensada para un ecosistema de medios masivos, donde apagar la campaña significaba cortar la tanda, bajar los afiches y cerrar el último acto. Nada de eso detiene hoy a un modelo de IA generativa que puede producir cientos de versiones de un mismo mensaje y ponerlas a circular en cuestión de minutos.
De la fake news al ecosistema algorítmico latinoamericano
Lo que ocurre en Argentina dialoga con una tendencia regional más amplia. Instituciones como IDEA Internacional, la Fundación Friedrich Naumann y la OEA documentan cómo la inteligencia artificial se integra a los procesos electorales latinoamericanos como herramienta de desinformación, microsegmentación y violencia política.
Un policy paper de IDEA Internacional sobre IA e integridad de la información en América Latina analiza las elecciones de México y Brasil y muestra cómo se usaron deepfakes, audios manipulados y chatbots para engañar y también para movilizar.
Por su parte, la Fundación Friedrich Naumann advierte que la IA generativa se ha convertido en un nuevo dispositivo para fabricar narrativas falsas y erosionar la confianza en las elecciones en la región.
Informes de la OEA y la Relatoría Especial para la Libertad de Expresión señalan que la desinformación electoral amplificada por tecnologías digitales ya es uno de los principales riesgos para los derechos políticos y la integridad de los comicios.
A este mapa se suma un dato inquietante: un informe reciente muestra que la desinformación electoral en América Latina durante 2023 y 2024 incorporó cada vez más contenidos manipulados con IA, desde imágenes hasta videos, en países como Argentina, Brasil, México y otros de la región.
En paralelo, se multiplican espacios de discusión como el encuentro sobre ecosistema electoral latinoamericano frente a la desinformación y la violencia digital, organizado por IDEA Internacional en octubre de 2025, que reunió a organismos electorales, medios, verificadores y plataformas para intentar construir respuestas comunes.
La pregunta ya no es si habrá IA en las campañas, sino quién la controla y con qué reglas.
Tres lentes teóricos para entender este momento
Para no quedarnos sólo en la crónica del escándalo, viene bien mirar este fenómeno con algunos lentes de la teoría de la comunicación política.
Manuel Castells sostiene que el poder en la sociedad red es, sobre todo, la capacidad de programar los flujos de comunicación: decidir qué circula, cómo y entre quiénes. Los deepfakes electorales son, precisamente, una forma de programación: alteran el contenido (ponen en boca de un líder palabras que nunca dijo), manipulan el contexto (aparecen en la veda, cuando la otra parte no puede responder en igualdad de condiciones) y colonizan la conversación pública al convertir la desmentida en el único tema posible.
El caso Macri–Lospennato muestra cómo un grupo relativamente pequeño de actores, con herramientas de IA y una red de cuentas en X, puede “reprogramar” por unas horas la agenda política de una elección.
Por su parte la politóloga especializada en política comparada, Pippa Norris lleva años insistiendo en que la integridad electoral no se juega sólo el día de la votación, sino a lo largo de todo el ciclo electoral: reglas, financiación, acceso a medios e información disponible para el votante son las claves de un proceso transparente.
Si aplicamos esta mirada al uso de IA, la pregunta no es sólo si se “roban votos”, sino si se está socavando la confianza básica en que las elecciones son justas, o si se está degradando la calidad de la información en la que la ciudadanía basa sus decisiones.
Cuando un video fabricado por IA, difundido en veda y amplificado por cuentas oficiales o paraoficiales, instala la sospecha de que un candidato traicionó a su propio espacio, la erosión no es sólo para esa fuerza política: es para todo el sistema de representación.
Ya la socióloga turca Zeynep Tufekci explica que, en la era digital, la censura ya no es sólo silenciar voces, sino inundar el espacio público de ruido, de contenido tan abundante y contradictorio que vuelve imposible saber qué es cierto.
Es que los deepfakes electorales no buscan convencer racionalmente sino trabajar sobre las emociones: generar confusión, indignación y fatiga informativa.
Mientras los equipos de campaña y los medios serios se esfuerzan por verificar, la conversación ya se desplazó al terreno del “todo puede ser mentira”. Esa sensación de que nada es confiable es el mejor aliado de los proyectos autoritarios.
Desde América Latina, María Esperanza Casullo recuerda que el populismo no se entiende sólo por los discursos, sino por la relación emocional que un líder construye con “su pueblo”.
En este marco, los deepfakes no son sólo piezas de desinformación: son artefactos emocionales diseñados para activar miedo, bronca o traición, que luego las comunidades digitales reciclan en memes, reacciones y nuevas capas de sentido.
Cuando Milei reivindica la difusión de un video falso contra Macri en nombre de la “libertad de expresión” y ridiculiza a quien lo denuncia, no está discutiendo hechos: está consolidando un nosotros-ellos que habilita cualquier golpe bajo.
Tres aportes urgentes de la comunicación política democrática
En este escenario, ¿qué puede aportar la comunicación política entendida como campo profesional y académico, y no sólo como maquinaria de campaña?
Esta puede ayudar a redefinir qué entendemos por “campaña” y por “veda” al actualizar el vocabulario institucional. La campaña ya no es sólo lo que se pauta en TV o se imprime en afiches; incluye contenidos generados por IA, redes de influencers y microsegmentación algorítmica.
La veda no puede seguir pensada como un apagón total en medios masivos mientras las redes hierven de videos falsos y guiños “personales” de dirigentes.
Los marcos regulatorios que se discuten en la región sobre IA y desinformación electoral van en esa línea: ampliar la definición de propaganda política para incluir nuevas formas de comunicación digital.
Segundo, la comunicación política puede y debe impulsar políticas de alfabetización mediática y digital:integrar en escuelas, universidades y programas de formación cívica contenidos sobre cómo identificar deepfakes, cómo verificar fuentes y cómo funcionan los algoritmos. En definitiva, se puede ayudar a aprender diseñar campañas públicas que expliquen, en lenguaje simple y formatos atractivos, qué es un video generado con IA y qué señales mínimas mirar antes de compartirlo.
UNESCO, la OEA y diversas organizaciones promueven guías y proyectos piloto en la región; el desafío es que eso deje de ser un esfuerzo fragmentario y se convierta en política de Estado.
Finalmente la comunicación política democrática necesita aliarse con la regulación y la tecnología. Esto es exigir a las plataformas mecanismos de etiquetado claro cuando un contenido político fue generado o manipulado con IA, como recomiendan varios policy papers recientes sobre IA y elecciones.
Por otro lado debe promover acuerdos entre organismos electorales, partidos, medios y plataformas para crear canales rápidos de denuncia y retiro de deepfakes en contextos electorales.
Además para acompañar esto se pueden impulsar repositorios públicos donde se pueda consultar el “historial” de piezas audiovisuales oficiales de campaña, facilitando la verificación por parte de periodistas y ciudadanía.
En términos de teoría democrática, esto es recuperar lo que Pippa Norris llama confianza procedimental: que la ciudadanía no sólo crea en tal o cual candidato, sino en las reglas del juego que ordenan la competencia.
Como conclusión abierta
Las democracias latinoamericanas están entrando en una fase en la que la campaña más eficaz ya no será necesariamente la mejor organizada, sino la más capaz de producir la mentira perfecta en el momento exacto.
La buena noticia es que el problema está siendo diagnosticado a tiempo: existen policy papers regionales serios sobre IA y desinformación; hay congresos y foros que empiezan a articular a organismos electorales, sociedad civil, medios y plataformas; y una mayoría de latinoamericanos ya expresa su apoyo a regular la IA, según encuestas recientes.
La mala noticia es que los autoritarismos aprenden rápido y no reconocen límites éticos en el uso de estas herramientas. Si la región no actualiza sus reglas, no fortalece sus instituciones y no alfabetiza a su ciudadanía, la próxima campaña no la va a ganar el mejor proyecto de país, sino el algoritmo que mejor haya aprendido a explotar nuestros sesgos, miedos y emociones.
Ahí es donde la comunicación política tiene todavía algo profundo que decir: recordar que el sentido de una elección no es sólo contar votos, sino sostener la conversación democrática que hace posible que esos votos signifiquen la representación de ideas y proyectos.
*Autor del ebook “Unir la cadena. IA & comunicación política. Guía práctica para asesores”, LAMATRIZ, 2024.

