Periodistas y políticos imitados con IA: qué hay detrás de los videos desinformantes en la campaña presidencial

Se han viralizado de forma reciente diversos videos que imitan la apariencia y voz de periodistas y personajes de la política chilena por medio de videos realizados con herramientas con inteligencia artificial, las cuales emiten desinformaciones.
Recientemente han circulado en redes sociales como X, TikTok y Facebook diversos videos creados por medio de herramientas con IA. En ellos se puede observar a reconocidos periodistas emitir columnas de opiniones o entrevistas con políticos y candidatos que competirán en las Elecciones Presidenciales que se llevarán a cabo en noviembre en Chile.
En algunos casos, estos videos enseñan puntos de prensa por parte de autoridades o candidatos presidenciales donde emiten declaraciones fuera de lugar. Y en otros, muestran supuestos noticieros realizando una encuesta callejera desfavorable para un sector político.
Tomás Mosciatti, Iván Valenzuela, Johannes Kaiser y Jeannette Jara son algunos de los periodistas y políticos que han sido suplantados por medio de estos videos con IA, que se catalogan como humorísticos, los cuales desinforman.
Videos con IA que imitan a periodistas y políticos para emitir desinformación
Una de las principales modalidades que toman este tipo de videos son mostrar avatares creados con IA, los cuales emiten columnas de opinión o entrevistas sobre algún hecho reciente en las campañas electorales. Estos suelen ser burlescos en tono, haciendo mofa de algún dicho o polémica de uno de los candidatos.
Dichos videos suelen titularse con frases como “Tío Melipass desatado” (en referencia a Tomás Mosciatti), “Jara se sincera” o “Mosciatti tira factos a Jara y el Merluzo”, para hacerlos parecer como si estuvieran diciendo sus verdaderas intenciones o supuestas verdades de un sector o figura política.
En ese sentido, estos metrajes toman fotogramas de algún clip oficial de programas radiales o apariciones públicas de ciertos políticos o periodistas, y los animan para que se acoplen a audios falsificados con IA de sus voces, para que indiquen una propuesta de gobierno insólita o una opinión negativa de algún candidato, respectivamente.
Columnas de opinión de Tomás Mosciatti
En algunos de estos videos, se utiliza la imagen y voz del locutor radial Tomás Mosciatti (1,2,3), utilizando como base una columna publicada en noviembre de 2022, para emitir opiniones, por ejemplo, sobre las declaraciones de Jeannette Jara acerca de la nacionalización del cobre o su retirada de los debates presidenciales.
“Resulta que después de su último debate, donde mintió descaradamente diciendo que nunca ha querido nacionalizar el cobre cuando esto era una propuesta en su mediocre programa de gobierno de siete páginas, decidió no ir más a debates hasta nuevo aviso, hasta que la gente se olvide del tema”, indica el avatar hecho con IA de Mosciatti en uno de los videos.
Los registros no solo imitan la imagen de Mosciatti, sino que también emulan el aspecto y estética de los comentarios en video que realiza cada semana en BioBíoChile, para hacerlos pasar como si fuesen columnas de opinión reales publicadas por el medio, para falsificar el apoyo del periodista a un sector político en particular.
Entrevistas con Iván Valenzuela en Mesa Central
Por otro lado, existen videos que imitan clips del programa radial Mesa Central (1,2,3), conducido por el periodista Iván Valenzuela, quien realiza entrevistas a algún candidato presidencial, el cual emite alguna opinión o comentario controversial tras una pregunta por parte del conductor sobre alguna propuesta para su eventual gobierno.
“Mira, si perdemos vamos a dejar la cagá (sic) porque no queremos que los fachos gobiernen tranquilamente. Vamos a salir a las calles a destruirlo todo y si nos tocan, nos vamos a victimizar y decir que hay violaciones a los derechos humanos”, indica una imitación hecha con IA de Jeannette Jara, utilizando un fotograma de la edición del 28 de mayo del programa.
Dichos metrajes muestran a los candidatos indicando que planean acciones insólitas como el iniciar un segundo estallido social, el robo de los dineros de los fondos de pensiones e incluso acusar violaciones de derechos humanos en caso de represalias a posibles manifestaciones, esto con el objetivo de desprestigiar a un candidato y su campaña.
Actividades públicas de políticos y/o candidatos
Un tercer tipo de estos metrajes consisten en animaciones de fotos o fotogramas de clips de actividades oficiales (1,2,3). Estos videos utilizan fragmentos de vídeos o fotografías de personajes políticos en apariciones públicas, las cuales son convertidas en videos donde se emiten declaraciones “desatadas” o lo que “realmente piensan”.
Vocerías del Presidente de la República, Gabriel Boric o puntos de prensa de candidatos como Jeannette Jara o Johannes Kaiser son algunas de las instancias que son falseadas en dichos videos, los cuales son utilizados para falsificar declaraciones como la intención de eliminar las cárceles o el agredir a una figura política.
“Bueno, primero que nada, alguien tiene que agarrar a patadas en la raja al señor Boric. Porque si alguien lo agarra a patadas, eso hace a mucha gente feliz. Y si la gente está feliz, es más productiva. Ah, claro. Y el país produce más”, indica un avatar con IA de Johannes Kaiser.
Los videos manipulan fotografías y videos publicados en medios como TVN o La Tercera sobre algún evento, como un fotograma de una entrevista de Johannes Kaiser en CNN Chile, por ejemplo, para hacerlas parecer como declaraciones emitidas en instancias oficiales.
Encuestas callejeras ficticias
Sumado a los formatos anteriores, existen videos que utilizan herramientas de inteligencia artificial para crear noticieros ficticios (1,2,3), los cuales realizan encuestas callejeras, en los que se consulta a un transeúnte sobre su opinión de un candidato en particular o su opción de voto.
Dichos metrajes muestran a un periodista realizando un sondeo, en una calle o ciudad sin identificar, dónde se consulta a algún transeúnte, generalmente jóvenes o personas de tercera edad, por quién votará o cual es su opinión sincera sobre algún candidato.
Tras esta consulta, los encuestados suelen emitir comentarios negativos sobre dicho candidato, aludiendo a su sector político como algo negativo, o que afectaría al país de forma negativa en caso de salir elegido como presidente.
“Amigo, ¿cuál es su candidato para las elecciones? Creo que Parisi es el más preparado para que mejoren las pensiones, pero de alimentos”, se indica en uno de los metrajes.
Dichos videos suelen titularse bajo frases como “Chilenos hastiados de este gobierno” o “Encuesta presidencial en Chile”, para hacerlos parecer como la opinión de la población chilena en general, y deslegitimar el apoyo que reciben algunas campañas o candidatos.

Detalles que pueden indicar si un video de periodistas o políticos fue creado con IA
- Cortes abruptos: vídeos creados con herramientas como Veo 3 tienen una duración limitada de pocos segundos, esto causa que los videos de larga duración como las entrevistas en Mesa Central tengan cortes abruptos en ciertos momentos, dando la impresión que la imagen vuelve a empezar.
- Fondos estáticos: a diferencia de vídeos oficiales, los metrajes manipulados con IA carecen de detalles propios de los programas como los cintillos con los titulares, los videos de las pantallas en Mesa Central, o las animaciones del logo de BioBioChile en las columnas de Mosciatti.
- Deformaciones corporales: en ciertos videos se presentan deformaciones en las expresiones y extremidades, con detalles como caras que no se asemejan a los candidatos, partes sin definición o manos difuminadas, lo que indica manipulación con IA.
- Poses estáticas: algunos avatares mantienen poses estáticas o realizan la misma acción repetidamente. Por ejemplo, el brazo derecho de Mosciatti se mantiene estático y sosteniendo el mismo papel en su mano de forma continua.
- Detalles visuales: Algunos detalles como la piel demasiado lisa, los ojos sin parpadeo natural o los labios que no se sincronizan bien con la voz suelen ser señales de IA.
- Logos y marcas inventadas: videos como las encuestas callejeras o noticieros falsificados insertan micrófonos o cintillos con nombres de medios que no existen o son genéricos (por ejemplo, “C18 News”).

- Voces monótonas: muchas veces las voces clonadas con IA tienen entonaciones planas o extrañas pausas que no coinciden con el estilo real de la persona.
- Chequea las cuentas oficiales: si las declaraciones parecen fuera de lugar o muy vulgares, confirma si el periodista o político ha publicado el mismo contenido en sus redes verificadas o medios de comunicación.