En los primeros seis meses de 2024, el Tribunal Electoral juzgó 43 acciones relacionadas con el uso de inteligencia artificial en la precampaña y, en 14 de los casos analizados (32%), el uso de la tecnología fue considerado irregular. Esto es lo que revela una encuesta inédita, realizada por Aos Fatos en colaboración con ICL Notícias y Clip (Centro Latinoamericano de Investigación Periodística).
Los resultados obtenidos señalan un escenario arriesgado para las elecciones de octubre en Brasil, las primeras en las que se generaliza el uso de la IA generativa. Y muestran que las reglas establecidas en febrero de este año por el TSE (Tribunal Superior Electoral) para el uso de la IA tropiezan con limitaciones prácticas, como la falta de jurisprudencia consolidada y la dificultad de los jueces electorales para abordar el tema de la tecnología.
La encuesta se realizó en los Diarios Electrónicos de Justicia de todos los Tribunales Electorales Regionales del país, utilizando palabras clave.
Esta investigación forma parte del proyecto “Los Ilusionistas”, una alianza periodística coordinada por el Centro Latinoamericano de Investigación Periodística (CLIP), en la que reporteros digitales e investigadores de 15 organizaciones y medios latinoamericanos investigan en colaboración la circulación de información falsa y la manipulación de las conversaciones públicas en medios digitales durante este “súper año electoral” de 2024 en América Latina.
A pesar de reunir a cerca de un tercio de los municipios que acudirán a las urnas en octubre, hasta ahora la región Nordeste de Brasil es responsable de más de la mitad de las acciones identificadas en la encuesta (23 de 43). Entre los estados, los campeones son Pernambuco y Río de Janeiro, con ocho demandas cada uno.
Por tratarse de un tema nuevo, recientemente incorporado a la legislación, el uso de IA en publicidad política aún no ha llegado a las últimas instancias de la justicia electoral, y la investigación periodística muestra que la falta de jurisprudencia ha dado lugar a interpretaciones de la ley a veces contradictorias.
“Todavía no tenemos una línea de conducta muy clara. Ni siquiera tenemos doctrina, material escrito o investigadores consolidados, y mucho menos decisiones judiciales. Este es un problema con el que vamos a tener que lidiar”, afirma el Subprocurador General de la República, Elton Ghersel, coordinador del Genafe (Grupo Ejecutivo Nacional para la Función Electoral).
La inexperiencia de los juristas, sin embargo, redobla la urgencia de abordar el tema, ya que las elecciones municipales de octubre serán las primeras después de la popularización de las herramientas de IA generativa.
“Nuestra expectativa, por desgracia, es que el uso de la inteligencia artificial y la producción de contenidos falsos se utilizarán ampliamente en la campaña electoral”, predice Ghersel. “Tenemos que estar preparados para intentar, cuanto antes, retirar estos contenidos del aire y castigar a los responsables”.
Barrera tecnológica
El análisis de las decisiones recogidas por el estudio indica que, sin referencias, algunos de los jueces trataron de evitar el tema, ignorando la cuestión de la IA para centrar sus argumentos en otras irregularidades atribuidas a la propaganda, como las ofensas contra el honor de los destinatarios.
Quienes han decidido abordar la cuestión se han topado a menudo con las incertidumbres generadas por la falta de dictámenes periciales, incompatibles con el objetivo de la justicia electoral de actuar rápidamente contra la propaganda política irregular para minimizar su impacto. La publicidad electoral estará prohibida hasta el 16 de agosto, según la legislación brasileña.
“Es un desafío para los jueces reconocer si las difusiones fueron producidas o no con la ayuda de inteligencia artificial, ya sea por la falta de conocimiento técnico sobre estas nuevas herramientas, ya sea por la dificultad de promover la pericia”, observa el abogado electoral Carlos Sérgio de Carvalho Barros, que actúa en casos de publicidad que involucran IA en Maranhão.
El desafío tecnológico puede verse en una de las primeras sentencias del país sobre el tema, en la que uno de los precandidatos en la carrera por la ciudad de Costa Rica, en el interior del estado de Mato Grosso do Sul en Brasil, fue multado por publicitar un video sobre el actual alcalde de la ciudad, Cleverson Alves dos Santos (PP).
La demanda fue presentada por el PP (Partido Progresista) después de que un empleado del precandidato compartiera, en un grupo de WhatsApp, un montaje de video rudimentario, sin sincronización entre audio e imágenes, que, según el partido, fue realizado con IA para atacar al alcalde.
“Preffake compara a la población de Costa Rica con perros callejeros”, dice el texto amarillo insertado en el video, que va acompañado de una grabación de audio con la voz del alcalde: “Esa gente son como perros persiguiendo coches. El coche corre y ellos ladran detrás”.
A pesar de la denuncia del uso de IA, Kleber Coelho, abogado del PP, declaró a esta alianza que, debido a la urgencia, no fue posible realizar un peritaje previo sobre el contenido, y el caso se llevó a los tribunales sin indicar cómo se produjo el montaje.
Coelho, sin embargo, reconoció que el audio era real, pero que había sido editado y sacado de contexto para dar a entender que el alcalde estaba atacando a la población de la ciudad. “Las imágenes son de la campaña de 2020 y el audio es efectivamente la voz del alcalde, por lo que induce a error a la gente. Pero eso no lo dijo en 2020. El audio es de otro momento en el que el alcalde hablaba del grupo de la oposición”, explica el abogado. “Es un montaje burdo”, añade.
A la hora de analizar el caso, sin embargo, la juez Laisa Ferneda atribuye la similitud entre el audio y la voz del alcalde al uso de la tecnología. “La voz superpuesta es la del afectado (o muy similar), lo que denota el uso de inteligencia artificial (IA) para la manipulación”, dice la sentencia, pese a la falta de pruebas que corroboren la acusación.
“Se trata de un caso típico de uso indebido de la tecnología mediante Deep Fake, es decir, la superposición de una voz en un video, aunque sin la delicadeza de una sincronización labial completa (si se observa con atención el video), pero con un claro potencial para confundir y engañar”, señala la juez.
La dificultad observada en el caso de Costa Rica es reconocida por el coordinador de Genafe. “La gente de informática y comunicación entiende mucho mejor este fenómeno tecnológico que la gente del mundo jurídico”, admite. “Ciertamente se van a cometer algunos errores en este proceso, más o menos, hasta que se defina una línea de equilibrio”, añade.
Combatir las deepfakes o bulos profundos
El tipo de tecnología utilizada para crear un montaje no hace ninguna diferencia según la resolución 23.732 del TSE, del 27 de febrero de este año, ya que lo que el texto prohíbe es el uso en propaganda “de contenidos fabricados o manipulados para difundir hechos notoriamente falsos o descontextualizados con el potencial de causar daño al equilibrio de la elección o a la integridad del proceso electoral”. En la ley brasileña esto puede ser interpretado como crimen electoral y puede constituir un delito con pena de hasta dos años de prisión o multa.
El texto se centra en la lucha contra los deepfakes, que incluyen audio y video “generados o manipulados digitalmente, incluso con autorización, para crear, sustituir o alterar la imagen o la voz de una persona viva, fallecida o ficticia”. Tampoco está permitido el uso de chatbots que simulen, con IA, que el votante está hablando con una persona real.
La resolución no prohíbe el uso de IA en anuncios políticos en su conjunto, pero dice que las piezas que adopten el recurso deben informar de que el contenido ha sido manipulado y de la tecnología utilizada para ello.
La confusión entre lo que es deepfake (o bulo profundo) y lo que es sólo contenido generado por IA fue común al analizar las acciones identificadas por la investigación periodística. El límite entre ambos conceptos “es precisamente el potencial para inducir a error a la población”, explica el fiscal que coordina Genafe, señalando que la tecnología también puede utilizarse para crear sátira.
En contra de lo que sugiere el fiscal, el propio sector tecnológico también se enfrenta a dificultades a la hora de abordar formas de combatir la desinformación generada por IA. La razón es la falta de métodos totalmente fiables para detectar la manipulación.
“Es una especie de ‘carrera armamentística’ entre los que producen deepfakes y los que crean herramientas para detectarlos”, afirma Lucas Lattari, doctor en informática y profesor del Instituto Federal del Sudeste de Minas Gerais.
El profesor cree que las limitaciones de los conocimientos técnicos son mayores cuando el contenido artificial se propaga en forma de sonido, un formato que considera “mucho más convincente”, sobre todo si los audios “son cortos y de baja calidad para confundir”.
“Lo que facilita el análisis forense cuando se trata de imágenes es el margen de maniobra, porque los píxeles dan muchas más pistas sobre la manipulación”, dice Lattari, señalando que los metadatos del archivo también pueden dar pistas para el análisis, como el objetivo de la cámara utilizado, la fecha de grabación y la ubicación geográfica del lugar donde se tomó la imagen, si el falsificador no tiene cuidado.
“En el caso del audio, es mucho más difícil, porque las señales sonoras no dan tantas pistas visuales como los píxeles. Incluso para los expertos, es un trabajo duro y depende de complejos programas de análisis que por sí solos no proporcionan las respuestas”, afirma.
Incluso antes de que empiece oficialmente la campaña, el abogado electoral Moreno de Azevedo Alves, que trabaja en Pernambuco, dice que ya se ha encontrado con una situación en la que le resultó difícil demostrar que un audio había sido creado por IA. “El magistrado dictaminó que no se había utilizado inteligencia artificial, aunque las pruebas apuntaban a lo contrario”, afirma. El caso está bajo secreto judicial y no apareció en el estudio realizado por el informe.
Otro problema al que ya se enfrentan, según los abogados, es demostrar la autoría de los montajes, dado el anonimato que garantizan las redes.
Caso Tabata contra Ricardo Nunes
La necesidad de que el montaje hecho con IA presente “hechos notoriamente falsos o contextualizados” fue el argumento utilizado en la sentencia que consideró regular un video divulgado por el diputado federal y precandidato Tabata Amaral (PSB) en el que el alcalde de São Paulo, Ricardo Nunes (MDB), tenía su cara insertada digitalmente en el personaje Ken, de la película Barbie. El montaje hacía un juego de palabras con el término “¿Quién?”, intentando transmitir la idea de que Nunes sería un desconocido para la población de la capital que gobierna.
“Es evidente que se trata de un montaje fuera de lugar, incapaz de inducir a error a ningún espectador, dada la utilización de recursos rudimentarios para realizar la imagen superpuesta”, argumenta la sentencia, que también descarta cualquier exposición vejatoria del alcalde. “No en vano, el montaje se superpone a un personaje mundialmente aceptado, que no aparece como un villano, bandido o figura carente de buenos valores y de dudoso carácter”, señala el texto.
La misma discusión estuvo presente en una sentencia relativa a la disputa en el municipio de Tutoia (MA), donde el PDT presentó una demanda contra un video en el que aparecía la presentadora del Jornal da Globo, Renata Lo Prete. Audio de mala calidad técnica fue insertado digitalmente en lugar del discurso de la presentadora para introducir una supuesta noticia sobre el alcalde local, Raimundo Nonato Abraão Baquil (PDT), precandidato a la reelección. Después, aparecen imágenes de cortes de una declaración real que el político prestó ante la Justicia.
El juez de la 40ª Zona Electoral dictaminó que no había irregularidades en la propaganda, que la propia decisión califica de deepfake. “En este caso, la difusión de este deepfake, cuando menos, genera controversia, sin que este Juzgado Especializado pueda afirmar, con precisión, que se trata de información conocida como no veraz por el medio virtual difusor”, dice el texto.
“Está claro que el juez no tiene confianza para emitir un juicio sobre si el video es o no un deepfake”, critica el abogado Benno Caldas, implicado en el caso, que está a la espera de una apelación.
En el Gran São Paulo, mientras tanto, el tribunal decidió multar al alcalde de Guarulhos, Gustavo Henric Costa, por haber difundido un video, realizado con IA, en el que aparece en un escenario, como una estrella de rock, ante una multitud que grita “fuera PT”.
El video tampoco fue considerado deepfake por la sentencia, que sin embargo lo consideró irregular. “La manipulación de la imagen por parte de la inteligencia artificial en el video publicado, en el que se inserta la figura del acusado en el escenario de un concierto con público, es evidente a la vista de los defectos de imagen característicos del uso de esta herramienta. Sin embargo, no hay información explícita y destacada de que el contenido ha sido manipulado, ni de la tecnología utilizada”, dijo el juez electoral Gilberto Azevedo de Moraes Costa.
Recordado en la sentencia de Guarulhos y previsto en la resolución del TSE, el requisito de que el uso de IA debe ser informado de forma destacada había sido ignorado tanto por la decisión de Maranhão como por el montaje con el alcalde de São Paulo.
El abogado Bruno Cesar de Caires, que representó al PT en el caso Guarulhos, coincide con la apreciación de que el contenido no es un deepfake. “Deepfake, en mi interpretación, es manipulación con el objetivo de distorsionar la realidad”, afirma.
A pesar de los propósitos de la ley, muchas de las acciones que movilizan hoy los recursos de la justicia electoral tienen como objetivo combatir piezas humorísticas, con alcaldes puestos a hacer “bailes”, por ejemplo.
Si en Brasil se repite lo ocurrido en las elecciones de este año en India -donde el “trolling” fue un uso más frecuente de la IA que la desinformación-, no se puede descartar el riesgo de sobrecarga de los tribunales. Una avalancha de demandas podría dificultar no sólo la lucha contra la desinformación política, sino también la difusión de discursos de odio contra las minorías durante la campaña con el uso de IA.
Esta situación ya es una realidad en el municipio de São Pedro da Aldeia (RJ), donde el PL (Partido Liberal) presentó una demanda después de que, el 15 de mayo, el alcalde de la ciudad y precandidato a la reelección, Fábio do Pastel, fuera objeto de un video sexualmente ofensivo.
El partido se describió ante la Justicia como “sorprendido por publicaciones en grupos de WhatsApp y en la red social Facebook de montajes que utilizan inteligencia artificial”. A continuación, presentó capturas de pantalla de un perfil que publicó el video y también lo hizo un grupo con 7.900 miembros.
La defensa del partido, sin embargo, no aportó pruebas del uso de inteligencia artificial en sí, sino que se limitó a describir el contenido agresivo del video. Al analizar el caso, la juez Anna Karina Francisconi consideró que el contenido era efectivamente perjudicial, y ordenó el retiro de las publicaciones y una multa de 10.000 reales en caso de incumplimiento. La juez, sin embargo, no tuvo en cuenta el uso de inteligencia artificial.
Regulación
Leonardo F. Nascimento, investigador en el campo de la Sociología Digital y profesor de Ciencia, Tecnología e Innovación en la Universidad Federal de Bahía, señala que la lucha contra la desinformación generada por IA podría reforzarse con la aprobación de nuevos marcos regulatorios, que actualmente se debaten en el Congreso.
“El proceso de polarización en Brasil ha paralizado la acción en este sentido. Cada proyecto de ley, cada discusión sobre este tema acaba siendo el blanco de disputas políticas y de cuestiones sobre la libertad de expresión. Un debate que debería ser, sobre todo, técnico, no consigue avanzar”, critica Nascimento.
“Teniendo en cuenta todo lo que pasó en 2018 con WhatsApp y lo que intentaron hacer con Telegram en 2022, este sería el momento de ver acciones concretas para regular la inteligencia artificial y tomar decisiones importantes”, afirma.
En abril, el presidente de la Cámara de Diputados, Arthur Lira (PP-AL), anunció la creación de un grupo de trabajo para rediscutir el “Proyecto de Ley de Fake News” (Proyecto de Ley 2.630/2020), tras constatar con la dirección de la Cámara que el informe presentado en 2023 por el diputado Orlando Silva (PCdoB-SP) no podría ser aprobado.
El texto había sido objeto de fuertes presiones por parte de las grandes tecnológicas y de una campaña de desinformación que tergiversó su propósito para atribuirle una supuesta intención de “censurar” a las redes.
La misma distorsión se repitió en julio de este año en el debate sobre la regulación de la IA (PL 2.338/2023), cuya votación ha sido aplazada varias veces por la comisión especial del Senado que analiza el asunto.
Una investigación periodística que busca desentrañar la desinformación política en el “súper año electoral” del 2024 en América Latina. Liderada por el Centro Latinoamericano de Investigación Periodística (CLIP) en alianza con Intercept Brasil, ICL y Aos Fatos (Brasil), El Faro (El Salvador), Lab ciudadano (Honduras), Animal Político y Mexicanos Contra la Corrupción (México), La Prensa y Foco Panamá (Panamá), IDL Reporteros y Ojo Público (Perú), Diario Libre (República Dominicana), El Observador (Uruguay), Cazadores de Fake News, Efecto Cocuyo, ProBox, C-Informa y Medianálisis (Venezuela)