Desde imágenes inventadas de la detención de Donald Trump hasta un video que describe un futuro distópico bajo el mandato de Joe Biden, la carrera de 2024 hacia la Casa Blanca se enfrenta a una avalancha de desinformación facilitada por la tecnología en lo que se considera la primera elección estadounidense basada en la inteligencia artificial.

Los activistas de ambos bandos políticos están utilizando herramientas avanzadas basadas en la inteligencia artificial, que muchos expertos en tecnología consideran un arma de doble filo.

Las herramientas de IA pueden clonar en un instante la voz de una figura política y crear videos y textos tan aparentemente reales que los votantes podrían tener dificultades para descifrar la verdad de la ficción, socavando al mismo tiempo la confianza en el proceso electoral.

Al mismo tiempo, es probable que las campañas utilicen la tecnología para aumentar la eficiencia operativa en todo, desde el análisis de las bases de datos de votantes hasta la redacción de correos electrónicos para recaudar fondos.

Un video publicado en junio por la campaña presidencial del gobernador de Florida, Ron DeSantis, supuestamente mostraba al expresidente Trump abrazando a Anthony Fauci, destacado miembro del grupo de trabajo sobre coronavirus en Estados Unidos. Los verificadores de datos de AFP descubrieron que el video utilizaba imágenes generadas por IA.

Después de que Biden anunciara formalmente su candidatura a la reelección, en abril el Partido Republicano publicó un video que, según dijo, era una «mirada generada por IA al posible futuro del país» si el demócrata ganaba. En él se mostraban imágenes realistas de pánico en Wall Street, China invadiendo Taiwán, oleadas de inmigrantes arrollando a los agentes fronterizos y una toma militar de San Francisco en medio de una criminalidad atroz.

Otros ejemplos de imágenes de IA relacionados con la campaña incluyen fotos falsas de Trump siendo detenido por agentes de policía de Nueva York y un video de Biden declarando un reclutamiento militar nacional para apoyar el esfuerzo bélico de Ucrania contra Rusia.

«Salvaje oeste»

«La IA generativa amenaza con potenciar las campañas de desinformación en línea», afirmaba la organización sin fines de lucro Freedom House en un informe reciente, en el que advertía que esta tecnología ya se estaba utilizando para difamar a opositores electorales en Estados Unidos.

«Los proveedores de desinformación están empleando imágenes, audio y texto generados por IA, haciendo que la verdad sea más fácil de distorsionar y más difícil de discernir». Más del 50% de los estadounidenses espera que las falsedades generadas por IA influyan en el resultado de las elecciones de 2024, según una encuesta publicada en septiembre por el grupo de medios Axios y la empresa de inteligencia empresarial Morning Consult.

Alrededor de un tercio de los estadounidenses afirmó que confiará menos en los resultados debido a la IA, según la encuesta.

En un entorno político hiperpolarizado, los observadores advierten que tales sentimientos corren el riesgo de avivar la ira pública contra el proceso electoral, algo parecido al asalto del 6 de enero de 2021 al Capitolio estadounidense por parte de los partidarios de Trump por acusaciones falsas de que le robaron las elecciones de 2020.

«A través de plantillas (de IA) que son fáciles y económicas de usar, nos vamos a enfrentar a un salvaje oeste de reclamaciones y contrademandas de campaña, con una capacidad limitada para distinguir el material falso del real y la incertidumbre sobre cómo estas apelaciones afectarán las elecciones», dijo Darrell West, de la Brookings Institution.

«Revolucionario»

Al mismo tiempo, los rápidos avances de la IA la han convertido en un recurso «revolucionario» para comprender a los votantes y las tendencias de las campañas a un «nivel muy detallado», afirmó Vance Reavie, director ejecutivo de Junction AI.

Antes, el personal de las campañas recurría a costosos consultores para desarrollar planes de divulgación y dedicaba horas a redactar discursos, temas de debate y mensajes en las redes sociales, pero la IA ha hecho posible realizar las mismas tareas en una fracción de ese tiempo, explicó Reavie a la AFP.

Pero lo que marca el potencial de abuso es que cuando la AFP pidió al ChatGPT -basado en IA- que creara un boletín de campaña a favor de Trump, alimentándolo con las falsas declaraciones del expresidente desmentidas por los verificadores de datos de Estados Unidos, produjo -en cuestión de segundos- un hábil documento de campaña con esas falsedades.

Cuando la AFP pidió al chatbot que hiciera el boletín más «agresivo», este lanzó las mismas falsedades en un tono más apocalíptico.

Las autoridades se apresuran a establecer barreras de seguridad para la IA, y varios estados de Estados Unidos, como Minnesota, han aprobado leyes para tipificar como delito las falsificaciones destinadas a perjudicar a candidatos políticos o influir en las elecciones.

El lunes, Biden emitió un decreto para promover el uso «seguro y fiable» de la inteligencia artificial.

«Las falsificaciones profundas utilizan audio y video generados por IA para difamar reputaciones, difundir noticias falsas y cometer fraudes», dijo Biden en la firma del decreto.

Expresó su preocupación por el hecho de que los estafadores puedan tomar una grabación de tres segundos de la voz de alguien para generar un deepfake de audio. «He visto una mía», dijo. «Me dije: ‘¿Cuándo demonios he dicho yo eso?'».

/psg