La imagen patriótica muestra a la megaestrella Taylor Swift vestida como el Tío Sam, sugiriendo falsamente que apoya al candidato presidencial republicano Donald Trump.
“Taylor quiere que votes por Donald Trump”, dice la imagen, que parece generada por inteligencia artificial.
Durante el fin de semana, Trump amplificó la mentira cuando compartió la imagen junto con otras que mostraban el apoyo de los fanáticos de Swift con sus 7,6 millones de seguidores en su red social Truth Social.
El engaño ha sido un elemento importante en la política durante mucho tiempo, pero el auge de las herramientas de inteligencia artificial que permiten a las personas generar rápidamente imágenes o videos falsos al escribir una frase agrega otra capa compleja a un problema conocido en las redes sociales. Conocidas como deepfakes, estas imágenes y videos alterados digitalmente pueden hacer que parezca que alguien está diciendo o haciendo algo que no es cierto.
A medida que se intensifica la carrera entre Trump y la candidata demócrata Kamala Harris, los expertos en desinformación están haciendo sonar la alarma sobre los riesgos de la IA generativa.
“Me preocupa que, a medida que nos acercamos a las elecciones, esto vaya a estallar”, dijo Emilio Ferrara, profesor de informática en la Escuela de Ingeniería Viterbi de la USC. “Va a empeorar mucho más de lo que está ahora”.
Plataformas como Facebook y X, anteriormente conocida como Gorjeotienen reglas contra las imágenes, el audio y los videos manipulados, pero han tenido dificultades para hacer cumplir estas políticas a medida que el contenido generado por inteligencia artificial inunda Internet. Ante las acusaciones de que están censurando el discurso político, se han centrado más en etiquetar el contenido y verificar los hechos, en lugar de eliminar publicaciones. Y hay excepciones a las reglas, como la sátira, que permite a las personas crear y compartir imágenes falsas en línea.
“Tenemos todos los problemas del pasado, todos los mitos, desacuerdos y estupidez general con los que hemos estado lidiando durante 10 años”, dijo Hany Farid, profesor de la UC Berkeley que se especializa en desinformación y análisis forense digital. “Ahora tenemos todo potenciado con inteligencia artificial generativa y somos muy, muy partidistas”.
En medio del creciente interés en OpenAI, el creador de la popular herramienta de inteligencia artificial generativa ChatGPT, las empresas tecnológicas están animando a las personas a utilizar nuevas herramientas de inteligencia artificial que puedan generar texto, imágenes y vídeos.
Farid, quien analizó las imágenes de Swift que Trump compartió, dijo que parecen ser una mezcla de imágenes reales y falsas, una forma “engañosa” de difundir contenido engañoso.
Las personas comparten imágenes falsas por diversas razones. Pueden hacerlo simplemente para volverse virales en las redes sociales o para trollear a otros. Las imágenes visuales son una parte poderosa de la propaganda, que distorsiona las opiniones de las personas sobre la política, incluida la legitimidad de las elecciones presidenciales de 2024, afirmó.
En X, imágenes que parecen generadas por inteligencia artificial muestran a Swift abrazando a Trump, tomándole la mano o cantando un dueto mientras el republicano toca la guitarra. Los usuarios de las redes sociales también han utilizado otros métodos para afirmar falsamente que Swift apoyaba a Trump.
X etiquetó un video que afirmaba falsamente que Swift apoyaba a Trump como “medios manipulados”. El video, publicado en febrero, usa imágenes de Swift en los Grammy 2024 y hace que parezca que sostiene un cartel que dice: “Trump ganó. ¡Los demócratas hicieron trampa!”.
Las campañas políticas se han estado preparando para el impacto de la IA en las elecciones.
La campaña de la vicepresidenta Harris cuenta con un equipo interdepartamental “para prepararse para los posibles efectos de la IA en esta elección, incluida la amenaza de deepfakes maliciosos”, dijo la portavoz Mia Ehrenberg en un comunicado. La campaña solo autoriza el uso de la IA para “herramientas de productividad” como el análisis de datos, agregó.
La campaña de Trump no respondió a una solicitud de comentarios.
Parte del desafío de frenar los videos falsos o manipulados es que la ley federal que rige las operaciones de las redes sociales no aborda específicamente los deepfakes. La Ley de Decencia en las Comunicaciones de 1996 no responsabiliza a las empresas de redes sociales por alojar contenido, siempre y cuando no ayuden ni controlen a quienes lo publican.
Pero a lo largo de los años, las empresas de tecnología han sido criticadas por lo que aparece en sus plataformas y muchas empresas de redes sociales han establecido pautas de moderación de contenido para abordar esto, como prohibir el discurso de odio.
“Es realmente como caminar por la cuerda floja para las empresas de redes sociales y los operadores en línea”, dijo Joanna Rosen Forster, socia del bufete de abogados Crowell & Moring.
Los legisladores están trabajando para abordar este problema proponiendo proyectos de ley que requerirían que las empresas de redes sociales eliminen los deepfakes no autorizados.
El gobernador Gavin Newsom dijo en julio que apoya una legislación que haría ilegal alterar la voz de una persona con el uso de inteligencia artificial en un anuncio de campaña. Los comentarios fueron una respuesta a un video que compartió el multimillonario Elon Musk, propietario de X, en el que se usa inteligencia artificial para clonar la voz de Harris. Musk, que ha respaldado a Trump, aclaró más tarde que el video que compartió era una parodia.
El Sindicato de Actores de Cine-Federación Estadounidense de Artistas de Televisión y Radio es uno de los grupos que abogan por leyes que aborden los deepfakes.
Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, dijo que las empresas de redes sociales no están haciendo lo suficiente para abordar el problema.
“La desinformación y las mentiras descaradas difundidas por deepfakes nunca podrán revertirse”, dijo Crabtree-Ireland. “Especialmente cuando las elecciones se deciden en muchos casos por márgenes estrechos y a través de sistemas complejos y arcanos como el colegio electoral, estas mentiras alimentadas por deepfakes pueden tener consecuencias devastadoras en el mundo real”.
Crabtree-Ireland ha vivido el problema en primera persona. El año pasado, durante una campaña de ratificación de un contrato, apareció en Instagram un vídeo falso que circulaba por él. El vídeo, que mostraba imágenes falsas de Crabtree-Ireland instando a los miembros a votar en contra de un contrato que él había negociado, fue visto decenas de miles de veces. Y aunque tenía un título que decía “deepfake”, recibió decenas de mensajes de miembros del sindicato preguntándole al respecto.
Pasaron varios días antes de que Instagram eliminara el video deepfake, dijo.
“Sentí que fue muy abusivo”, dijo Crabtree-Ireland. “No deberían robarme la voz y la cara para defender un caso con el que no estoy de acuerdo”.
Con una carrera reñida entre Harris y Trump, no es sorprendente que ambos candidatos se apoyen en celebridades para atraer a los votantes. La campaña de Harris adoptó la descripción que hizo la estrella del pop Charli XCX del candidato como “palo de golf” y ha utilizado melodías populares como “Freedom” de Beyoncé y “Femininomenon” de Chappell Roan para promover a la candidata presidencial demócrata negra y asiática estadounidense. Músicos Niño roca, Jason Aldean y Ye, anteriormente conocido como Kanye West, han expresado su apoyo a Trump, quien fue objeto de un intento de asesinato en julio.
Swift, quien ha sido el blanco de falsificaciones profundas Antes de eso, Swift no ha respaldado públicamente a ningún candidato en las elecciones presidenciales de 2024, pero ha criticado a Trump en el pasado. En el documental de 2020 “Miss Americana”, Swift dice en una conversación entre lágrimas con sus padres y su equipo que lamenta no haber hablado en contra de Trump durante las elecciones de 2016 y critica a la republicana de Tennessee Marsha Blackburn, que se postulaba para el Senado de los Estados Unidos en ese momento, llamándola “Trump con peluca”.
El publicista de Swift, Tree Paine, no respondió a una solicitud de comentarios.
Los chatbots con tecnología de inteligencia artificial de plataformas como Meta, X y OpenAI facilitan la creación de imágenes ficticias. Mientras que los medios de comunicación han descubierto que el chatbot con inteligencia artificial de X, Grok, puede generar Imágenes de fraude electoralotros chatbots son más restrictivos.
El chatbot de Meta AI se negó a crear imágenes de Swift respaldando a Trump.
“No puedo generar imágenes que puedan usarse para difundir información errónea o crear la impresión de que una figura pública ha respaldado a un candidato político en particular”, respondió el chatbot de Meta AI.
Meta y TikTok mencionaron sus esfuerzos por etiquetar el contenido generado por IA y asociarse con verificadores de datos. Por ejemplo, TikTok dijo que no está permitido un video generado por IA que muestre falsamente el respaldo político de una figura pública por parte de un individuo o grupo. X no respondió a una solicitud de comentarios.
Cuando se le preguntó cómo Truth Social modera el contenido generado por IA, la empresa matriz de la plataforma, Trump Media and Technology Group Corp., acusó a los periodistas de “exigir más censura”. Pautas de la comunidad Tiene reglas contra la publicación de fraude y spam, pero no explica cómo maneja el contenido generado por IA.
Mientras las plataformas de redes sociales enfrentan amenazas de regulación y demandas judiciales, algunos expertos en desinformación se muestran escépticos de que las redes sociales quieran moderar adecuadamente el contenido engañoso.
Las redes sociales obtienen la mayor parte de su dinero de los anuncios, por lo que mantener a los usuarios en las plataformas durante más tiempo es “bueno para el negocio”, dijo Farid.
“Lo que atrae a la gente es el contenido más absoluto, conspirativo, odioso, lascivo y colérico”, afirmó. “Eso es lo que somos como seres humanos”.
Es una dura realidad de la que ni siquiera los Swifties podrán librarse.
El redactor Mikael Wood contribuyó a este informe.