Un gran revuelo y un repudio generalizado se desató después que se difundieran imágenes pornográficas hechas con Inteligencia Artificial de Taylor Swift.
La cantante fue víctima de personas maliciosas que utilizaron su rostro para ponerlo en imágenes falsas.
Esas fakes fueron viralizadas por la red social X (ex Twitter) y mostraban a la talentosa artista en posturas sexualmente sugerentes y explícitas.
Como cada vez que ocurre un hecho de este tipo, y sobre todo con una persona muy conocida, millones de personas vieron las imágenes antes de que sean retiradas de las plataformas sociales.
“Este es un excelente ejemplo de cómo se está utilizando la inteligencia artificial con fines nefastos, sin que existan suficientes salvaguardas para proteger la esfera pública”, declaró a CNN Ben Decker, director de Memetica, una agencia de investigación digital.
Decker dijo que la explotación de herramientas de IA generativa para crear contenido potencialmente dañino dirigido a todo tipo de figuras públicas está aumentando rápidamente y se está extendiendo más rápido que nunca a través de las redes sociales.
Desde el entorno de la cantantes confirmaron que están decidiendo si van a tomar acciones legales por este tema.
También hicieron foco en que esas imagenes falsas generadas por IA son “abusivas, ofensivas y explotadoras, realizadas sin el consentimiento ni autorización”.