La Casa Blanca está alarmada por las imágenes pornográficas de Taylor Swift

Un día después imagenes pornograficas falsas Taylor Swift se dio la vuelta virales en las redes socialesLos fanáticos del cantante, los políticos estadounidenses e incluso la Casa Blanca expresaron su indignación.

Las autoridades estadounidenses informaron que las imágenes generadas por IA todavía estaban disponibles en otras plataformas.

Una de esas imágenes fue visto 47 millones de veces en X antes de ser eliminado ayer. Según medios estadounidenses, la publicación permaneció visible en la plataforma durante aproximadamente 17 horas.

Imágenes pornográficas “deepfake” –falso pero extremadamente realista– Las celebridades no son nada nuevo. Pero los activistas y las autoridades temen que las herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen un flujo incontrolable de contenido tóxico o dañino.

El ataque a Swiftel segundo artista más escuchado del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómenoque afecta principalmente a los adolescentes.

El único lado positivo de lo que le está sucediendo a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo destituya. Estás enfermo”, escribió la influencer Denmarka Carter en X.

alarmado

La Casa Blanca también expresó su opinión preocupación por el tema.

“Estamos alarmados por los informes sobre la difusión de estas imágenes falsas”, dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.

“Desafortunadamente, con demasiada frecuencia nos encontramos con que la falta de controles afecta desproporcionadamente a las mujeres y las niñas, los principales objetivos del acoso en línea”, añadió.

X es una de las plataformas de contenido pornográfico. más grande del mundo, dicen algunos analistas, desde entonces Sus políticas de desnudez son más flexibles. frente a las de Facebook o Instagram, propiedad de Meta.

El caso de Apple y Google es diferente, ya que ambas compañías pueden intervenir para controlar los contenidos que circulan en las aplicaciones a través de las reglas impuestas por sus sistemas operativos móviles, pero hasta ahora ambas han tolerado esta situación en X.

Le recomendamos: Taylor Swift ‘furiosa’ por imágenes de desnudos generadas por IA.

En un comunicado, X aclaró que “publicar imágenes de desnudos no consentidos (NCN) está estrictamente prohibido” en su plataforma. “Tenemos una política de tolerancia cero hacia dicho contenido”.

La red social propiedad del magnate Elon Musk dijo que sí “Elimine activamente todas las imágenes identificadas y tome las medidas adecuadas contra las cuentas responsables de publicarlas”.

Además, destacó que está “siguiendo de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido”.

Ausencia de leyes

Así lo destacó Yvette Clarke, una congresista demócrata de Nueva York que apoyó una legislación para combatir las fotografías pornográficas falsas. “Con los avances en inteligencia artificial, crear deepfakes es más fácil y económico”.

Por su parte, el congresista republicano Tom Kean advirtió que “la tecnología de IA está avanzando más rápido que las barreras necesarias”. “Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta alarmante tendencia”, añadió.

Le recomendamos: Detienen al presunto acosador de Taylor Swift tras intentar irrumpir en su edificio en Nueva York.

Un estudio de 2019 estimó que el El 96% de los vídeos deepfake eran pornográficos.

Según una investigación citada por la revista Wired, En los primeros nueve meses de 2023 se subieron 113.000 vídeos “deepfake” a sitios web porno más popular.

Con información de AFP.

ORP