Según un anuncio en X, Grok, la herramienta de IA de Elon Musk, ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales. La decisión se produce tras la preocupación generalizada por los deepfakes de IA sexualmente explícitos generados por el chatbot de IA de la plataforma.
X, la plataforma de redes sociales propiedad de Elon Musk, declaró que ha implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora. La medida se produce tras el aumento del escrutinio y la presión de los reguladores y los grupos de defensa con respecto al posible uso indebido de la tecnología de IA.
El gobierno del Reino Unido respondió al cambio, calificándolo de "justificación" de sus llamamientos a X para que controle a Grok. El regulador Ofcom describió el desarrollo como "bienvenido", pero enfatizó que su investigación sobre si la plataforma violó las leyes del Reino Unido "sigue en curso". Ofcom declaró: "Estamos trabajando día y noche para avanzar en esto y obtener respuestas sobre lo que salió mal y lo que se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, también acogió con satisfacción la medida, pero declaró que "esperaría que los hechos fueran establecidos de manera completa y sólida por la investigación en curso de Ofcom".
Grok, lanzado en X en 2023, es un chatbot de IA diseñado para generar texto e imágenes. La tecnología utiliza algoritmos de aprendizaje automático para analizar y manipular contenido digital. No se revelaron las medidas tecnológicas específicas implementadas por X para evitar la creación de deepfakes.
Activistas y víctimas han argumentado que el cambio es insuficiente para deshacer el daño ya causado por la tecnología. La periodista y activista Jess Davies, que no fue citada directamente, ha sido una crítica vocal del manejo de la plataforma del contenido sexualizado generado por IA.
El incidente destaca los desafíos continuos de regular la tecnología de IA y prevenir su uso indebido. La capacidad de crear deepfakes realistas plantea importantes preocupaciones éticas y legales, particularmente con respecto a la privacidad, el consentimiento y la difamación. El impacto de esta decisión en la industria podría llevar a otras plataformas de IA a reevaluar sus protocolos de seguridad y políticas de moderación de contenido.
Discussion
Join the conversation
Be the first to comment