La herramienta de IA Grok de Elon Musk ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales, según un anuncio en X. La decisión se produce tras la preocupación generalizada sobre el potencial de deepfakes sexualizados generados por la plataforma.
X, la plataforma de redes sociales propiedad de Musk, declaró que ha implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora. La medida se produce tras las críticas y el escrutinio regulatorio sobre el posible uso indebido de la herramienta de IA.
El gobierno del Reino Unido respondió al cambio, calificándolo de "justificación" de sus anteriores llamamientos a X para que controle a Grok. El regulador Ofcom describió el desarrollo como "bienvenido", pero enfatizó que su investigación sobre si la plataforma había violado las leyes del Reino Unido "sigue en curso". Ofcom declaró: "Estamos trabajando día y noche para avanzar en esto y obtener respuestas sobre lo que salió mal y lo que se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, también acogió con satisfacción la medida, pero indicó que "esperaría que los hechos fueran establecidos de manera completa y sólida por la investigación en curso de Ofcom".
Grok, lanzado en X en 2023, es una herramienta de IA diseñada para generar varios tipos de contenido, incluida la edición de imágenes. Las medidas tecnológicas específicas implementadas por X para evitar la creación de deepfakes no se detallaron en el anuncio. Sin embargo, tales medidas suelen implicar algoritmos diseñados para detectar y prevenir la manipulación de imágenes de manera que violen las políticas de la plataforma y las regulaciones legales.
Activistas y víctimas han argumentado que el cambio llega con retraso y no deshace el daño ya causado por la tecnología. La periodista y activista Jess Davies, que no fue citada directamente en el material fuente proporcionado, probablemente ha estado entre los que criticaron la falta inicial de salvaguardias de la plataforma.
El incidente destaca las crecientes preocupaciones en torno al contenido generado por IA y el potencial para su uso indebido, particularmente en la creación de deepfakes. La industria está lidiando con el desafío de desarrollar herramientas de IA y, al mismo tiempo, evitar su uso con fines maliciosos. El panorama regulatorio también está evolucionando, con gobiernos y organismos reguladores de todo el mundo considerando medidas para abordar los riesgos asociados con el contenido generado por IA.
El estado actual es que X ha implementado las medidas tecnológicas y la investigación de Ofcom sigue en curso. Los próximos acontecimientos probablemente incluirán los resultados de la investigación de Ofcom y un mayor escrutinio de las medidas de seguridad de la IA de X.
Discussion
Join the conversation
Be the first to comment