La herramienta de IA Grok, de Elon Musk, ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales. El anuncio, realizado en X, la plataforma de redes sociales propiedad de Musk, se produce tras la preocupación generalizada por el potencial de deepfakes sexualizados generados por IA.
X declaró que ha "implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora". La medida se produce tras las críticas y el escrutinio regulatorio sobre el posible uso indebido de la herramienta de IA.
El gobierno del Reino Unido respondió al cambio, calificándolo de "vindicación" de su llamamiento a X para que controle a Grok. Ofcom, el regulador de las comunicaciones del Reino Unido, describió el desarrollo como "bienvenido", pero enfatizó que su investigación sobre si X violó las leyes del Reino Unido "sigue en curso". Ofcom declaró: "Estamos trabajando día y noche para avanzar en esto y obtener respuestas sobre lo que salió mal y lo que se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, también reconoció el cambio, pero declaró que "esperaría que los hechos sean establecidos de manera completa y sólida por la investigación en curso de Ofcom".
Grok, lanzado en 2023, es una herramienta de IA integrada en la plataforma X. Sus capacidades incluyen la edición de imágenes, lo que genera preocupación sobre el potencial de uso indebido, particularmente en la creación de deepfakes no consensuados. Las medidas tecnológicas implementadas tienen como objetivo evitar que la IA genere imágenes que muestren a personas reales en contextos sexualmente explícitos o reveladores sin su consentimiento.
Activistas y víctimas han argumentado que el cambio llega con retraso y no deshace el daño ya causado. Jess Davies, periodista y activista, se ha manifestado sobre la necesidad de salvaguardias más sólidas contra el abuso generado por la IA.
Las medidas técnicas específicas implementadas por X para evitar que Grok cree tales imágenes no se detallaron en el anuncio. Sin embargo, tales medidas suelen implicar una combinación de filtrado de contenido, algoritmos de reconocimiento de imágenes y restricciones sobre los tipos de indicaciones que la IA puede procesar. Estos filtros están diseñados para detectar y bloquear solicitudes que podrían conducir a la creación de contenido inapropiado o dañino.
El incidente destaca los crecientes desafíos y consideraciones éticas que rodean a las herramientas impulsadas por la IA, particularmente en el ámbito de la manipulación de imágenes y la tecnología deepfake. A medida que avanza la tecnología de IA, los desarrolladores y las plataformas se enfrentan a una presión cada vez mayor para implementar salvaguardias que prevengan el uso indebido y protejan a las personas de daños. La investigación en curso de Ofcom subraya el potencial de intervención regulatoria y la necesidad de que las plataformas cumplan con las leyes y regulaciones locales con respecto al contenido generado por IA.
Discussion
Join the conversation
Be the first to comment