Según un anuncio en X, la herramienta de IA Grok de Elon Musk ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales. La decisión se produce tras la extendida preocupación por el potencial de deepfakes sexualizados generados por la plataforma.
X, la plataforma de redes sociales propiedad de Musk, declaró que ha "implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora". La medida se produce tras las críticas y el escrutinio regulatorio sobre el posible uso indebido de la herramienta de IA.
El gobierno del Reino Unido respondió al cambio, calificándolo de "vindicación" de sus llamamientos a X para que controle a Grok. El regulador Ofcom describió el desarrollo como "bienvenido", pero enfatizó que su investigación sobre si la plataforma violó las leyes del Reino Unido "sigue en curso". Ofcom declaró: "Estamos trabajando día y noche para avanzar en esto y obtener respuestas sobre qué salió mal y qué se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, también acogió con satisfacción el cambio, pero indicó que "esperaría que los hechos fueran establecidos de manera completa y sólida por la investigación en curso de Ofcom".
Grok, lanzado en X en 2023, es una herramienta de IA diseñada para generar varios tipos de contenido, incluida la edición de imágenes. No se revelaron las medidas tecnológicas específicas implementadas por X para evitar la creación de deepfakes que involucren ropa reveladora. Sin embargo, tales medidas a menudo involucran una combinación de algoritmos de reconocimiento de imágenes, filtrado de contenido y mecanismos de denuncia de usuarios. Los algoritmos de reconocimiento de imágenes se pueden entrenar para identificar y marcar imágenes que muestren desnudez o contenido sugerente. Los filtros de contenido se pueden utilizar para bloquear la generación o el intercambio de tales imágenes. Los mecanismos de denuncia de usuarios permiten a los usuarios marcar contenido potencialmente inapropiado para que el equipo de moderación de X lo revise.
El incidente destaca las crecientes preocupaciones sobre el potencial de la IA para ser utilizada en la creación de deepfakes y otras formas de contenido manipulado. Estas preocupaciones han llevado a un mayor escrutinio regulatorio de las plataformas de IA y a llamamientos a una mayor transparencia y rendición de cuentas en el desarrollo y la implementación de las tecnologías de IA.
Activistas y víctimas han expresado su preocupación de que el cambio haya llegado demasiado tarde para deshacer el daño ya causado por la tecnología. La periodista y activista Jess Davies, que no fue citada directamente en el anuncio de X, se ha manifestado sobre el potencial de los deepfakes de IA para ser utilizados para acosar e intimidar a las personas.
Discussion
Join the conversation
Be the first to comment