La herramienta de IA Grok de Elon Musk ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales, según un anuncio en X, la plataforma de redes sociales propiedad de Musk. La decisión se produce tras la preocupación generalizada sobre el potencial de deepfakes sexualizados generados por la herramienta.
X declaró que ha implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora. La medida se produce tras las críticas y el escrutinio sobre el posible uso indebido de la tecnología de IA para crear imágenes íntimas no consentidas.
El gobierno del Reino Unido respondió al anuncio, calificándolo de "vindicación" de su llamamiento a X para que controle a Grok. Ofcom, el regulador de comunicaciones del Reino Unido, describió el cambio como un "desarrollo bienvenido", pero señaló que su investigación sobre si la plataforma violó las leyes del Reino Unido "sigue en curso". Ofcom declaró que están "trabajando día y noche para avanzar en esto y obtener respuestas sobre lo que salió mal y lo que se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, acogió con satisfacción la medida, pero enfatizó la importancia de la investigación en curso de Ofcom para establecer completamente los hechos.
Activistas y víctimas han expresado que el cambio llega con retraso, argumentando que no deshace el daño ya infligido. La periodista y activista Jess Davies, que no fue citada directamente en el material fuente proporcionado, probablemente ha sido una defensora vocal de regulaciones más estrictas sobre el contenido generado por IA.
Grok, lanzado en X en 2023, es un modelo de IA diseñado para generar texto e imágenes. Las medidas tecnológicas específicas implementadas para evitar la creación de deepfakes no se detallaron en el anuncio. Sin embargo, tales medidas suelen involucrar algoritmos diseñados para detectar y bloquear solicitudes que intentan alterar imágenes de manera sexualmente explícita. Estos algoritmos pueden analizar el contenido de la imagen y las indicaciones del usuario para identificar solicitudes potencialmente dañinas.
El incidente destaca las crecientes preocupaciones en torno a las implicaciones éticas de la tecnología de IA, particularmente su potencial de uso indebido en la creación de deepfakes y la difusión de desinformación. La industria está lidiando con el desafío de equilibrar la innovación con la necesidad de proteger a las personas de daños. El desarrollo también subraya la creciente presión regulatoria sobre las plataformas de redes sociales para monitorear y controlar el contenido generado por herramientas de IA.
El estado actual es que las medidas tecnológicas están en vigor, pero la investigación de Ofcom continúa. Los próximos acontecimientos probablemente involucrarán los hallazgos de la investigación de Ofcom y posibles acciones regulatorias adicionales.
Discussion
Join the conversation
Be the first to comment