La medida se produce tras importantes reacciones negativas y un escrutinio sobre el posible uso indebido de la tecnología de IA. Grok, lanzado en 2023, está diseñado para generar varios tipos de contenido, incluida la manipulación de imágenes. Surgieron preocupaciones cuando los usuarios descubrieron que se podía solicitar a la IA que creara deepfakes de personas reales en situaciones comprometedoras.
El gobierno del Reino Unido respondió al anuncio, calificándolo de "justificación" por sus llamamientos a X para que controle a Grok. El regulador Ofcom se hizo eco de este sentimiento, describiendo el cambio como un "avance bienvenido", pero enfatizó que su investigación sobre si la plataforma violó las leyes del Reino Unido "sigue en curso". Ofcom declaró: "Estamos trabajando día y noche para avanzar en esto y obtener respuestas sobre qué salió mal y qué se está haciendo para solucionarlo".
La Secretaria de Tecnología, Liz Kendall, también acogió con satisfacción el cambio, pero añadió que "esperaría que los hechos fueran establecidos de manera completa y sólida por la investigación en curso de Ofcom".
Las medidas tecnológicas específicas implementadas por X para evitar el uso indebido de Grok no se detallaron en el anuncio. Sin embargo, la compañía indicó que las restricciones se aplicarían en las jurisdicciones donde la creación y distribución de tales deepfakes son ilegales. Esto sugiere un enfoque de geo-localización, donde las capacidades de la IA se limitan según la ubicación del usuario.
Activistas y víctimas han expresado que el cambio llega con retraso, argumentando que el daño causado por la tecnología ya está hecho. La periodista y activista Jess Davies, que se vio afectada por la tecnología, se ha manifestado sobre la necesidad de regulaciones más estrictas y medidas preventivas.
El incidente destaca los desafíos continuos de regular las tecnologías de IA y prevenir su uso indebido. Si bien la decisión de X de restringir las capacidades de Grok es un paso en la dirección correcta, también plantea preguntas sobre la supervisión inicial de la plataforma y la posibilidad de que surjan problemas similares con otras herramientas de IA. El impacto de esta decisión en la industria podría conducir a un mayor escrutinio de las plataformas impulsadas por IA y a un mayor énfasis en el desarrollo y la implementación responsables de la IA.
Discussion
Join the conversation
Be the first to comment