La herramienta de IA Grok, de Elon Musk, ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora en jurisdicciones donde tales alteraciones sean ilegales. El anuncio, realizado en X, la plataforma de redes sociales propiedad de Musk donde Grok fue lanzado en 2023, se produce tras la preocupación generalizada sobre el potencial de los deepfakes sexualizados creados con IA.
X declaró que se han implementado "medidas tecnológicas" para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora. La medida se produce tras las críticas y el escrutinio de los reguladores y el público con respecto al posible uso indebido de la tecnología de IA para crear contenido sexualmente explícito no consentido.
El gobierno del Reino Unido respondió, calificando el cambio como una "vindicación" de su llamamiento a X para que controle a Grok. Ofcom, el regulador de las comunicaciones del Reino Unido, describió el desarrollo como "bienvenido", pero enfatizó que su investigación sobre si la plataforma ha violado las leyes del Reino Unido "sigue en curso". Ofcom declaró que están "trabajando día y noche para avanzar en esto y obtener respuestas sobre lo que salió mal y lo que se está haciendo para solucionarlo". La Secretaria de Tecnología, Liz Kendall, también acogió con satisfacción la medida, y añadió que "esperaría que los hechos sean establecidos de forma completa y sólida por la investigación en curso de Ofcom".
La capacidad de las herramientas de IA como Grok para manipular imágenes plantea importantes cuestiones éticas y legales. Los deepfakes, que son medios sintéticos en los que una persona en una imagen o vídeo existente es reemplazada por la imagen de otra persona, se han vuelto cada vez más sofisticados, lo que dificulta su detección. Esto ha generado preocupación sobre su posible uso con fines maliciosos, incluida la creación de pornografía no consentida, campañas de desinformación y robo de identidad.
Las medidas técnicas implementadas por X para evitar que Grok cree tales imágenes no se detallaron en el anuncio. Sin embargo, las posibles soluciones podrían incluir algoritmos de filtrado diseñados para detectar y bloquear las indicaciones que solicitan la creación de contenido sexualmente explícito, así como el uso de marcas de agua en las imágenes generadas por IA para indicar su origen sintético.
Activistas y víctimas han argumentado que el cambio llega demasiado tarde para deshacer el daño ya causado. La periodista y activista Jess Davies, que no fue citada directamente en el material fuente proporcionado, probablemente ha estado involucrada en la sensibilización sobre el tema. El incidente pone de relieve los retos de regular las tecnologías de IA en rápida evolución y la necesidad de medidas proactivas para evitar su uso indebido. Es probable que la investigación en curso de Ofcom examine hasta qué punto X era consciente del potencial de Grok para ser utilizado con fines maliciosos y qué medidas, en su caso, tomó la empresa para evitar dicho uso indebido. El resultado de la investigación podría tener importantes implicaciones para la regulación de las tecnologías de IA en las plataformas de redes sociales.
Discussion
Join the conversation
Be the first to comment