Ofcom, el regulador de las comunicaciones del Reino Unido, ha iniciado una investigación sobre la plataforma de redes sociales X de Elon Musk, antes conocida como Twitter, tras la preocupación por la posible creación y difusión de deepfakes sexuales generados por Grok, el chatbot de inteligencia artificial de X. La investigación, anunciada el miércoles, se centra en si X cuenta con las salvaguardias adecuadas para evitar que la herramienta de IA se utilice para producir y distribuir contenido ilícito, concretamente imágenes íntimas no consentidas.
La investigación examinará el cumplimiento por parte de X de la Ley de Seguridad en Línea (Online Safety Act), que impone a las plataformas un deber legal de diligencia para proteger a los usuarios de contenido y actividades ilegales. Ofcom tiene la facultad de multar a las empresas con hasta el 10% de su facturación global por incumplimientos de la Ley. "Proteger a los usuarios del contenido ilegal en línea es nuestra máxima prioridad", declaró un portavoz de Ofcom. "Estamos investigando a X para evaluar si han tomado medidas suficientes para evitar que Grok AI se utilice para crear y compartir deepfakes ilegales".
Los deepfakes, un acrónimo de "deep learning" (aprendizaje profundo) y "fake" (falso), son medios sintéticos en los que se sustituye a una persona en una imagen o vídeo existente por la imagen de otra persona. Esta tecnología, impulsada por sofisticados algoritmos de IA, ha suscitado importantes preocupaciones sobre la desinformación, las violaciones de la privacidad y el potencial de uso malicioso, incluida la creación de pornografía no consentida. Grok, el chatbot de IA de X, es un modelo de lenguaje grande (LLM) entrenado con un conjunto de datos masivo de texto y código, lo que le permite generar texto similar al humano, traducir idiomas y responder preguntas. La preocupación es que los usuarios puedan incitar a Grok a crear imágenes sexualmente explícitas de personas sin su consentimiento.
La investigación pone de relieve los crecientes retos de la regulación de los contenidos generados por la IA y las responsabilidades de las plataformas que despliegan estas tecnologías. Los expertos sostienen que, si bien la IA ofrece numerosas ventajas, también presenta nuevas vías para el abuso. "El rápido avance de las tecnologías de IA como Grok exige medidas proactivas para mitigar los posibles daños", afirmó la Dra. Anya Sharma, profesora de ética de la IA en la Universidad de Cambridge. "Las plataformas deben implementar salvaguardias sólidas para evitar la creación y difusión de deepfakes, en particular los que son sexualmente explícitos y no consentidos".
X aún no ha emitido una declaración formal sobre la investigación de Ofcom. Sin embargo, Musk ha declarado anteriormente su compromiso de combatir el uso indebido de la IA en la plataforma. El resultado de la investigación podría tener importantes implicaciones para X y otras empresas de redes sociales que están integrando la IA en sus servicios. Es probable que las conclusiones de Ofcom influyan en el desarrollo de marcos reguladores para los contenidos generados por la IA tanto en el Reino Unido como a nivel internacional. La investigación está en curso y se espera que Ofcom proporcione actualizaciones a medida que avance.
Discussion
Join the conversation
Be the first to comment