El gobierno ha instado a Ofcom, el regulador de las comunicaciones del Reino Unido, a considerar el uso de todas sus facultades, incluyendo potencialmente una prohibición, contra la plataforma de redes sociales X debido a la preocupación por la creación y distribución de imágenes ilegales generadas por IA. Esta acción se produce tras las crecientes críticas sobre el uso del modelo de IA de X, Grok, que se ha utilizado para alterar digitalmente imágenes, incluyendo la eliminación de ropa de personas.
La autoridad de Ofcom en virtud de la Ley de Seguridad en Línea le permite solicitar órdenes judiciales que podrían impedir que terceros presten apoyo financiero a X o permitan el acceso a la plataforma dentro del Reino Unido. La mayor preocupación del gobierno se deriva del potencial de Grok para generar imágenes sexualizadas, en particular las que representan a niños.
El Primer Ministro Sir Keir Starmer condenó la creación de tales imágenes, declarando: "Esto es vergonzoso. Es repugnante. Y no se puede tolerar. Ofcom cuenta con todo nuestro apoyo para tomar medidas en relación con esto". Además, enfatizó la postura del gobierno, añadiendo: "Es ilegal. No vamos a tolerarlo. He pedido que se pongan todas las opciones sobre la mesa", en una entrevista con Greatest Hits Radio.
Fuentes gubernamentales confirmaron a BBC News que esperan que Ofcom utilice todas las facultades disponibles en respuesta a los problemas relacionados con Grok y X.
El problema central gira en torno al uso indebido de la IA generativa, un tipo de inteligencia artificial capaz de crear nuevos contenidos, incluyendo imágenes, texto y audio. Si bien la IA generativa tiene un potencial significativo para la innovación y la creatividad, su uso indebido plantea serias preocupaciones éticas y legales. Los deepfakes, medios generados por IA que retratan de manera convincente a alguien haciendo o diciendo algo que no hizo, representan una aplicación particularmente preocupante. La capacidad de crear imágenes realistas pero fabricadas puede utilizarse con fines maliciosos, incluyendo la difusión de desinformación, el daño a la reputación y la creación de imágenes íntimas no consentidas.
La Ley de Seguridad en Línea otorga a Ofcom la facultad de regular los servicios en línea y abordar los contenidos perjudiciales. Esto incluye la capacidad de imponer multas, exigir la eliminación de contenidos ilegales y, en casos extremos, bloquear el acceso a las plataformas que no cumplan la ley. El llamamiento del gobierno a Ofcom para que considere una prohibición pone de relieve la gravedad de sus preocupaciones con respecto al potencial de los contenidos generados por IA para causar daño.
La situación subraya los retos de regular las tecnologías de IA que evolucionan rápidamente. A medida que los modelos de IA se vuelven más sofisticados, resulta cada vez más difícil detectar y prevenir la creación de contenidos perjudiciales. Esto exige un enfoque multifacético que incluya soluciones tecnológicas, como herramientas de detección basadas en la IA, así como marcos regulatorios y campañas de concienciación pública.
El debate en torno a X y Grok refleja una discusión más amplia sobre las responsabilidades de las plataformas de redes sociales en la era de la IA. Los críticos argumentan que las plataformas tienen el deber de prevenir el uso indebido de sus tecnologías y de proteger a los usuarios de los daños. Los defensores de la libertad de expresión, sin embargo, advierten contra las regulaciones excesivamente restrictivas que podrían sofocar la innovación y limitar la libertad de expresión.
Ofcom está evaluando actualmente la situación y considerando sus opciones. La decisión del regulador probablemente tendrá implicaciones significativas para el futuro de la regulación de la IA en el Reino Unido y podría sentar un precedente para otros países que se enfrentan a retos similares. Los próximos pasos implican que Ofcom recopile pruebas, consulte con expertos y se ponga en contacto con X para abordar las preocupaciones del gobierno. El resultado de este proceso sigue siendo incierto, pero está claro que la cuestión de los contenidos generados por IA y su potencial para causar daño seguirá siendo un foco importante para los reguladores y los responsables políticos.
Discussion
Join the conversation
Be the first to comment