El número 10 de Downing Street ha reconocido los informes de que X, antes conocido como Twitter, está tomando medidas para abordar el problema de los deepfakes generados con Grok, su modelo de inteligencia artificial. Esta acción se produce en medio de la creciente preocupación por el potencial uso indebido del contenido generado por IA para difundir desinformación e influir en la opinión pública.
Un portavoz de la oficina del Primer Ministro declaró que el gobierno acoge con satisfacción cualquier esfuerzo de las plataformas de redes sociales para mitigar los riesgos asociados con los deepfakes. "Hemos sido claros sobre la necesidad de que las empresas tecnológicas asuman la responsabilidad del contenido alojado en sus plataformas, particularmente cuando se trata de material generado por IA que podría utilizarse para engañar o inducir a error", dijo el portavoz.
Los deepfakes son medios sintéticos en los que se reemplaza a una persona en una imagen o video existente con la apariencia de otra persona. Esto se logra típicamente utilizando técnicas sofisticadas de aprendizaje automático, específicamente algoritmos de aprendizaje profundo, de ahí el nombre. Grok, el modelo de IA de X, es un modelo de lenguaje grande (LLM) similar a la serie GPT de OpenAI o Gemini de Google. Los LLM se entrenan con grandes cantidades de datos de texto, lo que les permite generar texto similar al humano, traducir idiomas y crear varios tipos de contenido creativo, incluido el texto subyacente para aplicaciones de deepfake.
Las medidas específicas que, según se informa, X está implementando para combatir los deepfakes generados por Grok no se han revelado por completo. Sin embargo, los analistas de la industria especulan que podrían incluir algoritmos mejorados de detección de contenido, procesos de verificación de usuarios más estrictos y políticas de etiquetado más claras para el contenido generado por IA. Los algoritmos de detección de contenido analizan los medios en busca de signos reveladores de manipulación, como inconsistencias en la iluminación, movimientos faciales antinaturales o artefactos introducidos durante el proceso de creación del deepfake.
El auge de las herramientas de IA accesibles como Grok ha reducido la barrera de entrada para la creación de deepfakes, lo que facilita que los actores maliciosos produzcan y difundan contenido convincente pero fabricado. Esto plantea un desafío significativo para el ecosistema de la información, lo que podría socavar la confianza en las fuentes de noticias e instituciones legítimas.
El gobierno del Reino Unido ha estado considerando activamente marcos regulatorios para la IA, incluidas medidas para abordar los riesgos asociados con los deepfakes. La Ley de Seguridad en Línea, que entró en vigor recientemente, impone a las plataformas de redes sociales el deber de cuidar a los usuarios y protegerlos del contenido ilegal y dañino, lo que podría interpretarse como que incluye ciertos tipos de deepfakes.
X aún no ha publicado una declaración oficial que detalle sus planes. Se espera que la compañía proporcione más información sobre su enfoque para abordar los deepfakes relacionados con Grok en las próximas semanas. La efectividad de las medidas de X será observada de cerca por los responsables políticos, los reguladores y el público, a medida que continúa el debate sobre el desarrollo y la implementación responsables de la IA.
Discussion
Join the conversation
Be the first to comment