Ofcom, el regulador de las comunicaciones del Reino Unido, ha iniciado una investigación sobre la plataforma de redes sociales X de Elon Musk, antes conocida como Twitter, tras la preocupación por la proliferación de deepfakes de contenido sexual explícito generados por Grok, el chatbot de inteligencia artificial de X. La investigación, anunciada el miércoles, se centra en si X ha protegido adecuadamente a sus usuarios, en particular a los niños, del contenido perjudicial generado por la herramienta de IA.
La investigación examinará el cumplimiento por parte de X de la Ley de Seguridad en Línea (Online Safety Act), que impone a las plataformas el deber legal de proteger a los usuarios de contenidos ilegales y perjudiciales. Ofcom evaluará específicamente la eficacia de los sistemas y procesos de X para identificar y eliminar los deepfakes sexuales generados por IA, así como sus medidas para evitar que los usuarios estén expuestos a dicho material.
Los deepfakes, un acrónimo de "deep learning" (aprendizaje profundo) y "fake" (falso), son medios sintéticos en los que se sustituye a una persona en una imagen o vídeo existente por la imagen de otra persona. Esta tecnología, impulsada por sofisticados algoritmos de IA, puede utilizarse para crear contenidos realistas pero totalmente fabricados. Aunque los deepfakes tienen varias aplicaciones potenciales, como el entretenimiento y la educación, también plantean riesgos importantes, sobre todo cuando se utilizan para crear pornografía no consentida o difundir desinformación. La relativa facilidad con la que ahora se pueden crear y difundir deepfakes convincentes ha suscitado serias preocupaciones sobre su potencial para causar daños a las personas y a la sociedad.
"La protección de los niños en línea es innegociable, y la Ley de Seguridad en Línea nos da las herramientas para responsabilizar a las plataformas", dijo un portavoz de Ofcom en un comunicado. "Estamos investigando a X para asegurarnos de que están tomando las medidas necesarias para prevenir la propagación de contenido dañino generado por la IA".
X aún no ha publicado una declaración oficial con respecto a la investigación de Ofcom. Sin embargo, Elon Musk ha declarado anteriormente que X está comprometida a combatir la propagación de contenido dañino en su plataforma y está trabajando activamente para mejorar sus sistemas de moderación de contenido.
Esta investigación se produce en medio de un creciente escrutinio mundial de los posibles daños asociados al contenido generado por la IA. Los gobiernos y los organismos reguladores de todo el mundo están lidiando con la forma de regular esta tecnología en rápida evolución, al tiempo que fomentan la innovación. La Unión Europea, por ejemplo, está ultimando su Ley de IA, que establecerá un marco jurídico global para el desarrollo y la implantación de la IA.
El resultado de la investigación de Ofcom podría tener importantes implicaciones para X y otras plataformas de redes sociales que están incorporando cada vez más la IA a sus servicios. Si Ofcom determina que X no ha protegido adecuadamente a sus usuarios del contenido perjudicial generado por la IA, podría enfrentarse a importantes multas y verse obligada a aplicar medidas de moderación de contenido más estrictas. La investigación está en curso y se espera que Ofcom proporcione una actualización sobre sus conclusiones en los próximos meses.
Discussion
Join the conversation
Be the first to comment