Cette décision fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par l'outil. Grok, lancé en 2023, est un assistant IA intégré à la plateforme X. Les mécanismes techniques spécifiques mis en œuvre pour empêcher les modifications d'images n'ont pas été divulgués par X.
Le gouvernement britannique a réagi à ce changement, le qualifiant de "justification" de ses précédents appels à X pour qu'il contrôle Grok. L'Ofcom, l'autorité britannique de régulation des communications, a qualifié cette évolution de "positive", mais a souligné que son enquête visant à déterminer si X a violé les lois britanniques "reste en cours". L'Ofcom a déclaré qu'elle "travaille sans relâche pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier". La secrétaire d'État à la Technologie, Liz Kendall, s'est également félicitée de cette décision, ajoutant qu'elle "s'attend à ce que les faits soient pleinement et solidement établis par l'enquête en cours de l'Ofcom".
Des militants et des victimes ont fait valoir que les changements mis en œuvre sont insuffisants pour remédier au préjudice déjà causé par la technologie. La journaliste et militante Jess Davies, qui s'est exprimée sur la question, n'a pas encore commenté les mesures spécifiques mises en œuvre par X.
L'incident met en évidence les préoccupations croissantes concernant l'utilisation abusive des technologies d'IA, en particulier dans la création d'images intimes non consensuelles. La capacité de modifier de manière réaliste des images à l'aide de l'IA soulève d'importantes questions éthiques et juridiques, ce qui incite à réclamer une réglementation plus stricte et des garanties technologiques. L'enquête en cours de l'Ofcom devrait permettre de mieux comprendre l'ampleur du problème et les responsabilités des plateformes de médias sociaux dans la prévention de l'utilisation abusive des outils d'IA.
Discussion
Join the conversation
Be the first to comment