Cette décision fait suite à d'importantes réactions négatives et à un examen minutieux de la part des autorités de régulation et du public. Le gouvernement britannique a qualifié cette décision de "justification" de son appel à X pour qu'il contrôle les capacités de Grok. L'Ofcom, l'autorité de régulation des communications du Royaume-Uni, a décrit ce changement comme une "évolution positive", mais a souligné que son enquête visant à déterminer si la plateforme a enfreint les lois britanniques "se poursuit". L'Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire d'État à la Technologie, Liz Kendall, s'est également félicitée de ce changement, mais a indiqué qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours de l'Ofcom".
Les mesures technologiques spécifiques mises en œuvre par X pour empêcher Grok de créer ces types d'images n'ont pas été détaillées dans l'annonce. Toutefois, ces mesures impliquent généralement une combinaison de techniques, notamment des algorithmes de reconnaissance d'images conçus pour identifier des personnes réelles sur des photographies, et des filtres qui empêchent l'IA de générer des contenus sexuellement explicites ou révélateurs. Ces filtres reposent souvent sur des modèles d'apprentissage automatique entraînés à détecter et à bloquer les sorties inappropriées.
La controverse entourant les capacités d'édition d'images de Grok met en évidence les préoccupations croissantes concernant le potentiel de l'IA à être utilisée pour créer des deepfakes non consensuels, en particulier ceux de nature sexuelle. Les militants et les victimes ont fait valoir que ce changement intervient trop tard pour réparer les dommages déjà causés par la technologie. La journaliste et militante Jess Davies, qui n'a pas été citée directement dans la source fournie, a probablement fait partie de ceux qui ont plaidé pour des contrôles plus stricts.
L'incident souligne les défis auxquels sont confrontées les plateformes de médias sociaux pour réglementer les outils basés sur l'IA et empêcher leur utilisation abusive. À mesure que la technologie de l'IA devient plus sophistiquée et accessible, la nécessité de mettre en place des garanties solides et des directives éthiques devient de plus en plus cruciale. L'impact sur l'industrie est important, ce qui pourrait entraîner des réglementations plus strictes et un examen plus approfondi des applications de l'IA sur les plateformes de médias sociaux. La situation actuelle est que les mesures technologiques sont mises en œuvre et que l'enquête de l'Ofcom est en cours. Les prochaines étapes impliqueront probablement les résultats de l'enquête de l'Ofcom et d'éventuelles autres actions des autorités de régulation et des législateurs pour faire face aux risques associés aux deepfakes générés par l'IA.
Discussion
Join the conversation
Be the first to comment