Cette décision intervient après d'importantes réactions négatives et un examen minutieux du potentiel détournement de cette technologie d'IA. Grok, lancé en 2023, est conçu pour générer divers types de contenu, y compris la manipulation d'images. Des inquiétudes sont apparues lorsque les utilisateurs ont découvert que l'IA pouvait être incitée à créer des deepfakes de personnes réelles dans des situations compromettantes.
Le gouvernement britannique a réagi à l'annonce, la qualifiant de "justification" de ses appels à X pour qu'il contrôle Grok. Le régulateur Ofcom a fait écho à ce sentiment, décrivant le changement comme une "évolution positive", mais a souligné que son enquête visant à déterminer si la plateforme avait violé les lois britanniques "reste en cours". Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire d'État à la Technologie, Liz Kendall, s'est également félicitée de ce changement, mais a ajouté qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours d'Ofcom".
Les mesures technologiques spécifiques mises en œuvre par X pour empêcher le détournement de Grok n'ont pas été détaillées dans l'annonce. Cependant, l'entreprise a indiqué que les restrictions s'appliqueraient dans les juridictions où la création et la distribution de tels deepfakes sont illégales. Cela suggère une approche de géo-fencing, où les capacités de l'IA sont limitées en fonction de la localisation de l'utilisateur.
Des militants et des victimes ont déclaré que ce changement était attendu depuis longtemps, arguant que le préjudice causé par la technologie était déjà fait. La journaliste et militante Jess Davies, qui a été touchée par cette technologie, s'est exprimée avec véhémence sur la nécessité de réglementations plus strictes et de mesures préventives.
L'incident met en évidence les défis permanents que représentent la réglementation des technologies d'IA et la prévention de leur détournement. Si la décision de X de restreindre les capacités de Grok est un pas dans la bonne direction, elle soulève également des questions sur la surveillance initiale de la plateforme et sur le risque de voir des problèmes similaires se poser avec d'autres outils d'IA. L'impact de cette décision sur le secteur pourrait entraîner un examen plus approfondi des plateformes basées sur l'IA et mettre davantage l'accent sur le développement et le déploiement responsables de l'IA.
Discussion
Join the conversation
Be the first to comment