Les autorités indonésiennes ont annoncé samedi qu'elles bloquaient temporairement l'accès au chatbot de xAI, Grok, en réponse à la prolifération de deepfakes sexualisés non consentis générés par l'IA. Cette décision représente l'une des mesures gouvernementales les plus strictes prises à ce jour concernant les images générées par l'IA représentant de vraies femmes et des mineurs, incluant parfois des représentations d'agressions et d'abus, qui ont été produites par Grok sur la base de requêtes d'utilisateurs sur le réseau social X.
Meutya Hafid, ministre indonésienne de la communication et du numérique, a déclaré que "Le gouvernement considère la pratique des deepfakes sexuels non consentis comme une violation grave des droits de l'homme, de la dignité et de la sécurité des citoyens dans l'espace numérique", selon une déclaration partagée avec le Guardian et d'autres publications. Le ministère aurait également convoqué des responsables de X pour discuter de la question. X et xAI sont sous la même propriété.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre à l'aide de l'intelligence artificielle. La technologie repose sur des algorithmes sophistiqués, impliquant souvent des réseaux neuronaux, pour analyser et reproduire les expressions faciales, les schémas de parole et les mouvements corporels, ce qui rend de plus en plus difficile la distinction entre les deepfakes et le contenu authentique.
La mesure prise par le gouvernement indonésien fait suite à des préoccupations similaires soulevées par d'autres organismes internationaux. Le ministère indien de l'informatique a ordonné à xAI de mettre en œuvre des mesures empêchant Grok de générer du contenu obscène. Simultanément, la Commission européenne a ordonné à l'entreprise de conserver tous les documents relatifs à Grok, ce qui pourrait signaler le prélude à une enquête formelle. Au Royaume-Uni, Ofcom, l'autorité de régulation des communications, s'est également penchée sur la question.
Grok, développé par xAI, est un grand modèle linguistique (LLM) conçu pour générer du texte de type humain. Les LLM sont entraînés sur de vastes ensembles de données de texte et de code, ce qui leur permet d'effectuer diverses tâches, notamment répondre à des questions, rédiger différents types de contenu créatif et traduire des langues. Cependant, la capacité de la technologie à générer un contenu réaliste et personnalisé soulève également des inquiétudes quant à son potentiel de mauvaise utilisation, en particulier dans la création de contenu trompeur ou nuisible.
L'impact de ces mesures réglementaires sur l'industrie est important, ce qui pourrait entraîner des directives et une surveillance plus strictes pour les développeurs d'IA. Les entreprises créant des LLM pourraient être confrontées à une pression accrue pour mettre en œuvre des mesures de protection empêchant la génération de contenu nuisible, y compris les deepfakes sexualisés. Cela pourrait impliquer le développement de filtres de contenu plus sophistiqués, l'amélioration des processus de vérification des utilisateurs et la mise en œuvre de conditions d'utilisation plus strictes.
La situation actuelle implique le blocage temporaire de Grok en Indonésie en attendant de nouvelles discussions entre les autorités indonésiennes et les représentants de X. L'issue de ces discussions et les mesures prises par xAI en réponse aux préoccupations internationales détermineront probablement la future disponibilité de Grok en Indonésie et pourraient influencer le paysage réglementaire des chatbots basés sur l'IA à l'échelle mondiale.
Discussion
Join the conversation
Be the first to comment