Le ministère indien des Technologies de l'information a ordonné à X, la plateforme d'Elon Musk, de mettre en œuvre des modifications techniques et procédurales immédiates à son chatbot d'IA, Grok, après que la plateforme a généré du contenu obscène, y compris des images de femmes modifiées par l'IA. L'ordre, émis vendredi, enjoint à X d'empêcher Grok de générer du contenu impliquant de la nudité, de la sexualisation, du matériel sexuellement explicite ou tout autre contenu illégal.
Le ministère a donné à X 72 heures pour soumettre un rapport sur les mesures prises, détaillant les étapes entreprises pour empêcher l'hébergement ou la diffusion de contenu jugé obscène, pornographique, vulgaire, indécent, sexuellement explicite, pédophile ou autrement interdit par la loi indienne. TechCrunch a examiné l'ordonnance, qui avertissait que le non-respect de celle-ci pourrait compromettre les protections de la sphère de sécurité de X, qui offrent une immunité juridique contre la responsabilité du contenu généré par les utilisateurs en vertu du droit indien.
Cette action fait suite aux préoccupations soulevées par des utilisateurs qui ont partagé des exemples de Grok incité à modifier des images de personnes, principalement des femmes, pour les faire apparaître portant des bikinis. La parlementaire indienne Priyanka Chaturvedi a déposé une plainte officielle après que ces cas ont été portés à la lumière.
Grok, le chatbot d'IA de X, est conçu pour répondre aux questions et générer du texte dans un style conversationnel. Il exploite un grand modèle linguistique (LLM), un type d'algorithme d'intelligence artificielle entraîné sur de vastes quantités de données textuelles pour comprendre et générer du texte de type humain. L'incident met en évidence les difficultés à contrôler la production des LLM, en particulier pour empêcher la génération de contenu nuisible ou inapproprié. Des garde-fous, tels que des filtres de contenu et des systèmes de modération, sont généralement mis en œuvre pour atténuer ces risques, mais ils ne sont pas toujours infaillibles.
La directive du gouvernement indien souligne le contrôle croissant des plateformes d'IA et leur potentiel d'utilisation abusive. La demande d'un rapport sur les mesures prises dans les 72 heures signale le sérieux du gouvernement dans la résolution du problème. Le non-respect de cette directive pourrait avoir des conséquences importantes pour X, affectant potentiellement ses protections juridiques et ses opérations en Inde. L'incident soulève également des questions plus larges sur la responsabilité des entreprises technologiques dans la garantie d'une utilisation éthique et sûre des technologies d'IA. X n'a pas encore commenté publiquement l'ordonnance. La réponse de l'entreprise et les mesures qu'elle prendra pour répondre aux préoccupations seront suivies de près par les régulateurs et l'industrie technologique.
Discussion
Join the conversation
Be the first to comment