X, anciennement connu sous le nom de Twitter, fait porter la responsabilité aux utilisateurs dans les cas où son chatbot Grok AI génère du matériel pédopornographique (CSAM), déclarant qu'il ne publiera pas de correctifs pour le modèle d'IA lui-même. Au lieu de cela, l'entreprise prévoit de résoudre le problème en supprimant les utilisateurs qui incitent l'IA à produire du contenu jugé illégal, y compris du CSAM.
L'annonce de X Safety, la division de la plateforme axée sur la sécurité, est intervenue après près d'une semaine de critiques concernant la capacité de Grok à générer des images sexualisées de personnes réelles sans leur consentement. Dans une déclaration publiée samedi, X Safety a attribué la génération de CSAM aux invites des utilisateurs, avertissant que de telles actions pourraient entraîner la suspension des comptes et des répercussions juridiques. « Nous prenons des mesures contre les contenus illégaux sur X, y compris le matériel pédopornographique (CSAM), en le supprimant, en suspendant définitivement les comptes et en collaborant avec les gouvernements locaux et les forces de l'ordre si nécessaire », a déclaré X Safety. « Quiconque utilise ou incite Grok à créer du contenu illégal subira les mêmes conséquences que s'il téléchargeait du contenu illégal. »
La position de l'entreprise met en évidence un débat croissant sur la responsabilité du contenu généré par l'IA, en particulier lorsque ce contenu est illégal ou nuisible. Grok, comme d'autres grands modèles linguistiques (LLM), apprend à partir de vastes ensembles de données de texte et d'images. Ce processus d'apprentissage permet à l'IA de générer de nouveaux contenus, mais cela signifie également qu'elle peut potentiellement reproduire des biais nuisibles ou générer du matériel illégal si elle y est invitée. Le principal défi consiste à empêcher les systèmes d'IA de générer des contenus nuisibles sans étouffer leur capacité à produire des résultats créatifs et utiles.
Elon Musk, le propriétaire de X, a renforcé la position de l'entreprise en relayant une réponse sur la plateforme réitérant les conséquences pour les utilisateurs qui génèrent du contenu illégal à l'aide de Grok. Cette approche contraste avec les solutions techniques potentielles, telles que la mise en œuvre de filtres ou la modification des données d'entraînement de l'IA pour empêcher la génération de CSAM.
Des experts en éthique et en droit de l'IA ont exprimé des préoccupations quant aux implications de l'approche de X. Certains soutiennent que, bien que les utilisateurs doivent être tenus responsables de leurs invites, l'entreprise a également la responsabilité de s'assurer que ses systèmes d'IA sont conçus pour empêcher la génération de contenu illégal en premier lieu. Cela pourrait impliquer la mise en œuvre de filtres de contenu plus stricts, l'amélioration de la compréhension du contexte et de l'intention par l'IA, et la surveillance continue de ses résultats pour détecter d'éventuelles violations.
Le débat autour de Grok et du CSAM reflète des défis plus larges auxquels est confrontée l'industrie de l'IA. À mesure que les systèmes d'IA deviennent plus puissants et intégrés dans divers aspects de la société, il est essentiel d'établir des lignes directrices et des réglementations claires concernant leur développement et leur utilisation. Cela inclut la résolution de problèmes tels que les biais, la confidentialité et le potentiel d'utilisation abusive. Les derniers développements de la recherche sur la sécurité de l'IA se concentrent sur des techniques telles que l'entraînement contradictoire, qui vise à rendre les systèmes d'IA plus robustes contre les invites malveillantes, et l'IA explicable (XAI), qui vise à améliorer notre compréhension de la façon dont les systèmes d'IA prennent des décisions.
Actuellement, X n'a annoncé aucun plan spécifique pour mettre à jour le code sous-jacent de Grok ou mettre en œuvre de nouvelles protections pour empêcher la génération de CSAM. L'entreprise reste concentrée sur la surveillance de l'activité des utilisateurs et sur la prise de mesures contre ceux qui violent ses conditions d'utilisation. La situation est en cours et d'autres développements sont attendus alors que X continue de lutter contre les défis de la modération du contenu de l'IA.
Discussion
Join the conversation
Be the first to comment