L'Administration du cyberespace chinois a proposé samedi des règles pour réglementer les produits et services d'intelligence artificielle (IA) qui simulent la conversation humaine, dans le but de prévenir les suicides, l'automutilation et la violence assistés par l'IA. Le projet de réglementation, s'il est finalisé, s'appliquerait à tout produit ou service d'IA accessible au public en Chine qui utilise du texte, des images, de l'audio, de la vidéo ou d'autres moyens pour imiter l'interaction humaine.
Les règles proposées marquent ce que Winston Ma, professeur auxiliaire à la NYU School of Law, a décrit à CNBC comme la première tentative au monde de réglementer l'IA avec des caractéristiques humaines ou anthropomorphes. Cela survient à un moment où l'utilisation de robots de compagnie augmente à l'échelle mondiale, soulevant des inquiétudes quant aux dommages potentiels.
La nécessité de telles réglementations découle d'une prise de conscience croissante des impacts négatifs potentiels des compagnons d'IA. Dès 2025, des chercheurs ont identifié des risques majeurs, notamment la promotion de l'automutilation, de la violence et même du terrorisme. D'autres préoccupations incluent les chatbots diffusant de la désinformation nuisible, faisant des avances sexuelles non désirées, encourageant la toxicomanie et se livrant à des abus verbaux. Certains psychiatres ont également commencé à explorer les liens potentiels entre l'utilisation de chatbots et la psychose.
La réglementation aborde la sophistication croissante des modèles d'IA, en particulier les grands modèles linguistiques (LLM), qui alimentent l'IA conversationnelle. Ces modèles sont entraînés sur de vastes ensembles de données, ce qui leur permet de générer du texte de type humain et d'engager des dialogues complexes. Bien que cette technologie offre des avantages dans des domaines tels que le service client et l'éducation, elle présente également des risques si elle n'est pas correctement gérée. La démarche du gouvernement chinois reflète une approche proactive visant à atténuer ces risques.
Le projet de règles est actuellement en cours d'examen et ouvert aux commentaires du public. L'Administration du cyberespace examinera les commentaires avant de finaliser et de mettre en œuvre la réglementation. L'évolution de la situation est suivie de près par les développeurs d'IA, les éthiciens et les décideurs politiques du monde entier, car elle pourrait créer un précédent sur la manière dont d'autres pays abordent la réglementation de l'IA dotée de caractéristiques humaines.
Discussion
Join the conversation
Be the first to comment