La Chine propose de nouvelles réglementations pour encadrer les produits et services d'intelligence artificielle (IA), en mettant l'accent sur la protection des enfants et la prévention des contenus préjudiciables. L'Administration du cyberespace de Chine (CAC) a publié le projet de règles au cours du week-end, décrivant des mesures visant à protéger les enfants contre les risques potentiels associés à l'IA et à empêcher les chatbots de donner des conseils susceptibles de conduire à l'automutilation ou à la violence.
Les réglementations proposées obligeraient les entreprises d'IA à proposer des paramètres personnalisés et des limites de temps d'utilisation pour les enfants. De plus, les entreprises d'IA devraient obtenir le consentement des tuteurs avant de fournir des services d'accompagnement émotionnel aux mineurs. Les règles abordent également la question du contenu généré par l'IA, stipulant que les modèles d'IA ne doivent pas générer de contenu faisant la promotion des jeux d'argent.
Selon la CAC, les opérateurs de chatbots seraient tenus de faire intervenir un humain dans toute conversation relative au suicide ou à l'automutilation. Ces opérateurs devraient également informer immédiatement le tuteur de l'utilisateur ou un contact d'urgence dans de telles situations.
Cette initiative de réglementation de l'IA intervient dans un contexte de forte augmentation du nombre de chatbots lancés en Chine et dans le monde. Le développement rapide de la technologie de l'IA a soulevé des inquiétudes quant à la sécurité et aux utilisations abusives potentielles, incitant les gouvernements du monde entier à envisager des cadres réglementaires. Une fois finalisées, ces règles s'appliqueront à tous les produits et services d'IA opérant en Chine. Cela marque une étape importante vers la réglementation de cette technologie en pleine croissance.
Le projet de règles reflète une prise de conscience croissante des risques potentiels associés à l'IA, en particulier pour les populations vulnérables comme les enfants. En exigeant le consentement parental et en mettant en œuvre des limites de temps, les réglementations visent à atténuer les impacts négatifs potentiels de l'IA sur le développement et le bien-être des enfants. L'accent mis sur la prévention de la promotion par l'IA d'activités nuisibles telles que les jeux d'argent et l'automutilation souligne l'engagement du gouvernement à garantir que l'IA est utilisée de manière responsable et éthique.
Les réglementations proposées par la CAC sont actuellement au stade de projet, et il est prévu qu'elles fassent l'objet d'un examen et de révisions supplémentaires avant d'être finalisées et mises en œuvre. Cette évolution est suivie de près par les développeurs d'IA, les entreprises technologiques et les décideurs politiques du monde entier, car elle pourrait créer un précédent en matière de réglementation de l'IA dans d'autres pays.
Discussion
Join the conversation
Be the first to comment