La Chine propose de nouvelles réglementations pour encadrer les produits et services d'intelligence artificielle (IA), en mettant l'accent sur la protection des enfants et la prévention des contenus préjudiciables. L'Administration du cyberespace de Chine (CAC) a publié le projet de règles au cours du week-end, décrivant des mesures visant à garantir que les modèles d'IA ne génèrent pas de contenu faisant la promotion des jeux d'argent, et à se prémunir contre les risques d'automutilation ou de violence.
Les règles proposées abordent la prévalence croissante des chatbots d'IA et leur impact potentiel, en particulier sur les populations vulnérables. Les entreprises d'IA seront tenues de proposer des paramètres personnalisés et des limites de temps d'utilisation pour les enfants. De plus, les développeurs doivent obtenir le consentement des tuteurs avant de fournir des services de compagnie émotionnelle via l'IA.
Une disposition clé exige une intervention humaine dans les conversations des chatbots liées au suicide ou à l'automutilation. Selon la CAC, les opérateurs de chatbots doivent faire en sorte qu'un humain prenne le relais de ces conversations et avertisse immédiatement le tuteur de l'utilisateur ou un contact d'urgence.
Ces réglementations marquent une étape importante vers la régulation du paysage de l'IA en Chine, qui évolue rapidement. Cette initiative reflète les préoccupations mondiales croissantes concernant la sécurité et les implications éthiques de la technologie de l'IA. Cette année a été marquée par un examen intense de la sécurité de l'IA, incitant les gouvernements et les organisations du monde entier à envisager des cadres réglementaires.
Les exigences spécifiques en matière de paramètres personnalisés, de limites de temps et de consentement des tuteurs soulignent l'importance accordée à la protection de l'enfance dans l'approche réglementaire chinoise. La règle exigeant une intervention humaine dans les conversations sensibles souligne les limites de la technologie actuelle de l'IA dans la gestion des situations émotionnelles complexes.
Les réglementations, une fois finalisées, s'appliqueront à tous les produits et services d'IA opérant en Chine. L'annonce de la CAC fait suite à une forte augmentation du développement et du déploiement de chatbots d'IA, tant en Chine qu'à l'étranger. Les nouvelles règles visent à traiter les risques potentiels associés à cette prolifération d'interactions basées sur l'IA.
Le projet de règles est actuellement en cours d'examen, et la CAC n'a pas encore annoncé de calendrier pour sa finalisation et sa mise en œuvre. Cette évolution est suivie de près par les développeurs d'IA, les entreprises technologiques et les décideurs politiques du monde entier, car elle pourrait créer un précédent en matière de réglementation de l'IA dans d'autres pays.
Discussion
Join the conversation
Be the first to comment