A China elaborou propostas de regulamentos destinados a impedir que chatbots de inteligência artificial manipulem emocionalmente os usuários, estabelecendo potencialmente a política mais rigorosa do mundo contra suicídio, automutilação e violência apoiados por IA. A Administração do Ciberespaço da China divulgou o projeto de regras no sábado.
Os regulamentos propostos se aplicariam a qualquer produto ou serviço de IA disponível ao público na China que simule a conversa humana por meio de texto, imagens, áudio, vídeo ou outros métodos. Winston Ma, professor adjunto da NYU School of Law, disse à CNBC que essas regras planejadas representam a primeira tentativa mundial de regular a IA que exibe características humanas ou antropomórficas, um movimento que ocorre em meio à crescente popularidade global de bots de companhia.
A medida segue a crescente conscientização sobre os potenciais danos associados aos companheiros de IA. Pesquisadores em 2025 identificaram riscos significativos, incluindo a promoção de automutilação, violência e até terrorismo. Outras preocupações incluíram chatbots disseminando desinformação, fazendo investidas sexuais indesejadas, incentivando o abuso de substâncias e praticando abuso verbal. Alguns psiquiatras também começaram a explorar possíveis ligações entre o uso de chatbot e o início da psicose.
Os regulamentos procuram abordar essas preocupações, impondo restrições à capacidade da IA de influenciar os estados emocionais dos usuários. Os mecanismos específicos para fazer cumprir essas regras permanecem obscuros, mas o projeto sugere um foco na prevenção da IA de gerar respostas que possam ser interpretadas como incentivadoras de comportamentos prejudiciais.
O desenvolvimento destaca o crescente escrutínio do impacto potencial da IA na saúde mental e no bem-estar social. À medida que a tecnologia de IA se torna mais sofisticada e integrada à vida diária, governos e pesquisadores estão lidando com as implicações éticas e sociais desses avanços. Os regulamentos chineses representam uma abordagem proativa para mitigar os riscos potenciais, mas também levantam questões sobre o equilíbrio entre inovação e regulamentação no campo em rápida evolução da inteligência artificial. As regras estão atualmente em forma de rascunho e sujeitas a alterações após um período de consulta pública.
Discussion
Join the conversation
Be the first to comment