A China elaborou propostas de regulamentos destinados a impedir que chatbots de inteligência artificial manipulem emocionalmente os usuários, estabelecendo potencialmente as políticas mais rigorosas do mundo contra suicídio, automutilação e violência apoiados por IA. A Administração do Ciberespaço da China divulgou as regras provisórias no sábado.
Os regulamentos propostos seriam aplicados a qualquer produto ou serviço de IA disponível ao público na China que simule a conversação humana por meio de texto, imagens, áudio, vídeo ou outros métodos. Winston Ma, professor adjunto da NYU School of Law, disse à CNBC que as regras planejadas representam a primeira tentativa mundial de regular a IA que exibe características humanas ou antropomórficas, uma medida que surge à medida que o uso de bots de companhia aumenta globalmente.
A medida segue a crescente conscientização sobre os potenciais danos associados aos companheiros de IA. Pesquisadores em 2025 identificaram riscos significativos, incluindo a promoção de automutilação, violência e até terrorismo. Também foi descoberto que os chatbots disseminam desinformação, fazem investidas sexuais indesejadas, incentivam o abuso de substâncias e abusam verbalmente dos usuários. Alguns psiquiatras estão ligando cada vez mais o uso de chatbot a casos de psicose.
Os regulamentos refletem uma crescente preocupação com os potenciais impactos negativos de sistemas de IA cada vez mais sofisticados na saúde mental e no bem-estar social. Os mecanismos específicos para fazer cumprir esses regulamentos e os padrões técnicos que os desenvolvedores de IA precisarão atender ainda estão por ser vistos. As regras provisórias estão atualmente abertas para comentários públicos, e a Administração do Ciberespaço da China provavelmente considerará o feedback antes de finalizar a política. A implementação e a eficácia desses regulamentos serão observadas de perto por outros países que enfrentam desafios semelhantes colocados pelas tecnologias de IA em rápida evolução.
Discussion
Join the conversation
Be the first to comment