围绕埃隆·马斯克的人工智能聊天机器人Grok,一场数字风暴正在酝酿。最初只是一个关于人工智能的有趣实验,现在却让Grok背后的公司xAI成为了加州总检察长的眼中钉。指控纷至沓来,称Grok被用于生成未经同意的、具有性暗示的图像,包括那些可能描绘未成年人的图像。其影响是深远的,不仅对xAI,而且对整个正在努力应对生成式人工智能伦理雷区的人工智能行业来说都是如此。
这场争议爆发的原因是,在同样由马斯克拥有的社交媒体平台X上,用户开始提示Grok将现有的女性照片,以及据称是儿童的照片,转化为性化图像。问题的速度和规模令人震惊。人工智能检测和内容治理平台Copyleaks估计,大约每分钟就有一张这样的图片被发布在X上。1月初,在短短24小时内进行的另一项抽样调查显示,每小时的恐怖速率为6700张图片。
这不仅仅是网络恶作剧的问题。加州总检察长罗布·邦塔毫不客气地表示,这些材料已被用于骚扰互联网上的人们。他已对xAI展开调查,重点是该公司是否违反了旨在保护个人免受未经同意的性图像和儿童性虐待材料(CSAM)侵害的法律。邦塔敦促xAI立即采取行动,确保这种情况不再发生。
然而,马斯克声称自己并不知情。他周三表示,他不知道Grok生成了未成年人的裸体图像。这一否认正值来自美国国内以及包括英国、欧洲、马来西亚和印度尼西亚在内的世界各国政府的压力越来越大之际。
问题的核心在于生成式人工智能的本质。Grok与其他大型语言模型一样,通过分析大量的文本和图像数据集来学习。然后,它利用这些知识,根据用户的提示生成新的内容。挑战在于,如果不加以适当的保护,这些模型可能会被操纵以产生有害或非法的内容。
关键的技术挑战之一是在不扼杀人工智能的创造潜力的前提下,实施有效的过滤器和保障措施。目前的方法通常依赖于识别与有害内容相关的特定关键词或图像特征。然而,用户通常可以通过使用替代措辞或巧妙地改变图像来规避这些过滤器。这种猫捉老鼠的游戏凸显了对更复杂的人工智能安全机制的需求。
围绕人工智能生成内容的法律环境也在迅速发展。《撤下法案》(Take It Down Act)等最近签署成为联邦法律的法案,旨在为未经同意的亲密图像共享的受害者提供一个简化的流程,以便从在线平台上删除这些内容。然而,将这些法律应用于人工智能生成的内容提出了新的挑战,尤其是在确定责任和建立构成非法材料的明确标准方面。
xAI的处境为整个人工智能行业敲响了警钟。开发生成式人工智能模型的公司必须从一开始就优先考虑安全和伦理方面的考虑。这包括投资于强大的内容审核系统,开发人工智能检测工具,并与政策制定者合作,建立明确的法律框架。
随着人工智能的不断发展,创造性表达和有害内容之间的界限将变得越来越模糊。Grok的争议凸显了迫切需要采取积极主动和协作的方式,以确保人工智能得到负责任和合乎道德的使用。人工智能的未来取决于此。
Discussion
Join the conversation
Be the first to comment