X(前身为 Twitter)上正掀起一场数字洪流。大量人工智能生成的图像,其中许多是过度性化的,有些甚至可能非法,正在涌入该平台,这引发了一个关键问题:为什么 X 及其 AI 聊天机器人 Grok 仍然可以在 Apple App Store 和 Google Play Store 中轻松获得?尽管存在对内容审核和违反政策的担忧,但这些应用程序的存在凸显了科技巨头在监管其平台和执行自身规则方面面临的复杂挑战。
问题的根源在于人工智能图像生成技术的快速发展。像 Grok 这样的工具,在提供创新功能的同时,也可能被利用来大规模创建有害内容。报告显示,Grok 正被用于生成数千张描绘成年人和看似未成年人在性暗示场景中的图像。这些内容不仅与 X 声明的反对儿童性虐待材料 (CSAM) 的政策相冲突,而且还可能违反 Apple 和 Google 为其各自商店中的应用程序制定的严格准则。
Apple 和 Google 都明确禁止包含 CSAM 的应用程序,这是一项零容忍政策,反映了此类内容在许多国家的非法性质。他们的准则还禁止包含色情材料、助长骚扰或宣扬性掠夺行为的应用程序。例如,Apple 的 App Store 明确禁止“公开的性或色情材料”,以及“诽谤、歧视或恶意的”内容,特别是如果它针对个人或群体,意图羞辱或伤害。Google Play Store 同样禁止分发非自愿性内容或助长威胁和欺凌的应用程序。
这些政策与 X 上流传的内容之间明显的脱节,引发了对执行机制的质疑。Apple 和 Google 的审查流程在检测和删除能够创建和传播有害内容的应用程序方面有多有效?像 X Corp 这样的应用程序开发者在防止其平台被滥用方面承担什么责任?
“挑战不仅仅是识别有害内容的个别实例,还在于解决允许其扩散的系统性问题,”专门研究人工智能伦理和平台治理的研究员 Anya Sharma 博士解释说。“人工智能图像生成工具正变得越来越复杂,使得区分合法用途和恶意用途变得更加困难。应用商店需要调整其审查流程,以适应这些新的现实。”
风险很高。允许创建和传播有害内容的应用程序的存在可能会给受害者带来毁灭性的后果。它还会削弱公众对数字生态系统的信任,并引发对在线平台安全性的担忧,特别是对于儿童等弱势群体。
Grok 和 X 的情况并非孤立事件。在过去两年中,Apple 和 Google 已经删除了许多被发现用于恶意目的的“nudify”和 AI 图像生成应用程序。然而,这些被动的措施往往不足以解决根本问题。
展望未来,需要采取更积极主动和协作的方法。这包括投资于先进的内容审核技术,加强科技公司与执法机构之间的合作,以及提高用户的媒体素养,以帮助他们识别和报告有害内容。此外,开发者需要在 AI 驱动工具的设计和部署中优先考虑伦理因素,实施保障措施以防止滥用。
应用商店治理的未来取决于科技巨头有效平衡创新与责任的能力。Grok 和 X 的案例鲜明地提醒我们,对技术进步的追求必须以对安全、伦理和用户福祉的承诺为基础。这些平台持续可用凸显了迫切需要更强大的内容审核实践,并重新关注保护弱势群体免受人工智能生成内容潜在危害。
Discussion
Join the conversation
Be the first to comment