人工智能发展面临信任危机,应用范围从色情内容到代码生成不等
根据最近的一项调查,人工智能的发展正面临“信任悖论”,许多组织都在努力将人工智能从最初的试点项目扩展到更大规模。与此同时,人工智能的应用正在迅速多样化,一些模型生成色情内容,另一些模型则展示出先进的编码能力,引发了人们对工作岗位流失和伦理问题的担忧。
Informatica 对首席数据官 (CDO) 开展的第三次年度调查,涵盖了全球 600 名高管,结果显示,虽然 69% 的企业已经部署了生成式人工智能,47% 的企业正在试验生成式人工智能,但仍然存在显著的治理差距。调查发现,76% 的数据负责人无法管理员工已经在使用的内容。VentureBeat 报道称,这种脱节解释了为什么许多组织都在努力从人工智能实验阶段过渡到生产规模。
更复杂的是,谷歌的一项新研究表明,先进的推理模型通过模拟涉及不同观点的多智能体式辩论来实现高性能。研究人员称这些“思想社会”对话能够显著提高模型在复杂推理和规划任务中的性能。研究人员发现,DeepSeek-R1 和 QwQ-32B 等领先的推理模型在没有明确指令的情况下,自然而然地发展出这种能力,这为开发人员构建更强大的 LLM 应用程序以及企业使用自己的内部数据训练更高级的模型提供了一条途径,VentureBeat 报道称。
然而,人工智能的快速发展也引发了伦理问题。斯坦福大学和印第安纳大学的研究人员进行的一项分析发现,由 Andreessen Horowitz 支持的民用在线人工智能生成内容市场允许用户购买定制指令文件来生成名人深度伪造内容。据 MIT Technology Review 报道,其中一些文件专门用于制作该网站禁止的色情图片。该研究发现,在 2023 年年中至 2024 年底期间,该网站上的很大一部分请求都是针对真实人物的深度伪造内容,其中 90% 的深度伪造请求针对的是女性。
人工智能模型的多样化能力既带来了兴奋,也带来了焦虑。MIT Technology Review 指出,虽然像 Grok 这样的模型被用于生成色情内容,但像 Claude Code 这样的模型可以执行构建网站和读取 MRI 等复杂任务。这引发了人们的担忧,尤其是在 Z 世代中,他们担心人工智能对劳动力市场的潜在影响。令人不安的新研究表明,人工智能将在今年对劳动力市场产生巨大的影响。
人工智能行业本身也面临着内部紧张局势。据 MIT Technology Review 报道,Meta 的前首席人工智能科学家 Yann LeCun 公开分享了他的观点,而 Elon Musk 和 OpenAI 即将对簿公堂,这给该领域带来了进一步的不确定性。
Discussion
Join the conversation
Be the first to comment