2024年神经信息处理系统大会(NeurIPS)上,空气中弥漫着期待的气息。研究人员、风险投资家和眼神发亮的大学生们围绕着演示近乎人类水平的人工智能的展台,兴奋地交流着。通用人工智能(AGI)的梦想——一种能够像人类一样理解、学习和应用知识的机器——感觉触手可及。快进到2025年末,气氛却截然不同。香槟色的美梦已经破灭,取而代之的是一个令人清醒的现实:曾经被兜售的AGI,或许更多的是海市蜃楼,而非里程碑。
Will Douglas Heaven的新书《AGI如何变成一个影响深远的阴谋论》(仅限订阅用户阅读)深入探讨了这种转变,探索了对AGI的追求如何从一个合法的科学目标演变成一个自私自利的预言,劫持了整个行业。这本电子书专门为订阅者提供,剖析了席卷硅谷的“AGI-pilled”现象,考察了它的根源、后果以及可能造成的持久损害。
这个故事不仅仅是关于技术上的过度扩张;它还关于人类的野心、对简单解决方案的诱惑以及不受约束的炒作的危险。叙事可以追溯到深度学习的早期,当时图像识别和自然语言处理方面的显著进步助长了人们对AGI即将到来的信念。各公司急于吸引投资和人才,开始积极地将他们的AI系统宣传为具有接近人类的能力,模糊了为特定任务设计的狭义AI和难以捉摸的AGI之间的界限。
正如这本电子书所说,这场“AGI阴谋”不一定是故意的恶意行为。相反,它是多种因素的汇合:创新的压力、害怕落后的恐惧,以及某些人真诚地相信AGI是不可避免的。风险投资家向人工智能初创公司投入了数十亿美元,往往很少考虑其背后的科学原理。研究人员在资金和声望的激励下,对他们的进展做出了越来越离谱的声明。媒体被技术乌托邦的承诺所吸引,放大了这种炒作。
其后果是深远的。该电子书认为,AGI叙事扭曲了人工智能的格局,将资源从更实用和有益的应用中转移出去。它还助长了公众不切实际的期望,导致当人工智能系统未能达到炒作的高度时,人们感到失望和不信任。
“我们以前见过这种模式,”Heaven在电子书中说。“互联网泡沫、清洁能源泡沫——AGI泡沫只是炒作如何扭曲技术发展的最新例子。”
该电子书还强调了AGI叙事的伦理影响。通过将人工智能描绘成人类智能的潜在替代品,它有可能贬低人类技能并造成一种存在威胁感。反过来,这会加剧人们对工作岗位流失和未来工作的焦虑。
这本电子书没有提供简单的答案,但它确实提供了一个有价值的框架来理解人工智能的现状。它敦促读者批判性地看待人工智能公司和研究人员提出的主张,要求透明度和问责制,并专注于开发既有益又符合伦理道德的人工智能系统。
正如这本电子书的结论,伟大的AGI阴谋可能正在走向尾声,但它的遗产将继续在未来几年塑造人工智能的格局。现在的挑战是从过去的错误中吸取教训,并建立一个人工智能为人类服务,而不是相反的未来。正如Heaven在一篇相关文章中所说,“2025年的人工智能炒作修正”可能是痛苦的,但它也是一个重置期望并追求更现实和负责任的人工智能愿景的机会。
Discussion
Join the conversation
Be the first to comment