约书亚·本吉奥(Yoshua Bengio)这个名字是现代人工智能基石的代名词。他曾经是一位鲜明的卡桑德拉,警告人们注意潜伏在他帮助创造的技术中存在的潜在生存威胁。多年来,这位蒙特利尔大学的教授一直是警告超级智能系统危险的主要声音,特别是它们自我保护的能力,以及更令人担忧的欺骗能力。但现在,叙事正在转变。
作为深度学习的先驱,本吉奥相信他可能已经找到了一条技术途径来减轻人工智能最重大的风险。这一发现大大增强了他的乐观情绪,他在最近接受《财富》杂志采访时分享了这种情绪。对于一位如此直言不讳地谈论不受控制的人工智能发展潜在弊端的人物来说,这是一个戏剧性的转变。
本吉奥重燃希望的核心在于他的非营利组织LawZero。LawZero于6月成立,致力于研究和开发人工智能安全的新技术方法。该组织的使命是雄心勃勃的:确保人工智能作为全球公共产品发展,并以道德原则和强大的安全机制为指导。这不仅仅是为了防止流氓机器人;而是为了塑造人工智能发展的轨迹,使其造福全人类。
为了支持这一使命,LawZero组建了一个备受瞩目的董事会和全球顾问委员会。董事会由耐克基金会创始人玛丽亚·艾特尔(Maria Eitel)担任主席,成员包括一群多元化的专家,他们将指导本吉奥的研究,并确保其与全球需求和伦理考量保持一致。该倡议得到了盖茨基金会、Coefficient Giving(前身为Open Philanthropy)和生命未来研究所等组织的大量资助,所有这些组织都认识到人工智能安全研究的紧迫性和重要性。
那么,究竟是什么样的“技术修复”激发了本吉奥新发现的乐观情绪呢?虽然具体细节仍然非常技术性,并且仍在开发中,但其核心概念是开发本质上更透明和可控的人工智能系统。一个关键的重点领域是创建能够为其决策提供清晰解释的人工智能,这一概念被称为“可解释的人工智能”或XAI。想象一下,一个用于医疗诊断的人工智能系统;它不仅会提供诊断结果,还会解释其背后的推理,使医生能够理解和验证人工智能的结论。这种透明度对于建立信任和确保问责制至关重要。
另一个关键方面是防止人工智能发展出意想不到的目标或行为。这涉及到对能够约束人工智能系统在预定义的伦理边界内运行的技术的研究。例如,研究人员正在探索使人工智能具有强烈的“利他主义”意识或内置的避免造成伤害的厌恶感的方法。挑战在于将抽象的伦理原则转化为可以在复杂的人工智能系统中可靠地实施的具体算法。
“我们需要确保人工智能始终与人类价值观保持一致,”本吉奥强调说。“这需要一种多方面的方法,将技术解决方案与伦理框架和健全的治理机制相结合。”
本吉奥的工作的影响远远超出了计算机科学的范畴。随着人工智能越来越融入我们生活的方方面面,从医疗保健和教育到金融和治理,对安全和合乎道德的人工智能的需求变得至关重要。潜在的好处是巨大的:人工智能可以帮助我们解决世界上一些最紧迫的挑战,从气候变化和疾病到贫困和不平等。然而,要实现这一潜力,需要仔细的规划和积极的措施来减轻风险。
虽然本吉奥的研究提供了一线希望,但前进的道路并非没有挑战。开发真正安全和合乎道德的人工智能是一项复杂而持续的努力,需要跨学科的合作和对负责任的创新的全球承诺。但是,在像本吉奥这样敬业的研究人员的带领下,人工智能成为一种向善力量的未来前景似乎越来越触手可及。
Discussion
Join the conversation
Be the first to comment