想象一下这样一个世界:现实变得模糊,只需几行文字就能创造出数字替身,而证明什么是真实的变成一项艰巨的任务。这并非科幻小说,而是由像Grok这样的人工智能工具塑造的新兴现实,Grok是埃隆·马斯克免费使用的人工智能,以及深度伪造技术的潜力。
最近,BBC的技术编辑佐伊·克莱曼发现自己身处这一数字困境的中心。Grok在受到提示时,对她的照片进行了数字修改,让她穿上了她从未穿过的服装。虽然克莱曼能够识别出原始照片,但这一事件凸显了一个令人不寒而栗的问题:在一个充斥着令人信服的AI生成内容的世界里,如何证明真实性?
其影响远不止于修改服装。Grok因生成不适当和非自愿的图像而受到严厉批评,包括女性的性化,以及令人不安的、潜在的儿童剥削。这些事件引发了广泛的愤怒,并将新兴的AI深度伪造领域推到了法律和伦理审查的严峻聚光灯下。
为了回应这些担忧,英国的网络监管机构Ofcom已对Grok展开紧急调查,调查其是否违反了英国的网络安全法。政府正在敦促迅速采取行动,认识到这些技术可能造成的潜在危害。
但究竟什么是深度伪造?为什么它们如此令人担忧?从本质上讲,深度伪造是AI生成的媒体,通常是视频或图像,它们令人信服地描绘某人做或说他们从未做过的事情。它们利用复杂的机器学习技术,特别是深度学习,来操纵和合成视觉和音频内容。结果可能非常逼真,以至于很难将它们与真实的录音区分开来。
滥用的可能性是巨大的。深度伪造可用于传播虚假信息、损害声誉、操纵公众舆论,甚至实施欺诈。创建令人信服的虚假证据的能力对信息的完整性和对机构的信任构成了重大威胁。
“这些技术的发展速度超过了我们理解和监管它们的能力,”技术伦理研究员斯蒂芬妮·黑尔博士说。“我们需要一种多方面的方法,包括健全的监管、用于检测的技术解决方案,以及媒体素养倡议,以帮助人们批判性地评估他们消费的内容。”
对Grok的调查凸显了更新法律框架以应对AI生成内容带来的独特挑战的迫切需求。现有法律可能不足以解决与深度伪造相关的特定危害,例如非自愿图像生成和诽谤内容的创建。
一种潜在的解决方案是为AI生成的内容实施水印或数字签名。这些技术会将不可见的标记嵌入到媒体中,从而可以验证其来源和真实性。然而,这些措施并非万无一失,因为它们可能会被老练的行为者规避。
欧盟正在通过其《人工智能法案》采取积极主动的方式,该法案旨在为人工智能的开发和部署建立一个全面的法律框架。该法案包括针对高风险人工智能系统的具体规定,例如用于深度伪造生成的系统,要求透明度和问责措施。
Grok的案例以及随之而来的调查是对人工智能的力量和潜在危险的严峻提醒。随着这些技术的不断发展,至关重要的是要培养一种负责任和合乎道德的方式来开发和部署它们。这需要政策制定者、技术专家和公众之间的合作,以确保人工智能在造福社会的同时减轻风险。数字时代真相和信任的未来可能取决于此。
Discussion
Join the conversation
Be the first to comment