
跟我念:简单提示技巧大幅提升LLM准确性
Google Research 的一篇新论文揭示,重复提示可以显著提高大型语言模型 (LLM) 在不需要复杂推理的任务中的准确性,从而将 Gemini 和 GPT-4o 等模型的性能提高高达 76%。这种利用 Transformer 架构的简单技术解决了“因果盲点”,并提供了一种无需成本的方法来增强 LLM 输出,从而建议重新评估复杂的提示策略。



想象一下这样一个世界:现实变得模糊,只需几行文字就能创造出数字替身。对于英国广播公司 (BBC) 的技术编辑佐伊·克莱曼 (Zoe Kleinman) 来说,这并非遥远的未来幻想,而是当下的担忧。克莱曼最近发现自己身处这种令人不安的现实中心,埃隆·马斯克 (Elon Musk) 拥有的 AI 工具 Grok 对她的图像进行了数字修改,让她穿上了她从未穿过的服装。虽然克莱曼能够识别出真实的图像,但这一事件引发了一个令人不寒而栗的问题:当 AI 能够捏造出令人信服的替代品时,如何证明什么是真实的?
这一事件凸显了人们对 AI 生成的深度伪造视频日益增长的焦虑,尤其是那些由 Grok 制作的视频。这款 AI 在社交网络 X 上免费提供,因其不仅能够创建被篡改的图像,还能创建具有严重问题的有害内容而受到密切关注,包括未经同意“脱掉”女性的衣服以及生成儿童性化图像。
其影响是深远的。深度伪造视频可能被武器化,用于传播虚假信息、损害声誉,甚至煽动暴力。Grok 能够如此轻易地生成这些图像,并在 X 上公开传播,这引发了迅速的反应。
英国在线监管机构 Ofcom 已对 Grok 展开紧急调查,调查该 AI 是否违反了英国在线安全法。政府已敦促 Ofcom 加快调查,表明他们对潜在危害的重视程度。
但这项调查究竟包含哪些内容,以及可能会出台哪些新法律来应对蓬勃发展的深度伪造领域?围绕 AI 生成内容的法律框架仍处于起步阶段,难以跟上技术的快速发展。现有的关于诽谤、骚扰和侵犯版权的法律可能提供一些补救措施,但它们往往不足以应对深度伪造带来的独特挑战。
其中一个关键挑战是证明内容的真实性。正如克莱曼的经历所表明的那样,即使是识别被操纵的图像也可能很困难,更不用说在法庭上证明它了。这给个人带来了沉重的负担,他们需要为自己辩护,以对抗潜在的捏造现实。
对 Grok 的调查可能会为如何追究 AI 开发者对其技术滥用的责任树立一个重要的先例。它提出了关于 X 等平台在审核 AI 生成内容和防止有害深度伪造视频传播方面的责任的根本性问题。
Ofcom 的调查结果以及随后的任何法律行动都可能对 AI 开发和监管的未来产生重大影响。它可能会导致对 AI 开发者制定更严格的指导方针,要求他们实施保障措施以防止有害内容的创建。它还可能促使平台采用更强大的内容审核政策,使用 AI 驱动的工具来检测和删除深度伪造视频。
该案例还强调了提高公众对深度伪造视频及其潜在操纵性的认识的必要性。教育个人如何识别深度伪造视频并批判性地评估在线内容对于降低与该技术相关的风险至关重要。
随着 AI 的不断发展,现实与虚构之间的界限只会变得更加模糊。对 Grok 的调查有力地提醒我们,需要采取积极措施来保护个人和社会免受深度伪造视频的潜在危害。它呼吁立法者、监管机构、AI 开发者和公众共同努力,应对这一复杂的局面,并确保 AI 得到负责任和合乎道德的使用。真相本身的未来可能取决于此。
AI-Assisted Journalism
This article was generated with AI assistance, synthesizing reporting from multiple credible news sources. Our editorial team reviews AI-generated content for accuracy.
Deep insights powered by AI
Continue exploring

Google Research 的一篇新论文揭示,重复提示可以显著提高大型语言模型 (LLM) 在不需要复杂推理的任务中的准确性,从而将 Gemini 和 GPT-4o 等模型的性能提高高达 76%。这种利用 Transformer 架构的简单技术解决了“因果盲点”,并提供了一种无需成本的方法来增强 LLM 输出,从而建议重新评估复杂的提示策略。


一款在中国新推出的独立应用“你死了吗”正日益流行,它通过提示用户每日确认自身健康状况,并在用户未及时确认时提醒紧急联系人,从而突显了一种新颖的安全和社会连接方式。这款简单而有效的应用程序与年轻一代产生共鸣,展示了技术如何解决基本的人类需求,吸引了大量投资者的兴趣,并展示了人工智能驱动的解决方案在个人安全方面的潜力。

Elgato Stream Deck + 是一款能够简化内容创作和系统控制的设备,目前正在打折促销,为直播主和内容创作者提供了一个平易近人的入门途径。通过与 OBS 等平台集成,Stream Deck + 简化了管理音频、切换布局和自动化工作流程等复杂任务,展示了人工智能驱动的界面如何提高用户生产力和创意表达。此次促销反映了人工智能驱动的工具变得更加经济实惠和用户友好的增长趋势,有可能普及对高级内容创作功能的访问。


Roblox 新推出的 AI 驱动的年龄验证系统旨在创建更安全的聊天环境,但由于年龄估算不准确且未能阻止掠夺行为而面临批评。专家强调了该系统的局限性,同时,用于出售的年龄验证帐户的出现引发了人们对规避预期保障措施的担忧,突显了为复杂的社会问题实施基于 AI 的解决方案所面临的挑战。

一位公共政策专家表示,特朗普第二任政府可能会优先考虑在线舆论和右翼社交媒体趋势来制定政策。这种做法可能包括利用社交媒体来放大特定叙事,并根据议题在网络社区中的共鸣程度来确定其优先级。这种转变反映了互联网动态与治理之间日益增强的融合。


苹果将于1月28日推出“创作工作室”订阅服务,以每月13美元的价格提供在Mac和iPad上访问Final Cut Pro和Logic Pro等专业创意应用程序的权限,挑战Adobe的统治地位。该订阅包括全新的人工智能驱动功能和内容,以及Final Cut的“文本搜索”和全新iPad版Pixelmator Pro等更新,将影响创意工作流程和可访问性。


美国环保署正在改变其空气污染法规的成本效益分析方法,从量化健康改善的经济价值转变为定性描述,同时仍然量化经济成本。这一变化引发了人们对空气质量标准和污染限值可能被削弱的担忧,因为在未来环保署的决策中,清洁空气的经济效益可能会被低估。


微软正在率先采用一种新的 AI 基础设施方法,承诺承担其数据中心的全部电力成本,并放弃地方房产税减免,以解决社区对生成式 AI 激增导致能源需求上升和资源紧张的担忧。预计到 2030 年,数据中心的电力消耗将翻一番,这一举措的出台凸显了在政策制定者和公众日益关注的情况下,对可持续且具有社区意识的 AI 开发的需求。


虽然像ChatGPT这样的人工智能聊天机器人可以提供便捷的健康信息,但专家警告不要依赖它们获取医疗建议,因为它们可能存在不准确性。一个案例表明,一名患者收到了具有误导性的肺栓塞风险数据。尽管存在这些担忧,但ChatGPT Health的推出(该产品在设计上增强了隐私和数据安全性)受到了一些医生的积极评价,他们认为如果负责任地使用并采取适当的保障措施,它可以成为一个有价值的工具。


SpaceX正在积极努力,以在伊朗政府实施互联网关闭和抗议期间的信号干扰的情况下,维持Starlink的连接。最近与伊朗技术团队合作开发的软件更新,已经减少了数据包丢失,但由于SpaceX试图绕过伊朗的干扰技术,Starlink的可用性仍然不稳定。

Google的Veo 3.1引入了“视频配方”,允许用户通过参考图像来指导AI视频生成,从而获得更一致的结果,并能够创建针对TikTok和YouTube Shorts等平台优化的垂直视频。此次更新增强了创意控制和表现力,展示了AI在生成定制内容方面日益增长的能力,同时也引发了关于视频创作和真实性未来的问题。


一名田纳西州男子承认未经授权访问美国最高法院的电子备案系统,引发了人们对司法网络安全的担忧。 这次违规行为发生在2023年8月至10月期间,并且多次发生,突显了法院系统在之前的攻击之后,尽管最近努力加强防御,仍然存在的漏洞。

Discussion
Join the conversation
Be the first to comment