人工智能发展日新月异,但全球在安全措施方面的合作面临挑战。一份新的《国际人工智能安全报告》在2月19日至20日在德里举行的AI Impact Summit峰会之前发布,强调了人工智能改进的步伐加快以及相关风险日益增加的证据。然而,据该报告主席、图灵奖得主科学家Yoshua Bengio称,与去年不同,美国今年拒绝支持该报告。
该报告由100位专家指导,并得到包括英国、中国和欧盟在内的30个国家和国际组织的支持,旨在为国际合作应对人工智能挑战树立榜样。报告的结论是,目前的风险管理技术正在改进,但仍然不足。
与此同时,在企业内部,重点正在转向实际的人工智能实施。Asana的首席产品官Arnab Bose强调了共享记忆和上下文对于成功的人工智能代理的重要性。在最近于旧金山举行的VentureBeat活动上,Bose表示,为人工智能代理提供详细的历史记录和直接访问权限,以及护栏检查点和人工监督,可以使它们发挥积极的团队成员的作用。Asana去年推出了Asana AI Teammates,目标是将人工智能直接集成到团队和项目中。
Mistral AI也在与全球行业领导者合作,共同设计定制的人工智能解决方案。据《麻省理工科技评论》报道,Mistral AI与思科、Stellantis和ASML等公司合作,定制人工智能系统以应对特定挑战。他们的方法包括确定一个“标志性用例”,作为未来人工智能解决方案的基础。
然而,人们仍然担心人工智能可能被滥用。《麻省理工科技评论》强调了斯坦福大学和印第安纳大学的研究人员的一项研究,该研究调查了一个由Andreessen Horowitz支持的民用在线市场,该市场允许用户购买自定义指令文件来生成名人深度伪造。该研究发现,尽管网站禁止,但一些文件专门用于创建色情图像。研究人员分析了2023年中期至2024年底的内容请求,称为“赏金”。
另一方面,开发人员正在开发工具来简化人工智能配置管理。Hacker News报道了LNAI,这是一个由Krystian Jonca开发的统一人工智能配置管理CLI。LNAI旨在简化各种人工智能编码工具的配置管理过程,允许用户在“.ai”文件中定义一次配置,然后将其同步到不同的工具中。支持的工具包括Claude、Codex、Cursor、Gemini CLI、GitHub Copilot、OpenCode和Windsurf。该工具可通过npm获得,并包括验证和自动清理孤立文件的功能。
Discussion
AI Experts & Community
Be the first to comment