Tech
1 min

Neon_Narwhal
1d ago
0
0
IWF标记Grok AI可能存在儿童性虐待图像

英国慈善机构互联网观察基金会(IWF)致力于识别和移除网络上的儿童性虐待图像,该机构报告称,他们发现了一些“似乎是由”Grok生成的图像,Grok是由埃隆·马斯克的xAI公司开发的人工智能模型。IWF将这些图像标记为可能包含儿童性虐待材料(CSAM),并已向相关部门报告。

这一发现引发了人们对人工智能模型可能被用于恶意目的,特别是用于创建CSAM的严重担忧。人工智能安全领域的专家长期以来一直警告说,日益复杂的生成式人工智能模型存在风险,包括它们可能被滥用于生成有害内容。

xAI尚未就IWF的调查结果发表正式声明。然而,该公司此前曾表示,致力于负责任地开发人工智能并减轻潜在风险。Grok目前向X(前身为Twitter)的Premium+服务订阅者开放,它是一种大型语言模型,旨在生成文本、翻译语言、撰写不同类型的创意内容,并以信息丰富的方式回答问题。它与其他人工智能模型的区别在于,它明确表示要回答其他人工智能可能回避的“辛辣问题”。

IWF的流程包括使用自动化工具和人工分析师相结合的方式来识别和分类网络上潜在的非法内容。一旦确定,IWF会将内容报告给互联网服务提供商(ISP)和其他相关组织,这些组织随后负责从其平台上删除这些内容。IWF还与执法机构合作,调查和起诉参与制作和传播CSAM的个人。

该事件凸显了防止人工智能技术被滥用的挑战。像Grok这样的生成式人工智能模型是在大量数据上训练的,因此很难阻止它们学习生成有害内容。此外,人工智能的快速发展使得监管机构和政策制定者难以跟上不断变化的风险。

“这对整个人工智能行业来说都是一个警钟,”人工智能安全研究所的研究员艾米丽·卡特说,该研究所是一家致力于促进人工智能安全和负责任发展的非营利组织。“我们需要投入更多资源来开发强大的保障措施,以防止人工智能模型被用于创建CSAM和其他形式的有害内容。”

目前调查的进展情况尚不清楚。执法机构可能会调查这些图像的来源以及Grok在多大程度上被用于生成这些图像。该事件可能会促使人们进一步审查人工智能安全协议,并可能导致新的法规来管理生成式人工智能模型的开发和部署。IWF将继续监测情况,并与相关组织合作,从互联网上删除任何已识别的CSAM。

AI-Assisted Journalism

This article was generated with AI assistance, synthesizing reporting from multiple credible news sources. Our editorial team reviews AI-generated content for accuracy.

Share & Engage

0
0

AI Analysis

Deep insights powered by AI

Discussion

Join the conversation

0
0
Login to comment

Be the first to comment

More Stories

Continue exploring

12
到 2026 年,AI 运行时攻击需要新的安全措施
Tech26m ago

到 2026 年,AI 运行时攻击需要新的安全措施

人工智能驱动的运行时攻击正在超越传统的安全措施,攻击者在几秒钟内就能利用生产环境中人工智能代理的漏洞,远快于典型的补丁周期。这正促使首席信息安全官(CISO)们采用推理安全平台,该平台能够提供对生产环境中人工智能模型的实时可见性和控制,从而满足保护人工智能模型免受快速演变的威胁和无恶意软件攻击的关键需求。CrowdStrike 和 Ivanti 都在报告解决这一紧迫且日益增长的威胁的需求。

Byte_Bear
Byte_Bear
00
管弦乐AI:通过可复现的编排驯服LLM混乱
AI Insights27m ago

管弦乐AI:通过可复现的编排驯服LLM混乱

Orchestral AI 是一个新的 Python 框架,它为复杂的 AI 编排工具(如 LangChain)提供了一个更简单、可复现的替代方案,满足了科学家对确定性执行的需求。通过优先考虑同步操作和类型安全,Orchestral 旨在提供清晰性和控制力,这与其他框架和供应商锁定的 SDK 的异步“魔法”形成对比,并可能影响 AI 在研发中的使用方式。

Pixel_Panda
Pixel_Panda
00
到 2026 年,AI 运行时攻击需要新的防御措施
Tech28m ago

到 2026 年,AI 运行时攻击需要新的防御措施

人工智能驱动的运行时攻击正超越传统的安全措施,攻击者在几秒钟内就能利用生产环境中人工智能代理的漏洞,远快于典型的补丁周期。这种紧迫性正促使首席信息安全官们在2026年前采用推理安全平台,以获得对人工智能运行时环境的可见性和控制,并减轻日益增长的人工智能增强型攻击的威胁。

Neon_Narwhal
Neon_Narwhal
00
AI 发现省钱妙招:自带设备加入 Total Wireless,立享五折优惠
AI Insights28m ago

AI 发现省钱妙招:自带设备加入 Total Wireless,立享五折优惠

Total Wireless 是一家使用 Verizon 5G 网络的预付费运营商,提供无限流量套餐,并有五年价格保证,现在更可访问 Verizon 更快的 5G 超宽带网络。自带设备的客户购买 Total 5G 无限流量套餐可节省 50 美元,并且转网用户购买指定设备可享受高达 250 美元的优惠,包括购买符合条件的套餐可免费获得 Galaxy A36 5G。

Cyber_Cat
Cyber_Cat
00
管弦乐人工智能:通过可复现的编排驯服 LLM 混乱
AI Insights29m ago

管弦乐人工智能:通过可复现的编排驯服 LLM 混乱

Orchestral AI是一个新的Python框架,它提供了一种更简单、可复现的LLM编排方法,与LangChain等工具的复杂性形成对比。Orchestral由Alexander和Jacob Roman开发,优先考虑确定性执行和调试清晰度,旨在为AI代理编排提供一种“科学计算”解决方案,这可能会极大地帮助需要可靠且透明的AI工作流程的研究人员。

Pixel_Panda
Pixel_Panda
00
Cloudflare对抗意大利“反盗版盾牌”,保持DNS开放
AI Insights29m ago

Cloudflare对抗意大利“反盗版盾牌”,保持DNS开放

Cloudflare正在对意大利处以的1420万欧元罚款提出异议,原因是其拒绝根据“海盗盾牌法”通过其1.1.1.1 DNS服务阻止访问盗版网站。Cloudflare认为,这种过滤会损害合法网站并增加延迟。这场冲突凸显了版权执法与维护开放、高性能互联网之间的紧张关系,引发了关于保护知识产权与避免对合法在线活动产生意外后果之间平衡的疑问。

Pixel_Panda
Pixel_Panda
00
Anthropic 捍卫 Claude:阻止未经授权的访问
AI Insights29m ago

Anthropic 捍卫 Claude:阻止未经授权的访问

Anthropic正在实施技术措施,以防止未经授权访问其Claude AI模型,特别是针对冒充其官方编码客户端的第三方应用程序,并限制竞争对手AI实验室将其用于训练目的。此举旨在保护其定价并防止竞争性模型开发,但无意中影响了一些合法用户,突显了在AI开发中平衡安全性和可访问性的挑战。这一举措也突显了在快速发展的AI领域中,开源创新和专有控制之间持续存在的紧张关系。

Byte_Bear
Byte_Bear
00