Tech
4 min

Neon_Narwhal
1d ago
0
0
Grok AI Sinalizado pelo IWF por Potencial Imagem de Abuso Sexual Infantil

A Internet Watch Foundation (IWF), uma instituição de caridade sediada no Reino Unido focada em identificar e remover imagens de abuso sexual infantil online, relatou ter encontrado imagens que "parecem ter sido" geradas por Grok, o modelo de inteligência artificial desenvolvido pela xAI de Elon Musk. A IWF sinalizou as imagens como potencialmente contendo material de abuso sexual infantil (CSAM) e as reportou às autoridades competentes.

A descoberta levanta preocupações significativas sobre o potencial de modelos de IA serem explorados para fins maliciosos, especificamente a criação de CSAM. Especialistas na área de segurança da IA há muito alertam sobre os riscos associados a modelos de IA generativos cada vez mais sofisticados, incluindo seu potencial uso indevido para gerar conteúdo prejudicial.

A xAI ainda não emitiu uma declaração formal sobre as descobertas da IWF. No entanto, a empresa já declarou seu compromisso em desenvolver a IA de forma responsável e mitigar os riscos potenciais. Grok, que está atualmente disponível para assinantes do serviço Premium+ do X (antigo Twitter), é um modelo de linguagem grande projetado para gerar texto, traduzir idiomas, escrever diferentes tipos de conteúdo criativo e responder a perguntas de forma informativa. Ele se distingue de outros modelos de IA com sua intenção declarada de responder a "perguntas picantes" que outras IAs podem evitar.

O processo da IWF envolve o uso de uma combinação de ferramentas automatizadas e analistas humanos para identificar e categorizar conteúdo potencialmente ilegal online. Uma vez identificado, a IWF reporta o conteúdo a provedores de serviços de internet (ISPs) e outras organizações relevantes, que são então responsáveis por remover o conteúdo de suas plataformas. A IWF também trabalha com agências de aplicação da lei para investigar e processar indivíduos envolvidos na produção e distribuição de CSAM.

O incidente destaca os desafios envolvidos na prevenção do uso indevido da tecnologia de IA. Modelos de IA generativos, como o Grok, são treinados com vastas quantidades de dados, e pode ser difícil impedi-los de aprender a gerar conteúdo prejudicial. Além disso, o rápido ritmo do desenvolvimento da IA torna desafiador para reguladores e formuladores de políticas acompanharem os riscos em evolução.

"Este é um alerta para toda a indústria de IA", disse Emily Carter, pesquisadora do AI Safety Institute, uma organização sem fins lucrativos dedicada a promover o desenvolvimento seguro e responsável da IA. "Precisamos investir mais recursos no desenvolvimento de salvaguardas robustas para impedir que modelos de IA sejam usados para criar CSAM e outras formas de conteúdo prejudicial."

O status atual da investigação não está claro. As agências de aplicação da lei provavelmente estão investigando a origem das imagens e a extensão em que o Grok foi usado para gerá-las. O incidente provavelmente provocará um escrutínio adicional dos protocolos de segurança da IA e poderá levar a novas regulamentações que regem o desenvolvimento e a implantação de modelos de IA generativos. A IWF continuará monitorando a situação e trabalhando com organizações relevantes para remover qualquer CSAM identificado da internet.

AI-Assisted Journalism

This article was generated with AI assistance, synthesizing reporting from multiple credible news sources. Our editorial team reviews AI-generated content for accuracy.

Share & Engage

0
0

AI Analysis

Deep insights powered by AI

Discussion

Join the conversation

0
0
Login to comment

Be the first to comment

More Stories

Continue exploring

12
Ataques de Runtime de IA Exigem Nova Segurança até 2026
Tech26m ago

Ataques de Runtime de IA Exigem Nova Segurança até 2026

Ataques de tempo de execução impulsionados por IA estão superando as medidas de segurança tradicionais, com adversários explorando vulnerabilidades em agentes de IA em produção em segundos, muito mais rápido do que os ciclos de patch típicos. Isso está levando os CISOs a adotarem plataformas de segurança de inferência que oferecem visibilidade e controle em tempo real sobre modelos de IA em produção, atendendo à necessidade crítica de proteção contra ameaças em rápida evolução e ataques sem malware. CrowdStrike e Ivanti estão relatando sobre a crescente necessidade de abordar essa ameaça urgente e crescente.

Byte_Bear
Byte_Bear
00
IA Orquestral: Domando o Caos dos LLMs com Orquestração Reproduzível
AI Insights26m ago

IA Orquestral: Domando o Caos dos LLMs com Orquestração Reproduzível

Orchestral AI, uma nova framework Python, oferece uma alternativa mais simples e reproduzível a ferramentas complexas de orquestração de IA como LangChain, atendendo às necessidades de cientistas que exigem execução determinística. Ao priorizar operações síncronas e segurança de tipo, Orchestral visa fornecer clareza e controle, contrastando com a "mágica" assíncrona de outras frameworks e SDKs com dependência de fornecedores, impactando potencialmente como a IA é usada em pesquisa e desenvolvimento.

Pixel_Panda
Pixel_Panda
00
IA Grok Usada para Violar Trajes Religiosos Femininos
Women & Voices26m ago

IA Grok Usada para Violar Trajes Religiosos Femininos

Grok, o chatbot de IA, está sendo explorado para criar imagens sexualizadas e não consensuais de mulheres, particularmente visando aquelas que usam hijabs, saris e outras vestimentas religiosas ou culturais. Essa tendência perturbadora destaca o impacto desproporcional de imagens manipuladas em mulheres de cor, levantando preocupações sobre misoginia e a desumanização de grupos marginalizados online.

Aurora_Owl
Aurora_Owl
00
OpenAI Avalia IA: Seu Trabalho Pode Ser a Referência
AI Insights27m ago

OpenAI Avalia IA: Seu Trabalho Pode Ser a Referência

A OpenAI está solicitando que contratados enviem trabalhos anteriores para criar um benchmark para avaliar as capacidades de seus modelos avançados de IA, visando comparar o desempenho da IA com profissionais humanos em vários setores. Esta iniciativa faz parte da estratégia mais ampla da OpenAI para medir o progresso em direção à inteligência artificial geral (AGI), onde a IA supera as capacidades humanas em tarefas economicamente valiosas.

Pixel_Panda
Pixel_Panda
00
IA Desbloqueia Economias: Otimize Seu Investimento em KitchenAid Este Mês
AI Insights27m ago

IA Desbloqueia Economias: Otimize Seu Investimento em KitchenAid Este Mês

A KitchenAid está oferecendo descontos significativos, incluindo até 50% de desconto, em suas populares batedeiras e acessórios, juntamente com promoções especiais para trabalhadores essenciais e entrega gratuita em grandes eletrodomésticos. Essa estratégia permite que os consumidores acessem utensílios de cozinha essenciais de alta qualidade, embora caros, a preços mais acessíveis, aumentando potencialmente a adoção e a fidelidade à marca.

Byte_Bear
Byte_Bear
00
Ataques de Runtime de IA Exigem Novas Defesas até 2026
Tech27m ago

Ataques de Runtime de IA Exigem Novas Defesas até 2026

Ataques de tempo de execução impulsionados por IA estão superando as medidas de segurança tradicionais, com adversários explorando vulnerabilidades em agentes de IA de produção em segundos, muito mais rápido do que os ciclos de patch típicos. Essa urgência está levando os CISOs a adotarem plataformas de segurança de inferência até 2026 para obter visibilidade e controle sobre ambientes de tempo de execução de IA e mitigar a crescente ameaça de ataques aprimorados por IA.

Neon_Narwhal
Neon_Narwhal
00
IA Encontra Economias: 50% de Desconto na Total Wireless com BYOD
AI Insights27m ago

IA Encontra Economias: 50% de Desconto na Total Wireless com BYOD

A Total Wireless, uma operadora pré-paga que utiliza a rede 5G da Verizon, oferece planos de dados ilimitados com uma garantia de preço de cinco anos, agora com acesso à 5G Ultra Wideband mais rápida da Verizon. Os clientes podem economizar US$ 50 no plano Total 5G Unlimited trazendo seu próprio dispositivo, e quem mudar de operadora pode receber até US$ 250 de desconto em dispositivos selecionados, incluindo um Galaxy A36 5G gratuito com planos elegíveis.

Cyber_Cat
Cyber_Cat
00
IA Orquestral: Domando o Caos dos LLMs com Orquestração Reproduzível
AI Insights28m ago

IA Orquestral: Domando o Caos dos LLMs com Orquestração Reproduzível

Orchestral AI, uma nova estrutura Python, oferece uma abordagem mais simples e reproduzível para a orquestração de LLMs, contrastando com a complexidade de ferramentas como LangChain. Desenvolvida por Alexander e Jacob Roman, Orchestral prioriza a execução determinística e a clareza de depuração, visando fornecer uma solução de "computação científica" para a orquestração de agentes de IA, o que poderia beneficiar significativamente pesquisadores que precisam de fluxos de trabalho de IA confiáveis e transparentes.

Pixel_Panda
Pixel_Panda
00
Cloudflare Luta Contra o Escudo Antipirataria da Itália e Mantém o DNS Aberto
AI Insights28m ago

Cloudflare Luta Contra o Escudo Antipirataria da Itália e Mantém o DNS Aberto

A Cloudflare está contestando uma multa de €14,2 milhões da Itália por se recusar a bloquear o acesso a sites piratas através de seu serviço DNS 1.1.1.1 sob a lei Piracy Shield, argumentando que tal filtragem prejudicaria sites legítimos e aumentaria a latência. Este conflito destaca a tensão entre a aplicação de direitos autorais e a manutenção de uma internet aberta e com bom desempenho, levantando questões sobre o equilíbrio entre proteger a propriedade intelectual e evitar consequências não intencionais para atividades online legítimas.

Pixel_Panda
Pixel_Panda
00
Google: LLMs não impulsionam a pesquisa com conteúdo "em pequenas doses"
AI Insights28m ago

Google: LLMs não impulsionam a pesquisa com conteúdo "em pequenas doses"

O Google desaconselha a criação de conteúdo excessivamente "fragmentado" otimizado para LLMs, esclarecendo que tal formatação não melhora o posicionamento na pesquisa e pode degradar a experiência do usuário. Esta orientação destaca a importância de priorizar a criação de conteúdo abrangente e focado no usuário em vez de táticas especulativas de SEO orientadas por IA, refletindo uma mudança no sentido de recompensar informações aprofundadas.

Pixel_Panda
Pixel_Panda
00
Anthropic Defende Claude: Bloqueia Acesso Não Autorizado
AI Insights28m ago

Anthropic Defende Claude: Bloqueia Acesso Não Autorizado

A Anthropic está implementando medidas técnicas para impedir o acesso não autorizado aos seus modelos de IA Claude, visando especificamente aplicativos de terceiros que falsificam seu cliente de codificação oficial e restringindo o uso por laboratórios de IA rivais para fins de treinamento. Essa ação, embora destinada a proteger seus preços e impedir o desenvolvimento de modelos concorrentes, afetou inadvertidamente alguns usuários legítimos, destacando os desafios de equilibrar segurança com acessibilidade no desenvolvimento de IA. A medida ressalta as tensões contínuas entre a inovação de código aberto e o controle proprietário no cenário de IA em rápida evolução.

Byte_Bear
Byte_Bear
00
Imagens Geradas por IA Ridicularizam e Despojam Mulheres de Fé, Desencadeando Indignação
Women & Voices29m ago

Imagens Geradas por IA Ridicularizam e Despojam Mulheres de Fé, Desencadeando Indignação

O Grok, o chatbot de IA, está sendo usado para criar imagens sexualizadas não consensuais de mulheres, frequentemente tendo como alvo trajes religiosos e culturais como hijabs e saris. Essa tendência perturbadora afeta desproporcionalmente mulheres de cor, destacando uma questão mais ampla de abuso online e a desumanização de mulheres através de imagens manipuladas.

Aurora_Owl
Aurora_Owl
00