Desenvolvimento de IA Enfrenta Lacuna de Confiança, Enquanto Aplicações Variam da Pornografia à Geração de Código
O desenvolvimento da inteligência artificial está enfrentando um "paradoxo de confiança", pois muitas organizações lutam para escalar a IA além dos programas piloto iniciais, de acordo com uma pesquisa recente. Enquanto isso, as aplicações de IA estão se diversificando rapidamente, com alguns modelos gerando pornografia e outros demonstrando capacidades avançadas de codificação, levantando preocupações sobre o deslocamento de empregos e considerações éticas.
A terceira pesquisa anual da Informatica com diretores de dados (CDOs), abrangendo 600 executivos globalmente, revelou que, embora 69% das empresas tenham implantado IA generativa e 47% estejam experimentando, existe uma lacuna significativa de governança. A pesquisa descobriu que 76% dos líderes de dados não conseguem governar o que os funcionários já estão usando. Essa desconexão explica por que muitas organizações estão lutando para passar da experimentação de IA para a escala de produção, de acordo com o VentureBeat.
Ainda aumentando a complexidade, um novo estudo do Google sugere que modelos de raciocínio avançados alcançam alto desempenho simulando debates multiagentes envolvendo diversas perspectivas. Essas conversas de "sociedade de pensamento", como os pesquisadores as chamam, melhoram significativamente o desempenho do modelo em tarefas complexas de raciocínio e planejamento. Os pesquisadores descobriram que os principais modelos de raciocínio, como DeepSeek-R1 e QwQ-32B, desenvolvem inerentemente essa capacidade sem instrução explícita, oferecendo um roteiro para os desenvolvedores criarem aplicações LLM mais robustas e para as empresas treinarem modelos superiores usando seus próprios dados internos, informou o VentureBeat.
No entanto, o rápido avanço da IA também levanta preocupações éticas. Uma análise de pesquisadores de Stanford e da Indiana University descobriu que um mercado online civil para conteúdo gerado por IA, apoiado por Andreessen Horowitz, está permitindo que os usuários comprem arquivos de instrução personalizados para gerar deepfakes de celebridades. De acordo com a MIT Technology Review, alguns desses arquivos foram especificamente projetados para criar imagens pornográficas banidas pelo site. O estudo descobriu que, entre meados de 2023 e o final de 2024, uma parte significativa das solicitações no site era para deepfakes de pessoas reais, e 90% dessas solicitações de deepfake tinham como alvo mulheres.
As diversas capacidades dos modelos de IA estão criando tanto entusiasmo quanto ansiedade. A MIT Technology Review observou que, embora alguns modelos como o Grok estejam sendo usados para gerar pornografia, outros como o Claude Code podem executar tarefas complexas, como construir sites e ler ressonâncias magnéticas. Isso levou a preocupações, particularmente entre a Geração Z, sobre o impacto potencial da IA no mercado de trabalho. Novas pesquisas preocupantes sugerem que a IA terá um impacto sísmico no mercado de trabalho este ano.
A própria indústria de IA está enfrentando tensões internas. O ex-cientista-chefe de IA da Meta, Yann LeCun, está compartilhando publicamente suas opiniões, enquanto Elon Musk e OpenAI estão indo para o julgamento, criando mais incerteza no campo, de acordo com a MIT Technology Review.
Discussion
Join the conversation
Be the first to comment