El desarrollo de la IA se enfrenta a una brecha de confianza, mientras que las aplicaciones van desde la pornografía hasta la generación de código
El desarrollo de la inteligencia artificial se enfrenta a una "paradoja de la confianza", ya que muchas organizaciones tienen dificultades para escalar la IA más allá de los programas piloto iniciales, según una encuesta reciente. Mientras tanto, las aplicaciones de la IA se están diversificando rápidamente, con algunos modelos que generan pornografía y otros que demuestran capacidades avanzadas de codificación, lo que plantea preocupaciones sobre el desplazamiento laboral y las consideraciones éticas.
La tercera encuesta anual de Informatica a directores de datos (CDO), que abarca a 600 ejecutivos a nivel mundial, reveló que, si bien el 69% de las empresas han implementado la IA generativa y el 47% está experimentando con ella, existe una importante brecha de gobernanza. La encuesta encontró que el 76% de los líderes de datos no pueden controlar lo que los empleados ya están usando. Esta desconexión explica por qué muchas organizaciones tienen dificultades para pasar de la experimentación con la IA a la escala de producción, según VentureBeat.
Para aumentar la complejidad, un nuevo estudio de Google sugiere que los modelos de razonamiento avanzado logran un alto rendimiento simulando debates tipo multiagente que involucran diversas perspectivas. Estas conversaciones de "sociedad del pensamiento", como las llaman los investigadores, mejoran significativamente el rendimiento del modelo en tareas complejas de razonamiento y planificación. Los investigadores encontraron que los principales modelos de razonamiento, como DeepSeek-R1 y QwQ-32B, desarrollan inherentemente esta capacidad sin instrucción explícita, lo que ofrece una hoja de ruta para que los desarrolladores construyan aplicaciones LLM más robustas y para que las empresas entrenen modelos superiores utilizando sus propios datos internos, informó VentureBeat.
Sin embargo, el rápido avance de la IA también plantea preocupaciones éticas. Un análisis realizado por investigadores de Stanford y la Universidad de Indiana encontró que un mercado civil en línea para contenido generado por IA, respaldado por Andreessen Horowitz, está permitiendo a los usuarios comprar archivos de instrucciones personalizados para generar deepfakes de celebridades. Según MIT Technology Review, algunos de estos archivos fueron diseñados específicamente para crear imágenes pornográficas prohibidas por el sitio. El estudio encontró que entre mediados de 2023 y finales de 2024, una parte significativa de las solicitudes en el sitio fueron para deepfakes de personas reales, y el 90% de estas solicitudes de deepfakes se dirigieron a mujeres.
Las diversas capacidades de los modelos de IA están creando tanto entusiasmo como ansiedad. MIT Technology Review señaló que, si bien algunos modelos como Grok se están utilizando para generar pornografía, otros como Claude Code pueden realizar tareas complejas como construir sitios web y leer resonancias magnéticas. Esto ha generado preocupaciones, particularmente entre la Generación Z, sobre el impacto potencial de la IA en el mercado laboral. Una nueva e inquietante investigación sugiere que la IA tendrá un impacto sísmico en el mercado laboral este año.
La propia industria de la IA se enfrenta a tensiones internas. El ex jefe científico de IA de Meta, Yann LeCun, está compartiendo públicamente sus puntos de vista, mientras que Elon Musk y OpenAI se dirigen a juicio, lo que crea aún más incertidumbre en el campo, según MIT Technology Review.
Discussion
Join the conversation
Be the first to comment