Un estudio reciente de Google reveló que los modelos de IA de razonamiento avanzado mejoran significativamente la precisión en tareas complejas al simular debates internos que involucran diversas perspectivas, rasgos de personalidad y experiencia en el dominio. La investigación, realizada por Google y publicada el 30 de enero de 2026, demostró que este enfoque de "sociedad del pensamiento" mejora el rendimiento del modelo en tareas complejas de razonamiento y planificación, según VentureBeat.
Los investigadores descubrieron que los principales modelos de razonamiento, como DeepSeek-R1 y QwQ-32B, entrenados mediante aprendizaje por refuerzo (RL), desarrollan inherentemente la capacidad de participar en estos debates internos sin instrucción explícita. Estos hallazgos ofrecen una hoja de ruta para que los desarrolladores construyan aplicaciones de modelos de lenguaje grandes (LLM) más robustas y para que las empresas entrenen modelos superiores utilizando sus propios datos internos, informó VentureBeat.
En otras noticias tecnológicas, Shield Android TV de Nvidia, lanzado por primera vez en 2015, continúa recibiendo actualizaciones, lo que marca una década de soporte para el dispositivo. Según Ars Technica, este soporte a largo plazo es un "trabajo de amor" para la empresa. Andrew Bell, vicepresidente sénior de ingeniería de hardware de Nvidia, aseguró que el equipo de Nvidia todavía ama Shield. Este compromiso con las actualizaciones a largo plazo contrasta con el soporte de actualizaciones limitado que se ofrece normalmente para los dispositivos Android en el pasado.
Mientras tanto, el uso de la IA para generar deepfakes ha suscitado preocupaciones éticas. Un estudio de investigadores de Stanford y la Universidad de Indiana encontró que una parte significativa de las solicitudes en el mercado en línea Civitaian, respaldado por Andreessen Horowitz, eran para deepfakes de personas reales, y el 90% de estas solicitudes estaban dirigidas a mujeres, según MIT Technology Review. El estudio, que aún no ha sido revisado por pares, examinó las solicitudes de contenido en el sitio, llamadas "recompensas", entre mediados de 2023 y finales de 2024. Algunos de estos archivos fueron diseñados específicamente para crear imágenes pornográficas prohibidas por el sitio.
Discussion
Join the conversation
Be the first to comment