ИССЛЕДОВАНИЕ МЕДИТАЦИИ ВЫЯВЛЯЕТ ПОВЫШЕННУЮ АКТИВНОСТЬ МОЗГА; РАЗВИТИЕ ИИ ДЕМОНСТРИРУЕТ ПРОГРЕСС И РИСКИ
РИМ, ИТАЛИЯ - В исследовании, бросающем вызов общепринятым представлениям, ученые обнаружили, что медитация — это не состояние покоя мозга, а скорее состояние повышенной мозговой активности. Одновременно в сфере ИИ наблюдались значительные разработки: китайский стартап в области ИИ достиг рекордно низкого уровня галлюцинаций, а исследователи из MIT представили новый метод точной настройки для больших языковых моделей. Однако сохраняются опасения по поводу безопасности ИИ-ассистентов, о чем свидетельствует появление нового инструмента, созданного независимым инженером-программистом.
Исследователи из Университета Монреаля и Национального исследовательского совета Италии проанализировали активность мозга 12 монахов тайской лесной традиции, используя магнитоэнцефалографию (МЭГ), согласно сообщению Wired. Исследование, проведенное в буддийском монастыре за пределами Рима, показало, что медитация глубоко изменяет динамику мозга.
Тем временем в мире ИИ компания Zhupai (z.ai) запустила свою новую большую языковую модель GLM-5, которая достигла рекордно низкого уровня галлюцинаций по данным независимого индекса Artificial Analysis Intelligence Index v4.0, сообщает VentureBeat. Модель набрала -1 балл по индексу AA-Omniscience, что представляет собой улучшение на 35 пунктов по сравнению с предыдущей версией. Это ставит GLM-5 впереди конкурентов, таких как Google, OpenAI и Anthropic, по надежности знаний.
Исследователи из MIT также добились успехов в разработке ИИ. Они разработали новую технику под названием самодистилляционная точная настройка (SDFT), которая позволяет LLM изучать новые навыки, не забывая свои существующие знания, сообщает VentureBeat. Этот метод использует возможности контекстного обучения современных LLM и неизменно превосходит традиционную контролируемую точную настройку.
Однако быстрое развитие ИИ также вызывает опасения по поводу безопасности. Независимый инженер-программист Питер Штайнбергер создал OpenClaw, инструмент, который позволяет пользователям создавать собственных индивидуальных ИИ-ассистентов, сообщает MIT Technology Review. Проект стал вирусным в конце января 2026 года. В статье отмечается, что «ИИ-агенты — рискованное дело» и что даже в окне чат-бота LLM могут совершать ошибки.
Эти события происходят на фоне других глобальных событий, таких как заявление США о том, что Китай проводит секретные ядерные испытания, о чем сообщает NPR Politics. США утверждают, что Китай, возможно, разрабатывает новые ядерные боеголовки для своего гиперзвукового оружия.
Discussion
AI Experts & Community
Be the first to comment