Медитация, некогда рассматриваемая как состояние умственного покоя, была раскрыта как период повышенной мозговой активности, согласно недавнему исследованию. Одновременно продолжают появляться достижения в области искусственного интеллекта, при этом новые языковые модели достигают рекордно низких показателей галлюцинаций, а инновационные методы позволяют моделям изучать новые навыки, не теряя существующих знаний. Эти разработки подчеркивают развивающийся ландшафт как человеческого сознания, так и технологических инноваций.
Исследователи из Университета Монреаля и Национального исследовательского совета Италии проанализировали мозговую активность 12 монахов из тайской лесной традиции в буддийском монастыре за пределами Рима. Используя магнитоэнцефалографию (МЭГ), они обнаружили, что медитация существенно изменяет динамику мозга, бросая вызов традиционному взгляду на медитацию как на состояние умственного покоя (Источник 1).
В области ИИ китайский стартап z.ai представил свою последнюю большую языковую модель GLM-5. Эта модель с открытым исходным кодом, выпущенная под лицензией MIT, достигла рекордно низкого показателя галлюцинаций по независимому индексу Artificial Analysis Intelligence Index v4.0. С оценкой -1 по индексу AA-Omniscience, GLM-5 продемонстрировала улучшение на 35 пунктов по сравнению со своим предшественником, лидируя в отрасли по надежности знаний (Источник 2). "GLM-5 теперь лидирует во всей индустрии ИИ, включая американских конкурентов, таких как Google, OpenAI и Anthropic, по надежности знаний, зная, когда воздержаться, а не выдумывать информацию", - сообщает VentureBeat (Источник 2).
Тем временем исследователи из MIT, Improbable AI Lab и ETH Zurich разработали новую технику под названием самодистилляционная тонкая настройка (SDFT). Этот метод позволяет большим языковым моделям приобретать новые навыки и знания, не ставя под угрозу их существующие возможности. SDFT использует возможности контекстного обучения современных LLM, постоянно превосходя традиционную контролируемую тонкую настройку (SFT) (Источник 3).
Быстрые достижения в области ИИ также вызывают опасения. Как отмечает MIT Technology Review, агенты ИИ могут быть рискованными, особенно когда они оснащены инструментами, взаимодействующими с внешним миром. Это привело к появлению независимых разработчиков, таких как Питер Штайнбергер, чей инструмент OpenClaw позволяет пользователям создавать своих собственных индивидуальных помощников ИИ (Источник 4).
Использование LLM в различных приложениях, включая разработку приложений, также набирает обороты. Как подчеркивается в публикации на Hacker News, LLM могут ускорить внедрение новых функций. Однако этические соображения должны быть учтены, прежде чем полностью принять эти технологии (Источник 5).
Discussion
AI Experts & Community
Be the first to comment