Nvidia объявила о двух значительных достижениях, направленных на резкое снижение затрат, связанных с большими языковыми моделями (LLM), потенциально сокращая расходы до восьми раз, согласно многочисленным сообщениям. Исследователи компании представили Dynamic Memory Sparsification (DMS), метод сжатия кеша ключевых значений, и vdb, облегченную библиотеку C для эффективного хранения и поиска высокоразмерных векторных вложений.
Инновации, подробно описанные в сообщениях Hacker News, предназначены для решения проблем с ограничениями памяти и повышения эффективности обработки сложных данных в LLM. DMS стремится оптимизировать обработку информации в моделях, в то время как vdb предлагает упрощенное решение для управления большими наборами данных, часто требуемыми этими передовыми системами ИИ.
Эти достижения появляются в то время, когда область механистической интерпретируемости в LLM привлекает все больше внимания. По мере того, как LLM становятся больше и способнее, понимание их внутренней работы становится все более важным, как подчеркивается в публикации Hacker News. Исследователи и инженеры стремятся разработать прочную теоретическую основу для понимания «интеллекта», возникающего из LLM, аналогично тому, как инженеры-программисты извлекают пользу из понимания файловых систем и сетей. Гипотеза линейного представления и суперпозиция — две фундаментальные концепции в этой области, согласно тому же источнику.
В других новостях, Georgia Tech представила финалистов своего ежегодного музыкального конкурса Guthman, демонстрируя инновационные и нетрадиционные инструменты, согласно The Verge. В этом году в число финалистов вошли Fiddle Henge, играбельный хендж, сделанный из скрипок, и Demon Box, коммерческий инструмент, который преобразует электромагнитное излучение в музыку.
Тем временем, лондонский корреспондент NPR, Лорен Фрейер, прибыла в Лондон после многих лет работы в Индии, освещая Великобританию с учетом наследия империи, согласно NPR News.
Discussion
AI Experts & Community
Be the first to comment