Разработка ИИ стремительно развивается, но глобальное сотрудничество в области мер безопасности сталкивается с проблемами. Новый Международный отчет по безопасности ИИ, опубликованный в преддверии саммита AI Impact в Дели 19-20 февраля, подчеркивает ускоряющиеся темпы развития ИИ и растущее количество свидетельств связанных с этим рисков. Однако, в отличие от предыдущего года, Соединенные Штаты отказались поддержать отчет этого года, по словам Йошуа Бенжио, председателя отчета и ученого, удостоенного премии Тьюринга.
Отчет, подготовленный 100 экспертами при поддержке 30 стран и международных организаций, включая Великобританию, Китай и Европейский Союз, был направлен на то, чтобы показать пример международного сотрудничества в решении проблем ИИ. В отчете сделан вывод о том, что текущие методы управления рисками совершенствуются, но остаются недостаточными.
Тем временем внутри предприятий основное внимание переключается на практическое внедрение ИИ. Арнаб Бозе, CPO Asana, подчеркнул важность общей памяти и контекста для успешной работы агентов ИИ. Выступая на недавнем мероприятии VentureBeat в Сан-Франциско, Бозе заявил, что предоставление агентам ИИ подробной истории и прямого доступа, а также контрольных точек и надзора со стороны человека позволяет им функционировать как активные члены команды. В прошлом году Asana запустила Asana AI Teammates с целью интеграции ИИ непосредственно в команды и проекты.
Mistral AI также сотрудничает с мировыми лидерами отрасли для совместной разработки специализированных решений в области ИИ. Согласно MIT Technology Review, Mistral AI сотрудничает с такими компаниями, как Cisco, Stellantis и ASML, для настройки систем ИИ для решения конкретных задач. Их методология включает в себя определение "знакового варианта использования", который послужит основой для будущих решений в области ИИ.
Однако сохраняются опасения по поводу потенциального злоупотребления ИИ. Исследование, проведенное исследователями из Стэнфорда и Университета Индианы, о котором сообщило MIT Technology Review, изучило гражданскую онлайн-площадку, поддерживаемую Andreessen Horowitz, которая позволяет пользователям покупать пользовательские файлы инструкций для создания дипфейков знаменитостей. Исследование показало, что некоторые файлы были специально разработаны для создания порнографических изображений, несмотря на запреты сайта. Исследователи проанализировали запросы на контент, называемые "вознаграждениями", в период с середины 2023 года до конца 2024 года.
С другой стороны, разработчики работают над инструментами для оптимизации управления конфигурациями ИИ. Hacker News сообщил о LNAI, унифицированном CLI для управления конфигурациями ИИ, разработанном Кристианом Йонкой. LNAI стремится упростить процесс управления конфигурациями для различных инструментов кодирования ИИ, позволяя пользователям определять конфигурации один раз в файле ".ai", а затем синхронизировать их между различными инструментами. Поддерживаемые инструменты включают Claude, Codex, Cursor, Gemini CLI, GitHub Copilot, OpenCode и Windsurf. Инструмент доступен через npm и включает в себя функции для проверки и автоматической очистки потерянных файлов.
Discussion
AI Experts & Community
Be the first to comment