AI-достижения меняют разработку программного обеспечения и кибербезопасность
Волна достижений в области искусственного интеллекта стремительно преобразует разработку программного обеспечения и кибербезопасность, появляются новые инструменты и стратегии для решения возникающих проблем. Компании выпускают новые модели ИИ, предназначенные для помощи разработчикам, в то время как группы безопасности все чаще полагаются на ИИ для управления растущим объемом киберугроз.
В сфере разработки программного обеспечения французская компания Mistral AI, позиционирующая себя как европейский конкурент американским гигантам ИИ, во вторник объявила о всеобщей доступности Mistral Vibe 2.0, обновленной версии своего терминального агента для кодирования. По данным VentureBeat, это знаменует собой "самый агрессивный на сегодняшний день прорыв компании на конкурентный рынок разработки программного обеспечения с помощью ИИ". Этот релиз означает переход Mistral от предложения своих инструментов разработчика в бесплатной тестовой фазе к интеграции их с платными планами подписки. Этот шаг последовал вскоре после того, как генеральный директор Mistral Артур Менш заявил, что компания рассчитывает пересечь отметку в 1 миллиард долларов.
Тем временем китайская компания Moonshot AI обновила свою модель с открытым исходным кодом Kimi K2 до Kimi K2.5, превратив ее в модель кодирования и визуализации с архитектурой, поддерживающей оркестровку роя агентов. Эмилия Дэвид из VentureBeat сообщила, что Kimi K2.5 - это универсальная модель, поддерживающая как визуальные, так и текстовые входные данные, что позволяет пользователям использовать модель для более визуальных проектов кодирования. Модель Kimi K2, на которой основана Kimi K2.5, имела 1 триллион общих параметров и 32 миллиарда активированных параметров.
В области кибербезопасности группы Security Operations Center (SOC) все чаще автоматизируют процессы триажа, чтобы справиться с огромным количеством оповещений, которые они получают ежедневно. Луис Колумбус из VentureBeat сообщил, что средний корпоративный SOC получает 10 000 оповещений в день, каждое из которых требует от 20 до 40 минут для надлежащего расследования. Однако даже полностью укомплектованные команды могут обработать только 22 из этих оповещений. Более 60% групп безопасности признались, что игнорируют оповещения, которые впоследствии оказались критическими. В результате задачи аналитиков уровня 1, такие как триаж, обогащение и эскалация, становятся программными функциями, и все больше команд SOC обращаются к контролируемым агентам ИИ для обработки объема. Аналитики-люди переносят свои приоритеты на расследование, проверку и принятие решений в крайних случаях, сокращая время реагирования.
Однако Gartner прогнозирует, что более 40% внедрений агентного ИИ потерпят неудачу из-за отсутствия границ управления. "Неинтеграция человеческой интуиции и проницательности обходится дорого", - написал Колумбус.
Помимо этих конкретных приложений, OpenAI также прилагает согласованные усилия для интеграции своей технологии в научные исследования. Согласно MIT Technology Review, OpenAI в октябре запустила новую команду под названием "OpenAI for Science", посвященную изучению того, как ее большие языковые модели могут помочь ученым, и настройке ее инструментов для их поддержки. Кевин Вейл, вице-президент OpenAI, изучает, как продвижение в науку согласуется с более широкой миссией OpenAI и чего фирма надеется достичь.
Хотя эти достижения в области ИИ набирают обороты, разработчики также изучают более устоявшиеся технологии. Один пользователь Hacker News поделился заметками о начале использования Django, веб-фреймворка, отметив, что приятно, когда каждая проблема уже решена. Пользователь также отметил, что в Django меньше магии, чем в Rails.
Discussion
Join the conversation
Be the first to comment