Согласно отчету Fortune, новейшая модель искусственного интеллекта OpenAI, GPT-5.3-Codex, продемонстрировала значительные успехи в возможностях кодирования, потенциально преобразуя разработку программного обеспечения, но в то же время создает беспрецедентные риски кибербезопасности. Модель, которую OpenAI развертывает с жестким контролем и отложенным доступом для разработчиков, превосходит конкурирующие системы по показателям кодирования, что знаменует собой потенциальное преимущество в гонке кодирования на основе искусственного интеллекта. Однако этот прогресс сопряжен с задачей смягчения угроз безопасности, создаваемых ее расширенными возможностями.
Эффективность новой модели в написании, тестировании и анализе кода также вызывает серьезные опасения по поводу кибербезопасности, как подчеркивает Fortune. Это развитие подчеркивает сложную взаимосвязь между технологическим прогрессом и необходимостью надежных мер безопасности.
В то же время цифровой ландшафт сталкивается с другими серьезными угрозами. В недавней статье VentureBeat подробно описана цепочка атак "смена управления идентификацией и доступом (IAM)", когда разработчик, получив, казалось бы, законное сообщение в LinkedIn от рекрутера, может неосознанно установить вредоносный пакет. Затем этот пакет извлекает учетные данные облака, предоставляя злоумышленникам доступ к облачной среде в течение нескольких минут. Эта атака подчеркивает критический пробел в том, как предприятия отслеживают атаки на основе идентификации.
В дополнение к опасениям, в сообщении Hacker News было обнаружено, что реклама в Apple News, предоставляемая Taboola, все чаще воспринимается как мошенничество. Автор отметил повторяемость и низкое качество рекламы, что привело к недоверию к платформе.
В сфере онлайн-конфиденциальности NordProtect предлагает услуги по снижению рисков, связанных с утечками данных, как сообщает Wired. Хотя на сервис легко подписаться, и он обеспечивает хорошую ценность при использовании всех объединенных услуг, эффективность сервиса на практике трудно установить.
Кроме того, AI-сообщество внимательно следит за развитием возможностей AI. Согласно MIT Technology Review, AI-сообщество внимательно следит за прогрессом больших языковых моделей. График METR, поддерживаемый некоммерческой организацией, занимающейся исследованиями в области AI, сыграл важную роль в дискурсе об AI, предполагая, что определенные возможности AI развиваются экспоненциальными темпами.
Discussion
AI Experts & Community
Be the first to comment