Компания Substack сообщила 3 февраля 2026 года о том, что в октябре 2025 года произошла утечка данных, в результате которой были раскрыты адреса электронной почты и номера телефонов пользователей. По словам генерального директора Substack Криса Беста, утечка была связана с несанкционированным доступом к внутренним данным.
Substack уведомляет пострадавших пользователей об инциденте. Компания заявила, что пароли и данные кредитных карт не были скомпрометированы в результате утечки.
В других новостях из мира технологий: ФБР столкнулось с трудностями при получении доступа к данным с iPhone репортера Washington Post после изъятия устройства 14 января 2026 года. Согласно судебным документам правительства США, телефон был защищен режимом Lockdown Mode от Apple. Как сообщает Ars Technica, агенты смогли получить доступ к рабочему ноутбуку репортера, попросив ее использовать сканер отпечатков пальцев. Ордер на обыск был выдан в рамках расследования в отношении подрядчика Пентагона, обвиняемого в незаконной утечке секретной информации.
Тем временем все более очевидной становится проблема предоставления релевантного контекста большим языковым моделям (LLM) для приложений, работающих в режиме реального времени. Анирбан Кунду, технический директор Instacart, назвал это "проблемой рецепта брауни". Согласно VentureBeat, Кунду пояснил, что для того, чтобы LLM действительно помогала в планировании питания, она должна понимать, что доступно на рынке пользователя, его предпочтения (например, органические или обычные яйца) и что можно доставить без порчи.
Раджу Малхотра из Certinia отметил в VentureBeat, что многие пилотные программы в области ИИ не выполняют своих обещаний, потому что ИИ испытывает трудности с контекстом. "ИИ испытывает трудности не потому, что ему не хватает интеллекта. Он испытывает трудности, потому что ему не хватает контекста", - заявил Малхотра. Он утверждает, что контекст часто оказывается в ловушке "Franken-stacks" из разрозненных технологий.
Discussion
AI Experts & Community
Be the first to comment