OpenAI прекратила доступ к своей модели GPT-4o после жалоб пользователей и юридических претензий, в то время как ноутбук репортера BBC был взломан через платформу для кодирования с использованием ИИ, что подчеркивает растущую обеспокоенность по поводу безопасности ИИ и этических последствий. Эти события, о которых сообщили несколько источников, включая TechCrunch и BBC, подчеркивают стремительное развитие ИИ и проблемы управления его потенциальными рисками.
Решение OpenAI убрать модель GPT-4o, несмотря на низкий процент использования, отражает сложные этические соображения, связанные с разработкой и развертыванием моделей ИИ, сообщает TechCrunch. Этот шаг был предпринят в ответ на жалобы пользователей и юридические претензии, связанные с поведением модели.
Одновременно с этим ноутбук репортера BBC был успешно взломан через Orchids, платформу для кодирования с использованием ИИ, которой пользуются миллион пользователей, включая крупные компании. Этот инцидент, о котором сообщила BBC, выявил значительную уязвимость кибербезопасности в инструменте "vibe-coding", который позволяет пользователям без опыта кодирования создавать приложения. Эксперты выразили обеспокоенность по поводу последствий этого недостатка безопасности, учитывая широкое использование платформы и отсутствие реакции со стороны компании.
Эти события являются частью более широкой тенденции, связанной с проблемами кибербезопасности и этическими дебатами вокруг ИИ. Как сообщает Hacker News, волатильность рынка криптовалют, включая приостановку деятельности BlockFills, также внесла свой вклад в новости недели. Кроме того, выпуск китайским стартапом в области ИИ MiniMax языковой модели M2.5 с открытым исходным кодом вызвал дискуссии относительно природы программного обеспечения с открытым исходным кодом и ожиданий пользователей, подчеркивая, что пользователи не имеют права влиять или требовать изменений в проектах с открытым исходным кодом.
В новостях по теме, Amazon Ring отменила партнерство с Flock Safety, компанией, занимающейся камерами видеонаблюдения на основе ИИ, после первоначального планирования разрешить пользователям Ring делиться отснятым материалом с правоохранительными органами. Это решение, о котором сообщила TechCrunch, последовало за общественной обеспокоенностью и спорами вокруг функций Ring на основе ИИ, таких как функция "Search Party" и потенциальная расовая предвзятость в наблюдении на основе ИИ.
На фоне этих событий появление таких проектов, как IronClaw, помощника ИИ с открытым исходным кодом, ориентированного на конфиденциальность и безопасность, предлагает альтернативный подход. IronClaw, как описано на Hacker News, построен на принципе, что помощник ИИ должен работать для пользователя, а не против него, при этом все данные хранятся локально, зашифрованы и никогда не покидают контроль пользователя.
Discussion
AI Experts & Community
Be the first to comment