OpenAI наняла Питера Штайнбергера, создателя программы искусственного интеллекта с открытым исходным кодом OpenClaw, чтобы помочь разработать следующее поколение персональных ИИ-агентов, согласно публикации генерального директора OpenAI Сэма Альтмана в X. Этот шаг предпринят на фоне растущего кризиса чипов в технологической индустрии, когда такие лидеры, как Илон Маск и Тим Кук, предупреждают о нехватке микросхем памяти, которая может повлиять на прибыль и производство в различных секторах. Между тем, некоторые пользователи испытывают негативные стороны ИИ, и один репортер выразил разочарование по поводу питомца на базе ИИ.
Штайнбергер присоединится к OpenAI, чтобы внести свой вклад в передовые исследования и разработки в области ИИ, в то время как OpenClaw останется проектом с открытым исходным кодом, поддерживаемым OpenAI. Штайнбергер заявил, что выбрал OpenAI, чтобы продолжить разработку и обеспечить открытый исходный код OpenClaw. Это решение отражает продолжающуюся конкуренцию и инновации в области ИИ, поскольку компании стремятся привлечь лучшие таланты и разрабатывать передовые технологии.
Технологическая индустрия также сталкивается со значительной проблемой: нехваткой микросхем памяти. С начала 2026 года крупные корпорации, такие как Tesla и Apple, сигнализировали о том, что нехватка DRAM, или динамической памяти с произвольным доступом, ограничит производство. Тим Кук предупредил, что нехватка сократит маржу iPhone, а Micron Technology Inc. назвала узкое место беспрецедентным. Илон Маск подчеркнул неразрешимый характер проблемы, сообщает Fortune.
В то время как разработка ИИ продолжается быстрыми темпами, некоторые пользователи испытывают недостатки этой технологии. Роберт Харт, репортер The Verge, поделился своим негативным опытом работы с питомцем на базе ИИ Casios, Moflin, заявив: «Я ненавижу своего питомца на базе ИИ каждой клеточкой своего существа». Это мнение подчеркивает вероятность того, что ИИ может разочаровать пользователей, даже несмотря на то, что технология обещает новые возможности.
Быстрые достижения в области ИИ также вызывают опасения по поводу надежности и безопасности информации, сгенерированной ИИ. Обзоры ИИ Google, которые предоставляют синтезированные сводки информации, как выяснилось, содержат ошибки и потенциально опасный контент, сообщает Wired. Это подчеркивает необходимость осторожности и критической оценки при взаимодействии с контентом, сгенерированным ИИ.
AI Experts & Community
Be the first to comment