Тихие шепотки начались незаметно, в подсобках AI-конференций и во время ночных сессий программирования. "AGI", – бормотали они, сокращение от Artificial General Intelligence, гипотетического момента, когда машины достигнут человеческого уровня интеллекта и превзойдут его. То, что начиналось как законная, хотя и амбициозная, исследовательская цель, согласно новой эксклюзивной электронной книге, превратилось в нечто гораздо более сложное: в значимую теорию заговора, захватывающую направление целой отрасли.
В течение многих лет стремление к AGI подпитывало двигатель Кремниевой долины. Венчурные капиталисты вливали миллиарды в стартапы, обещающие раскрыть секреты сознания, в то время как исследователи гнались за все более неуловимыми ориентирами. Обещание AGI – мира, преобразованного сверхразумными машинами, способными решить самые насущные проблемы человечества, – стало мощным нарративом, привлекающим лучшие таланты и поднимающим оценки до головокружительных высот.
Но, как показывает электронная книга, написанная Уиллом Дугласом Хэвеном, нарратив AGI принял более мрачный оборот. Основной аргумент заключается не в том, что AGI невозможен, а в том, что неустанная сосредоточенность на нем стала самоисполняющимся пророчеством, своего рода заговором, где стремление к отдаленной, возможно, недостижимой цели затмевает более непосредственные и полезные применения ИИ.
Электронная книга углубляется в то, как менталитет "AGI-pilled" проник в Кремниевую долину, влияя на инвестиционные решения, исследовательские приоритеты и даже этические соображения. Компании, движимые страхом отстать в гонке AGI, отдают приоритет эффектным демонстрациям и смелым заявлениям, а не практическим решениям и ответственному развитию.
"Проблема не в самой мечте об AGI", – пишет Хэвен. "Проблема в том, как эта мечта была превращена в оружие, использована для оправдания ничем не сдерживаемой власти и для отвлечения внимания от реального вреда, который ИИ причиняет сегодня".
Одним из примеров, выделенных в электронной книге, является распространение технологий наблюдения на основе ИИ. В то время как сторонники утверждают, что эти системы необходимы для безопасности и эффективности, критики предупреждают об их потенциале для злоупотреблений и дискриминации. Нарратив AGI, как предполагает электронная книга, обеспечивает удобное оправдание для этих технологий, представляя их как необходимые шаги на пути к светлому будущему, основанному на ИИ.
Электронная книга также исследует растущий скептицизм в отношении AGI внутри самого AI-сообщества. Многие исследователи сейчас ставят под сомнение возможность достижения человеческого уровня интеллекта в машинах, утверждая, что нынешняя сосредоточенность на глубоком обучении и нейронных сетях вряд ли даст желаемые результаты.
"Мы годами гонялись за этим миражом AGI", – говорит доктор Аня Шарма, ведущий специалист по этике ИИ, цитируемая в электронной книге. "Пришло время переориентировать наши усилия на создание систем ИИ, которые действительно полезны и выгодны, а не гоняться за гипотетическим будущим, которое может никогда не наступить".
Электронная книга завершается призывом к более тонкому и критическому подходу к разработке ИИ. Она призывает читателей подвергать сомнению доминирующие нарративы, окружающие AGI, требовать большей прозрачности и подотчетности от AI-компаний и отдавать приоритет этическим соображениям над технологическим прогрессом. Как утверждается в электронной книге, будущее ИИ зависит не от достижения AGI, а от обеспечения того, чтобы ИИ использовался ответственно и на благо всех. Великая коррекция хайпа ИИ 2025 года, как ранее писал Хэвен, может быть только началом необходимого переосмысления. Вопрос сейчас в том, прислушается ли отрасль к предупреждению и выберет ли более устойчивый и этичный курс.
Discussion
Join the conversation
Be the first to comment