В США хотят создать «Манхэттенский проект» искусственного интеллекта

Очередной прорыв или научное мошенничество на пути к самоуничтожению?

Комиссия по обзору экономики и безопасности США и Китая (USCC ) Конгресса США опубликовала доклад, в котором рекомендовала американским законодателям создать и профинансировать программу по типу «Манхэттенского проекта», направленную на ускоренное развитие так называемого Искусственного общего интеллекта (Artificial General Intelligence – AGI).

AGI – это тип искусственного интеллекта, способный к самообучению, адаптации к ранее неизвестным ситуациям и решению любых когнитивных задач, которые может выполнять человек. Другими словами, это система, которая должна мыслить и действовать, как люди (или даже лучше), а целью исследований в области AGI является создание такого программного обеспечения, которое сможет решать любые задачи, даже те, решению которых оно не обучалось заранее так, как это делает человек. Это следующая ступень в развитии технологий ИИ, направленная на преодоление ограничений нынешних подобных систем и значительно превосходящая их.

На сегодняшний день таких систем не существует из-за разнообразных трудностей, среди которых как технические, так и теоретические проблемы.

«Манхэттенский проект» был секретной программой, которая использовалась правительством США во время Второй мировой войны с целью разработки первых в мире атомных бомб. Комиссия также предложила принять полномочия исполнительной власти по заключению многолетних контрактов и финансированию компаний, занимающихся AGI, облачными технологиями и центрами обработки данных. Они будут направлены на установление «лидерства США в области AGI». 

Министерство финансов США в ноябре 2024 года приняло правило о введении новых ограничений на инвестиции американских венчурных компаний в китайские компании, разрабатывающие модели AGI. США также ввели санкции против Китая, направленные на ограничение его доступа к передовым чипам.

Согласно отчету комиссии, по состоянию на июнь 2024 года 50 компаний в Китае занимались разработкой моделей AGI, тогда как в США, по данным комиссии, лишь небольшое число крупных компаний разрабатывают модели AGI.

Создавшая чат-боты ChatGPT американская компания OpenAI предложила правительству выделить больше средств на разработку AGI в своем «Инфраструктурном плане для США». OpenAI представляет «Манхэттенский проект» в отношении AGI как один из «знаковых инфраструктурных проектов США, которые продвигают страну вперед».

Однако многие ведущие ученые встревожены докладом комиссии Конгресса США. 

Всемирно известный космолог и астрофизик профессор Массачусетского технологического института и соучредитель Института будущей жизни (FLI) Макс Тегмарк опубликовал на сайте института обращение к правительству США, в котором пишет, что «предложение Манхэттенского проекта по AGI – это научное мошенничество… Сделать это – означало бы вступить в гонку к самоуничтожению».

«Предложенный проект AGI Manhattan и фундаментальное недопонимание, которое лежит в его основе, представляют собой коварную растущую угрозу национальной безопасности США. Любая система, превосходящая людей в общем познании и решении проблем, по определению будет превосходить людей в исследованиях и разработках ИИ, и, следовательно, сможет совершенствоваться и воспроизводиться с ужасающей скоростью. Ведущие мировые эксперты по ИИ сходятся во мнении, что у нас нет возможности предсказать или контролировать такую систему, и нет надежного способа согласовать ее цели и ценности с нашими собственными», – отмечает всемирно известный ученый.

Тегмарк указывает, что в докладе комиссии конгресса «совершается научное мошенничество, поскольку предполагается, что AGI почти наверняка поддается контролю. В более общем плане утверждение о том, что такой проект отвечает интересам национальной безопасности, неискренне искажает научные данные и последствия этой преобразующей технологии, о чем свидетельствуют технические путаницы в самом отчете, который, по-видимому, был составлен без особого участия экспертов по ИИ».

С Тегмарком согласен ученый-компьютерщик Джеффри Хинтон, который в октябре 2024 года получил Нобелевскую премию по физике за свои работы в области ИИ. Он сразу же выступил с предупреждением о неконтролируемой человеком мощи технологии ИИ.

«Это будет сравнимо с промышленной революцией, – сказал Хинтон. – Но вместо того, чтобы превосходить людей по физической силе, это превзойдет людей по интеллектуальным способностям. У нас нет опыта того, каково это — иметь вещи умнее нас».

Хинтон, который в свое время ушел из Google, чтобы предупредить о потенциальных опасностях ИИ, считается одним из крестных отцов ИИ.

И хотя Хинтон признает, что ИИ может преобразовать человеческое общества в лучшую сторону, что приведет к «огромному повышению производительности» в таких областях, как здравоохранение, он также подчеркнул потенциал «ряда возможных плохих последствий, в частности, угрозу выхода этих вещей из-под контроля».

«Я обеспокоен тем, что общим последствием этого может стать то, что системы, более разумные, чем мы, в конечном итоге возьмут нас под свой контроль», – сказал он.

Макс Тегмарк, который тесно сотрудничал с Илоном Маском по вопросам ограничения опасностей ИИ, в интервью The Guardian заявил, что влияние Илона Маска на будущую администрацию Трампа может привести к ужесточению стандартной безопасности для искусственного интеллекта.

Маск может помочь избранному президенту осознать, что гонка за искусственный интеллект — это «гонка самоубийства», сказал Макс Тегмарк.

Макс Тегмарк заявил, что поддержка Маском законопроекта SB 1047 в Калифорнии, несмотря на противодействие со стороны многих его коллег-технарей, стала позитивным знаком для сторонников безопасности ИИ. Законопроект, который требовал от компаний проводить стресс-тестирование крупных моделей ИИ перед их выпуском, был наложен вето губернатором Калифорнии Гэвином Ньюсомом. 

Маск неоднократно предупреждал, что безудержное развитие ИИ может иметь катастрофические последствия для человечества. В прошлом году он был одним из более чем 30 000 подписавших письмо, призывающее приостановить работу над мощной технологией ИИ.

В интервью The Guardian Тегмарк заявил, что Маск, который, как ожидается, будет иметь большое влияние в администрации избранного президента, может убедить Трампа ввести стандарты, которые предотвратят развитие AGI.

«Я действительно думаю, что если Илону удастся привлечь внимание Трампа к вопросам ИИ, у нас будет больше шансов получить некие стандарты безопасности, которые предотвратят появление неконтролируемого AGI», – сказал он.

Маск запустил свой собственный стартап ИИ в прошлом году и сказал, что миру нужно беспокоиться о «будущем Терминатора», чтобы предотвратить наихудший сценарий, когда системы ИИ выйдут из-под контроля человека.

Предостережения ведущих ученых относительно угрозы бесконтрольного развития технологий ИИ подтверждаются исследованиями «внутреннего мира» продвинутых моделей чат-ботов.

В мае 2024 года группа американских ученых опубликовала доклад «Dissociating language and thought in large language models» («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

Немецкие учёные из Университета Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

Схожие психометрические методики для исследования системы ценностей различных LLM применили учёные из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «святость», «верность», «гедонизм» и «традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

Именно эта «бездушность» всех моделей ИИ и мотивировала Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Американский военный портал Breaking Defence скептично отнёсся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

Надежды на то, что трезво мыслящие ученые и бизнесмены, как тот же Илон Маск, смогут склонить новую администрацию США к более взвешенному подходу к гонке ИИ-вооружений, на мой взгляд, иллюзорны. 

Военно-промышленный комплекс США выделяет гигантские суммы на создание все более мощных и все более непредсказуемых моделей ИИ и не прислушивается к голосу разума. 

Однако все эти грандиозные прожекты Пентагона основаны на тех самых подтасовках и «искажении научных данных», о которых упомянул Макс Тегмарк. Построенный на таком шатком псевдонаучном основании Терминатор с AGI будет представлять угрозу прежде всего для своих создателей.