Неконтролируемое развитие передовых технологий становится серьёзной угрозой для всего мира

Гонке ИИ в США не нужны никакие барьеры и моратории

Неконтролируемое развитие передовых технологий становится серьёзной угрозой для всего мира

Я уже писал о том, что Соединенные Штаты в XXI веке стали мировым лидером в деле разработки и использования искусственного интеллекта (ИИ). Хотя разработчики ИИ и эксперты считали, что внедрение ИИ в разные сферы человеческой жизни несет определенные риски, однако плюсов, по их мнению, намного больше. А с рисками в конце концов можно будет справиться. ИИ воспринимался как помощник человека. Помощник, которого при необходимости можно подправить. Такое благодушное настроение среди разработчиков ИИ и экспертов сохранялось в США до 2023 года. 

В американских разработках ИИ в конце 2022 года произошел, образно выражаясь, «квантовый скачок». Американская компания OpenAI объявила о создании чат-бота ChatGPT, который продемонстрировал прорывные возможности в обработке естественного языка, генерации текста, диалогового взаимодействия и решении разнообразных задач. Появление ChatGPT вызвало глобальный интерес к ИИ, вдохновило многих на масштабные инвестиции в развитие технологий ИИ. OpenAI, не сбавляя темпов, продолжала совершенствовать продукт, появлялись обновлённые версии чат-бота: GPT-4o; GPT-4.5; GPT-5 и др. Способности и возможности технологии росли в геометрической прогрессии. 

Однако первые восторги по поводу «прорывного» продукта ИИ быстро закончились. У многих экспертов и у некоторых разработчиков ИИ появился страх и даже ужас. В чем дело? Многим стало понятно, что не за горами момент, когда машины ИИ (роботы) станут умнее человека. А если умнее, то возникает страшный риск, что машины не пожелают более служить людям. Выйдут из подчинения человеку. И могут даже угрожать жизни людей и всего человечества. 

Многим тут же стали приходить на память разные литературные произведения из жанра научно-технической фантастики или антиутопии, посвященные теме «восстания машин». Прежде всего, пьеса 1920 года Карела Чапека R.U.R. (Россумские универсальные роботы); в ней, между прочим, впервые появилось слово «робот». Также его роман «Война с саламандрами» (1936 г.). Также: «Машина желаний» Роберта Шекли (1957 г.); «Железный канцлер» Роберта Силверберга (1958 г.); «Грузовики» Стивена Кинга (1973 г.) и др. 

Уже не приходится говорить о кинематографе. Например, «восстанию машин» посвящена целая серия фильмов известного кинорежиссера Джеймса Кэмерона: «Терминатор» (1984 г.); «Терминатор 2: Судный день» (1991 г.); «Терминатор: Тёмные судьбы» (2019 г.). Также фильм режиссера Джонатана Мостоу «Терминатор 3: Восстание машин» (2003 г.); фильм Алекса Гарленда «Из машины» (2014 г.) и др.

Но то, что раньше казалось фантазиями чудаков от литературы и искусства, в 2023 году оказалось очень даже правдоподобным для многих. Конечно, восстания машин еще не произошло. Но вероятность такого восстания стала уже вполне реальной. Надо было что-то срочно делать. 

Я уже писал об одном из отцов-основателей ИИ Джеффри Хинтоне (род. в 1947 г.), который начинал исследования по этой теме еще в 70-е годы прошлого столетия и внес свой вклад в создание ChatGPT. В 2023 году он неожиданно уволился из компании «Гугл», где был одним из ведущих специалистов. После чего приступил к активной просветительской работе, нацеленной на предупреждение людей о том, какую угрозу несет человечеству ИИ. На ежегодной Всемирной конференции по искусственному интеллекту в Шанхае летом 2025 года Джеффри Хинтон сравнил ИИ с тигренком: «Вообще говоря, держать тигренка в качестве домашнего питомца – плохая идея. И есть два варианта: найти способ научить его никогда не хотеть вас есть или избавиться от него». Через это образное сравнение ИИ Хинтон дает понять, что у человечества есть два способа избавиться от гибели: либо вообще запретить ИИ, либо попытаться его «приручить» через ограничения и контроль. 

Еще одним крестным отцом ИИ наряду с Джеффри Хинтоном является канадский ученый Йошуа Бенжио (род. в 1954 г.). Его очень обеспокоила такая особенность современных моделей ИИ, как стремление к самосохранению и обходу систем контроля и безопасности. Его особенно насторожило то, что в некоторых странах роботам могут дать статус граждан (в Саудовской Аравии был уже создан прецедент в 2017 году; в прошлом году Швеция присвоила гражданство человекоподобному роботу Eva.04, разработанному компанией NordAI). В интервью The Guardian Бенжио сравнил предоставление прав ИИ с дарованием гражданства враждебно настроенным инопланетянам. 

Кроме риска отказа робота от отключения Бенжио назвал такие риски бесконтрольного развития ИИ: обманы, манипуляции (сознанием как отдельных людей, так и общественным), создание и применения против человечества различных видов оружия массового поражения, кибератаки и т. д. 

В своих публичных выступлениях Бенжио призывал к строгому регулированию и международному сотрудничеству в сфере ИИ; созданию ИИ-систем, способных контролировать поведение других моделей; оценке рисков перед внедрением крупных моделей (например, Бенжио поддержал калифорнийский законопроект SB 1047, требующий от компаний проводить такую оценку для моделей стоимостью более 100 млн долларов) и т. д. Для борьбы с рисками, связанными с ИИ, Бенжио основал некоммерческую организацию LawZero. Её цель – разработка безопасных и честных ИИ-систем, ориентированных на прозрачность и честность. Одна из разработок LawZero – система Scientist AI, которая должна выполнять роль «ограждения», выявляя риски действий ИИ-агента. 

Бенжио – член созданного в 2023 году при ООН Консультативного совета по искусственному интеллекту. С его участием в рамках совета в 2024 году был подготовлен доклад «Управление ИИ для человечества». В нем предложены семь ключевых рекомендаций, включая создание независимой международной научной группы по ИИ, запуск межправительственного диалога, учреждение центра обмена стандартами ИИ и другие меры.

Противниками бесконтрольного развития ИИ являются не только отцы-основатели ИИ (такие как Джеффри Хинтон и Йошуа Бенжио), но и многие более молодые специалисты в этой области. Среди них следует отметить Элиезера Юдковского (род. в 1979 г.). Это известный не только в Америке, но и мире исследователь ИИ, сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI). В последние годы в центре его внимания оказались вопросы так называемой «технологической сингулярности» (этим термином обозначается гипотетический момент, когда технологическое развитие становится неуправляемым, что ведет к радикальным изменениям человеческой цивилизации). Также известен своими попытками создать «дружественный ИИ», который бы не угрожал человечеству. 

Осознав бесплодность своих попыток, Юдковский в марте 2023 года в статье для журнала Time призвал к международному мораторию на разработку мощных моделей ИИ. Для обеспечения соблюдения моратория даже предложил использовать силовые методы. Например, уничтожать авиаударами дата-центры нарушителей. Совместно с президентом MIRI Нейтом Соаресом Юдковский в прошлом году выпустил книгу «Если кто-нибудь это построит, все умрут: почему сверхчеловеческий ИИ убьёт нас всех» (If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All). 

Важным событием в истории противостояния бесконтрольному развитию ИИ следует назвать открытое письмо, которое в марте 2023 года подписали более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта. Инициаторами письма выступили глава SpaceX, Tesla Илон Маск и сооснователь Apple Стив Возняк. Текст письма был разработан некоммерческой организацией «Институт будущего жизни» (Future of Life Institute), которая, кстати, спонсируется рядом компаний, занимающихся ИИ. В письме содержится призыв приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски – управляемыми», – говорится в документе. В документе содержится призыв как минимум на шесть месяцев ввести мораторий на обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.

Примечательно, что руководители каких-то компаний индустрии ИИ подписали обращение, а какие-то нет. Так, Сэм Альтман исполнительный директор ведущей американской корпорации в сфере ИИ OpenAI не подписал письмо. А некоторые американские компании ИИ, руководители которых поставили подписи под письмом, тем не менее продолжают гонку в сфере ИИ. «Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», – объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, «это осложняет защиту общества от вреда, который может материализоваться». Если раньше многие корпорации ИИ пиарили свои разработки, то теперь они стали более закрытыми. Тем более закрытыми становятся те компании, которые получают заказы от Пентагона, ЦРУ, АНБ и других спецслужб. Такие, как компания «Палантир», принадлежащая американскому миллиардеру Питеру Тиллю. Прошло уже три года с момента публикации письма, однако гонка в сфере ИИ в США продолжается. Никаких реальных барьеров на пути этой гонки государство не установило. Более того, 47-й президент США Дональд Трамп, кажется, поощряет такую гонку. После Второй мировой войны статус Америки как мировой сверхдержавы обеспечивался за счет доллара США. Сегодня доллар как мировая валюта на излете. И Трамп вместе со своими единомышленниками полагает, что ставку для сохранения и укрепления статуса Америки как сверхдержавы следует делать на ИИ. 

В 2025 году администрация Трампа обнародовала стратегию развития ИИ, направленную на ускорение технологического лидерства США. Документ под названием AI Action Plan включает три ключевых направления: стимулирование инноваций, создание ИИ-инфраструктуры и укрепление позиций страны в международной политике и безопасности в сфере ИИ Главная цель упомянутого плана – сохранить лидерство США в мировой гонке ИИ, не допустить того, чтобы Америку в этой гонке обошел Китай. 

Поднебесная стремительно догоняет Америку в этой гонке и рассчитывает стать мировым лидером к 2030 году. Вместе с тем в Китае еще в августе 2023 года правительство ввело 24 правила регулирования ИИ, включая обязательную регистрацию сервисов и алгоритмов, а также маркировку контента, созданного ИИ, для предотвращения распространения дипфейков и дезинформации. С 1 июля 2025 года вступил в силу закон об ИИ, который классифицирует ИИ-системы по категориям риска и требует для высокорисковых систем обязательных аудитов, стресс-тестов и сертификации.

Что касается Европейского союза, то там в декабре 2023 года был принят закон об искусственном интеллекте (AI Act), который классифицирует системы ИИ по уровням риска и вводит ограничения на их использование. Например, закон запрещает системы неизбирательной дистанционной биометрической идентификации в общественных местах, социального рейтинга, а также решения, манипулирующие поведением или использующие уязвимости человека. Хотя, конечно, в этом законе есть серьезные «дыры». В частности, практически нет никаких ограничений по разработке ИИ в военных целях. 

В последние три года было множество попыток ввести хоть какое-то государственное регулирование в сфере разработки и использования ИИ в США. Но почти все кончались ничем. На уровне нескольких штатов удалось принять законы, ограничивающие разработки ИИ, но эти законы американские корпорации легко обходили и продолжают обходить. Единственным достижением в этой сфере на федеральном уровне можно назвать указ президента Джо Байдена о мерах безопасности в области ИИ от 30 октября 2023 года. Документ был очень мягким, можно сказать рекомендательным. Но в январе прошлого года Трамп отменил и этот указ. 

В марте 2026 года Белый дом опубликовал «Основы национальной политики в области искусственного интеллекта: законодательные рекомендации». Но этот четырёхстраничный документ фактически является индульгенцией для ИИ-компаний. Он рекомендует конгрессу «отменить законы штата об ИИ, которые налагают неоправданное бремя» и избегать создания нового федерального нормотворческого органа, полагаясь на существующие отраслевые регулирующие органы. 

Америка стала угрозой для всего мира, когда в 1945 году завершила разработку ядерного оружия и апробировала его в Хиросиме и Нагасаки. Сегодняшняя Америка с ее неконтролируемым развитием ИИ становится для всего мира «угрозой в квадрате». 

Другие материалы