Американская корпорация Google удалила из своих принципов разработки искусственного интеллекта формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в военных.
По словам одного из бывших руководителей команды Google по этике при разработке ИИ Маргарет Митчелл, удаление пункта о технологиях, способных причинить вред, может иметь вполне предсказуемые последствия.
«Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», – сказала она.
Один из ключевых членов команды 47-го президента США Дональда Трампа, член его администрации и основатель компаний Tesla и SpaceX Илон Маск, еще в 2015 году подписал открытое письмо с предупреждением о гонке вооружений с ИИ. Под ним подписались более тысячи известных ученых, бизнесменов и экспертов в области искусственного интеллекта, в том числе знаменитый физик Стивен Хокинг. Авторы письма предупреждали, что применение ИИ в военных целях может увеличить число жертв войны.
Характерна реакция на стремительное внедрение ИИ Пентагоном в новые проекты вооружений и военной техники либеральных СМИ США.
«За последние месяцы технологические отрасли объявили о множестве новых партнерств и инициатив по интеграции технологий ИИ в смертоносное оружие. OpenAI, компания, которая рекламировала безопасность как основной принцип, объявила о новом партнерстве со стартапом оборонных технологий Anduril, ознаменовав тем самым свой выход на военный рынок. Anduril и Palantir, фирма по анализу данных, ведут переговоры о формировании консорциума с группой конкурентов для совместного участия в торгах на оборонные контракты. В ноябре [запрещённая в России] Meta* объявила о соглашениях о предоставлении своих моделей ИИ оборонным подрядчикам Lockheed Martin и Booz Allen. Ранее в этом году Пентагон выбрал стартап ИИ Scale AI для помощи в тестировании и оценке больших языковых моделей в различных областях применения, включая военное планирование и принятие решений», – пишет The New York Times, признавая стремительное внедрение ИИ в автономные системы вооружений, но перекладывая ответственность за это на команду Дональда Трампа.
«Пентагон уже рассматривает возможность внедрения ИИ во многие военные задачи, что потенциально усиливает риски и создает новые и серьезные уязвимости кибербезопасности. И теперь, когда Дональд Трамп вступил в должность, технологическая индустрия движется полным ходом в своем стремлении интегрировать продукты ИИ в оборонное ведомство, что может сделать опасную ситуацию еще более опасной для национальной безопасности», – пишет лидер либеральной прессы США, делая вид, что это ужасные милитаристы из технологических компаний склонили Пентагон использовать искусственный интеллект в военных целях, а миролюбивые американские генералы просто не ведают, что творят.
На самом-то деле современные разработки современных систем вооружений уже достаточно давно включают в себя системы управления на основе ИИ, но первопроходцами этого смертоносного направления были американцы – без различия их политических взглядов.
В своем выступлении в августе 2023 года тогдашний заместитель министра обороны США Кэтлин Хикс заявила, что Пентагон заложил основы для «создания – прямо сейчас – армии, управляемой данными и оснащенной искусственным интеллектом», создав «Объединенное совместное общедоменное командование и управление» (CJADC2).
«Это не платформа или отдельная система, которую мы покупаем. Это целый набор концепций, технологий, политик и талантов, которые продвигают основную функцию ведения боевых действий США», – отметила Хикс.
В июне 2023 года Министерство обороны США опубликовало «Стратегию внедрения данных, аналитики и искусственного интеллекта». Подзаголовок документа «Ускорение принятия решений» подчеркивает, что в Пентагоне делают ставку на ИИ как на ключевой инструмент сохранить военное превосходство над геополитическими соперниками.
«Последние достижения в области технологий данных, аналитики и искусственного интеллекта (ИИ) позволяют лидерам быстрее принимать лучшие решения, от зала заседаний до поля боя. Поэтому ускорение внедрения этих технологий представляет собой беспрецедентную возможность снабдить лидеров на всех уровнях министерства необходимыми им данными и использовать весь потенциал полномочий наших людей по принятию решений», – говорится в документе.
В текущей реальности гонку ИИ вооружений уже невозможно остановить. Вот несколько примеров уже используемого оружия на основе ИИ:
Harpy – израильский беспилотник-камикадзе, который использует искусственный интеллект для автономного поиска и уничтожения радиолокационных излучателей и систем ПВО;
SGR-A1 – южнокорейская автоматизированная роботизированная система с башенным орудием, производимая компанией Samsung. Она использует ИИ для обнаружения человеческих целей и атаки их огнестрельным оружием без вмешательства человека. Она развернута вдоль Корейской демилитаризованной зоны;
Sky Warrior / Predator XP – американский беспилотник с ИИ с улучшенной автоматизацией и автономностью. Он может совершать атаки без человеческого контроля. Используется для атак на особо ценные цели;
Mantis – управляемый ИИ пулемет, разработанный американской компанией SparkCognition. Использует компьютерное зрение для автоматического обнаружения и отслеживания человеческих целей и наведения прицела стрелка без ручной корректировки;
A10-AJ – усовершенствованная версия ИИ, разработанная Boeing для штурмовика A10 Warthog. Использует компьютерное зрение для определения целей быстрее, чем люди. Позволяет пилотам отражать больше угроз за меньшее время. Для запуска оружия по-прежнему требуется человек-оператор;
Informant V2 – система распознавания целей на основе искусственного интеллекта, разработанная британской корпорацией BAE Systems. Предназначена для помощи солдатам в выявлении потенциальных угроз и сосредоточении их внимания на том, что наиболее важно в боевых ситуациях;
LOCUST: система, состоящая из роя дронов с ИИ, разрабатываемая ВВС США. Рой может автономно обнаруживать и идентифицировать цели, а затем координировать атаку с минимальным вмешательством человека.
XQ-58A Valkyrie – тактический автономный самолет, управляемый ИИ. Разработка компании Kratos Defense & Security Solutions (США).
Это далеко не полный список автономных систем вооружений, управляемых ИИ.
Разрабатываются управляемые ИИ ракеты, которые могут автономно идентифицировать и отслеживать движущиеся цели. К ним относятся, в частности, американские микродроны Perdix и китайские ракеты DR-8. Построена первая автономная подводная лодка – XLUUV (Orca) компании Boeing. Создаются разведывательные и ударные беспилотные корабли с ИИ для разведки, например Sea Hunter и Sea Hawk ВМС США, а также норвежский дрон Black Hornet.
Самой масштабной разработкой Пентагона в сфере автономных дронов с ИИ является программа Replicator, которая нацелена на «борьбу с китайской ракетной мощью в теоретическом конфликте за Тайвань или на восточном побережье Китая».
Планируется использовать «истощаемые автономные системы» против китайской «массы». «Истощаемое» – это термин Пентагона, который означает, что оружие относительно недорогое и что некоторая значительная часть дронов будет уничтожена.
«Мы поставили большую цель для Replicator – развернуть истощаемые автономные системы в масштабе нескольких тысяч, в нескольких доменах, в течение следующих 18–24 месяцев», – заявила Хикс. По ее словам, американские «общедоменные, истощаемые автономные системы помогут преодолеть китайские системы ПРО и ПВО».
Главная опасность распространения автономных вооружений с ИИ: облегчение принятия политического решения на начало войны, так как автономные системы вооружений якобы смогут свести к минимуму потери американских солдат.
Но есть довольно высокая вероятность, что в условиях войны высокой интенсивности все может произойти с точностью до наоборот.
Особую опасность несет намерение Пентагона использовать ИИ для принятия решения о нанесения ядерного удара.
В настоящее время американская система командования JADC2 предназначена для координации боевых действий между неядерными американскими силами. Однако ожидается, что она будет связана с ядерными командно-контрольными и коммуникационными системами Пентагона (NC3), что потенциально предоставит ИИ значительный контроль над использованием американского ядерного арсенала.
«JADC2 и NC3 взаимосвязаны», – указал в интервью 2020 года генерал Джон Э. Хайтен, заместитель председателя Объединенного комитета начальников штабов. Он также добавил на типичном пентагонском слэнге: «NC3 должен информировать JADC2, а JADC2 должен информировать NC3».
«Не нужно обладать большим воображением, чтобы представить себе время в не столь отдаленном будущем, когда какой-либо кризис – скажем, военное столкновение США и Китая в Южно-Китайском море или около Тайваня – спровоцирует еще более интенсивные бои между противоборствующими воздушными и морскими силами. Представьте себе, что JADC2 отдает приказ об интенсивной бомбардировке вражеских баз и командных систем в самом Китае, вызывая ответные атаки на американские объекты и молниеносное решение JADC2 нанести ответный удар тактическим ядерным оружием, вызывая давно ожидаемый ядерный холокост», – указывает аналитик американской Ассоциации по контролю над вооружениями Майкл Клэр.
«Все смерть, собак войны с цепи спуская!» – заявил в свое время один из персонажей Шекспира. В текущей реальности американские милитаристы спустили с цепи опаснейших собак, которые вряд ли будут подчиняться своим хозяевам. Но если эти автономные псы война покусают своих создателей, мы плакать не будем.