Известный тайваньско-американский ученый в области компьютерных технологий Ли Кайфу назвал появление искусственного интеллекта (ИИ) третьей революцией в военном деле, считая двумя первыми изобретение пороха и ядерного оружия.
«Теперь такое оружие, – говорит Ли Кайфу, – может убивать самостоятельно… – и все это может происходить без вмешательства человека». В качестве примера он приводит израильскую беспилотную систему Harpy, которую можно запрограммировать на воздушное патрулирование определенного района, охоту на определенные цели и их уничтожение при помощи ракет.
Ярким примером использования «умных машин для убийства» Ли Кайфу называет попытку покушения на венесуэльского президента Николаса Мадуро в 2018 году, когда тот был атакован группой начиненных взрывчаткой беспилотников. Охрана смогла их уничтожить, но потеряла несколько человек.
В последние годы ИИ всё больше используется в военных целях. В декабре 2020 года командование ВВС США сообщило о первом использовании системы ИИ как полноценного «второго пилота» в ходе полета разведывательного самолета U-2. Система ИИ, использованная в полете U-2, получила название ARTUµ. В ходе тренировочного полета ARTUµ контролировал сенсоры и тактическую навигацию самолета-ветерана ВВС США по прозвищу Dragon Lady. Алгоритм успешно выполнил функции, обычно исполняемые вторым пилотом.
В начале 2010-х годов компания iRobot, известная своими роботами-пылесосами, представила несколько военных роботов, которые могут использоваться для обезвреживания мин и других взрывных устройств на расстоянии.
Два года назад стартап Guardbot представил одноименного мини-робота – вездеход сферической формы. Он может осуществлять слежку за движущимся объектом на суше и на воде, патрулировать территорию или периметр, обнаруживать несанкционированное проникновение, взрывное устройство или другой опасный объект.
В ноябре 2021 года Федерация американских ученых (FAS) представила конгрессу специальный доклад, посвященный ИИ и национальной безопасности. В нем говорится, что Министерство обороны США в настоящее время ведет уже около 600 проектов с применением ИИ, а инвестиции Пентагона в такие проекты выросли с $600 млн в 2016 году до $2,5 млрд в 2021 финансовом году.
И тем не менее нынешнее состояние разработок в области ИИ не позволяет говорить о революции в военном деле: все операции, которые выполняют автономные системы вооружений лишь облегчают планирование и выполнение боевых задач, не приводя к появлению операционных и организационных инноваций.
Однако в ближайшие годы ситуация может измениться. Магистральный путь развития систем ИИ, по мнению Сергея Карелова, лежит на пути создания «нечеловеческого интеллекта». На этом пути уже достигнуты серьезные прорывы. Компания Google, развивая технологии, основанные на машинном обучении в простейшей модели окружающей среды, добилась впечатляющих результатов: генерации системой текстов такого качества, что они кажутся вполне осмысленными даже для эксперта; решение системой задачи высокоточного предсказания пространственной структуры белков; появление у системы способности планировать выигрышные стратегии в неизвестной среде без необходимости объяснять правила. Эти выдающиеся достижения переводят количество в качество.
Отсутствие у «нечеловеческого интеллекта» самосознания, собственной системы ценностей и индивидуального целеполагания не ограничивает их эффективность. В настоящее время крупнейшие фигуры в индустрии ИИ считают, что «существующий подход достаточен для реализации нечеловеческого интеллекта, способного решать широкий спектр задач».
Искусственный интеллект с возможностями, намного превышающими интеллект даже самых талантливых командиров, даст армии, на стороне которой он сражается, неоспоримое преимущество в принятии победных решений. Это и будет настоящей революцией в военном деле. Такое уже произошло на фондовом рынке, где квантовый трейдинг с помощью мощных компьютерных программ за считаные микросекунды принимает наилучшее решение, на которое даже самому опытному брокеру требуются десятки минут.
Однако, если противник тоже обладает подобными кибервоеводами, то при прочих равных возможностях можно ожидать «кризиса аналитичности», ведущего в позиционной войне. Выход из такого кризиса может состоять в принятии «глупых» с точки зрения ИИ решений. Впрочем, такой подход может использовать и противник, и это увековечит позиционный тупик.
Прогнозировать загоризонтные перспективы применения ИИ столь же непродуктивно, как вычислять, уподобляясь средневековым схоластам, число ангелов, способных поместиться на острие иглы.
Любая революция в военном деле подобна молнии: о ней узнаешь, когда она поражает.