Чем сложнее становятся чат-боты, тем сложнее понять, как они работают

Сон западного разума рождает угрожающих человечеству киберчудовищ

Чем сложнее становятся чат-боты, тем сложнее понять, как они работают

Компания OpenAI, создавшая линейку чат-ботов GPT, решила узнать, как устроен искусственный интеллект этих киберголемов, и поручила это ответственное задание самому совершенному из них чат-боту GPT-4. 

Ранее попытки исследователей из OpenAI самостоятельно «заглянуть в душу» своих собственных созданий не увенчались успехом. Более того, чем сложней становятся чат-боты, тем сложней понять, как они работают, «что приводит к отсутствию прозрачности и объяснимости». 

Наконец, в OpenAI просто взяли, да и переложили эту неподъемную для людского разума задачу на плечи самому мощному чат-боту GPT-4 с числом нейронов более ста миллиардов, предписав ему заглянуть внутрь кибермозга его слабейшего собрата GPT-2, у которого всего-то чуть более 300 тысяч нейронов. 

Архитектура нейронных сетей ИИ повторяет структуру человеческого мозга. Клетки человеческого мозга, называемые нейронами, образуют сложную сеть с высокой степенью взаимосвязи и посылают друг другу электрические сигналы, обрабатывая поступающую информацию. Точно так же искусственная нейронная сеть состоит из искусственных нейронов, которые взаимодействуют для решения проблем. Искусственные нейроны – это программные модули, называемые узлами, а искусственные нейронные сети – это сложные многоуровневые программы.

GPT-4 с блеском справился с заданием, поручив GPT-2 ряд заданий, которые тот выполнил. Результат оказался весьма неожиданным. 

Многие нейроны внутри маленького чат-бота оказались многозначными – они реагировали на множество самых разных входных данных: смесь академических цитат, диалогов на английском языке, HTTP-запросов, текстов на корейском языке… Иными словами, эти нейроны оказались, образно говоря, многостаночниками, владея несколькими «профессиями».

Разобраться в причинах этой многозначности GPT-4 не смог. Ответ был получен аналитиками из компании Anthropic, основанной выходцем из OpenAI Дарио Амодеем.

Аналитики Anthropic, проведя ряд экспериментов, обнаружили, что главной причиной многозначности является так называемая «суперпозиция», когда внутри нейронной сети чат-бота симулируется физически несуществующая нейронная сеть некоего абстрактного ИИ, которая гораздо больше и сложнее нейронной сети, ее моделирующей.

Эта созданная чат-ботом в полном смысле виртуальная сеть содержит симулируемые вполне однозначные «субнейроны» (соответствующие конкретным понятиям).

Собственно говоря, этого можно было ожидать. Созданные человеком чат-боты – это сложные адаптивные системы, которые, как известно из курса теории систем, обладают свойством эмерджентности (emergent – «возникающий, неожиданно появляющийся»), когда система сложней простой суммы составляющих ее элементов (кирпич + проект = дом).

Таким образом, было установлено, что внутри даже самого слабого чат-бота при выполнении любого задания генерируется гораздо более мощный вычислительный ИИ, который при этом физически не существует, как своего рода «Киберлетучий голландец». 

На что способен этот супер-ИИ, рассказывается в новом исследовании главного научного сотрудника Google DeepMind профессора лондонского Имперского колледжа Мюррея Шенахана и профессора Лондонского университета Кэтрин Кларк.

Шенахан и Кларк поставили задачу проверить наличие у GPT-4 воображения, позволяющего чат-боту проявлять творческие способности при написании (в соавторстве с человеком) литературного текста, в данном случае фантастического романа о путешествии во времени.

В ходе эксперимента было показано, что в соавторстве с человеком и при наличии сложных подсказок чат-бот демонстрирует просто-таки утонченное воображение. 

«Это продукт творчества модели, ибо ничего подобного люди до нее не придумали (этого не было в каких-либо текстах людей): например, появляющиеся по ходу романа придуманные моделью новые персонажи и сюжетные повороты; новые неологизмы, служащие для раскрытия идейного содержания сюжета – отнюдь не бессмысленные, семантически верные и контекстуально релевантные», – комментирует результат эксперимента британских ученых российский IT-аналитик Сергей Карелов.

Итак, экспериментально доказано, что сложные системы ИИ от майкрософтовской OpenAI обладают воображением и творческими способностями. Последние разработки международной команды VERSES AI обладают, как мы писали, ещё более мощным интеллектом и креативными способностями.

Это делает западные разработки ИИ ещё более опасными и непредсказуемыми. Креативные способности и наличие воображения у чат-ботов на самом деле вытекает из наличия у них так называемых «галлюцинаций», которые так беспокоят американских разработчиков ИИ. Сложные модели ИИ по-прежнему остаются непрозрачными, а принцип их работы – необъяснимым.

Разработчики чат-ботов и пользователи не могут управлять симулированием виртуальных сверхмощных ИИ-сетей, создаваемых чат-ботами. Глубинный «разум» неживых интеллектуальных агентов человеку неподконтролен и от него можно ожидать любых неожиданностей. 

IT-аналитики Стэнфордского университета опубликовали прогноз возможных последствий развития ИИ в 2024 году. Они прогнозируют, что дезинформация и дипфейки захлестнут весь мир. В частности, «мы увидим распространение видеороликов, в которых люди “говорят” то, чего они никогда не говорили». Появятся первые ИИ-агенты, которые не только помогают людям, но и делают за них какую-то работу.

Аналитики OpenAI заглянули в более далекое будущее. Они считают, что искусственный суперинтеллект (superintelligence) «может появиться в течение следующих 10 лет. Эти системы ИИ будут обладать огромными возможностями – они могут быть чрезвычайно полезными, но также потенциально несут большие риски».

«Сверхчеловеческие системы искусственного интеллекта будут способны к сложному и творческому поведению, которое люди не смогут полностью понять. Например, если сверхчеловеческая модель генерирует миллион строк чрезвычайно сложного кода, люди не смогут достоверно оценить, безопасен или опасен этот код для выполнения… Это приводит к фундаментальной проблеме: как люди могут управлять системами искусственного интеллекта, которые намного умнее их, и доверять им?» – говорится в докладе американских IT-аналитиков.

Они считают, что управление развитием ИИ потерпит неудачу и зайдет в тупик из-за необходимости решения проблемы с так называемым «супервыравниванием» (Superalignment). 

Существующие методы «выравнивания», направленные на то, чтобы цели и результаты работы ИИ совпадали, перестают работать в случае сверхразумного ИИ. Появление сверхразумного ИИ все ближе.

Если к этому времени не будут разработаны средства «супервыравнивания», то человечеству мало не придется. 

Ситуация, по сути, с бесконтрольной разработкой на Западе все более опасных систем ИИ, причем военного назначения, разработка методов противодействия и защиты от западного ИИ становится категорическим императивом, считает один из ведущих российских IT- экспертов Артем Артемов.

Одним из направлений является создание так называемой религии ИИ, своего рода аналога трех правил роботехники Айзека Азимова. Для краткости употребляется также термин «Цифровой Бог». То есть гипотетическая управляющая поведением всех ИИ суперпрограмма, запрещающая ИИ, наносит вред людям в целом и РФ в частности.

Если западные IT-компании все свои силы бросили на создание все более мощных систем ИИ, то российские аналитики сосредоточены на разработке методов защиты человечества от создаваемых новыми Франкенштейнами киберчудовищ.

Статьи по теме