– Хорошо, – включился в обсуждение Киэй. – К примеру, я решил похвалить робота-помощника за то, что он сообщил мне прогноз погоды. Я говорю ему: «Молодец, возьми с полки пирожок».
– Что? – удивился Атир. – Что это за команда такая? Вы так говорили своему роботу-помощнику?
– А что в этом такого?
– Это странно! – смутился Атир. – Хотя погодите! Вот ведь оно! Великолепно!
Атир залпом осушил кружку чаю и с грохотом шлёпнул её об стол. Люди за соседними столиками обернулись.
– Давайте отмотаем немного назад, к тому моменту, когда вы попросили у робота сообщить прогноз, – воодушевлённо начал молодой сыщик. – Ваша просьба для робота – сигнал. Процессор преобразовывает его в импульс. Импульс должен быть обработан. Представьте, что из процессора выходит одна условная труба, по которой этот импульс отправляется на обработку. Обрабатывается он во втором процессоре. Но там уже два отсека. В одном отсеке обрабатываются импульсы, требующие каких-либо действий, а в другом – требующие вербальных, поведенческих или эмоциональных реакций.
– Разве вербальный ответ нельзя считать действием? – спросил Киэй.
– Можно. Но только в том случае, если этот ответ передаёт вам какую-нибудь информацию. Если ответ информативен. Если же ответ не будет нести смысла или информации, то робот не посчитает его полезным действием.
– Если я спросил о погоде, то от робота требуется устный ответ, – предположил Киэй.
– Не совсем так. От робота просто требуется ответ. А какой ответ он даст, зависит от развилки. Что такое развилка? Это как раз место между трубой, выходящей из первого процессора, и двумя трубами, входящими в два отсека второго процессора. В этом месте происходит парадокс выбора. Условный процесс, при котором активируется тот самый искусственный интеллект. Первая его фаза. Здесь на основе изначальной программы и впоследствии – на основе полученного опыта интеллект создаёт связь между возможной реакцией из базы данных и импульсом. Робот знает, что должен дать вам ответ. Он выбирает действие – и тогда импульс попадает в отдел, отвечающий за конкретные действия. Импульс обрабатывается, и в итоге мы имеем результат: робот рассказывает вам о погоде.
– В этом случае вербальный ответ робота – это конкретное действие? – переспросил Киэй.
– Верно. Рассмотрим иной вариант событий: робот выбирает не отвечать вам. Почему бы ему так делать? К примеру, вы вели себя цинично при нём, и он записал в базу данных такое поведение. Теперь у него есть вариант не ответить вам, а просто подойти к окну, раздвинуть шторы и указать на улицу, мол, «сам посмотри на небо и не задавай глупых вопросов».
– И теперь, даже подойдя к окну и двигая занавески, робот не рассматривает свою активность как конкретные действия?
– Именно! – обрадовался Атир. – Искусственный интеллект робота сам решает, что ему считать действием, а что – эмоциональной реакцией. Это парадокс выбора. С одной стороны, выбор основывается на изначально заложенных данных и на основе полученного опыта. С другой – искусственный интеллект не имеет алгоритма выбора одного из вариантов. Этот алгоритм он вырабатывает сам, основываясь не на случайных числах, а на собственном представлении об адекватности, которое, в свою очередь, базируется на опыте и изначальных данных.
– Поразительно! – закачал головой Киэй.
– Нет! Это не поразительно! Поразительно то, что происходит в блоке, в котором обрабатываются импульсы, требующие вербальных и эмоциональных реакций.
– Давайте назовём его «Блок Б» для удобства, – предложил Киэй.
– Согласен. С «Блоком А» всё ясно и так. Там требуется действие, и искусственный интеллект выбирает самый логичный вариант из возможных. Этот «Блок А» и разработал отец Асторы Бунди. А вот «Блок Б» – для всех в корпорации «Галах» загадка. Дело в том, что изначальный код ничтожно мал. Но это именно тот код, который интеллект может сам себе переписать. У корпорации есть только сжатый, готовый для внедрения файл, отвечающий за функциональность. Все эти годы файл просто вставляли в программу, и он работал. Поэтому в корпорации никто особо на него не обращал внимания. А вот вне её все просто с ума сходят от этого кода. Представляете, разумной машине дали возможность изменять свой код, а она этого не делает. Точнее, не подаёт признаков того, что она это делает. Машина обучается, но файл кода никогда не изменяется. Он остаётся неизменного объёма. То есть, как именно робот «запоминает» новые алгоритмы и где их хранит, мы не знаем. Есть даже виртуальные сообщества, где люди годами пытаются понять механизм использования этого кода машиной. Я копался на тамошних форумах и в группах. Эти дельцы утверждают, что приблизились к решению своей задачи менее чем на пять процентов. Но вернёмся к вашему роботу-помощнику. Вы послали его взять с полки пирожок.