– Ну так вот. Он говорит ей, что она страшная и они никогда не будут вместе, и девочка с горя выпрыгивает из космолета.

– Ты ужасный рассказчик, – заметил Павел.

– Она бы не смогла выпрыгнуть, бортовая система… – начал Мэтт и Кира раздраженно зарычала.

Павел тихо рассмеялся, а после спросил:

– Ты хочешь сказать, что вред может быть разный?

– И это тоже. Но самое главное – что конкретно понимать под словом «вред»? Роботов не программируют оценивать мораль, понимать чувственные абстрактные понятия и копаться в собственной психоструктуре в поисках воли. Люди даже не разобрались, как формируется замысел и можно ли вообще это действие описать, но при этом они создали робота, так называемый интеллект которого – большая помойка из нагромождения понятий и действий. И слово «вред», так же как и всё, должно быть определено через более просты формы. Поэтому, когда приступили к разработке Закона, данное слово несло в себе перечисление потенциально опасных действий, которые робот может совершить с человеком.

Павел подавил желание рассмеяться.

– Таких действий бесконечно много. Любая вещь, созданная человеком, может нести опасность, если знать, как ей пользоваться.

– Возможно. Но на момент создания законов таких действий было не бесконечно много и даже не миллиард, а около пятисот миллионов.

– Момент создания…

– Около двух веков назад.

– Ты смеёшься?

– Ты думаешь, мне смешно?

– Мало того, что эти миллионы, так ещё и … – Павел запнулся. Мозг робота может хранить и как-то перерабатывать огромное количество информации, каждый кусок этой информации должен нести обозначение в понятных не только роботу, но и человеку символах, разработчики должны были создать какой-то шаблон, по которому и строились все модели. Но с момента создания по нынешней день изменилось слишком много. Какова частота обновления ПО психоструктуры? Раз в год? Раз в месяц? Раз в день? И разве роботы с одинаковой структурой психики при одинаковом обновлении не будут действовать одинаково и походить друг на друга в мелких реакциях? Или всё же подключение к сети постоянное?

– Ты хоть представляешь, сколько изменилось за два века? – спросил Павел.

Кира пожала плечами.

– И что ты будешь с этим делать? – продолжил он. – Возьмёшь перечень материалов, оружия и устройств за весь период существования человечества и будешь спрашивать его, сможет ли он при помощи них причинить людям какой-нибудь вред?

Павел посмотрел на ИИ. Вопросом про структуру она хотела узнать основное предназначение робота, а сейчас пыталась выяснить, какие послабления в Трех законах сделали разработчики; вот только разве они уже не поняли, что этот робот – военная модель? В них Законы либо отсутствуют вовсе, либо модифицированы до неузнаваемости. Это даже первогодка Академии понимает. Иначе как они будут убивать? Но Кира сознательно это игнорирует, как и то, что робот знал её раньше.

– Конкретный материал ничего не даст, материал в большинстве своём не может быть занесен в раздел «вред», а вот действия с ним – да. Поэтому я буду указывать какое-то конкретное действие. Удушение веревкой, например. И постепенно, методом перебора…

– Это глупость, – прервал её рассуждения Павел. – А если не материал, а если вещество? Угледид, например.

Она на несколько секунд замолчала.

– А что, если в этих миллионах, о которых ты говоришь, один из его разработчиков стер несколько действий с таким прибором, как ложка? Тебе придется разбирать сначала каждое внесенное действие с этим предметом, а потом обновления за два века. И ещё не факт, что ты что-нибудь не пропустишь. И поверь мне, без карты, да даже и с ней, это будет сделать очень трудно.