– Ваши амбиции безграничны. Скажите, а ваш отец одобрял такие глобальные перемены?
При упоминании об отце Роман сошел с лица: – Конечно. Иначе бы он не передал управление мне, – ледяным тоном ответил он.
– Что по поводу контракта с Министерством обороны?
– Я бы не хотел распространяться на эту тему, пока нет конкретных договоренностей, но могу сказать уже сейчас, что если контракт будет заключен и все пойдет так, как мы рассчитываем, тысячи жизней военных будут спасены. Человеческих жизней, -многозначительно заключил он. – Потери – неизбежная утрата средств и сил при ведении боевых действий. За каждое действие или бездействие приходится платить жизнями людей, поэтому при планировании всегда учитываются допустимые потери, при которых боевая задача может быть выполнена; превышение допустимых потерь ведет либо к невозможности, либо к нецелесообразности дальнейшего выполнения боевой задачи.
– А имея андроидов для выполнения этих задач, потери не будут учитываться.
Если Министерство обороны заключит с контракт с «Robotech.corp», это полностью развяжет им руки. Они будут делать, что хотят. Никакого контроля. А убедить общество в том, что черное – это белое, совсем несложно. В 1950-х годах американский психолог Соломон Аш провел серию экспериментов, демонстрирующих, что мнение большинства может исказить поведение отдельного человека. Люди часто готовы изменить свое мнение или поведение, чтобы соответствовать группе, даже если это противоречит их собственным убеждениям или знаниям.
Мое первое впечатление о Романе было ошибочным. Кажущаяся мягкотелость и бесхарактерность создавали иллюзию папиного сынка, получившего в свои руки несметное богатство волею судьбы. На деле, передо мной сидел хладнокровный, расчетливый воротила, жаждущий еще большей власти и денег. Кровожадное чудовище, которое никогда не насытится.
Он смотрел на меня и мерзко улыбался, словно читал мои мысли, чувствуя свое превосходство.
– Во время ведения боевых действий всегда страдает гражданское население. Это неизбежно и вам это известно не хуже меня. В случае создания армии роботов с внедренным искусственным интеллектом, потерь будет гораздо больше, ведь решения будут приниматься без участия человека и без учета человеческого фактора. Как я понимаю, вы программируете искусственный интеллект на выполнение конкретной задачи, обучаете его как действовать в определенных ситуациях, но вы не сможете осуществлять полный контроль над разумом, который превосходит вас.
– Превосходит? Человек создал этот совершенный разум, а не наоборот, – возразил он.
– Но ошибки не исключены. Вы же наверняка помните тот случай, когда правительство использовало искусственный интеллект впервые для проведения операции по ликвидации террористической организации?
– Да, мой отец участвовал в эксперименте. Программу создавали его разработчики.
– Тогда искусственный интеллект принял решение нанести бомбовой удар по свадебному кортежу, так как, по его заключению, в машине могли находиться лидеры террористической организации. В результате удара пострадали мирные люди.
– И что? – Нетерпеливо перебил меня Роман.
– После того инцидента провели расследование. Аналитики проанализировали снимки, сделанные с беспилотника до нанесения удара. На снимках была одна деталь, которую искусственный интеллект не принял во внимание – лепестки цветов на капоте той машины. Для него это были ничего не значащие пятна. Ваш отец тогда сказал, что если бы решение принималось человеком, ошибки можно было избежать. Поэтому он был противником вовлечения его компании в военное производство.