Общий ИИ, который также называют «сильным ИИ». Именно он питает страхи массовки в компьютерной игре Singularity, о нем идет речь в упоминавшихся выше фильмах «Она» и «Из машины»>3. Сильный ИИ – это поиски машины, обладающей таким же общим разумом, как человек. Вы, например, в течение всего нескольких минут можете обсудить политику, пошутить о чем-то, а затем забросить мяч для гольфа на сто пятьдесят ярдов. Сильный ИИ будет обладать общим интеллектом, чтобы суметь выполнить то же самое.
Бен Герцель (Ben Goertzel), председатель Общества общего искусственного интеллекта (Artificial General Intelligence Society), как на хорошее определение общего ИИ, указывает на кофейный тест: «Зайдите в средний американский дом и подумайте, как сделать кофе, для чего вам придется найти кофемашину, понять, для чего нужны кнопки на ней, найти в шкафчике кофе и т. д.»>4 Этот набор задач, наверное, совсем не трудно выполнить большинству взрослых людей, однако в настоящее время это безумно тяжело сделать компьютеру. Создание общего искусственного интеллекта значительно труднее, чем создание узкого: по многочисленным оценкам, мы все еще находимся более чем в двух десятках лет до того момента, как ИИ разовьет такие способности, если вообще когда-либо это сделает.
Таким образом, пугать себя общим ИИ легко по двум причинам, одна из которых практическая, а другая – теоретическая. С практической – сегодня мы видим примеры узкого ИИ, который, кажется, чем-то похож на общий. Это может быть ваше домашнее приложение Alexa для Amazon, которое справится с тестом Тьюринга (действуя неотличимым от человеческого образом). У нас может быть ощущение, что мы движемся в сторону ОИИ, однако это всего лишь блестящая, элегантная реализация голосового интерфейса интернет-поиска, известного нам уже почти пятнадцать лет.
С теоретической стороны, компьютерная наука смотрит на человека как на машину по природе – машину, имеющую очень отчетливые ограничения. IQ человека обычно колеблется между 80 и 150 пунктами – очень низкими показателями по компьютерным меркам. Если с точки зрения программного обеспечения общий ИИ станет возможным, зачем нам ограничивать машинный «интеллект», скажем, 150 баллами? Почему не сделать 300, или 3000, или 30 000? Ни один из нас не смог бы даже отдаленно понять, чем бы был или что мог бы совершить подобный коэффициент интеллекта, но если это всего лишь вопрос соединения большего числа серверов в облаке для добавления большей операционной мощности, то куда это нас завело бы?
Все это приводит нас к третьему определению. Супер ИИ – это, по сути, технический гений, выпущенный из бутылки. Не понятно, будет ли человек знать, как остановить машину в случае реализации подобного сценария? Она бы оставила далеко позади весь наш коллективный разум (а ведь, как мы знаем, если посадить в одной комнате десять достаточно умных людей, их коллективный IQ будет равняться на 1200, а где-то 95 баллам, хотя мы можем рассчитывать на различные мнения и точки зрения, которые люди всегда приносят с собой). Как мы сможем тогда отключить машину, если она всегда на 10 (или на 1000) шагов впереди нас?
Все это интересно, особенно как предмет для разговора на коктейльной вечеринке. Однако, возвращаясь к нашим исследованиям, будущее в духе Singularity, с бегающими вокруг наделенными супер ИИ терминаторами, – это мираж. Серьезные люди, те, что заняты созданием этих систем сегодня, довольно умерены в оценках того, возможны ли такие сценарии хотя бы через сто лет, не говоря уже о пяти или десяти годах. Эндрю Ын (Andrew Ng), руководитель исследований в Baidu Research, изложил эту мысль коротко и точно, сказав, что «волноваться насчет [общего и супер] ИИ – это как волноваться о перенаселении Марса еще до того, как мы на него ступили»