Самое интересное возражение, на которое Тьюринг отвечает, – особенно для нашего повествования – это возражение Ады Лавлейс, написавшей в 1843 году: “Аналитическая машина не претендует на то, чтобы создавать что-то действительно новое. Машина может выполнить все то, что мы умеем ей предписать. Она может следовать анализу, но не может предугадать какие-либо аналитические зависимости или истины”. Другими словами, в отличие от человеческого разума, механическое устройство не может иметь свободу воли или выдвигать свои собственные инициативы. Оно может только выполнять то, что запрограммировано. В своей статье 1950 года Тьюринг посвятил раздел этому высказыванию и назвал его “Возражение леди Лавлейс”.
Гениальным ответом на это возражение был аргумент, что на самом деле машина может учиться, тем самым превращаясь в мыслящее исполнительное устройство, которое способно производить новые мысли. “Вместо того чтобы писать программу для имитации мышления взрослого человека, почему бы не попробовать написать программу, которая имитирует мышление ребенка? – спрашивает он. – Если запустить соответствующий процесс обучения, можно было бы в конце концов получить интеллект взрослого человека”. Он признал, что процесс обучения компьютера будет отличаться от процесса обучения ребенка: “К примеру, его невозможно снабдить ногами, так что ему нельзя предложить сходить собрать уголь в ящик. Вероятно, у него не может быть глаз… Нельзя послать это существо в школу – для других детей оно будет посмешищем”. Поэтому бэби-машина должна обучаться по-иному. Тьюринг предложил систему наказаний и наград, которая будет поощрять машину повторять некоторые действия и избегать других. В конце концов такая машина могла бы развивать свои собственные представления и объяснения того или иного явления.
Но даже если машина сможет имитировать разум, возражали критики Тьюринга, он будет не совсем разумом. Когда человек проходит тест Тьюринга, он использует слова, которые связаны с реальным миром, эмоциями, переживаниями, ощущениями и восприятиями. А машина не делает этого. Без таких связей язык становится просто игрой, оторванной от смысла.
Это возражение привело к продержавшемуся дольше всех опровержению теста Тьюринга, которое сформулировал философ Джон Сёрл в своем эссе 1980 года. Он предложил мысленный эксперимент, называемый “Китайской комнатой”, в которой говорящему по-английски человеку, не знающему китайского языка, предоставляется полный свод правил, объясняющих, как составлять любые комбинации китайских иероглифов. Ему передается набор иероглифов, а он из них составляет сочетания, пользуясь правилами, но не понимая значения фраз, составленных им. Если инструкции достаточно хороши, человек мог бы убедить экзаменатора, что он действительно говорит по-китайски. Тем не менее он не понял бы ни одного составленного им самим текста, в нем не содержалось бы никакого смысла. В терминологии Ады Лавлейс он не претендовал бы на создание чего-то нового, а просто выполнял действия, которые ему было приказано выполнять. Аналогично и машина в имитационной игре Тьюринга, независимо от того, насколько хорошо она может имитировать человеческий разум, не будет понимать или сознавать ничего из того, что говорится. В том, чтобы сказать, что машина “думает”, не больше смысла, чем в том, чтобы сказать, что человек, следующий многочисленным инструкциям, понимает китайский язык>95.
Одним из ответов на возражения Сёрла стало утверждение, что, даже если человек не понимает китайский язык, вся система как целое, собранная в Китайской комнате, то есть мужчина (блок обработки данных), инструкция по обращению с иероглифами (программа) и файлы с иероглифами (данные), возможно, действительно понимает китайский язык. Здесь нет окончательного ответа. И в самом деле, тест Тьюринга и возражения на него остаются по сей день наиболее обсуждаемой темой в когнитивных науках.