, я применяю к ИИ метод исторической эпистемологии, который в истории науки продвигали, каждый по-своему, Борис Гессен, Генрик Гроссман, Жорж Кангийем и Гастон Башляр. Из недавних работ в этом направлении я выделяю исследования Института истории науки Макса Планка в Берлине[50]. Если социальный конструктивизм в целом подчеркивает влияние внешних факторов на науку и технику, историческая эпистемология делает акцент на диалектическое развертывание социальной практики, орудий труда и научных абстракций внутри экономической динамики. В этой книге я подхожу к изучению ИИ и алгоритмического мышления точно так же, как историческая и политическая эпистемология изучает роль механического мышления и научных абстракций (например, число и пространство) в социально-экономических преобразованиях Нового времени[51].

В последние десятилетия политическую эпистемологию науки и технологий продвигали исследовательницы-феминистки – Хилари Роуз, Сандра Хардинг, Эвелин Фокс Келлер, Сильвия Федеричи и другие. Они убедительно показали, как возникновение современной рациональности и механического мышления (к которому относится ИИ) связано с превращением женского тела и коллективного тела вообще в послушную производительную машину[52]. В традиции политической эпистемологии мы еще должны обратить внимание на анализ трудового процесса, предложенный Гарри Браверманом в работе «Труд и монополистический капитал» (Labor and Monopoly Capital; 1974), а также на исследования итальянских рабочих, проводившиеся операистами, в частности, Романо Альквати на заводе ЭВМ Olivetti в Ивреа еще в 1960 году[53]. Браверман и Альквати – авторы влиятельных работ, в которых впервые показано, что проекты автоматизации вычислений Бэббиджа в XIX веке и кибернетика XX века неотъемлемо связаны с трудом и его организацией.

Автоматизация познания как распознавание паттернов

Перевод трудового процесса сначала в логическую процедуру, а затем в технический артефакт редко протекает просто и безотказно; чаще это путь проб и ошибок. В этом смысле название книги[54] содержит не только политическую, но и техническую аналогию. Оно иронически сигнализирует, что нынешняя парадигма ИИ амбивалентна: она возникла вовсе не из когнитивных теорий, как верят некоторые, а из спорных экспериментов по автоматизации перцептивного труда, то есть распознавания паттернов[55]. Глубокое обучение начиналось как расширение методов распознавания визуальных образов, разработанных в 1950‑е годы, на невизуальные данные – текст, аудио, видео и поведенческие материалы самого разного происхождения. Подъем глубокого обучения начался в 2012 году, когда сверточная нейронная сеть AlexNet выиграла конкурс компьютерного зрения ImageNet. С тех пор термин «ИИ» стал по умолчанию обозначать парадигму искусственных нейронных сетей, которая в 1950‑х годах, напротив, считалась конкурентом ИИ (пример противоречий, характеризующих его «рациональность»)[56]. Стюарт и Хьюберт Дрейфусы осветили эту коллизию в эссе 1988 года «Создание сознания vs моделирование мозга», в котором обрисовали две родословные ИИ – символическую и коннекционистскую. Cудьба этих подходов, основанных на разных логических постулатах, сложилась по-разному[57].

Символический ИИ – это родословная, связанная с Дартмутским семинаром 1956 года, на котором Джон Маккарти предложил небесспорный термин «искусственный интеллект»[58]. На основе символического ИИ были разработаны программы Logic Theorist и General Problem Solver, а также множество экспертных систем и машин логического вывода, оказавшихся тривиальными и склонными к комбинаторному взрыву. Коннекционизм в свою очередь представляет родословную искусственных нейронных сетей, созданных Фрэнком Розенблаттом в 1957 году. Изобретенный им «перцептрон» в 1980‑х годах развился в сверточные нейронные сети и в конечном итоге породил архитектуру глубокого обучения, которая доминирует в этой области с 2010‑х.