Vernor Vinge в январе 1983 популяризировал тезис I.J.Good, высказанный ещё в 1965 году, что осталось 30 лет до создания искусственного интеллекта, сравнимого по силе с человеческим (то есть ожидался 2013 год), далее этот интеллект должен начать усиливать сам себя, а затем человек перестаёт быть царём природы. Невозможно предсказать, что будет происходить после этого момента, ибо мир будет изменяться так быстро, что обычный человек не будет способен понять происходящее и справиться с этим. Этот момент был назван «технологической сингулярностью»20 как совершенно особая точка в истории цивилизации. Вроде как искусственный интеллект, по многим характеристикам уже сравнимый с человеческим, был опубликован 14 марта 2023 года, это большая языковая модель GPT-4, которая была настроена для разговоров на разные темы в виде чата. Так что момент, изображаемый на картинке, иллюстрирующей сингулярность – это 2023 год:
Но если смотреть на происходящее не антропоцентрично, не с точки зрения человеческого вида, а с точки зрения «спасения жизни» в целом (а не спасения только одного вида существ), то сингулярность – бессмысленное понятие. Что-то такое, когда представители конкретного вида существ не справлялись с происходящим вокруг, всегда было, просто скорость познания была другая. «Непонятно, что происходит на улице с политикой, с новым искусственным интеллектом» – а что, сто лет назад даже людям было понятно, что происходит на планете?! А что, до появления современной человеческой технологической цивилизации неандертальцы понимали, что происходит? А рыба латимерия, а мамонты – они понимали? А вон тот компьютер 2000 года выпуска, который выбросили только вчера, он понимал, что происходит? А завтрашний свехчеловеческий искусственный интеллект – он-то сам будет понимать, что происходит?!
Тут уместно задать вопрос: а как вообще можно верить тому, что искусственный интеллект сможет решить хоть какие-то задачи, которые не может решить человек? В случае с сегодняшним вариантом AI на нейронных сетях выполняются все три закона Кларка21:
1. Когда уважаемый, но пожилой учёный утверждает, что что-то возможно, то он почти наверняка прав. Когда он утверждает, что что-то невозможно, – он, весьма вероятно, ошибается.
2. Единственный способ обнаружения пределов возможного состоит в том, чтобы отважиться сделать шаг в невозможное.
3. Любая достаточно развитая технология неотличима от магии.
Первый вопрос: принципиально ли невозможно, что нейросеть сможет повторить при достаточных размерах и отведённом на вычисления времени то, что сделал Эйнштейн? Эйнштейн много лет читал тексты статей по физике, общался с коллегами-физиками, затем выдал теорию относительности и догадку про квантовость энергии, потом потратил много времени, чтобы продвинуться в «квантовой гравитации», но не преуспел. В математике это звучит как «можем ли мы создать такую функцию, которая на входе будет получать всё то, что получал Эйнштейн, а на выходе выдавать всё то, что выдавал Эйнштейн». Более точно будет не «создать такую функцию», а «аппроксимировать с заданной точностью», ибо точная математическая копия нам не нужна, нам нужна модель, которая оставляет от всего Эйнштейна только интеллект, самое для нас важное в текущем рассмотрении. Лучшей моделью кошки является другая кошка, хотя желательна та же самая. Вот «аппроксимация» – это как раз про «другую кошку», которая только приблизительно равна «той же самой», но уж точно не утка и не заяц. Да, нейросетки являются универсальными аппроксиматорами и могут математически бесконечно точно аппроксимировать любую функцию. Вот подборочка свежих результатов (и там смотрите литературные источники)