В какой-то мере самые разные последовательности не только букв, но и фонем в речи, нот в музыке, паттернов в чём угодно можно (и, наверное, нужно) считать текстом, следуя известной максиме Jacques Derrida107 «всё есть текст». Если вам пару веков назад бросили перчатку, то это такой «динамический знак» (жест), означающий вызов на дуэль. Это «словарное значение» знака, но их может быть и несколько разных («косил косой косой косой»). Вокруг текста как последовательности знаков (или даже одного знака) есть контекст, который уточняет значение текста (или даже одного знака) – ту область пространства понятий, куда мы попадаем. А то, зачем мы вообще занимаемся вычислениями с этим текстом, задаёт смысл: какое отношение к изменениям в физическом мире имеют эти вычисления.
Пространство понятий в знаках выражается квантованно/дискретизовано, ибо часто значение находится где-то там, где нет подходящего знака для его выражения («между точками дискретизации пространства понятий»), и приходится работать с пространством понятий через грубый язык, через знаки, а иногда и изобретать знаки – быть поэтом. Вот это и есть предмет понятизации. Представьте себе 100 оттенков синего цвета, и слова-знаки «синий» и «голубой» (при этом в некоторых языках даже может не быть слова «голубой»). Вот это типичная ситуация: требуется довольно много слов, чтобы выразить некоторые понятия. Потом их можно означковать, но это если они часто встречаются. Большинство понятий не имеют каких-то своих значков, но вполне выразимы на естественном языке.
Нейролингвистические программисты влед за Хомским говорят о поверхностной структуре языка (выразимой знаками, как изображение пикселями, а звук отсчётами амплитуды в какие-то дискреты во времени) и глубокой структуре (понятия, кодируемые нейросеткой, эти понятия обычно «промеж пикселей, результат вычислений», не точно соответствуют каким-то знакам). Знаки (поверхностная структура) тем самым представляют какие-то вехи, обозначающие места в понятийном пространстве (глубокая структура), поэтому иногда говорят о знаковой координатной сетке/grid (скажем, понятия разных синих цветов вам или больше доступны, если есть слова/знаки «голубой» и «синий», или менее доступны – вы хорошо можете различать голубой и синий цвет, но не сможете это хорошо выразить. Чем больше развит язык, тем точнее можно высказываться на нём. Ньютон писал свои трактаты на латыни, ибо тогдашний английский был как язык довольно убог).
Представьте себе, что у вас есть мир Майнкрафта и слова для каждого его объекта. А потом вам предлагают описать ваше реальное рабочее место только этими словами. Трудно, да? В этот момент вам захочется и как-то аллегорически или метафорически заговорить на этом языке, а иногда и новые слова в этот язык внести, а иногда переопределить значение уже имеющихся слов. По большому счёту, с естественным языком происходит ровно вот это: выражение на языке знаков (без разницы, синестетических, визуальных, аудиальных, динамических/жестов, кинестетических и т.д.) – это дискретизация, что-то типа АЦП, аналого-цифрового преобразования, а понимание выраженного знаками – обратный процесс, «цифро-аналоговое преобразование» со всеми вытекающими особенностями аналогового представления (например, невозможность многократного точного копирования, ибо при аналоговом копировании накапливается ошибка).
По большому счёту, значительная часть работы человеческого и машиннного (Bing, ChatGPT, Bard, ERNIE Bot и множество других систем AI на базе современных нейронных сетей) мыслительного мастерства сегодня проходит в простом и лёгком режиме S1 по Канеману. Из экспериментов в AI известно, что способности нейронной сети к научению растут с размером этой сети, и при достаточных размерах даже наблюдается рост способности к обобщению, а потом и возможность рассуждать