При этом исходный запрос довольно значительно влияет и на результат.

Также приведу несколько примеров связки вопрос-ответ к LLM YandexGPT 3 Pro.

Вопрос 1: «Привет. Что такое сильный ИИ или AGI».

Ответ 1: «Привет! Сильный ИИ, также известный как AGI (Artificial General Intelligence), представляет собой концепцию создания искусственного интеллекта, способного выполнять любые интеллектуальные задачи, доступные человеку, но не обязательно так же, как это делает человек. В отличие от слабого ИИ, который предназначен для выполнения конкретных задач, сильный ИИ стремится к имитации человеческого интеллекта в целом, включая аналитическое мышление и способность к обучению».

Вопрос 2: «AGI расшифровка».

Ответ 2: «AGI (Artificial General Intelligence) – это концепция создания искусственного интеллекта, который будет способен решать широкий спектр задач на уровне человеческого интеллекта».

Вопрос 3: «Приведи расшифровку термина AGI и его описание».

Ответ 3: «AGI (Artificial General Intelligence) – это сильный искусственный интеллект общего уровня, способный мыслить и действовать как человек. Он может делать самостоятельные выводы, обучаться и, возможно, осознавать себя в какой-то момент времени. В отличие от узких ИИ (Narrow AI), AGI представляет собой весь мозг, способный решать комплекс задач».

Как видите, от запроса зависит очень многое. И это одно из ключевых ограничений генеративного ИИ (ГИИ), но об этом поговорим в следующей главе.

Теперь я приведу определение, которое, на мой взгляд, точнее всего определяет его суть.

Сильный или общий ИИ (AGI) – это ИИ, который может ориентироваться в меняющихся условиях, моделировать и прогнозировать развитие ситуации. А если ситуация выходит за стандартные алгоритмы, то самостоятельно найти ее решение. Например, решить задачу «поступить в университет» или изучить правила игры в шашки, и вместо шахмат начать играть в шашки.

Какими же качествами должен обладать такой ИИ?

Мышление – использование таких методов, как дедукция, индукция, ассоциация и т.д., которые направлены на выделение фактов из информации, их представление (сохранение). Это позволит точнее решать задачи в условиях неопределённости.

Память – использование различных типов памяти (кратковременная, долговременная). То есть задачи должны решаться с учетом накопленного опыта. Сейчас же, если вы пообщаетесь с ChatGPT 4, то увидите, что алгоритм обладает небольшой краткосрочной памятью и через некоторое время забывает, с чего все начиналось. Вообще, по моему мнению, вопрос памяти и «массивности» ИИ-моделей станет ключевым ограничением в развитии ИИ. Об этом чуть ниже.

Планирование – тактическое и стратегическое. Да, уже есть исследования, которые утверждают, что ИИ может планировать свои действия и даже обманывать человека для достижения своих целей. Но сейчас это все равно только в стадии зарождения. Чем глубже происходит планирование, особенно в условиях неопределенности, тем больше нужно мощностей. Ведь одно дело планировать игру в шахматы на 3—6 шагов в глубину, где все правила четкие, а другое в ситуации неопределенности.

Обучение – имитация действий другого объекта и обучение через проведение экспериментов. Сейчас ИИ учится на больших массивах данных, но он сам не моделирует и не проводит эксперименты. Хотя мы не до конца понимаем, как работает тот же Chat GPT, и это одна из главных проблем, обучение требует формирования долгосрочной памяти и сложных взаимосвязей. А это, как мы поняли, проблема для ИИ.

И вот такого сильного ИИ сейчас нет ни у кого. А заявление о скором (в горизонте 2024—2028 годов) появлении сильного ИИ, на мой взгляд, ошибочны или спекулятивны. Хотя, может, я обладаю слишком ограниченным знанием…