Цель

Повысить надёжность вывода, запрашивая у модели несколько решений одной и той же задачи и выбирая наиболее повторяющийся или логически сильный ответ.

Когда применять

– Когда одна генерация даёт нестабильный или сомнительный результат

– При сложных логических или аналитических задачах

– Для задач, требующих высокой точности (диагностика, расчёты, дедукция)

– Если Chain-of-Thought дал неоднозначный или некорректный вывод

– При генерации вариантов гипотез или проектных решений

Пример промпта

Повтори анализ задачи 5 раз независимо друг от друга, следуя пошаговому рассуждению.

Затем выбери решение, которое встречается чаще всего, и обоснуй его.

Solve the problem five times independently using step-by-step reasoning.

Then select the most consistent answer and explain why it is preferred.

Механизм работы

Self-consistency prompting использует вариативность генерации в LLM как инструмент.

– Задача формулируется так, чтобы допускать многообразие решений

– Модель повторно решает задачу (либо с одним промптом в несколько прогонов, либо внутри одного вызова с инструкцией)

– Из нескольких решений выбирается наиболее частое или логически устойчивое

Это похоже на голосование без внешнего критика, при котором сам ИИ выявляет «консенсус своей логики».

Риски / Ошибки

– Возможна иллюзия согласованности – однотипные ошибки будут повторяться

– Требует больше времени и токенов (особенно в API или в автоматизации)

– При слабой постановке задачи можно получить 5 одинаково плохих ответов

– Нужна проверка разнообразия перед голосованием (иначе нет смысла)

Связанные техники

– Chain-of-Thought 2.0 – обеспечивает основу для многократных рассуждений

– Tree of Thought (ToT) – даёт ветви, которые можно протестировать на согласованность

– Reverse prompting – позволяет понять, как модель обосновывает выбранный вариант

– Prompt orchestration – управляет процессом генерации и голосования

– Reflexion prompting – можно применять после выбора для перепроверки

Применение в ИИ-агентах и MAS

– Подходит для агентов, которым требуется высокая точность (например, проверка гипотез или технический аудит).

– В мультиагентной среде может использоваться как агрегатор мнений: консенсус между множеством однотипных агентов (ensemble behavior).

Где применяется в продукте / агенте

– Применяется как механизм внутренней верификации reasoning-агента: один агент проверяет собственные итерации и выводит наиболее повторяющееся или устойчивое решение.

– В MAS может быть оформлен как meta-agent, собирающий результаты reasoning от разных агентов и выстраивающий consensus.

– Полезен в задачах с высокой степенью неопределённости, где требуется усреднение логики, а не выбор одного ответа.

Примеры применения

Индивидуальный диалог с ИИ

Русский язык: «Сгенерируй три разных ответа на вопрос: „Какая бизнес-модель подойдёт для платформы по продаже онлайн-курсов?“ Потом сравни их и объясни, какой из них наиболее логичен, обоснован и соответствует заданной цели.»

English:

“Generate three different answers to the question: ‘What business model fits a platform for selling online courses?’

Then compare them and explain which one is the most logical, well-reasoned, and goal-aligned.”

→ Такой промпт помогает не просто получить ответ, а увидеть диапазон суждений и выбрать наилучшее на основе внутренней логики.


Применение в ИИ-агенте

Русский: Агент генерирует 5 вариантов креативной концепции для запуска новой линейки косметики. Затем запускает self-consistency модуль, который: – анализирует полноту и силу каждого варианта, – выбирает 2 лучших, – и формулирует общий подход на их основе.