Цель
Повысить надёжность вывода, запрашивая у модели несколько решений одной и той же задачи и выбирая наиболее повторяющийся или логически сильный ответ.
Когда применять
– Когда одна генерация даёт нестабильный или сомнительный результат
– При сложных логических или аналитических задачах
– Для задач, требующих высокой точности (диагностика, расчёты, дедукция)
– Если Chain-of-Thought дал неоднозначный или некорректный вывод
– При генерации вариантов гипотез или проектных решений
Пример промпта
Повтори анализ задачи 5 раз независимо друг от друга, следуя пошаговому рассуждению.
Затем выбери решение, которое встречается чаще всего, и обоснуй его.
Solve the problem five times independently using step-by-step reasoning.
Then select the most consistent answer and explain why it is preferred.
Механизм работы
Self-consistency prompting использует вариативность генерации в LLM как инструмент.
– Задача формулируется так, чтобы допускать многообразие решений
– Модель повторно решает задачу (либо с одним промптом в несколько прогонов, либо внутри одного вызова с инструкцией)
– Из нескольких решений выбирается наиболее частое или логически устойчивое
Это похоже на голосование без внешнего критика, при котором сам ИИ выявляет «консенсус своей логики».
Риски / Ошибки
– Возможна иллюзия согласованности – однотипные ошибки будут повторяться
– Требует больше времени и токенов (особенно в API или в автоматизации)
– При слабой постановке задачи можно получить 5 одинаково плохих ответов
– Нужна проверка разнообразия перед голосованием (иначе нет смысла)
Связанные техники
– Chain-of-Thought 2.0 – обеспечивает основу для многократных рассуждений
– Tree of Thought (ToT) – даёт ветви, которые можно протестировать на согласованность
– Reverse prompting – позволяет понять, как модель обосновывает выбранный вариант
– Prompt orchestration – управляет процессом генерации и голосования
– Reflexion prompting – можно применять после выбора для перепроверки
Применение в ИИ-агентах и MAS
– Подходит для агентов, которым требуется высокая точность (например, проверка гипотез или технический аудит).
– В мультиагентной среде может использоваться как агрегатор мнений: консенсус между множеством однотипных агентов (ensemble behavior).
Где применяется в продукте / агенте
– Применяется как механизм внутренней верификации reasoning-агента: один агент проверяет собственные итерации и выводит наиболее повторяющееся или устойчивое решение.
– В MAS может быть оформлен как meta-agent, собирающий результаты reasoning от разных агентов и выстраивающий consensus.
– Полезен в задачах с высокой степенью неопределённости, где требуется усреднение логики, а не выбор одного ответа.
Примеры применения
Индивидуальный диалог с ИИ
Русский язык: «Сгенерируй три разных ответа на вопрос: „Какая бизнес-модель подойдёт для платформы по продаже онлайн-курсов?“ Потом сравни их и объясни, какой из них наиболее логичен, обоснован и соответствует заданной цели.»
English:
“Generate three different answers to the question: ‘What business model fits a platform for selling online courses?’
Then compare them and explain which one is the most logical, well-reasoned, and goal-aligned.”
→ Такой промпт помогает не просто получить ответ, а увидеть диапазон суждений и выбрать наилучшее на основе внутренней логики.
Применение в ИИ-агенте
Русский: Агент генерирует 5 вариантов креативной концепции для запуска новой линейки косметики. Затем запускает self-consistency модуль, который: – анализирует полноту и силу каждого варианта, – выбирает 2 лучших, – и формулирует общий подход на их основе.