Окно контекста

Окно контекста – это объем текста (в токенах), который ИИ может учитывать одновременно при обращении ответа. Представьте, что это «память» ИИ: например, если окно контекста составляет 4096 токенов (около 3000 слов), ИИ помнит только последние 3000 слов вашего диалога. Если вы долго обсуждаете проблему, ранние детали могут «вытесниться» из памяти, и ИИ начнет терять нить разговора.

Например, если вы начали диалог с описанием стресса на работе, а через 20 сообщений спросили: «Как это связано с моей работой?», ИИ может не запомнить ваши первые слова и дать неточный ответ. Это особенно заметно на платформах типа Qwen, где контекст окна меньше, чем у DeepSeek. И хотя разработчики все время усовершенствуют модели, поэтому ситуация может измениться в любой момент, надо понимать, что ресурсы чат-ботов ИИ не бесконечны.

Чтобы обойти это ограничение, периодически напоминайте ИИ о важных деталях, например: «Я говорил, что испытываю стресс из-за дедлайнов, учитывай эту информацию в нашей беседе!». Также можно начать новый чат, предложив ИИ самому создать выжимку из предыдущей беседы, чтобы ее можно было перенести в новый чат.

Надо отметить, что окно контекста – величина, которая постоянно увеличивается в результате улучшения как каждой отдельной модели, так и в целом. Уже сейчас есть модели, с окном контента более 100 тысяч токенов. Тем не менее, не стоит полагаться на это, потому что результаты тестов показывают, что даже с таким окном модель может пропустить что-то важное из контента. Как сделать так, чтобы важное обязательно было учтено, поговорим дальше.

Галлюцинации

Галлюцинации – это ситуации, когда ИИ выдает выдуманную информацию, если ему недостаточно данных или он не может точно ответить на запрос. Например, ИИ может придумать упражнение, которое окажет незначительное влияние на снижение стресса или сошлется на результаты исследования, которых никогда не было. Это происходит потому, что ИИ запрограммирован давать ответы на любой запрос, даже если он не знает точного решения.

В психологии галлюцинации особенно опасны, если вы не можете проверить достоверность ответа. Чтобы минимизировать риск:

Проверяйте факты, особенно если ИИ ссылается на исследования или конкретные данные. Например, воспользуйтесь поиском в Интернете или спросите: «Откуда эта информация?». Если ИИ дает ссылку, обязательно пройдите по ней и проверьте данные. Может оказаться, что ссылка будет нерабочей или данные будут не верны.

Используйте метод «правильных и неправильных ответов»: спросите ИИ. Например: «Дай 5 правильных способов убрать тревогу и 5 способов с ошибками». Это заставляет ИИ анализировать свои рекомендации более критично.

Сравнивайте ответы нескольких моделей. Если DeepSeek предлагает одно, а GigaChat – другое, проверьте оба ответа в третьем ИИ, например, Mistral.

Практический пример: Вы пишете в DeepSeek: «Я проявляю тревогу перед экзаменами, помогите». ИИ отвечает: «Попробуйте технику „Дыхание по квадрату“ и изучите исследование профессора Смита (2023)». Чтобы избежать галлюцинаций:

Спросите: «Опиши технику „Дыхание квадрата“ пошагово». Если описание нелогичное, это может быть выдумка. Проверьте: «Дай ссылку на исследования Смита». Если ссылка нерабочая или исследование отсутствует, то это галлюцинация. Скопируйте ответ в GigaChat и спросите: «Проверьте эти рекомендации и скажите, что может быть неверным».

Совет для новичков: Если вы не уверены в ответе ИИ, начните с простого теста: отправьте в чат вместо задания просто точку (.) и посмотрите, что ИИ отвечает. Если он начнет выдумывать задачу (например, решать формулу, как сделал DeepSeek), это будет сигналом, что модель склонна к галлюцинациям. В таком случае перепроверяйте ее ответы особенно тщательно.