В этом чате нет возможности вести несколько чатов, он один. Поэтому, могут возникать курьезные случаи во время взаимодействия с ним. Пример такого непонимания на рис. 2:



Рисунок 2. GPTchat уточняет задание

В этом чате я задавала чату вопросы по одной книге. Потом переключилась на другую, получала вполне релевантные ответы. Затем я попросила своего помощника придумать концепт обложки для этой книги. Нейросеть мне ответила про обложку другой книги. Я уточнила, что обложка нужна для той книги, о которой мы говорили последней. Ответ ИИ вы видите выше.

То есть, если ему что-то непонятно, он уточняет задачу.

Я рекомендую использовать Алису в своей работе над книгой вместе с GPT чатом Telegram. Лучше давать один и тот же промт разным GPT чатам, чтобы выбрать наиболее близкую вам версию текста. В любом случае, текст пишет автор, нейросеть ему только помогает. Найти идею, сформулировать мысль, найти ошибки в тексте и т.д.

Теперь, когда мы познакомились с нашими помощниками, пора отправляться в путь. Давайте начнем писать книгу. Любая книга начинается с идеи. В следующей главе мы найдем идею для вашей книги. Даже не одну, я точно знаю. А нейросеть поможет оформить наши идеи в тему книги.

Техника безопасности при работе с ИИ

По сути безопасность в работе с нейросетью связана с проверкой фактов, которые она вам выдает. Давайте поговорим о том, что такое фактчекинг и галлюцинации ChatGPT, как искусственный интеллект может вводить нас в заблуждение.

Тем, кто не знает, что такое фактчеккинг, поясню, это процесс проверки фактической точности сомнительных сообщений и заявлений.

Время от времени любая текстовая нейросеть может создавать ложные факты и вводить нас в заблуждение. Давайте рассмотрим явление, которое называется «галлюцинации» искусственного интеллекта, и узнаем, как с ним бороться.

ChatGPT – это большая языковая модель, созданная компанией OpenAI. Она способна генерировать тексты, решать задачи и отвечать на вопросы. Однако иногда ChatGPT может выдавать ложную информацию, которую пользователи принимают за правду.

Почему так происходит? Дело в том, что модель не обучена каким-то конкретным данным, и если она не знает ответа на вопрос, то создаёт новую версию «факта». Это и приводит к появлению галлюцинаций.

Не так давно такая галлюцинация появилась в одном из чатов, где я общаюсь. Я спросила Алису, как зарегистрировать новую профессию, которой нет в реестре. Алиса, видимо не нашла правильный ответ, и выдала "своё видение" ответа на этот вопрос. Довольно забавный и очень далекий от реальности.

Моя коллега, которая увлекается применением ИИ в образовании, как-то рассказала на вебинаре, что Алиса выдала ей информацию про то, что на реке Неве в Санкт-Петербурге есть шлюзы. Даже указала год строительства самого старого шлюза и место его нахождения. Причем, информация выглядела очень убедительной.

Таким образом, самый главный метод в безопасном использовании ИИ, это фактчекинг. Проверяя информацию, мы можем избежать ошибок и заблуждений, которые могут привести к серьёзным последствиям.

Глава 2. Проективная методика + ИИ: как найти идею в глубине своей души

Как вам нравится название этой главы? Я выбрала его из нескольких других, не менее интересных. Давайте покажу, как я это делала. Мы еще будем говорить о том, как написать промт, или запрос, понятный нейросети, чтобы получить то, что нужно.

В работе над книгой я использовала GPT chat в Telegram, ссылку дам вам чуть позже, на этапе практики. Я задала своему помощнику следующее задание (рис.3)



Рисунок 3. Промт (запрос) для нейросети