С этой целью мои коллеги и я разработали бизнес-кейс, описывающий завод по производству пластиковых окон (это был почти реальный случай, основанный на опыте моего бизнес-партнера). Создание этого кейса, включая примеры целей и ключевых результатов, было сложной интеллектуальной задачей.

Перед одной из наших сессий подготовки, клиент хотел использовать кейс, более релевантный их индустрии, вместо примера с производством окон. Здесь ChatGPT, даже в своей самой ранней версии, пришел на выручку. Я начала с тщательного расспроса, что ChatGPT знает о желаемом секторе бизнеса. Затем скорректировала информацию, основываясь на том, что я знала о клиенте, и загрузила наш ранее разработанный кейс как шаблон. Результат оказался превосходным новым бизнес-кейсом!

Воодушевленная этим успехом, я попросила ChatGPT предложить типы бизнеса, которые легко понимаются на уровне здравого смысла. Используя эти предложения, я быстро разработала около десяти новых кейсов для своих открытых тренингов и настольной игры «Тест-драйв OKR». Эта быстрая генерация кейсов, на которую вручную ушло бы гораздо больше времени, демонстрирует способность ИИ значительно ускорять создание контента.

Этическая интеграция ИИ в фасилитацию: уроки из кейса OKR и не только

Интеграция ИИ в процессы фасилитации открывает множество возможностей для повышения продуктивности и креативности. Однако она также вводит этические соображения, которые фасилитаторам необходимо тщательно учитывать. Эта глава рассматривает этические последствия использования ИИ в фасилитации, акцентируя внимание на поддержании прозрачности, обеспечении инклюзивности и поощрении подлинного вовлечения участников.

Этический ландшафт ИИ в фасилитации

ИИ способен преобразить методы фасилитации сессий, но при этом приносит с собой этические вызовы. Один из значительных вопросов – это вероятность того, что ИИ может случайно исключить участников или нарушить совместный процесс, в основе которого лежит эффективная фасилитация.

Пример: Процесс OKR

Рассмотрим пример постановки Целей и Ключевых Результатов (OKR). Процесс постановки OKR разработан для вовлечения сотрудников, стимулирования их к принятию ответственности за свои цели и обязанности. Это совместное усилие укрепляет чувство принадлежности и совместного намерения внутри команды.

Однако, когда в этот процесс вводится ИИ, существует риск того, что он может заменить те самые взаимодействия, которые делают процесс эффективным. Например, использование ИИ для генерации OKR без участия сотрудников может привести к чувству исключения и уменьшить ценность их вклада.

Проблема посредника (прокси)

Один наш коллега поделился опытом, когда они использовали ИИ, чтобы оптимизировать процесс постановки OKR. Инструмент ИИ генерировал цели и ключевые результаты на основе введенных данных, но этот подход случайно исключил сотрудников, которые должны были быть вовлечены в процесс. В результате команда почувствовала отчуждение, и чувство принадлежности и ответственности было утеряно.

Этот пример подчеркивает критическое этическое соображение: ИИ не должен заменять человеческое взаимодействие, а должен его усиливать. Коллега осознал, что, используя ИИ в качестве прокси, они непреднамеренно нарушили дух сотрудничества, который жизненно важен для процесса OKR.

Поддержание вовлеченности и чувства принадлежности

Чтобы избежать этических «серых зон», фасилитаторы должны убедиться, что ИИ используется для поддержки, а не для замены человеческого вовлечения. Цель фасилитации – вовлечь участников, построить команды, улучшить коммуникацию и синхронизировать взгляды. Чрезмерная зависимость от ИИ в получении готовых решений может подорвать эти цели. ИИ должен усиливать человеческое взаимодействие, а не заменять его.