.

В России законодательства в сфере ИИ не существует. По мнению руководителя практики по авторскому праву компании DRC Владимира Ожерельева, в нашей стране регулирование ИИ, скорее всего, пойдет по пути централизации управления нейросетями в руках государства и крупных корпораций. «Мы наблюдаем это как минимум в последних изменениях норм об обработке биометрических данных. Примеры злоупотреблений в сфере распознавания лиц уже заметны», – говорит он[29].

В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта[30], который, правда, не является обязательным. Ряд компаний, например «Сбер», имеют собственные этические нормы для систем ИИ (см. врез ниже)[31].



7 августа 2023 Конгресс США принял законопроект об ИИ, который обяжет компании бигтеха делиться датасетами с научными коллективами и стартапами, занимающимися созданием интеллектуальных систем. Законопроект исходит из того, что сейчас финансовые ресурсы, необходимые для сбора, хранения и управления массивами из петабайтов информации, есть только у ИТ-гигантов. Если доступ к этим массивам будет и у научного и предпринимательского сообщества, ИИ-разработки ускорятся[32].

В мае 2023 года HBR опубликовал подборку статей ведущих профессоров разных дисциплин – от истории до сomputer science – на тему этичности систем ИИ. Их выводы пессимистичны: ИИ-приложения разрабатывают и используют без оглядки на такие моральные ценности, как справедливость и достоинство человека, достоверность информации, личная безопасность и неприкосновенность частной жизни.

«Разработчики в Кремниевой долине десятилетиями действовали по принципу “двигайся быстрее, сметая все на своем пути”, – пишет Маргарет O’Мара, руководитель кафедры истории Университета Вашингтона. – Видеоигры в 1980-х, онлайн-платформы шопинга в нулевые, затем социальные сети, а теперь вот разговорный ИИ». И пока не известно, сколько и чего наломают разработчики в сфере ИИ, если не поставить их в четкие рамки закона[33], заключает автор. В другой статье HBR Цедал Нили[34] напоминает, что непрозрачность является оборотной стороной использования этих мощных систем. И поэтому лидеры бизнеса должны особенно ответственно подходить к инструменту ИИ, всякий раз оценивая его риски и документируя, в каких задачах и с какой целью он был задействован.

Евгения Чернозатонская – ведущий эксперт Высшей школы бизнеса НИУ ВШЭ.

Языковые модели

Евгения Чернозатонская

Системы, подобные ChatGPT, способны поразить нового пользовтеля своими знаниями. Но есть ли им место в бизнесе?

В ноябре 2022 года сервис генеративного, то есть порождающего, интеллекта ChatGPT набрал 1 млн пользователей всего за пять дней. Сейчас на сайт сервиса ежемесячно приходит до 1,5 млрд обращений более чем от 100 млн пользователей. Стремительный взлет не остался не замеченным бизнесом: инструменты генеративных моделей стали примеривать к самым разным задачам. В недавнем докладе McKinsey[35] экономический потенциал генеративного ИИ, то есть систем, идеологически подобных ChatGPT, оценивается в триллионы долларов ежегодно. Впрочем, другие исследователи дают на порядок меньшие оценки. По прогнозу McKinsey, примерно три четверти прироста эффективности бизнеса придется на четыре функции компаний: работа с клиентом, продажи и маркетинг, разработка и внедрение софта и НИОКР. В одном только программировании и отладке софта исследователи видят прирост эффективности на 40–50 % за счет использования ИИ. GitHub провела опрос разработчиков софта, который показал, что ИИ-Сopilot, разработанный совместно с OpenAI и доступный на GitHub с 2022 года, к февралю 2023 года использовался для всех языков программирования и был применен в 46 % кода, написанного его адептами. 90 % респондентов опроса отметили, что подсказки и контроль кода со стороны Copilot ускорили разработку