Приведенные соображения позволили информационным подразделениям ФБР совместно с Лабораторией искусственного интеллекта корпорации Google выработать следующее инженерное определение ИИ. Именно оно положено в разработку концепции архитектуры и перечня программных решений ФБР: ИИ – это программно-аппаратный комплекс, обеспечивающий поддержку и/или принятие результативных решений в динамичной, неустойчивой среде в установленное время, на основе заведомо неполной, нечеткой и не имеющей полной доказательной базы информации. Применительно к одним задачам ИИ самостоятельно принимает решения, но в большинстве случаев является элементом гибридного интеллекта, взаимодействуя с человеком.
Данное определение является инженерным по трем обстоятельствам. Прежде всего, оно задает критерий. Во-первых, результативность решений не носит абстрактного характера, а определяется в каждом конкретном случае постановщиком задачи. В одних случаях у ИИ может отсутствовать право на единственную ошибку, а в других – результативным решением может оказаться показатель, выше уже сложившегося уровня успешности решения проблемы.
Во-вторых, данное определение не привязывается к конкретным видам харда или софта. Возможно, завтра у нас появятся полноценные квантовые компьютеры. В университете Нотр-Дам уже сегодня идут эксперименты по использовании в качестве элементной базы компьютера живых бактерий. То же самое с софтом. Было бы самонадеянным утверждать, что и завтра вычислительные комплексы будут использовать машинное обучение и нейронные сети. Наконец, третий, принципиальный момент в определении – это то, что ИИ обязан научиться работать с неполной и частично лживой информацией. Это, пожалуй, самая сложная проблема.
Термин «ИИ» зачастую заменяет такие сложные и непонятные лицам, принимающим решения, термины, как нейронный сети, глубокое машинное обучение, дискриминантный анализ, многомерная статистика, вычислительная лингвистика и т. п. Согласно данным контент-анализа, приведенного Стэнфордским университетов в 2017 г., ИИ не в социальных СМИ, а в научных изданиях используется как синоним того или иного математико-статистического метода. Условно назовем это маркетинговым использованием термина ИИ. Наиболее широко это явление проявилось в англосаксонских странах, прежде всего США и Великобритании.
Для европейских публикаций и исследований характерно другое использование термина ИИ. В Европе, особенно в Германии и во Франции, ИИ по сути стал синонимом любых сложных экспертных систем, в основе которых лежит блок поиска, обработки и анализа информации. Такое понимание ИИ связано с тем, что в силу целого ряда факторов в большинстве стран ЕС не получили широкого развития наиболее современные методы дискретной математики и работа идет в направлении совершенствования информационно-аналитических систем, которые были созданы в конце XX – начале текущего века.
Свое понимание ИИ имеется в Японии, одной из трех лидирующих стран в этой сфере. Они понимают под ИИ программы, которые могут выполнять интеллектуальные функции человека вне зависимости от сферы их применения.
Авторы уже указанного доклада Центра новой американской безопасности, понимают ИИ также как автор этого термина – знаменитый математик, кибернетик, создатель множества языков программирования Джон Маккарти. Он определили ИИ, как «вычислительные методы, позволяющие решать нечеткие и противоречивые задачи в условиях многокритериального выбора и хронической неполноты информации».
С учетом разработок в области когнитивных вычислений, осуществленных уже после смерти Маккарти, Центром новой американской безопасности предлагается следующее, наиболее общее и в то же время рабочее определение: