Модель мешка слов в компьютерном зрении (Bag-of-words model in computer vision) – в компьютерном зрении эту модель (модель BoW) можно применять для классификации изображений, рассматривая признаки изображения как слова. В классификации документов набор слов представляет собой разреженный вектор количества встречаемости слов; то есть разреженная гистограмма по словарному запасу. В компьютерном зрении набор визуальных слов представляет собой вектор количества встречаемости словаря локальных признаков изображения.


Модель от последовательности к последовательности (Sequence-to-sequence model, seq2seq). Самая популярная задача на последовательность – это перевод: обычно с одного естественного языка на другой. За последние пару лет коммерческие системы стали на удивление хороши в машинном переводе – взгляните, например, на Google Translate, Yandex Translate, DeepL Translator, Bing Microsoft Translator. Сегодня мы узнаем об основной части этих систем.


Модель последовательности (Sequence model) – это модель, входы которой имеют последовательную зависимость. Например, предсказание следующего видео, просмотренного на основе последовательности ранее просмотренных видео.


Модель регрессии (Regression model) – это тип модели, которая выводит непрерывные значения (обычно с плавающей запятой).


Модель убеждений, желаний и намерений (Belief-desire-intention software model) – это модель программирования интеллектуальных агентов. Образно модель описывает убеждения, желания и намерения каждого агента, однако непосредственно применительно к конкретной задаче агентного программирования. По сути, модель предоставляет механизм позволяющий разделить процесс выбора агентом плана (из набора планов или внешнего источника генерации планов) от процесса исполнения текущего плана, выбранного ранее. Как следствие, агенты, повинующиеся данной модели способны уравновешивать время, затрачиваемое ими на выбор и отсеивание будущих планов со временем исполнения выбранных планов. Процесс непосредственного синтеза планов (планирование) в модели не описывается и остаётся на откуп программного дизайнера или программиста.


Модель Generative Pre-trained Transformer (Generative Pre-trained Transformer) – это семейство больших языковых моделей на основе Transformer, разработанных OpenAI. Варианты GPT могут применяться к нескольким модальностям, в том числе: • генерация изображений (ImageGPT) • преобразование текста в изображение (DALL-E).


Модули векторной обработки (Intelligent Engines) – это поле выполнения операций умножения с плавающей запятой с минимальными задержками (DSP Engines) и специализированное поле/модуль AI Engines c высокой пропускной способностью, а также минимальными задержкам на выполнение операций и оптимальным уровнем энергопотребления, предназначенное для решения задач в области реализации искусственного интеллекта (AI inference) и цифровой обработки сигналов.


Модус поненс(Modus ponens) – это правило логики, которое позволяет вам применять операторы «если-то» для получения части «тогда» всякий раз, когда часть «если» удовлетворяется.


Модус толленс (Modus Tollens) – это форма дедуктивного аргумента и правило логики, используемое для выводов из аргументов и наборов аргументов. Modus tollens утверждает, что если P истинно, то Q также истинно. Если P ложно, следовательно, Q также ложно.


Мозговая технология (также самообучающаяся система ноу-хау) (Brain technology) – это технология, в которой используются последние открытия в области неврологии. Термин был впервые введен Лабораторией искусственного интеллекта в Цюрихе, Швейцария, в контексте проекта ROBOY. Brain Technology может использоваться в роботах, системах управления ноу-хау и любых других приложениях с возможностями самообучения. В частности, приложения Brain Technology позволяют визуализировать базовую архитектуру обучения, которую часто называют «картами ноу-хау».