Марковский процесс (Markov process) – это случайный процесс, эволюция которого после любого заданного значения временного параметра t не зависит от эволюции, предшествовавшей t, при фиксированных параметрах процесса [44].
Марковское свойство (Markov property) – этот термин, относится к свойству случайного процесса без памяти. Назван в честь русского математика Андрея Маркова. [45]
Маска R-CNN (Mask R-CNN) – это свёрточная нейронная сеть (CNN), передовая технология сегментации изображений. Этот вариант глубокой нейронной сети обнаруживает объекты на изображении и создает высококачественную маску сегментации для каждого экземпляра. Используя Mask R-CNN можно автоматически сегментировать и создавать попиксельные маски для каждого объекта на изображении. Можно применять Mask R-CNN как к изображениям, так и к видеопотокам.
Маскированная языковая модель (Masked language model) – это языковая модель, которая предсказывает вероятность того, что токены-кандидаты заполнят пробелы в последовательности. Большинство современных моделей маскированного языка являются двунаправленными.
Масштабирование (Scaling) – это обычно используемая практика в разработке признаков, чтобы оптимизировать диапазон значений объекта, чтобы он соответствовал диапазону других объектов в наборе данных.
Масштабируемость (Scalability) – это способность системы, сети или процесса справляться с увеличением рабочей нагрузки (увеличивать свою производительность) при добавлении ресурсов (обычно аппаратных).
Математическая оптимизация (математическое программирование) (Mathematical optimization) – это выбор наилучшего элемента по некоторому критерию из некоторого набора доступных альтернатив. Это чрезвычайно мощная технология предписывающей аналитики, которая позволяет компаниям решать сложные бизнес-задачи и более эффективно использовать доступные ресурсы и данные
Матрица неточностей (Confusion matrix) – это таблица ситуационного анализа, в которой суммируются результаты прогнозирования модели классификации в машинном обучении. Записи в наборе данных сводятся в виде матрицы в соответствии с реальной категорией и оценкой классификации, сделанной моделью классификации.
Матрица элементов (Item matrix) — в рекомендательных системах – это матрица вложений, созданная матричной факторизацией, которая содержит скрытые сигналы о каждом элементе. Каждая строка матрицы элементов содержит значение одной скрытой функции для всех элементов. Матрица элементов имеет то же количество столбцов, что и целевая матрица, которая факторизуется. Например, если система рекомендаций по фильмам оценивает 10 000 названий фильмов, матрица элементов будет состоять из 10 000 столбцов.
Матричная факторизация (Matrix factorization) – это разложение одной матрицы на производные нескольких матриц. Существует множество различных способов факторизации матриц. Многие сложные матричные операции не могут быть решены эффективно или стабильно с использованием ограниченной точности компьютеров. Разложение матриц на составные части упрощает вычисление более сложных матричных операций.
Машина Больцмана (Boltzmann machine) – это вид стохастической рекуррентной нейронной сети, изобретенной Джеффри Хинтоном и Терри Сейновски. Машина Больцмана может рассматриваться как стохастический генеративний вариант сети Хопфилда. Эта модель оказалась первой нейронной сетью, способной обучаться внутренним репрезентациям, и может представлять и решать сложные комбинаторные задачи.
Машина опорных векторов (Support Vector Machine) – это популярная модель обучения с учителем, разработанная Владимиром Вапником и используемая как для классификации данных, так и для регрессии. Тем не менее, он обычно используется для задач классификации, построения гиперплоскости, где расстояние между двумя классами точек данных максимально. Эта гиперплоскость известна как граница решения, разделяющая классы точек данных по обе стороны от плоскости.