Обучение с учителем и без учителя представляют собой два основных подхода в области машинного обучения, каждый из которых подходит для различных типов задач и данных. Понимание этих подходов помогает выбрать правильную стратегию для решения конкретных проблем, а также эффективно использовать доступные данные для обучения моделей.


2.2. Подготовка данных

Преобразование и нормализация данных

Преобразование и нормализация данных – это важные этапы предварительной обработки в процессе обучения моделей машинного обучения, в том числе и нейронных сетей. Эти процедуры направлены на улучшение качества входных данных и, как следствие, на повышение точности и стабильности обучения модели.

Преобразование данных включает в себя различные методы изменения формата, структуры и типа данных для повышения их пригодности для анализа. Это может включать в себя такие действия, как:

– Изменение масштаба: Приведение всех значений признаков к единой шкале (например, от 0 до 1 или с использованием z-преобразования), что помогает избежать ситуаций, когда некоторые признаки оказывают непропорционально большое влияние на обучение из-за своих больших масштабов.

– Кодирование категориальных переменных: Преобразование категориальных признаков в числовые форматы (например, с использованием one-hot кодирования), чтобы модели могли работать с этими данными.

– Обработка пропусков: Замена отсутствующих значений в данных на средние, медианные или наиболее частые значения, а также использование более сложных методов, таких как интерполяция или моделирование.

Нормализация данных предполагает изменение диапазона значений признаков, чтобы они имели определённое распределение. Наиболее распространёнными методами нормализации являются:

– Min-Max нормализация: Приведение значений к диапазону [0, 1].

– Z-нормализация (стандартизация): Приведение данных к нулевому среднему и единичной дисперсии, что делает данные более согласованными и помогает улучшить скорость сходимости во время обучения.

Эти процедуры имеют ключевое значение, так как многие алгоритмы машинного обучения, включая нейронные сети, чувствительны к масштабу и распределению данных.

Разделение данных на тренировочные и тестовые наборы

Разделение данных на тренировочные и тестовые наборы – это критически важный этап в разработке моделей машинного обучения, который помогает избежать переобучения (overfitting) и оценить обобщающую способность модели. Обычно процесс разделения включает следующие этапы:

– Тренировочный набор: Это часть данных, на которой модель будет обучаться. Она используется для обновления параметров модели, позволяя ей учиться на известных входных и выходных данных.

– Тестовый набор: Это часть данных, которая не используется в процессе обучения. Она предназначена для оценки производительности модели на новых, невидимых данных, что позволяет проверить, насколько хорошо модель может обобщать свои знания.

Обычно данные разделяются в пропорции 70:30 или 80:20, но точные значения могут варьироваться в зависимости от объёма данных и конкретной задачи. Важно, чтобы данные были случайно перемешаны перед разделением, чтобы избежать смещения (bias), связанного с порядком данных.

Роль кросс-валидации в обучении

Кросс-валидация (cross-validation) – это метод оценки производительности модели, который позволяет лучше понять, как модель будет работать на независимых данных. Она помогает минимизировать влияние случайных факторов, связанных с разделением данных, и обеспечивает более надёжную оценку обобщающей способности модели. Наиболее распространённым методом кросс-валидации является **k-fold кросс-валидация**.