4. Компиляция и обучение модели: Модель компилируется с использованием оптимизатора Adam и функции потерь mean_squared_error. Затем модель обучается на обучающей выборке.
5. Оценка и тестирование модели: Прогнозы модели сравниваются с реальными данными, и результаты визуализируются с помощью графика.
Этот подход может быть расширен и улучшен, например, путем настройки гиперпараметров модели или добавления дополнительных слоев для повышения точности прогнозов.
Построение модели RNN
Использование двух LSTM слоев
Для анализа временных рядов и прогнозирования цен на акции мы будем использовать два слоя LSTM. LSTM (Long Short-Term Memory) слои являются разновидностью рекуррентных нейронных сетей, специально разработанных для запоминания долгосрочных зависимостей в последовательных данных. В отличие от обычных RNN, которые могут страдать от проблем затухающих градиентов, LSTM могут эффективно обучаться на долгосрочных зависимостях.
Первый слой LSTM
Первый слой LSTM принимает последовательность данных на вход и возвращает последовательность, которая будет передана следующему слою. Возвращение последовательности (return_sequences=True) необходимо, чтобы каждый временной шаг предыдущего слоя был передан на вход следующего слоя LSTM. Это позволяет следующему слою LSTM дополнительно обрабатывать временные зависимости.
```python
model.add(layers.LSTM(50, return_sequences=True, input_shape=(sequence_length, 1)))
```
– 50 нейронов: Это количество нейронов в первом слое LSTM. Число нейронов определяет способность сети к обучению сложным паттернам.
–return_sequences=True: Указывает, что слой должен возвращать полную последовательность выходов для каждого временного шага, а не только последний выход.
– input_shape=(sequence_length, 1): Определяет форму входных данных, где `sequence_length` – это длина последовательности (например, 60 дней), а `1` – это количество признаков (в данном случае, только одно значение цены закрытия).
Второй слой LSTM
Второй слой LSTM принимает последовательность от первого слоя и возвращает конечный выход для всей последовательности. Здесь параметр `return_sequences` установлен в `False`, что означает, что слой будет возвращать только последний выходной элемент последовательности.
```python
model.add(layers.LSTM(50, return_sequences=False))
```
– 50 нейронов: Количество нейронов в втором слое LSTM, аналогично первому слою.
– return_sequences=False: Указывает, что слой должен возвращать только последний выход, который будет использоваться для прогнозирования.
Полносвязные слои
После обработки данных слоями LSTM, выходной вектор передается полносвязным слоям для окончательной классификации или регрессии. Полносвязные слои обеспечивают соединение каждого нейрона предыдущего слоя с каждым нейроном текущего слоя, что позволяет сети обучаться сложным нелинейным зависимостям.
```python
model.add(layers.Dense(25))
model.add(layers.Dense(1))
```
– Первый полносвязный слой:
– 25 нейронов: Полносвязный слой с 25 нейронами. Этот слой может использоваться для дополнительного обучения сложным паттернам в данных.
– Выходной слой:
– 1 нейрон: Выходной слой с одним нейроном, который будет выдавать прогнозируемую цену акции.
Эта архитектура сети, состоящая из двух слоев LSTM и двух полносвязных слоев, позволяет модели эффективно обрабатывать временные ряды и делать прогнозы на основе предыдущих данных. Первый слой LSTM возвращает полную последовательность, позволяя следующему слою LSTM дополнительно обучаться на временных зависимостях. Второй слой LSTM возвращает конечный выход, который затем передается через полносвязные слои для получения окончательного прогноза. Такая архитектура позволяет модели обучаться на длинных временных зависимостях и выдавать точные прогнозы цен на акции.