Долгосрочное прогнозирование ежедневных цен на электроэнергию (пример)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Постановка задачи)
(Литература)
Строка 146: Строка 146:
}}
}}
-
{{Задание|Раиса Джамтырова|В.В.Стрижов|24 декабря 2010|Раиса Джамтырова|Strijov}}
+
{{ЗаданиеВыполнено|Раиса Джамтырова|В.В.Стрижов|24 декабря 2010|Раиса Джамтырова|Strijov}}
[[Категория:Практика и вычислительные эксперименты]]
[[Категория:Практика и вычислительные эксперименты]]

Версия 12:48, 23 декабря 2010

Решается задача долгосрочного прогнозирования цен на электроэнергию. Долгосрочное прогнозирование цен является основой для планирования и инвестирования. Для решения задачи рассматривается метод авторегрессии. При построении модели также производится отбор признаков при помощи метода наименьших углов

Полный текст этой работы, PDF


Содержание

Постановка задачи

Дан временной ряд \mathbf{s}_1=[x_1,\ldots,x_{T-1}]^T, x\in\mathbb{R}^1 и матрица признаков, столбцами которой являются  \mathbf{s}_2, \mathbf{s}_3 \ldots \mathbf{s}_m. Необходимо спрогнозировать следующую величину x_{T}.

Предполагается, что

1) отсчёты сделаны через равные промежутки времени,

2) ряд имеет периодическую составляющую,

3) ряд не имеет пропущенных значений,

4) длина ряда кратна периоду k.


Составляется  (m \times k) — матрица значений временного ряда:


A =
\left(
\begin{array}{llll}
x_T     & x_{T-1}   & \ldots & x_{T-k+1}   \\
x_{(m-1)k} & x_{(m-1)k-1} & \ldots & x_{(m-2)k+1} \\
\ldots  & \ldots    & \ldots & \ldots    \\
x_{nk} & x_{nk-1} & \ldots & x_{n(k-1)+1} \\
\ldots  & \ldots    & \ldots & \ldots    \\
x_k     & x_{k-1}   & \ldots & x_1       \\
\end{array}
\right),
в которой длина ряда  T= mk .


A =
\left(
\begin{array}{l|lll}
x_T     & x_{T-1}   & \ldots & x_{T-k+1}   \\
\hline\\
x_{(m-1)k} & x_{(m-1)k-1} & \ldots & x_{(m-2)k+1} \\
\ldots  & \ldots    & \ldots & \ldots    \\
x_{nk} & x_{nk-1} & \ldots & x_{n(k-1)+1} \\
\ldots  & \ldots    & \ldots & \ldots    \\
x_k     & x_{k-1}   & \ldots & x_1       \\
\end{array}
\right).

Введём обозначения 
A= 
\left(
\begin{array}{l|l}
x_T     & \mathbf{x}^T\\
\hline \\
\mathbf{y} & X \\
\end{array}
\right).


В случае, когда учитываются временные ряды  \mathbf{s}_1, \mathbf{s}_2 \cdots \mathbf{s}_m, для каждого j-го временного ряда строится матрица S_j и присоединяется справа. Полученная матрица  A= \begin{bmatrix} S_1 & S_2 & \cdots & S_m \end{bmatrix} .

Пусть задан набор функций G=\{g_1,\ldots,g_r\}, например,

g_1=1, g_2=\sqrt{x}, g_3=x, g_4=x\sqrt{x}. Матрица порождённых признаков


A =
\left(
\begin{array}{l|lllllll}
x_T  & g_1\circ x_{T-1}    & \ldots & g_r\circ x_{T-1}        & \ldots & g_1\circ x_{T-k+1} & \ldots   & g_r\circ x_{T-k+1}\\
\hline\\
x_{(m-1)k} & g_1\circ x_{(m-1)k-1}& \ldots & g_r\circ x_{(m-1)k-1}   & \ldots & g_1\circ x_{(m-2)k+1} & \ldots & g_r\circ x_{(m-2)k+1} \\
\ldots & \ldots      & \ldots & \ldots        & \ldots & \ldots  & \ldots      & \ldots\\
x_{nk} & g_1\circ x_{nk-1}    & \ldots & g_r\circ x_{nk-1}       & \ldots & g_1\circ x_{n(k-1)+1} & \ldots & g_r\circ x_{n(k-1)+1}\\
\ldots & \ldots      & \ldots & \ldots        & \ldots & \ldots  & \ldots      & \ldots\\
x_k & g_1\circ x_{k-1}     & \ldots & g_r\circ x_{k-1}        & \ldots & g_1\circ x_1  & \ldots         & g_r\circ x_1\\
\end{array}
\right).

Пути решения задачи

Требуется решить задачу линейной регресии |X\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. Требуется найти такие параметры \mathbf{w}, которые доставляют минимум норме вектора невязок X\mathbf{w}-\mathbf{y}.

 \mathbf{w}=(X^TX)^{-1}(X^T\mathbf{y}).

В терминах линейной регрессии

\mathbf{y}= X\mathbf{w}

y_T=  <\mathbf{x}^{T}, \mathbf{w}>

Возможны два подхода к нахождению значения x_T. Первый заключается в последовательном построении прогнозируемых значений. В качестве вектора \mathbf{x}^{T} выбираюся K-1 предыдущих значений временного ряда, и для каждого следующего значения x_{T+1}, x_{T+2}, ..., x_{T+l} необходимо заново строить авторегрессионную матрицу X. Второй подход заключается в прогнозировании периода ряда по предыдущему. В качестве вектора \mathbf{x}^{T} выбираются K-1 значений ряда предшествующего периода. При данном подходе перестраивать авторегрессионную матрицу X не нужно.

При увеличении числа признаков (в случае добавления столбцов \mathbf{s}_2..., \mathbf{s}_m) необходимо уменьшить размерность пространства засчёт отбора признаков. В качестве алгоритма отбора признаков выбран метод наименьших углов. Проверяется, улучшает ли отбор признаков прогнозирование.


Смотри также

  • Полный текст этой работы, PDF
  • Исходный код вычислительного эксперимента [1]

Литература

  1. Vadim Strijov Model Generation and its Applications in Financial Sector. — Middle East Technical University, 2009.
  2. Bradley Efron, Trevor Hastie, Iain Johnstone and Robert Tibshirani Least Angle Regression. — 2002.
  3. Стрижов В.В Методы выбора регрессионных моделей. — ВЦ РАН, 2010.
  4. Rafal Weron Modeling and Forecasting Electricity Loads and Prices. — 2006.
  5. Hsiao-Tien Pao A Neural Network Approach to m-Daily-Ahead Electricity Price Prediction. — 2006.
  6. Wei Wu, Jianzhong Zhou,Li Mo and Chengjun Zhu Forecasting Electricity Market Price Spikes Based on Bayesian Expert with Support Vector Machines. — 2006.


Данная статья была создана в рамках учебного задания.
Студент: Раиса Джамтырова
Преподаватель: В.В.Стрижов
Срок: 24 декабря 2010


В настоящее время задание завершено и проверено. Данная страница может свободно правиться другими участниками проекта MachineLearning.ru.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.