Байесовские методы машинного обучения (курс лекций, Д.П. Ветров, Д.А. Кропотов)/2011/Задание 2
Материал из MachineLearning.
(Различия между версиями)
м (→Вариант 3) |
м (→Вариант 1) |
||
Строка 10: | Строка 10: | ||
== Вариант 1 == | == Вариант 1 == | ||
# Доказать, что <tex>\frac{\partial}{\partial A}tr(ABAC) = C^TA^TB^T + B^TA^TC^T</tex>. | # Доказать, что <tex>\frac{\partial}{\partial A}tr(ABAC) = C^TA^TB^T + B^TA^TC^T</tex>. | ||
- | # Вычислить <tex>\mathbb{E}_{\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)}(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a}) = \int(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a})\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)d\vec{x}</tex>. | + | # Вычислить <tex>\mathbb{E}_{\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)}(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a}) = \int(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a})\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)d\vec{x}</tex>. Здесь матрица <tex>B</tex> является симметричной и положительно определенной. |
# Пусть <tex>p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma),\ p(\vec{y}|\vec{x})=\mathcal{N}(\vec{y}|A\vec{x},\Gamma)</tex>. Доказать, что <tex>p(\vec{y})=\mathcal{N}(\vec{y}|A\vec{\mu},\Gamma+A\Sigma A^T)</tex>. | # Пусть <tex>p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma),\ p(\vec{y}|\vec{x})=\mathcal{N}(\vec{y}|A\vec{x},\Gamma)</tex>. Доказать, что <tex>p(\vec{y})=\mathcal{N}(\vec{y}|A\vec{\mu},\Gamma+A\Sigma A^T)</tex>. | ||
Текущая версия
Содержание |
Начало выполнения задания: 19 октября 2011 г.
Срок сдачи: 2 ноября 2011 г. (среда), 23:59.
Целью задания является приобретение студентами навыков в матричных вычислениях. Задание состоит из трех вариантов. Распределение студентов по вариантам сохраняется с предыдущего задания.
Вариант 1
- Доказать, что .
- Вычислить . Здесь матрица является симметричной и положительно определенной.
- Пусть . Доказать, что .
Вариант 2
- Доказать, что . Здесь — скалярная переменная.
- Доказать тождество Вудберри: . Здесь — прямоугольные матрицы. Подсказка: для доказательства достаточно просто перемножить две матрицы и убедиться, что их произведение равно единичной матрице.
- Пусть и . Доказать, что .
Вариант 3
- Доказать, что . Здесь — скалярная переменная. Подсказка: использовать разложение определителя матрицы по строке.
- Доказать, что оценка максимального правдоподобия для матрицы ковариации нормального распределения равна . Подсказка: дифференцировать функцию правдоподобия по матрице точности .
- Пусть . Найти .
Оформление задания
Задание оформляется на бумаге с проведением всех выкладок. Выполненное задание можно отсканировать и послать по адресу bayesml@gmail.com с заголовком письма «Задание 2 <Номер_группы> <ФИО>» или сдать листы непосредственно на лекции по спецкурсу.