Графические модели (курс лекций)/2016

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: __NOTOC__ {|border = "0" | valign="top"|300px | valign="top"|Курс посвящен математическим методам обработк...)
(+ задание 1)
Строка 13: Строка 13:
По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com'', в название письма обязательно добавлять [ГМ16].
По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com'', в название письма обязательно добавлять [ГМ16].
 +
 +
== Практические задания ==
 +
 +
Задание 1. [[Media:GM16_assignment1.pdf| Алгоритм Loopy Belief Propagation для низкоплотностных кодов]]. Срок сдачи — '''13 марта, 23:59'''.
== Расписание занятий ==
== Расписание занятий ==

Версия 21:42, 28 февраля 2016


Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение.

Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.

Лектор: Д.П. Ветров,

Семинаристы: Д.А. Кропотов, Михаил Хальман.

По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ГМ16].

Практические задания

Задание 1. Алгоритм Loopy Belief Propagation для низкоплотностных кодов. Срок сдачи — 13 марта, 23:59.

Расписание занятий

В 2016 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 579, начало в 14-35 (лекция) и 16-20 (семинар).

Дата № занятия Занятие Материалы
12 февраля 2016 1 Лекция «Графические модели: байесовские и марковские сети, примеры применения» Презентация по байесовским рассуждениям и графическим моделям
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» Презентация по практическим задачам
19 февраля 2016 2 Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях» Конспект по алгоритмам передачи сообщений
Семинар «Алгоритмы передачи сообщений»
26 февраля 2016 3 Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» LDPC-коды в Википедии
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию»
4 марта 2016 4 Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» Презентация 1, Презентация 2
Семинар «Расширения скрытых марковских моделей»
11 марта 2016 5 Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» Конспект по ЛДС
Семинар «Вывод формул фильтра Калмана»
18 марта 2016 6 Лекция «Алгоритмы на основе разрезов графов, \alpha-расширение.» Презентация, конспект по разрезам графов
Семинар «Алгоритмы разрезов графов»
25 марта 2016 7 Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» Конспект по TRW
Семинар «Двойственное разложение»
1 апреля 2016 8 Лекция «Структурный метод опорных векторов (SSVM)» Конспект по SSVM
Семинар «Слабое обучение структурного SVM»
8 апреля 2016 9 Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» Методы вывода как алгоритмы передачи сообщений
Семинар «Вывод формул EP для различных моделей» Презентация по TrueSkill

Система выставления оценок по курсу

В рамках курса предполагается два практических задания. Каждое практическое задание оценивается из 5-ти баллов.

  1. При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
  2. Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания и сдача устного экзамена не менее чем на оценку «удовлетворительно».
  3. Итоговый балл за курс вычисляется по формуле Homework+2*Oral, где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 16 баллов, для оценки 4 — 13 баллов, для оценки 3 — 9 баллов.
  4. Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов.


Литература

  1. Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
  2. Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
  3. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
  4. Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
  5. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
  6. Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
  7. Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
  8. Памятка по теории вероятностей

Страницы курса прошлых лет

2015 год

2014 год

2013 год

2012 год

2011 год

2009 год

См. также

Курс «Байесовские методы машинного обучения»

Спецсеминар «Байесовские методы машинного обучения»

Математические методы прогнозирования (кафедра ВМиК МГУ)

Онлайн-курс Стэнфордского университета по вероятностным графическим моделям

Личные инструменты