EM алгоритм (пример)
Материал из MachineLearning.
(→Литература) |
|||
Строка 32: | Строка 32: | ||
* Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006. | * Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006. | ||
- | {{Задание|Никита Спирин|В.В. Стрижов| | + | {{Задание|Никита Спирин|В.В. Стрижов|28 мая 2009}} |
[[Категория:Учебные материалы]] | [[Категория:Учебные материалы]] |
Версия 13:15, 23 апреля 2009
|
EM-алгоритм — общий метод нахождения оценок функции правдоподобия в моделях со скрытыми переменными. В данной статье рассматривается интерпретация смеси гауссовых распределений в терминах дискретных скрытых переменных.
Постановка задачи
Задана выборка , в которой
TODO
Требуется найти такие значения параметров ,
которые доставляли бы минимум норме вектора невязки
.
Описание алгоритма
Вектор определяется с решение нормального уравнения
Вычислительный эксперимент
Цель вычислительного эксперимента -
y = 1;
Исходный код
Смотри также
Литература
- Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |