Нейросеть
Материал из MachineLearning.
(категория) |
(викификация) |
||
Строка 13: | Строка 13: | ||
<tex>a(x)=\phi(\sum^{n}_{j=0} w_j x^j)</tex>,где <tex>phi(z)=[z\ge 0]</tex>. | <tex>a(x)=\phi(\sum^{n}_{j=0} w_j x^j)</tex>,где <tex>phi(z)=[z\ge 0]</tex>. | ||
- | + | Модель МакКалока-Питтса эквивалентна линейному пороговому классификатору. | |
====Персептрон Розенблатта==== | ====Персептрон Розенблатта==== | ||
Строка 23: | Строка 23: | ||
===Многослойная нейросеть=== | ===Многослойная нейросеть=== | ||
- | {{ | + | |
+ | {{Stub}} | ||
[[Категория:Машинное обучение]] | [[Категория:Машинное обучение]] | ||
[[Категория:Нейронные сети]] | [[Категория:Нейронные сети]] |
Текущая версия
Содержание[убрать] |
Нейросеть
Однослойная нейросеть
Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество
допустимых ответов; y∗ : X → Y - целевая зависимость, известная только на объектах обучающей выборки . Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.
Будем предполагать, что объекты описываются n числовыми признаками
. Вектор
называется признаковым описанием объекта x.
Модель МакКаллока и Питтса
Алгоритм принимает на вход вектор . Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов
. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.
Введем дополнительный константный признак
,где
.
Модель МакКалока-Питтса эквивалентна линейному пороговому классификатору.
Персептрон Розенблатта
Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w.
Идея обучения: Если , то вектор весов не изменяется. Если
, то вектор весов увеличивается, в случае наоборот - уменьшается.
Так как пока рассматриваются бинарные признаки, то верна формула: