GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (1)   Поиск:  
 Автор Тема: back propagation
sealmu
Сообщений: 1
back propagation
Добавлено: 11 ноя 07 17:20
У меня есть код обучения нейронной сети методом (back propagation), где порог нейронов в процесе обучения меняеться согласно : T[i](n+1) = T[i](n) - alpha * Ai + gamma * ( T[i](n) - T[i](n-1) )
Я пытался найти в Internet''е объяснение этому, но ничего не нашел.
???????


W[i,j](n+1) = W[i,j](n) + alpha * Ai * Sj + gamma * ( W[i,j](n) - W[i,j](n-1) )
T[i](n+1) = T[i](n) - alpha * Ai + gamma * ( T[i](n) - T[i](n-1) )

Ai = f''(WSi) * (expected_output_i - si) for output layer
Ai = f''(WSi) * SUM( Ak * W[k,i] ) for others
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: back propagation
Добавлено: 12 ноя 07 17:26
Уже ответил на форуме basegroup Обучение с инерцией - небольшая модификация стандартного алгоритма обратного распространения.

первые две строки кода - внесение изменений в сеть, именно тут и сделана модификация алгоритма (добавлен член gamma*(...)). Третья и четвертая строки - стандартные для любых модификаций бэкпропа способы вычисления поправок (и реально должны выполняться ДО первой-второй строк).

Курите нейроучебники

-----------------------------------------------------------
нейронные сети, анализ данных, прогнозирование

[Ответ][Цитата]
гость
93.115.95.*
На: back propagation
Добавлено: 20 май 17 10:08
вот интересно... а можно ли бэкпроп делать над стекнутыми сетями классификаторов? Как это делать?
[Ответ][Цитата]
ёж
Сообщений: 61
На: back propagation
Добавлено: 22 май 17 16:39
Цитата:
Автор: гость

вот интересно... а можно ли бэкпроп делать над стекнутыми сетями классификаторов? Как это делать?
Что Вы имеете в виду? Обучение обратным распространением это математика, математический алгоритм.
[Ответ][Цитата]
 Стр.1 (1)