GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (1)   Поиск:  
 Автор Тема: Нейронные сети для обратной задачи
Щетинин Виталий
Сообщений: 6
Нейронные сети для обратной задачи
Добавлено: 08 ноя 15 2:17
Добрый день. Где-то в статьях встречал, что есть класс НС с помощью которых легко решать обратные задачи. То есть после обучения по y можно найти один из параметров вектора признаков. Сейчас понадобилось по работе и не могу вспомнить, что за класс.
Подскажите, пожалуйста.
[Ответ][Цитата]
гость
78.25.121.*
На: Нейронные сети для обратной задачи
+1
Добавлено: 08 ноя 15 4:00
может, двунаправленная ассоциативная память?
[Ответ][Цитата]
гость
94.142.242.*
На: Нейронные сети для обратной задачи
+2
Добавлено: 08 ноя 15 4:09
Может быть Вы имели в виду каким способом отбирать наиболее существенные признаки(LASSO, Elastic net…), а также как их затем декоррелировать, уплотнять(сжимать размерность)(PCA и тп.) ?

Любая НС, классификатор, регрессия, после обучения предоставит Вам “по первому требованию” любой параметр(вес, признак…), ну… если у Вас есть исходный код конечно))
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Нейронные сети для обратной задачи
+1
Добавлено: 08 ноя 15 4:38
Цитата:
Автор: Щетинин Виталий
Добрый день. Где-то в статьях встречал, что есть класс НС с помощью которых легко решать обратные задачи. То есть после обучения по y можно найти один из параметров вектора признаков.

Многослойный персептрон (и все его "глубокие" варианты) с алгоритмом обратного распространения ошибки.

У обученной сетки на нужном векторе признаков получаете ответ, далее сравниваете с эталоном (с помощью любой однократно непрерывно дифференцируемой функции - МНК, кроссэнтропийная и прочие "стандарты" для таких нейронок), запускаете бэкпроп, но НЕ ОБУЧАЕТЕ веса сети - а продолжаете расчёт производных до получения производных по входам сети и обучаете нужные (или все) компоненты входа до того момента, когда выход сети станет соответствовать нужному эталону (или пока не будет достигнут локальный минимум).
[Ответ][Цитата]
Щетинин Виталий
Сообщений: 6
На: Нейронные сети для обратной задачи
Добавлено: 08 ноя 15 9:15
Виктор, спасибо за ответ. Но это, как я понимаю, именно общий подход для решения обратных задач сведением их к задаче оптимизации. Я думал, что есть подходы менее ресурсоемкие.
[Ответ][Цитата]
Щетинин Виталий
Сообщений: 6
На: Нейронные сети для обратной задачи
Добавлено: 08 ноя 15 9:20
Цитата:
Автор: гость

может, двунаправленная ассоциативная память?


Это как раз то, про что я читал. Большое спасибо, Вам! Буду пробовать.
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Нейронные сети для обратной задачи
+1
Добавлено: 09 ноя 15 4:53
Цитата:
Автор: Щетинин Виталий
Виктор, спасибо за ответ. Но это, как я понимаю, именно общий подход для решения обратных задач сведением их к задаче оптимизации. Я думал, что есть подходы менее ресурсоемкие.

Хм... Ещё менее? С учётом того, что градиент вычисляется наиболее эффективным (по сравнению с другими математическими) способом, а хороший метод градиентной оптимизации даст сверхлинейную скорость сходимости...

Видно, надо было сначала предложить алгоритм генетической оптимизации, чтобы потом на его фоне...



Вообще, если нейросети тормозят - меняйте программу на другую.
[Ответ][Цитата]
Щетинин Виталий
Сообщений: 6
На: Нейронные сети для обратной задачи
Добавлено: 10 ноя 15 6:22
Цитата:
Автор: Victor G. Tsaregorodtsev


Хм... Ещё менее? С учётом того, что градиент вычисляется наиболее эффективным (по сравнению с другими математическими) способом, а хороший метод градиентной оптимизации даст сверхлинейную скорость сходимости...

Видно, надо было сначала предложить алгоритм генетической оптимизации, чтобы потом на его фоне...



Вообще, если нейросети тормозят - меняйте программу на другую.


Виктор, спасибо за объяснения. В итоге реализовал как Вы написали. все отлично работает!
[Ответ][Цитата]
 Стр.1 (1)