GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (26)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Delay Line Networks (DLN)
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 4:49
Цитата:
Автор: Victor G. Tsaregorodtsev
Т.е. в чём проблема какие-то связи к нейрону сунуть сверху (имеется в виду классика рисования схем из "квадратов и стрелочек": вход входит слева в чёрный ящик, выход выходит справа, а сверху подходит управляющий сигнал)? И однотипно с входными связями обучать и задержки по управляющим связям?

Я не спорю с вами. В теме про форумный мозг, я сразу сказал что модель сети DLN может быть приведена к модели классической нейронной сети.
Просто мне кажется что в виде сети DLN некоторые особенности работы мозга именно как управляющей структуры можно понять немного лучше. т.к. сеть дискретная и расчет каждого нейрона производится по мере необходимости а не всех сразу.
Сделаю небольшую оговорку касательно синаптических весов, возможно какойто их аналог и будет присутствовать в окончательной модели нейрона DLN, если это потребуется для повышения управлемости системы в целом. В общем детали функциональной обработки нейроном входной информации это дело подбора нужной функции.
[Ответ][Цитата]
гость
5.138.169.*
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 8:41
***А что такое универсальность?

В моём понимании, универсальному алгоритму нет разницы, что из себя представляют данные, он информативный сигнал и из шума найдёт.

***А если много много "if -> then"

Универсальность вопрос автоматической генерации этих самых "if -> then", даже из шума.
[Ответ][Цитата]
гость
5.138.169.*
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 8:45
***а теперь возьмите фотографию на которой человек покупает машину, и скажите где там объект а где субъект цели?

Моё утверждение не объясняет, какие объекты распознаю я, но оно ставит вопрос - "А как твоя сеть разделит биты на байты и байты на объекты?"
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 9:07
Цитата:
Автор: гость

***а теперь возьмите фотографию на которой человек покупает машину, и скажите где там объект а где субъект цели?

Моё утверждение не объясняет, какие объекты распознаю я, но оно ставит вопрос - "А как твоя сеть разделит биты на байты и байты на объекты?"

Да что вы уперлись в эти объекты? Сеть DLN не оперирует понятиями "объект". Она оперирует понятиями значение сигнала и связь его с другими значениями в разные промежутки времени. Соответственно ей абсолютно все равно что вы ей подаете на вход.. она лишь ищет зависимости в данных и структурирует эти зависимости.

Если вы хотите чтобы сеть DLN общалась с вами на языке объектов такими какими понимаете их вы, её нужно будет научить этому. Но это не будет объектное мышление системы DLN, это будет лишь преобразование к человеческому языку. своего рода переводчик.
[Ответ][Цитата]
гость
5.138.169.*
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 10:18
ясно.
[Ответ][Цитата]
covax
Сообщений: 1609
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 14:23
Цитата:
Автор: Jenka
Принцип функционирования данной сети основан на эффекте задержки распространения сигнала когда он проходит по более длинному проводнику относительно времени его прохождения по более короткому проводнику.


Ну допустим...

Цитата:
Автор: Jenka
DLN можно также назвать корреляционой сетью, т.к. основным принципом работы данной сети является установление зависимостей во входных данных.


А можно здесь поподробнее о том, что касается принципа установления зависимостей?

Цитата:
Автор: Jenka
Реструктуризация информации в сети DLN.

Рассмотрим сначала основные способы реструктуризации информации в сети.
На мой взгляд их всего 3:
1) Реструктуризация через создание циклических связей. Или так называемая обратная связь.


ок.

Цитата:
Автор: Jenka
2) Реструктуризация через двунаправленный обмен информацией.


То же. что и п.1. Прямая и обратная связь = двунаправленный обмен.

Цитата:
Автор: Jenka
3) Реструктуризация через модификацию соединительных связей.


Модификация на основе ОС. То же что и п.1


Что значит реструктуризация по вашему? Линии задержки будут объединяться разъединяться? На одном уровне Tn или на разных?
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 21:32
Изменено: 02 мар 15 21:33
2covax
С некоторыми их ваших замечаний согласен. В принципе циклические связи и двунаправленный обмен можно объединить в одну категорию.

Вместе с тем добавлен новый тип реструктуризации - реструктуризация через изменение свойств элементов.
Данный тип реструктуризации подразумевает что каждый входной сигнал может влиять на внутреннее состояние системы изменяя при этом последующий отклик системы.
Т.е. 2 одинаковых сигнала на входе дадут разный отклик в зависимости от предыдущих состояний.
При этом в системе могут отсутствовать обратные связи.
Реструктуризация через память является одним из примеров данного типа реструктуризации.

[Ответ][Цитата]
victorst
Сообщений: 821
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 21:55
Изменено: 02 мар 15 22:03
2Jenka: А вы не рассматривали еще один тип реструктуризации - добавление или уничтожение нейронов? Неважно, что в живом мозге такие процессы видимо протекают медленно или вовсе не протекают. Такие процессы могут быть не как создание или уничтожение, а как задействование резервных нейронов или вывод их в резерв. Суть от этого не меняется.
2Victor G. Tsaregorodtsev: Вы, я так понимаю, серьезнейший специалист по нейросетям. Может ткнете нас носом в такую разновидность ИНС в какой-нибудь умной книге? Заранее благодарен.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 22:26
Изменено: 02 мар 15 22:31
Цитата:
Автор: victorst
2Jenka: А вы не рассматривали еще один тип реструктуризации - добавление или уничтожение нейронов? Неважно, что в живом мозге такие процессы видимо протекают медленно или вовсе не протекают. Такие процессы могут быть не как создание или уничтожение, а как задействование резервных нейронов или вывод их в резерв. Суть от этого не меняется.

Тогда наверное стоит просто переименовать пункт "Реструктуризация через изменение структуры связей" и обобщить его до "Создание и удаление связей и нейронов".
Т.к. нейроны сами по себе создаваться не могут. Они всегда будут создаваться вместе со связями.
(картинку вечером перерисую)
Меня ваш пост натолкнул на другую мысль, удаление и создание нейронов(или их обнуление) в одной заданной области сети будет иметь очень интересный эффект. Будет происходить локальное обнуление корреляционных связей сети. С последующим их образованием в новом виде. Таким образом информация в сети будет какбы омолживаться переодически, избегая попадания в локальные минимумы. или так называемое состояние насыщения.

[Ответ][Цитата]
victorst
Сообщений: 821
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 22:36
Изменено: 02 мар 15 22:41, автор изменений: Jenka
Цитата:
Автор: JenkaТ.к. нейроны сами по себе создаваться не могут. Они всегда будут создаваться вместе со связями.

Такие сети можно назвать растущими искусственными нейросетями. Или как-то аналогично. Суть не в названии.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 22:37
В принципе я так думаю что на основе любого типа реструктуризации(с некоторыми доработками) можно получить желаемый результат. Т.е. они все равнозначны. Только имеют разную трудоемкость реализации. Ведь формально мы оперируем 2 категориями - данными и действиями над этими данными.
нужно просто подобрать подходящий чтобы описать требуемое поведение системы.
Для описания одних свойств системы можно использовать один тип реструктуризации, для описания других другой. Будем выбирать нужный нам тип исходя из текущей задачи.
И не подгонять всю систему к одному типу.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 02 мар 15 22:42
Изменено: 02 мар 15 22:48
Цитата:
Автор: victorst


Такие сети можно назвать растущими искусственными нейросетями. Или как-то аналогично. Суть не в названии.

прошу прощения, случайно отредактировал ваш пост. (перепишите его если не сложно)
//---
Вот тут бы я с вам не согласился. Я думаю как раз растущие сети (с увеличением кол-ва нейронов)нам создавать и не нужно. Нужно создавать одну перестраиваемую сеть.
Во всяком случае именно такой мне видится концепция DLN.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 1:02
Цитата:
Автор: Jenka
Меня ваш пост натолкнул на другую мысль, удаление и создание нейронов(или их обнуление) в одной заданной области сети будет иметь очень интересный эффект. Будет происходить локальное обнуление корреляционных связей сети. С последующим их образованием в новом виде. Таким образом информация в сети будет какбы омолживаться переодически, избегая попадания в локальные минимумы. или так называемое состояние насыщения.

Подобный этому эффект кстати используется в генетических алгоритмах. Только там он называется случайной мутацией.
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 5:15
Цитата:
Автор: victorst
А вы не рассматривали еще один тип реструктуризации - добавление или уничтожение нейронов?
...
Может ткнете нас носом в такую разновидность ИНС в какой-нибудь умной книге?

Сначала про добавление.
Классика - алгоритм каскадной корреляции и выросшие из него идеи растущих сетей.
Обзоры работ 90х годов - в
1. Campbell C. Constructive learning techniques for designing neural network systems / Neural Network Systems and Applications (C.Leondes ed.), Academic Press, 1997.
2. Kwok T., Yeung D. Constructive algorithms for structure learning in feedforward neural networks for regression problems / IEEE Trans. Neural Networks, 1999. Vol.8, №3. - pp.630-645.
Первый обзор покороче, второй сильно детальнее и обширнее, оба есть (ну, или были, ибо я себе качал) в интернете.
Особенность всего направления - при каждом добавлении нейрона и/или дообучении сети может потребоваться несколько раз просмотреть обучающую выборку. Т.е. синтез сети идёт оффлайновый. Ну и сетка получается аналогом многослойного персептрона (решение тех же задач, много слоёв - вот только связи между нейронами и слоями будут по-другому выстроены).

Другой вариант - сети SOINN / ESOINN. Это уже решение задач кластеризации без учителя, обучение м.б. онлайновое (для ESOINN), иерархия абстракций=кластеров м.б. двухуровневой (SOINN).

Ну и среди разных видов сетей адаптивного резонанса (ART) тоже есть растущие.

Теперь к удалению нейронов. Тут ситуация похуже (но похуже - только лишь применительно к желанию получить такую систему, которая будет получше отражать поведение биологических нервных систем). Надо вводить какой-то критерий чувствительности решения к выходному сигналу того или иного нейрона - и удалять те, к которым решение не чувствительно (но это уже будет оффлайн-процедурой, для расчёта чувствительности надо будет прогнать через сеть какую-то эталонную выборку), или вводить что-то типа индикатора срока давности активации этого нейрона (т.е. если нейрон давно не активировался - значит, задача какая-то нестационарная и ранее работавший нейрон стал не нужным, но ведь гипотезу эту о нестационарности мы просто субъективно вводим, и индикатором срока давности активации нейрона никак формально и чётко не проверяем).
Хотя для упрощения многослойных персептронов есть куча методов (как для выкидывания из них неинформативных входных сигналов, так и для отстрела избыточных нейронов или связей между ними) - но это таки именно оффлайновая процедура синтеза сети, с проверкой, чтобы после удаления очередного элемента/сигнала (и, возможно, дообучения сети) навык решения не упал катастрофически (поэтому и нужна какая-то эталонная выборка - для такого вот теста).
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 6:53
Изменено: 03 мар 15 7:04
ну что же начнем потихоньку строить наши нейроны.
Базовая модель нейрона в сети DLN будет иметь вид показанный на картинке ниже.
Там же приведена таблица состояний нейрона.

Для начала наш нейрон будет выполнять простую функцию сравнения входных сигналов.
Если входные сигналы равны, нейрон будет дальше передавать отклик =1, если не равны то тоже отклик =0.
Такая схема работы нейрона выбрана по той причине что бы была возможность в дальнейшем обработать оба состояния системы(когда сигналы равны и когда не равны).
Последнее состояние это состояние неактивности нейрона. у него на входах ничего нет, соответственно он ничего и не передает

Как можно видеть на выходе нашей системы по прежнему сохраняются 3 состояния, однако смысл этих состояний значительно поменялся.
[Ответ][Цитата]
 Стр.2 (26)1  [2]  3  4  5  6  ...  26<< < Пред. | След. > >>