GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.3 (26)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Delay Line Networks (DLN)
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 7:23
Изменено: 03 мар 15 7:30
Второй особенностью данной схемы является следующее:
Теперь на выходе нейрона мы имеем функцию от двух входных состояний. Но так как данная функция сама может находится в 3х состояниях(-1, 0, 1) то никто не мешает нам в дальнейшем скомбинировать эту функцию с самими начальными данными.

То есть подать на один вход следующего нейрона "данные", а на второй вход "функцию".
Увеличивая количество входов и выходов нейрона и изменяя внутреннюю функцию нейрона можно манипулировать данными и функциями практически как в языке программирования.

Только в языке программирования структуру программы задаете вы сами. А в сети DLN сеть может сама создавать для себя данные и функции по ходу работы.

Куда складывать временные переменные? Конечно в DelayLine!

[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 7:42
Пока что мы ничего нового не открыли. А лишь подтвердили тот факт что любая функция может быть реализована как программно так и аппаратно.
В этом контексте DLN является аппаратной реализацией программы.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 12:30
Изменено: 03 мар 15 12:32
Для управления и расчета всей сети DLN нам придется ее засинхронизировать. Но мы будем делать это не в явном виде(через дополнительные соединения). А просто привяжем функциональные операции в сети в глобальному таймеру и условимся что любая операция выполняемая сетью занимает несколько тиков глобального таймера.

Теперь перейдем к рисунку.

Преобразование самого сигнала в такой сети пока рассматривать не будем. Вернемся к нему чуть позже т.к. это отдельная тема. А рассмотрим вот какие свойства:

1) Функциональная обработка информации, (есть/нет)
2) Объем хранимой информации
3) Временная привязка информации

Функциональная обработка информации-характеризуется изменением информации внутри сети относительно входных значений.
Действительно мы видим что информация внутри сети изменяется а не просто накапливается в виде стека или буфера. Эти изменения вносят нейроны.

С двумя другими свойствами не все так просто.
Объем хранимой информации нельзя измерить непосредственно т.к. информация внутри сети DLN не носит аддитивнй характер. Мы будем интерпретировать объем хранимой информации в кол-ве состояний которые могут быть восстановлены из входной последовательности.

Временная привязка информации. Для целей описания всей системы будем использовать тики внешнего таймера. Внутренне представление времени в системе будет формироваться динамически исходя из изменений одного сигнала относительно другого.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 12:56
Изменено: 03 мар 15 13:10
Касательно восстановления входной последовательности для определения объема хранимой информации у меня возникают сомнения.
Нужно ли это делать вообще?! Фактически для этого нужно будет выполнить обратное преобразование зависимостей к исходным сигналам. Что не всегда возможно.
Скорее всего мозг этого не делает. Он оперирует отражением информации.

Но как тогда понять что система запомнила а что нет? наверное по повторяемости отклика системы на одни и те же входные данные(ее поведению)... хотя и это может быть не всегда.

В целях отладки нашей системы мы попробуем реализовать обратное преобразование поверх структуры сети.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 22:39
Изменено: 03 мар 15 22:42
Отсечение информации.

Еще немного усложним нашу схему как показано на рисунке 3.

Рис3.

Теперь у нас имеется 4 входных сигнала и один выходной. С учетом синхронизации сети возникает задача как преобразовать 4S*1T в 1S*1T, или другими словами как передать за 1 такт времени отклик 4х входных состояний.

Реализовать это можно по разному.
1) Использовать тот же алгоритм что и для нейрона с двумя входами, в котором 9 возможных входных состояний проецируются на 3 выходных. Однако с увеличением кол-ва входов такой алгоритм нам явно не подходит т.к. увеличивая входную размерность но оставляя выходную равную трем у нас будет происходить эффект "размывания" зависимости сигналов.

2) Более предпочтительным мне кажется следующий алгоритм:
После получения любого сигнала по одному из входов, наш нейрон будет переходить в состояние отсечения входных сигналов на время кратное кол-ву входов. Т.е. он станет на некоторое время неактивным пока не передаст на выход пачку из входных импульсов.
Это будет параллельно-последовательное преобразование информации.
Потом нейрон снова включается и так циклически по мере поступления сигналов.

Возможно сначала покажется что мы постоянно будем терять информацию во входном потоке во время простаивания нейрона. Однако если рассмотреть биологические системы. Входная информация в них меняется достаточно медленно относительно быстродействия нейронов. Т.е. на вход сенсора информация поступает не в виде "0101" а в виде "000000111111000000111111". Соответственно нейрон успевает зафиксировать входную зависимость. Для обработки любого входного потока его нужно будет всего лишь умножить на масштабирующий коэффициент чтобы получить длинную повторяющуюся последовательность.

3) Третим вариантом передачи большого кол-ва входных состояний может стать увеличение кол-ва выходов нейрона, и перераспределения нагрузки между ними.
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 23:30
Изменено: 04 мар 15 0:00
Реорганизация памяти.

Как упоминалось выше сеть DLN оперирует отражениями данных, а не самими входными данными. Соответственно реорганизовывать мы будем отражения входных данных в памяти DLN.
Входные данные и их отражения две принципиально разные сущности. Которые не приводятся друг к другу. И между ними не допустимы операции сравнения. Поэтому наша сеть не имеет механизма обратного вывода. Соответственно не может идти речи о построении какой либо иерархии входных сущностей.
Входные данные это своего рода жесткие кирпичи которые физически нельзя сжать в один кирпич.

С учетом всего вышесказанного общий вид системы будет таким как показано на рис.4

Рис.4
Это будет однонаправленная система с одним входом и отсутствием выхода.

[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Delay Line Networks (DLN)
Добавлено: 03 мар 15 23:57
Цитата:
Автор: Jenka
...Входные данные и их отражения две принципиально разные сущности...

Женька, все это хорошо, но скучно же читать... Когда закончите описывать банальности и скажете в двух словах, на пальцах саму суть, чтобы можно было ее обмозговать...
Иначе как с квадратиками со стрелочками получается, топор есть, а каша не варится..., думаешь вот в следующем посте что-то интересное будет, а там все иное, никак не связанное с топором, так зачем было рисовать этот топор (стрелочки с квадратиками и долго долго их описывать или вот Ваши картинки... пока ну... может просто чего-то не понимаю, но уж извините, для меня пока не о чем...)
При желании данный пост можете смело удалить... Просто эмоции от скуки...
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:05
Изменено: 04 мар 15 0:06
Цитата:
Автор: rrr3
Женька, все это хорошо, но скучно же читать... Когда закончите описывать банальности и скажете в двух словах, на пальцах саму суть, чтобы можно было ее обмозговать...
Иначе как с квадратиками со стрелочками получается, топор есть, а каша не варится...,

Вся суть системы показана на рисунке 4.
Это значит что у системы будет только вход но не будет выхода для данных.
+ думать она будет собственными образами.
Система будет характеризоваться только своим поведением. прицепите на выходные нейроны сети ноги или колеса и ваша система при получении некоторого набора входных данных будет бегать или ездить
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:14
Примерно как у живых существ. вы же анализируете множество входных данных своими сенсорами..глазами .. ушами. но назад в окружающую среду вы их не выдаете. только поведение.. ну и продукты жизнедеятельности
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:22
Цитата:
Автор: Jenka
Вся суть системы показана на рисунке 4.
Это значит что у системы будет только вход но не будет выхода для данных.
+ думать она будет собственными образами.
Система будет характеризоваться только своим поведением. прицепите на выходные нейроны сети ноги или колеса и ваша система при получении некоторого набора входных данных будет бегать или ездить

Молодец, повеселил ответом!
Ну... конечно мне не составляет труда "отклик" ("поведение"), не считать выходом.
Не сложно представить свое собственное субъективное понимание того, что такое думать собственными образами. Могу понять, как мне кажется, что такое бегать или ездить... Могу, если не ошибаюсь, представить себе, что такое система будет характеризоваться только своим поведением.

Это, видимо, бегание, а не механизмы поведения (читай преобразования) элементов и связей системы???!!!
[Ответ][Цитата]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:28
Цитата:
Автор: rrr3
Это, видимо, бегание, а не механизмы поведения (читай преобразования) элементов и связей системы???!!!

Наверное я не совсем правильно объяснил. "Ноги"-это всего лишь индикатор для определения изменения внутренней памяти системы. Теоретически мы можем прицепить их к любому внутреннему нейрону. А можем не цеплять вообще.

Они нам нужны лишь для того чтобы понять чтоже там наша система думает.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:31
Цитата:
Автор: Jenka
Примерно как у живых существ. вы же анализируете множество входных данных своими сенсорами..глазами .. ушами. но назад в окружающую среду вы их не выдаете. только поведение.. ну и продукты жизнедеятельности

Хорошо Вы это... на счет продуктов... жизнедеятельности.... это, я так предполагаю, букафки которые я (и Вы) набираете на клавиатуре... Похвально!

Только вот сенсорами я данные не анализирую, я сенсорами реагирую на сигналы на которые рассчитаны мои сенсоры..., каждый на свой узкий диапазон возможных вообще сигналов ("раздражителей"). Как-то так вроде, если не врут нейрофизиологи, а сенсоры, это сенсоры, а не все последующее расположенное в мозгах.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 0:36
Изменено: 04 мар 15 0:42
Цитата:
Автор: Jenka
Наверное я не совсем правильно объяснил. "Ноги"-это всего лишь индикатор для определения изменения внутренней памяти системы. Теоретически мы можем прицепить их к любому внутреннему нейрону. А можем не цеплять вообще.

Они нам нужны лишь для того чтобы понять чтоже там наша система думает.

То, что система "думает", зависит от поступающих к ней сигналов в большей степени чем от самой системы. Примерно как психология в большей степени (хотя и не полностью) зависит от воспитания и не имеет прямого, непосредственного отношения к механизмам работы мозга. Вопрос в том как она "думает".

Повторюсь:
Хде механизмы поведения (читай преобразования) элементов и связей системы???!!!

Про космос я все понял, Вы мне расскажите как повидло в конфету "подушечка", попадает.
[Ответ][Цитата]
гость
213.136.87.*
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 1:29
Цитата:
Автор: rrr3


Вы мне расскажите как повидло в конфету "подушечка", попадает.


Трах-тибидох-махалай-бахалай... Ну как и усё прочее на свете...
[Ответ][Цитата]
гость
213.136.87.*
На: Delay Line Networks (DLN)
Добавлено: 04 мар 15 1:33
А чего тут жуётся то а? Процесс "преобразования информации" можно реализовать на чём угодно. Как программу, "на рабах" на любых "элементах" способных менять состояние по получению на вход информации (сигнала"...
[Ответ][Цитата]
 Стр.3 (26)1  2  [3]  4  5  6  7  ...  26<< < Пред. | След. > >>