GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.25 (26)
<<
< Пред.
|
След. >
>>
Поиск:
Автор
Тема: На: зачем
гость
87.236.194.*
На: зачем
Добавлено: 28 фев 17 11:36
Цитата:
Автор: бессмертный сложный
Всё верно, но граница тут размыта между моделью вообще и памятью, в контексте черного ящика, память это вырожденный вид модели, когда черный ящик записывает словарь ключ-значение, затем по ключу выдает значение. То есть память с интерфейсом ввода\вывода это элементарный ИИ. Потом идет синтез ответов по отсутствующим ключам, через аппроксимацию и дальнейшее развитие идёт в сторону улучшения алгоритмов аппроксимации и работы со специфическими структурами данных.
Нужна система которая изначально не содержит никаких на перд задданых алгоритмов, словарей и условных конструкций, всё должно возникнуть само их некоторого набора ортогональных эелементов, прото-алгоритмов.
[
Ответ
][
Цитата
]
rrr3
Сообщений: 11857
На: зачем
Добавлено: 28 фев 17 22:29
Цитата:
Автор: гость
Нужна система которая изначально не содержит никаких на перд задданых алгоритмов, словарей и условных конструкций, всё должно возникнуть само их некоторого набора ортогональных эелементов, прото-алгоритмов.
Ну... эта... можна и так... сказать...
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: зачем
Добавлено: 28 фев 17 23:44
Цитата:
Автор: гость
Нужна система которая изначально не содержит никаких на перд задданых алгоритмов, словарей и условных конструкций, всё должно возникнуть само их некоторого набора ортогональных эелементов, прото-алгоритмов.
просто так никакие прото-алгориты не появятся. Нужно либо явно их написать, либо создать условия их возникновения.
В первом случае мы четко определяем все шаги вычислительного процесса, во втором мы формируем некоторые ограничения для неуправляемого процесса. За счет этих ограничений этот неуправляемый процесс приобретает нужную нам форму. Если не устанавливать слишком жесткие ограничения то возможно возникновение нескольких альтернативных вариантов.
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: зачем
Добавлено: 26 мар 18 4:47
Продолжим исследование.
ранее при создании структуры DLN я использовал линии задержки как способ сдвинуть сигнал во времени чтобы получить на входе следующего нейрона комбинацию S1(t1)+S2(t2).
Данная схема оказалась не оч удобной т.к. помимо продумывания внутренней функции нейрона необходимо было включать в расчет сети линии задержки.
Второй проблемой было как физически запихнуть в 1 нейрон несколько ячеек памяти, при этом не нарушив гомогенность всей сети. Другими словами как организовать память отдельного нейрона.
В новом варианте сети я исключил из расчета линии задержки. И реализовал память нейрона в виде времени активности нейрона.
т.е. наш нейрон может находится в 2х состояниях - активном и не активном.
Время нахождения нейрона в активном состоянии и представляет размер его памяти.
т.е. если представить что нейрона активен 3 сек и каждую секунду он получает по 1 входному импульсу, то
общая память нейрона будет выражаться в виде M= S1(t1)+S2(t2)+S3(t3).
По сути мы пространственные ячейки памяти размазали во времени.
[
Ответ
][
Цитата
]
гость
124.41.240.*
На: зачем
Добавлено: 26 мар 18 20:24
Цитата:
Автор: Jenka
Продолжим исследование.
ранее при создании структуры DLN я использовал линии задержки как способ сдвинуть сигнал во времени чтобы получить на входе следующего нейрона комбинацию S1(t1)+S2(t2).
Данная схема оказалась не оч удобной т.к. помимо продумывания внутренней функции нейрона необходимо было включать в расчет сети линии задержки.
Второй проблемой было как физически запихнуть в 1 нейрон несколько ячеек памяти, при этом не нарушив гомогенность всей сети. Другими словами как организовать память отдельного нейрона.
В новом варианте сети я исключил из расчета линии задержки. И реализовал память нейрона в виде времени активности нейрона.
т.е. наш нейрон может находится в 2х состояниях - активном и не активном.
Время нахождения нейрона в активном состоянии и представляет размер его памяти.
т.е. если представить что нейрона активен 3 сек и каждую секунду он получает по 1 входному импульсу, то
общая память нейрона будет выражаться в виде M= S1(t1)+S2(t2)+S3(t3).
По сути мы пространственные ячейки памяти размазали во времени.
мне кажется - это все не имеет смысла
[
Ответ
][
Цитата
]
Вдовенко
Сообщений: 178
На: зачем
Добавлено: 27 мар 18 5:42
Изменено: 27 мар 18 6:42, автор изменений:
Jenka
Цитата:
Автор: Jenka
...ПАМЯТЬ это собственно не способность ХРАНИТЬ множество состояний а способность ВСПОМИНАТЬ состояния которые система принимала ранее.
---По сути мы пространственные ячейки памяти размазали во времени.
ах если бы не терять эту тонкую нить рассуждений. Быть может что-то уже и получилось бы.
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: зачем
Добавлено: 27 мар 18 6:42
Цитата:
Автор: Вдовенко
ах если бы не терять эту тонкую нить рассуждений. Быть может что-то уже и получилось бы.
если постараться чуть-чуть развернуть данное утверждение, то память можно выразить через некоторый активационный импульс возникающий на выходе нейрона при наличии двух одинаковых сигналах на входах нейрона. причем физическая природа, уровень и форма входных сигналов и выходного импульса может быть совершенно различной.
[
Ответ
][
Цитата
]
гость
185.220.101.*
На: Delay Line Networks (DLN)
Добавлено: 27 мар 18 8:42
Цитата:
Автор: Jenka
Delay Line Network(DLN) - Сеть линий задержек.
Принцип функционирования данной сети основан на эффекте задержки распространения сигнала когда он проходит по более длинному проводнику относительно времени его прохождения по более короткому проводнику.
Структурно сеть DLN представляет ориентированный граф в узлах которого находятся управляющие элементы - "нейроны", связи соединяющие различные "нейроны" представляют из себя линии задержки.
Сеть DLN предполагается использовать для создания модели функционирования мозга.
Свойства которыми должна обладать DLN:
- Память. способность сети сохранять и воспроизводить некоторые данные которые будут поступать на вход сети.
- Способность сохранять и восстанавливать последовательности входных данных.
- Иерархичность. способность сети сохранять входные данные в памяти в виде иерархий, также образовывать новые уровни иерархий.
- Ассоциативный доступ к данным в памяти.
- Целеобразование и реструктуризация целей сети.
Пардоньте, но задача поставленна не релавантно, особенно детские хотелки про "для создания модели функционирования мозга", это как разрабытывать транзистор на роль процессора. Судя по мутному описанию, это всегото некий вид DNN, тобишь просто классификатор\регрессор.
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 27 мар 18 9:05
Изменено: 27 мар 18 9:35
Цитата:
Автор: гость
Пардоньте, но задача поставленна не релавантно, особенно детские хотелки про "для создания модели функционирования мозга", это как разрабытывать транзистор на роль процессора.
это не разработка транзистора на роль процессора, это разработка элемента позволяющего дать максимальные когнитивные возможности при объединении отдельных таких элементов в систему.
при этом к данному элементу предъявляются ряд требований, таких как
совокупность работы таких элементов должна продолжать выполнять целевую функцию при выходе из строя большого кол-ва таких элементов вплоть до 90-99%.
это как если бы у вас был набор из нескольких разноцветных карандашей которыми вы могли бы нарисовать картину. Но со временем все они поломались и у вас остался один зеленый карандаш. но вы все еще в состоянии нарисовать им картину. пусть и только в зеленом цвете
либо более приближенная к моей системе аналогия - это набор светодиодов.
Они все выполняют функцию освещения. когда все светодиоды работают вокруг оч много света, когда большинство из них выйдет из строя света будет мало но общая целевая функция освещения не нарушится.
[
Ответ
][
Цитата
]
гость
185.220.101.*
На: Delay Line Networks (DLN)
Добавлено: 27 мар 18 17:46
Цитата:
Автор: Jenka
это не разработка транзистора на роль процессора, это разработка элемента позволяющего дать максимальные когнитивные возможности при объединении отдельных таких элементов в систему.
при этом к данному элементу предъявляются ряд требований, таких как
совокупность работы таких элементов должна продолжать выполнять целевую функцию при выходе из строя большого кол-ва таких элементов вплоть до 90-99%.
это как если бы у вас был набор из нескольких разноцветных карандашей которыми вы могли бы нарисовать картину. Но со временем все они поломались и у вас остался один зеленый карандаш. но вы все еще в состоянии нарисовать им картину. пусть и только в зеленом цвете
либо более приближенная к моей системе аналогия - это набор светодиодов.
Они все выполняют функцию освещения. когда все светодиоды работают вокруг оч много света, когда большинство из них выйдет из строя света будет мало но общая целевая функция освещения не нарушится.
Гммм... эээ... как бы Вам выразиться яснее и помягче... ну например берем к примеру многослойный персептрон, представьте себе что его ешё нет и некто на готайке открыл тему “многослойный персептрон” и сказал что то типа “... бла бла бла.. элементы связанны друг с другом и содержать память в виде весов взаимосвязей, как в человеческом мозгу, бла бла бла... ” а дальше ересь в стиле как Вы написали про “требования” про то что должно быть как человеческий мозг, а может усилить сказать чтобы круче чем мозг на “этой технологии”, чтобы антистарение было и сингулярность))))
Вы же понимаете абсурдность требовать от обычного MLP таких “результатов”? Такое требовать невозможно вообще НИ ОТ КАКОГО АЛГОРИТМА, это не вопрос технологии или алгоритма, это вопрос сотен(может тысяч) алгоритмов и сотен миллионов человеко часов. ИИ это не E = mc^2, это “формула” размером с ДНК, где мало красоты и изящества, а тупо миллиарды лет проб и ошибок.
Повторяю, то о чем вы говорите это просто разновидность классификатора и требования должны быть соответствующие, с заданной точностью классифицировать датасет, а не хрень про мозг и сингулярность оставьте rrr3 и NewPoisk
[
Ответ
][
Цитата
]
Вдовенко
Сообщений: 178
На: зачем
Добавлено: 27 мар 18 23:02
Цитата:
Автор: Jenka
...память можно выразить через некоторый активационный импульс ...
Именно! Память во времени, а не в пространстве. Из пространственно-временнЫх характеристик памяти все скатываются к пространственной памяти. А она не свойственна разуму. Мертвую пространственную память легко выражать, память временнУю гораздо сложнее. А так как пространство и время неразделимы, то граница очень тонка. И даже при благих намерениях в конце концов скатываются к понятиям "запись данных", "накопление знаний" итд..
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 28 мар 18 2:10
Изменено: 28 мар 18 3:37
Цитата:
Автор: гость
Вы же понимаете абсурдность требовать от обычного MLP таких “результатов”? Такое требовать невозможно вообще НИ ОТ КАКОГО АЛГОРИТМА, это не вопрос технологии или алгоритма, это вопрос сотен(может тысяч) алгоритмов и сотен миллионов человеко часов.
У нас с вами похоже немного разные представления об алгоритмах.
1. Поведение алгоритма определяется его структурой и входными данными.
Если подать на вход самого простого алгоритма данные сложной структуры например псевдослучайную последовательность, то его поведение будет выглядеть оч сложным.
2. Например создадим алгоритм в виде бота поведение которого относительно простое, и заключается в избегании столкновения с препятствиями. Теперь создадим группу таких ботов и запустим на некоторое поле. каждый раз они будут вести себя по разному бегая по этому полю. Поведение такого класса конкурентных алгоритмов делает оч разнообразным каждую партию. Данный эффект мы можем наблюдать в шахматах и различных компьютерных играх типа CounterStrike. в которых на маленьком поле можно сыграть огромное кол-во разных партий.
3. Еще один класс алгоритмов это циклические алгоритмы или алгоритмы с обратной связью. в которых выходные данные после прохождения преобразования первым циклом возвращаются на вход и над ними производится очередное преобразование. но т.к. после первого прохода данные на входе изменились мы каждый раз получаем новое поведение алгоритма.
4. Следующий тип алгоритмов это алгоритмы с памятью которые при определенных условиях изменяют свое внутренне состояние и меняют выходные данные в соответствии с этим состоянием.
про комбинацию всех этих алгоритмов я уже не говорю.
это так краткий обзор)
[
Ответ
][
Цитата
]
гость
185.220.101.*
На: Delay Line Networks (DLN)
Добавлено: 28 мар 18 15:05
Цитата:
Автор: Jenka
У нас с вами похоже немного разные представления об алгоритмах.
1. Поведение алгоритма определяется его структурой и входными данными.
Если подать на вход самого простого алгоритма данные сложной структуры например псевдослучайную последовательность, то его поведение будет выглядеть оч сложным.
2. Например создадим алгоритм в виде бота поведение которого относительно простое, и заключается в избегании столкновения с препятствиями. Теперь создадим группу таких ботов и запустим на некоторое поле. каждый раз они будут вести себя по разному бегая по этому полю. Поведение такого класса конкурентных алгоритмов делает оч разнообразным каждую партию. Данный эффект мы можем наблюдать в шахматах и различных компьютерных играх типа CounterStrike. в которых на маленьком поле можно сыграть огромное кол-во разных партий.
3. Еще один класс алгоритмов это циклические алгоритмы или алгоритмы с обратной связью. в которых выходные данные после прохождения преобразования первым циклом возвращаются на вход и над ними производится очередное преобразование. но т.к. после первого прохода данные на входе изменились мы каждый раз получаем новое поведение алгоритма.
4. Следующий тип алгоритмов это алгоритмы с памятью которые при определенных условиях изменяют свое внутренне состояние и меняют выходные данные в соответствии с этим состоянием.
про комбинацию всех этих алгоритмов я уже не говорю.
это так краткий обзор)
Ну да, ну да... тьюринговая полнота и прочая теоретическая чепушень... но нет уважаемый НЕТ! В реальность всё это не работает, в реальность рулит кумулятивный подход, агрегатный, нужно тупо решить тысячу мелких проблем а потом ещё столь коже потратить времени, возможно даже больше, чтобы соединить это всё в одну систему, нет никаких “универсальных решений” математически стройных и лаконичных как E = mc^2, ещё раз повторяю, смотрите на ДНК как на примерный по порядку размер формулы ИИ.
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 06 фев 21 15:45
Изменено: 06 фев 21 16:13
Цитата:
Автор: гость
Ну да, ну да... тьюринговая полнота и прочая теоретическая чепушень... но нет уважаемый НЕТ! В реальность всё это не работает, в реальность рулит кумулятивный подход, агрегатный, нужно тупо решить тысячу мелких проблем а потом ещё столь коже потратить времени, возможно даже больше, чтобы соединить это всё в одну систему, нет никаких “универсальных решений” математически стройных и лаконичных как E = mc^2, ещё раз повторяю, смотрите на ДНК как на примерный по порядку размер формулы ИИ.
формула "Жизни" в моем представление где-то очень близко к E = mc^2,
в том плане что она представляет из себя формулу E = m (life operator) c^ (life operator). Где на месте "m" и "с" могут стоять произвольные элементы, белок или кремний или еще что-то. Т.е. жизнь это то что склеивает элементы вместе, их конфигурация, а не сам набор элементов.
ps.жизнь это не Днк. жизнь это система взаимодействий мира. днк лишь одно из состояний этого процесса
[
Ответ
][
Цитата
]
Jenka
Сообщений: 959
На: Delay Line Networks (DLN)
Добавлено: 17 июн 21 2:25
Цитата:
Автор: гость
нет никаких “универсальных решений” математически стройных и лаконичных как E = mc^2, ещё раз повторяю, смотрите на ДНК как на примерный по порядку размер формулы ИИ.
да. наконец-то я пришел к пониманию того что ИИ будет представлять собой очень много кода. Этот объем возникает из-за того что нам придется строить модель физического носителя ИИ
[
Ответ
][
Цитата
]
Стр.25 (26)
:
1
...
21
22
23
24
[25]
26
<<
< Пред.
|
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net