GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (3)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Прогнозирование с помощью НС
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 04 окт 08 22:06
Цитата:
Автор: Victor G. Tsaregorodtsev

>так вот перцептрон Розенблатта распознает на порядок лучше бэкпропа

Ссылочки на результаты - в студию. Причем про бэкпроп - на результаты, полученные на софте, которому можно доверять (=тиражный софт, оттестированный во всех позах кучей людей в куче задач).


ну, моим результатам вы явно не доверяете но тогда вот наверняка Вам знакомый господин Редько, навел меня тут на достаточно известных иследователей, вот например их статьи
E.Kussul, T. Baidyk, L. Kasatkina, V. Lukovich (2001). Rosenblatt Perceptrons for Handwritten Digit Recognition, IEEE 0-7803-7044-9, 1516 – 1520 с.
E.Kussul, T. Baidyk (2004). Improved method of handwritten digit recognition tested on MNIST database. Image and Vision Computing 22 (2004), 971–981 с.

там элементарно показано, что достигается практически необходимая точность распознования, а скорость на порядок больше ... (а с моими модификациями - еще больше ) ...

Софта про бэкпроп такого не знаю - т.к. такой софт сколько я и не видел - не может взять даже минимальную размерность задачи ... - вообще не понимаю как о бэкпропе можно серьезно с требуемой Вами аргументацией хоть что-то говорить ... это для бэкпропа я еще не встречал даже элементарной аргументации - даже нет теоремы о сходимости - вот бы Минский поразвлекся - даже не достойно его критики
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 04 окт 08 22:15
Цитата:
Автор: Victor G. Tsaregorodtsev

>это в бэкпропе с этим творится всякая херня

"Да Вы просто не умеете их готовить" (С) Анекдот



Хорошо устроились - вы же даже не попытались мне помочь, так с какой стати вы можете такое утверждать. Классический алгоритм, который я пытался создать - дал такие же по сути результаты, как и доступные мне 2 программы с открытым кодом и я не один раз проверил что там делается одно и тоже. Вот только результат меня совершенно не удовлетворил - даи вы кажется сами говорили, что 100% сходимости нечего и ждать. Да, что там далеко ходить задачу XOR меньше чем за 1000 итераций решить нельзя ... Поэтому спускайтесь на землю к программированию или не следует говорить о серьезный данных вами аргументах ... Я открыто показал минимальную реализацию - если вы такой специалист покажите в чем там проблема ? Но нет вы ссылаетесь на недостаток времени ... Так о каких аргументах вы говорите ? Мой аргумент выверенная программа, которая с трудом решает задачу XOR - а ваша ... некая не проверенная теория о применении градиентного спуска, не дающая на практике результатов ?
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 04 окт 08 22:18
Цитата:
Автор: Victor G. Tsaregorodtsev

>то бинаризованный сигнал будет отображен на поверхность больщей размерности,
>и получившийся сигнал будет взвешен

Если действительно гарантированно делать больше нейронов в скрытом слое, чем число пикселов на картинке - тогда да, будет отображение в бОльшую размерность.
Хотя... Похожий принцип используется и в нелинейных SVM


SVM - слизаны практически полностью с перцептрона Розенблатта, поэтому их правильнее считать некой модификацией перцептрона, и возможно не самой удачной. Единственно что там есть это некие пока только теоритические разговоры о опорных векторах, с кучей не оптимальной математики ...
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 04 окт 08 22:24
Цитата:
Автор: Victor G. Tsaregorodtsev
Например, можно взять теоремы из статьи Bengio, LeCun "Scaling learning algorithms towards AI" 2007г. Взять эту статью можно в разделе публикаций на сайте yann.lecun.com. Там изложена теория, которая вполне может угробить практический интерес к машинам опорных векторов и всем малослойным сеткам (в том числе и к персептрону Р предполагаемой Вами структуры), как раньше книга Минского и Пейперта угробила интерес к классическому персептрону.


А разве нельзя дать более точную ссылку о какой теореме и ее доказательстве идет речь ? Или изложить основные выводы ? Я надеюсь классическим перцептроном вы называете трехслойный перцептрон, т.е. http://ru.wikipedia.org/wiki/Перцептрон
Интерес то может и угробила, но субъективно, т.к. такое ощущение, что так люди и не поняли в чем ИСТИНОЕ ограничение перцептронов и пока в этом отношении все известные мне нейронные сети конкурентами не являются, т.е. критики Минского относится практически ко всем известным сейчас нейроным сетям - не одна от них не свободна ...
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 04 окт 08 22:31
Цитата:
Автор: Victor G. Tsaregorodtsev

>Вы хотите сказать что перцептрон Розенблата прогнозировать не умеет

Умеет прогнозировать только временные ряды из логических нулей и единиц


А вот это тонкий момент ... т.е. как миниму такое прогнозирование вы признаете, т.е. ранее брошенная фраза, что перцептроны не умеют прогнозировать несколько не точна ?

Теперь далее, вы утверждаете, что если число 5 записать как 101, то перцептрон прогнозируя временный ряд из 101, не спрогнозирует число 5 ?
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Прогнозирование с помощью НС
Добавлено: 05 окт 08 17:22
>навел меня тут на достаточно известных иследователей, вот например их статьи
>там элементарно показано, что достигается практически необходимая точность
>распознования, а скорость на порядок больше ... (а с моими модификациями - еще больше)

Поскольку я не телепат, то плиз явно сопоставьте тамошние цифирки точности и скорости с данными в указанной мной статье 07г и в статье ЛеКуна с соавторами 98г "Gradient learning applied to document recognition". Эти 2 статьи скачиваются с указанного мной сайта за 1 мин, где искать указанные Вами статьи - я не представляю. Гугл, конечно, может знать, но лень проверять.
Во всех этих (названных и мной, и Вами) статьях применяется одна и та же MNIST-база, поэтому сравнение сетей/методов будет корректным.

>Софта про бэкпроп такого не знаю - т.к. такой софт сколько я и не видел -
>не может взять даже минимальную размерность задачи

Пакет Statistica в двух (или уже трех?) последних версиях включает и нейромодуль. В Матлабе есть Anfis/NNTool. Trajan (это как раз то, что под другим именем включается в Статистику как нейромодуль) можно бесплатно скачать для теста. И т.д. Поиграйтесь-ка с реальными промышленными нейропакетами.

>это для бэкпропа я еще не встречал даже элементарной аргументации - даже нет
>теоремы о сходимости

полсотни лет развития теории градиентной оптимизации - коту под хвост? Бэкпроп - это метод градиентной оптимизации (вернее, единый способ быстрого расчета градиента сложной функции плюс куча вариантов организации собственно использования этого градиента - выполнение шагов именно в сторону наискорейшего спуска либо конструирование более эффективного направления, возможность управления длиной шага вдоль направления спуска, и т.д.). Если не говорят - то только потому, что всё уже давно известно из более древней области знания и с более универсальными тамошними терминами.
Сходится. К локальному минимуму или седловой точке (в зависимости от способа организации использования градиента).
Скорость сходимости - линейная или сверхлинейная, опять же в зависимости от конструкции алгоритма обучения.

>вы же даже не попытались мне помочь

Чем помочь? У меня самого нет никаких проблем с использованием бэкпропа. И у меня нет времени разбираться с конкретными деталями конкретной программы или конкретной задачи - я отвечаю на принципиальный вопрос (правильно/неправильно, так/не так, лучше/хуже,...) базируясь на своем и чужом опыте.
Поэтому да,

>ну, моим результатам вы явно не доверяете

именно потому, что Вы один кричите о каких-то проблемах, а толпа говорит о другом.

>там далеко ходить задачу XOR меньше чем за 1000 итераций решить нельзя

Повторяю - это чисто Ваши проблемы. Взгляните в указанную мной в этом письме статью ЛеКуна с соавторами 98г - там на базе из 60000 картинок с рукописными символами хватало полсотни итераций обучения. Да, всё зависит от особенностей конкретной задачи, но не до такой же абсурдной степени (когда база на 4 порядка бОльшего размера требует на 2 порядка меньше итераций).

>Я надеюсь классическим перцептроном вы называете трехслойный перцептрон

розенблаттовский персептрон с пороговыми нейронами, со случайными связями нейронов первого скрытого слоя только с отдельными ячейками ретины (а не со всей ретиной), и с обучаемым только последним слоем. Т.е. случай не с бэкпропом.

>А вот это тонкий момент

А Вы сначала найдите такие временные ряды в реалиях в сколько-нибудь массовом количестве и в актуальных для прогнозирования задачах.

>если число 5 записать как 101, то перцептрон прогнозируя временный ряд из 101, не спрогнозирует число 5 ?

Сорри, но пример перешел границу, за которой кончилась традиционная ориентация и начались извращения (=мозго@бство)


Ответов больше не будет - рекламную роль ответы для меня исчерпали, иной реальной пользы для самого себя не вижу, есть и иные способы потратить время.
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 05 окт 08 17:39
Цитата:
Автор: Victor G. Tsaregorodtsev
Ответов больше не будет - рекламную роль ответы для меня исчерпали, иной реальной пользы для самого себя не вижу, есть и иные способы потратить время.


Просто потому, что конкретных ответов вы дать не в состоянии ... а вашей балтологии я тоже уже наслушался ...

Цитата:
>там далеко ходить задачу XOR меньше чем за 1000 итераций решить нельзя
Повторяю - это чисто Ваши проблемы.


может это и мои проблемы ... но проблемы ! Я реализую и при этом в точности то как описано (кстати, сказать описано на столько хреново, что однозначно понять не возможно (и это за столько лет развития, как вы говорите - а вот кода для образца НИ ГДЕ НЕТ! - в таком случае действительно - "коту под хвост")) ! НО результаты дейстивтельно не сходятся с публикуемыми на несколько порядков - именно это меня и удивляет !!! Но вы похоже не в состоянии здесь помочь разобраться ... конкретных деталей там НЕТУ ! Обычная программа типа Hello, World ! но вы похоже не в состоянии понять элементарного кода, если такое пишите ... Ладно занимайтесь теорией - которая расходится с практикой как раз в этом месте ...




[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 05 окт 08 17:41
Цитата:
Автор: Victor G. Tsaregorodtsev
>Софта про бэкпроп такого не знаю - т.к. такой софт сколько я и не видел -
>не может взять даже минимальную размерность задачи

Пакет Statistica в двух (или уже трех?) последних версиях включает и нейромодуль.


Именно этот пакет я и имел введу, говоря, что он не может выдержать подходящую размерность !

Более того мне не нужен пакет, т.к. там как правило реализованна не базовая версия бэкпропа, а с какими нибудь наворотами, устраняющими некоторые недостатки, но качественно не описанные ...
[Ответ][Цитата]
tac
Сообщений: 2601
На: Прогнозирование с помощью НС
Добавлено: 05 окт 08 17:45
Цитата:
Автор: Victor G. Tsaregorodtsev

>навел меня тут на достаточно известных иследователей, вот например их статьи
>там элементарно показано, что достигается практически необходимая точность
>распознования, а скорость на порядок больше ... (а с моими модификациями - еще больше)

Поскольку я не телепат, то плиз явно сопоставьте тамошние цифирки точности и скорости с данными в указанной мной статье 07г и в статье ЛеКуна с соавторами 98г "Gradient learning applied to document recognition". Эти 2 статьи скачиваются с указанного мной сайта за 1 мин, где искать указанные Вами статьи - я не представляю. Гугл, конечно, может знать, но лень проверять.


Цифры там такие 98,9-99,3% точность разпознования на тестовой выборке, а скорость обучения 6-40 часов (число нейронов в среднем слое 128000), когда утверждается, что в других сетей требуется до нескольких недель.

Указанную вами статью я нашел, но в 75 страницах статьи найти две цифры совершенно не просто - поэтому если в курсе для бэкпропа - то укажите ...
[Ответ][Цитата]
гость
185.220.101.*
На: Прогнозирование с помощью НС
Добавлено: 01 янв 18 5:33
Цитата:
Автор: Victor G. Tsaregorodtsev

Будет однонейронный персептрон Розенблатта (обучаемый) или многослойный персептрон Р с обучаемым только последним слоем Прогнозировать он не умеет - попробуйте спрогнозировать с его помощью, например, биржевой курс рубля к баксу
курс рубыль\бакс спрогнозировать и с помощью MLP нельзя, только по одной прошлой цене, не имея релевантных данных, это не вопрос сложности классификатора

по поводу остального - нужно использовать гипертангенс и будет счастье
[Ответ][Цитата]
гость
95.108.244.*
На: Прогнозирование с помощью НС
Добавлено: 07 янв 18 1:12
Научи её для начала считать. Не инкрементировать, а именно считать - один, два, три ... сто один, сто два ... тысяча сто двадцать один и т.д. Как поймёшь способ обучения счёту, сможешь обучить любому цикличному прогнозированию.
[Ответ][Цитата]
гость
173.254.216.*
На: Прогнозирование с помощью НС
Добавлено: 07 янв 18 4:40
прогнозирование это обычная классификация или регресия, другое дело что для финансового прогнозирования как правило данные определяют результат, полезный сигнал очень слыбый, почти на уровне шума(если избавиться от оверфита) accuracy примерно 52-53%(2-3% над рандомом)
[Ответ][Цитата]
гость
185.104.120.*
На: Прогнозирование с помощью НС
Добавлено: 01 мар 18 15:42
Цитата:
Прогнозирование с помощью НС
Этим занимается Виктор Царегордцев, но не бесплатно, по рейтам вузовского препода http://neuropro.ru/
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Прогнозирование с помощью НС
Добавлено: 05 мар 18 12:28
Егоров, не пиши под анонимом - залогинься
[Ответ][Цитата]
гость
128.31.0.*
На: Прогнозирование с помощью НС
Добавлено: 06 мар 18 6:43
Цитата:
Автор: Victor G. Tsaregorodtsev

Егоров, не пиши под анонимом - залогинься
Вы рекламируете NeuroPro 95 года выпуска с помощью анонимов(пруф - http://www.gotai.net/forum/default.aspx?page=1&threadid=241908) поэтому можно и Алексею Егорову(Вишня\Трубникову) это делать, но отрицать это, так же как и вы отрицаете.
[Ответ][Цитата]
 Стр.2 (3)1  [2]  3<< < Пред. | След. > >>