GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.1 (8)
След. >
>>
Поиск:
Автор
Тема: Дисскусия S.Yakovlev и V.Tsaregorodtsev о перцептронах
tac
Сообщений: 2601
Дисскусия S.Yakovlev и V.Tsaregorodtsev о перцептронах
Добавлено: 06 ноя 11 8:26
Кто не знает что такое перцептрон - брысь от сюда
Мне тут пришла сырая идея о том какая должна быть архитектура перцептрона, чтобы он мог справится с проблемой инвариантности.
В частности для этого он должен уметь производить геометрические преобразования над информацией поступившей на сетчатку. И ему нужно кроме трех имеющихся слоев (S, A, R) иметь четвертый (B). Если слои S-A решают проблему нелинейности, сводя задачу к линейному представлению, а слои A-R решают задачу поиска конкретной системы уравнений дающей решение.
То теперь. Вводим слой B связанный со слоем A по правилу умножения матриц, где элементами матриц являются весовые коэффициенты. Тогда если матрица B единичная, то имеем классический перцептрон. Если же мы начинаем обучать слой A*B->R, то тем самым мы обучаем перцептрон инвариантности.
Вся проблема в том, как этому обучать ?
Ищу людей которые могли бы помочь над этим поработать реально на компьютерных экспериментах.
upd. После размышлений оказывается, что "ловить инвариантность" во втором слое поздно. Нам то нужно, чтобы инвариантно воспринимались исходные образы (например, все горизонтальные линии воспринимались бы одинаково). А после случайного связывания первого слоя мы уже получаем преобразование образа в другом пространстве. Таким образом, слой B должен быть связан со слоем S, и тогда речь идет о обучении S*B->A, причем так чтобы инвариантные образы на сетчатке одинаково воспринимались УЖЕ в ассоциативном (А) слое.
И тут важно, то, что перцептрон не полносвязный. Скажем для матрицы 2х2 (т.е. 4 входах), каждый А-элемент будет иметь только 2 связи с S-элементами, но связи от B к А будут связаны с двумя другими (следствие умножения матриц) А элементами. Тогда скажем если горизонтальная линия занимает элементы S1 и S2, а вторая горизонтальная линия S3 и S4. И наличие сигналов от элементов S1 и S2 возбуждает скажем элемент A1, то цель обучения становится такой: надо так установить сигналы от B-элементов, чтобы элемент А1 возбудился даже при том, что внешних сигналов от S1 и S2 нету, а есть сигналы от S3 и S4. Тогда А1 становится признаком горизонтальности, а выставление нужных сигналов на внутренних В-элементах - есть обучение определенному виду инвариантности.
И важно что на втором слое нам нужно получить пространство большей размерности, поэтому матрицы A и B будут разного размера. Скажем, если сетчатка 2х2 то матрица инвариантности будет 2х8, тогда получим 16 элементов в слое А.
(если не ясно спрашивайте
)
[
Ответ
][
Цитата
]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Матричный перцептрон
Добавлено: 07 ноя 11 17:35
Чё-то них... не понял.
Вы полиномиальный сумматор у нейрона захотели собрать? Так это не даёт полной инвариантности (повышает - это да, но полной не даёт). По полиномиальным (high-order) сетям уже очень много известно (например, книжка есть 2009 года под редакцией M.Zhang, но там народ добивался повышения точности прогнозирования нестационарных временных финансовых рядов, а не распознаванием картинок занимался).
Проще бэкпроповский многослойный персептрон (или его какой-то вариант, типа свёрточной сети) взять и навесить на него tangent prop, чем париться с необучением каких-то слоев сети (или иметь проблемы со сходимостью алгоритма при попытке использовать алгоритмы оптимизации гладких функций для негладких функций - об этом далее).
Обучать... Имели в виду проблему с пороговым нейроном? См. книжку Женьки Миркеса - там он для порогового нейрона предложил вариант метода обратного распространения (значением "производной" нелин.функции является -1 или 1, т.е. получаем нечто подобное r-prop'у, работающему со знаками производных).
А правильная структура сети таки-да, рулит. Многослойка с первыми необучаемыми слоями может решать задачу точнее, чем полностью обучаемая сеть с меньшим числом слоев. Либо за счёт того, что топология связей на первых, необучаемых слоях (даже при случайно задаваемых весах синапсов на этих слоях) позволяет-таки сконструировать довольно адекватные "высокоуровневые" локальные признаки, либо за счёт того, что повышается размерность пространства входов у обучаемой части сети (так нелинейные машины опорных векторов строятся: генерируются попарные произведения входов, например, и в признаковом пространстве увеличенной размерности - исходные признаки и их попарные произведения - линейная машина выбирает-отбирает оптимальные признаки).
--------------------------
нейронные сети, анализ данных, прогнозирование
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 07 ноя 11 17:49
Цитата:
Автор: Victor G. Tsaregorodtsev
Вы полиномиальный сумматор у нейрона захотели собрать? Так это не даёт полной инвариантности (повышает - это да, но полной не даёт). По полиномиальным (high-order) сетям уже очень много известно (например, книжка есть 2009 года под редакцией M.Zhang, но там народ добивался повышения точности прогнозирования нестационарных временных финансовых рядов, а не распознаванием картинок занимался).
Почему Вы так решили ? МГУА (Метод группового учета аргумента от Ивахненко) в новой обертке тут вроде как ни причем ...
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 07 ноя 11 17:53
Цитата:
Автор: Victor G. Tsaregorodtsev
навесить на него tangent prop
Где об этом можно почитать (что это и с чем едят) ? и желательно на русском
---
статью Ле Куна нашел, читаю ... речь именно о том, но хотелось бы, чтобы это было встроено в перцептрон ...
Да, и кстати, я говорю о перцептроне Розенблатта, многослойный с обратным распространением - не интересует (не работает он у меня - точнее не проходит мои тесты )
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 07 ноя 11 18:27
Цитата:
Автор: Victor G. Tsaregorodtsev
Многослойка с первыми необучаемыми слоями может решать задачу точнее, чем полностью обучаемая сеть с меньшим числом слоев. Либо за счёт того, что топология связей на первых, необучаемых слоях (даже при случайно задаваемых весах синапсов на этих слоях) позволяет-таки сконструировать довольно адекватные "высокоуровневые" локальные признаки, либо за счёт того, что повышается размерность пространства входов у обучаемой части сети (так нелинейные машины опорных векторов строятся: генерируются попарные произведения входов, например, и в признаковом пространстве увеличенной размерности - исходные признаки и их попарные произведения - линейная машина выбирает-отбирает оптимальные признаки).
Ух, ну слава Богу, что уже серьезные люди начали говорить умные вещи
А то, когда лет 5 назад я дискутировал на тему перцептрона Розенблатта и говорил практически тоже самое - многие "с погонами" только подсмехивались надо мной, считая перцептрон Розенблатта вчерашнем днем, а его необучаемые слои БОЛЬШИМ недостатком, а не преимуществом.
И не надо тут машин опорных векторов - так ВСЕГДА работал перцептрон Розенблатта
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Матричный перцептрон
Добавлено: 08 ноя 11 0:41
Перцептрон повороты понимать не будет, его нужно обучать всем повернутым вариантам, вот это будет правильное применение. В случае нарушения правил эксплуатации перцептрона Розенблатт снимает гарантийные обязательства и возврат денег не производит.
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 08 ноя 11 3:27
Цитата:
Автор: NO.
В случае нарушения правил эксплуатации перцептрона Розенблатт снимает гарантийные обязательства и возврат денег не производит.
Повеселило
Но вот и хотелось бы заменить Розенблатта на этом поприще
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13250
На: Матричный перцептрон
Добавлено: 08 ноя 11 4:04
Цитата:
Автор: tac
Но вот и хотелось бы заменить Розенблатта на этом поприще
есть лишние деньги? мы идем к вам...
а вот по поводу инвариантов... как мы все-таки станем отличать латинскую V от русской Л, если у нас всё инвариантно?
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 08 ноя 11 4:41
Цитата:
Автор: Egg
а вот по поводу инвариантов... как мы все-таки станем отличать латинскую V от русской Л, если у нас всё инвариантно?
Это уже вторично .. то, что при распознавании произошел поворот на 180 градусов перцептрон знает, а если ему на вход еще подать язык (прямо или косвенно) - то проблема решится.
Кстати, дети при обучении письму как раз часто пишут буквы в зеркальном отображении, т.е. у них инвариантность не закреплена. Точнее они буквы воспринимают трехмерно, но проектируют на плоскость двумя способами, которые при инвариантности должны были бы совместится в один. Т.е. специальной инвариантности СПЕЦИАЛЬНО учат.
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13250
На: Матричный перцептрон
Добавлено: 08 ноя 11 4:52
Цитата:
Автор: tac
а если ему на вход еще подать язык (прямо или косвенно) - то проблема решится.
то есть все-таки знание об языке возникает априорно... это я и хотел услышать...
тогда Розенблад попал, поскольку я знаю минимум десять других способов решить ту же задачу,
но все эти способы также нуждаются в априорных знаниях...
Зачем всё это?
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Матричный перцептрон
Добавлено: 08 ноя 11 5:19
Ну прямо заседание педсовета. В школе для умственно-отсталых.
По итогам второго полугодия мы добились 83-процентного распознавания букв М и Ж.
<апплодисменты>
Теперь мы можем убрать похабные картинки на туалетах!
<глухое неодобрительное мычание>
Замена пряников на розги <директор показывает на физрука со связкой веток> завершилась успехом! В следующей четверти будем давать азбуку.
<топот, визг, нечленораздельные выкрики, физрук кланяется, учитель литературы Др.Дрю перестает сморкаться в штору и что-то записывает>
Предлагаю отметить это событие банкетом. С пряниками!
<преподавательский состав встает, и косясь на физрука строится на выход>
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13250
На: Матричный перцептрон
Добавлено: 08 ноя 11 5:22
Цитата:
Автор: NO.
Ну прямо заседание педсовета. В школе для умственно-отсталых.
как-то за этими словами чувствуется большой практический опыт...
ну чего ты ругаешься... ну в школе... ну в специальной... с кем не бывает...
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Матричный перцептрон
Добавлено: 08 ноя 11 5:38
Сон Розенблатта.
Кстати некоторые мои пациенты на этой фотографии видели женщину в очках.
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Матричный перцептрон
Добавлено: 08 ноя 11 9:56
Цитата:
Автор: Egg
то есть все-таки знание об языке возникает априорно... это я и хотел услышать...
тогда Розенблад попал, поскольку я знаю минимум десять других способов решить ту же задачу,
но все эти способы также нуждаются в априорных знаниях...
Зачем всё это?
Ну не языки же по буквам различать. Для того чтобы буква сдвинутая на 2 пикселя или повернутая на некий малый градус - воспринималась одинаково.
[
Ответ
][
Цитата
]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Матричный перцептрон
Добавлено: 08 ноя 11 16:57
Цитата:
Автор: tac
Почему Вы так решили ? МГУА (Метод группового учета аргумента от Ивахненко) в новой обертке тут вроде как ни причем ...
Потому, что произведение двух (пусть даже и обучаемых) коэффициентов эквивалентно использованию одного обучаемого коэффициента.
А вот если значения сомножителей будут меняться от примера к примеру (именно так и происходит, если в качестве сомножителей выступают вх.сигналы сети или какого-то слоя сети) - то это уже даёт качественный эффект.
Цитата:
Автор: tac
Где об этом можно почитать (что это и с чем едят) ? и желательно на русском
На русском вроде бы нет (хотя я и не искал русских пересказов)
Цитата:
Автор: tac
Ух, ну слава Богу, что уже серьезные люди начали говорить умные вещи
Но Вы, надеюсь, понимаете, что необучение каких-то слоев (под вполне конкретную задачу) даёт не самое оптимальное решение этой задачи. Это неоптимальное решение просто может быть более точным (по сравнению с полностью обучаемой сеткой с меньшим числом слоев). А может и не быть (от сети и задачи зависит). Но лучшая точность по сравнению с чем-то - это не гарантия найденного наилучшего решения.
В общем, разделение системы на два блока (на "выделитель признаков" из изображения и на "распознаватель") потенциально всегда хуже, чем интегрированная, обучаемая с использованием единого критерия система (которая сама проведёт разделение между "выделителем признаков" и "распознавателем" там, где это будет наилучшим образом соответствовать конкретной задаче).
[
Ответ
][
Цитата
]
Стр.1 (8)
: [1]
2
3
4
5
...
8
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net