GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (5)След. > >>   Поиск:  
 Автор Тема: Сверточная нейронная сеть Михайло
Михайло
Сообщений: 2366
Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 21:35
Изменено: 16 ноя 18 21:39
Цитата:
Гость 197.231.221.*

михайло сам признался что на MNIST у него 8% ошибки, о чем с ним толковать?


Цитата:
Эгг

MNIST меньше 5% - это невозможно. Миша где-то выкладывал свой пайтоновский вариант. У него было 98% и что-то около того, не наговаривайте на него.


Цитата:
Гость 197.231.221.*

меньше 10% точности невозможно, у Миши была 92%(8% ошибка) https://dxdy.ru/post1344089.html#p1344089


Цитата:
Эгг

Нет, он уже показывал что-то получше.
Другое дело, что 1) писать скрипты на пайтоне с библиотеками - это совсем не означает понимать тонкости работы методов ML и 2) распознавание - это совсем не то, что я обсуждаю, распознавание - это абсолютно тривиальная задача. Она к интеллекту вообще никакого отношения не имеет.


Цитата:
Гость 197.231.221.*

Распознавание это "образный" интеллект, точнее не интеллект, а обьектное восприятие, а сам интеллект это "обёртка" над образным разумом, для комуникации, для трансфер-лёрнинга, реализованного на том же субстрате

ЗЫ показывать результаты работы чужих библиотек это просто неприлично, особенно если похожий результат уже кто то другой показывал, стыдоба, думаю Михаил юноша лет 15-17, у которого гормоны в крови бушуют и он видит за персептронами и оптимизацией, сексуальных цыпочек и шикарные машины, только так можно объяснить его поведение.


Цитата:
Эгг

Может быть. Мне кажется что механизм аппроксимации (в общем случае) отличается от того механизма, которым пользуется мышление. Хотя в сверточных сетях есть много рациональных зерен и интересных идей.

Сейчас уже mnist так затаскан, что его нужно на первом курсе универов на лабораторной делать. С нуля, без использования специальных библиотек. Хотя вот есть задачка интересная - решить mnist по текстовому описанию. Например: нолик - это замкнутый кружочек, а восемь - это два кружочка, один над другим. Вот тут интересно может быть. Как в плане использования онтологий, так и подумать над архитектурой такого распознавателя...


Цитата:
Михайло

Щас запилил простейшую сверточную нейронную сеть (CNN). Получилось 80,9% на 1000 примеров. Сейчас запустил на 9000 примерах, жду результаты. Долго работает, надо код оптимизировать: хотя бы QVector заменить на массивы указателей, параметры функций сделать ссылочными.


Цитата:
Михайло

Нее, на 9000 примерах 86,7% - позор.

На трёхслойном MLP было > 94%.


Цитата:
Гость 197.231.221.*

как то не вирится, код в студию, если это правда и вы сами запилили CNN с нуля, то реапекты, но неверится, пока код не увижу не поверю...


Цитата:
Гость 197.231.221.*

всё верно, это позор, трёхслойный MLP не нужен, одного промежуточного(скрытого) слоя на 200 элементов достаточно, чтобы 97.5% за 50 эпох получить


Цитата:
Эгг

Вот, посмотри, разберись. Лекун на CNN получал ошибку 0.39%
https://habr.com/post/74326/


Цитата:
Михайло

Архитектура нейронки такая:

CONV-RELU-POOL-CONV-RELU-POOL-FC

В каждом сверточном слое всего один фильтр. Ядра свертки 3х3, пулинг - MAX, пул-сайз 2, полносвязный слой двухслойный (или вроде такие принято называть однослойными?).

До лекуновского LeNET-5 далеко ещё. Очень долго работает.


Цитата:
Михайло

Нее, он даже, лошара, до 0,5% не дошёл.
Там другие товарищи с глубокими нейросетями и всякими ансамблями добились рекордов.


Цитата:
Данила Зайцев

Как то не верится что человек не смогший даже kNN написать, утверждает что CNN запилил на плюсах, которую даже Я не смог ещё запилить

Не... похоже на враньё...


Цитата:
Михайло

Да ничего сложного нет, просто надо аккуратно подсчитать производные на каждом шаге преобразования и аккуратно следить за преобразованием индексов массивов и векторов.


Цитата:
Данила Зайцев

Круто! Что тут скажешь, публикуйтесь на гитхабе, многим будет интересно посмотреть на Ваш код CNN это не хухры мухры...
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 21:40
Перенес обсуждение в отдельную ветку, чтобы не засорять тему Эгга всякой непохабной ерундой.
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 22:15
Изменено: 16 ноя 18 22:41
Спасибо, конечно. Но мы же не ругались, а просто обсудили один частный момент. Это нормально для топика, в котором не задано конкретное направление. Но сама тема сверточных сетей очень интересна, ее можно выделить в отдельную ветку, там много тонких моментов. Единственное что, предметно обсуждать нужно с кодом. А это либо неудобно, либо затратно по времени (если, конечно, не брать библиотеки). Поэтому вероятно, что ветка останется не очень активной.

Я подумаю, если спланирую по времени, может быть и присоединюсь к тебе со своим вариантом CNN.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 22:34
Изменено: 16 ноя 18 22:35
Цитата:
Автор: Данила Зайцев

Круто! Что тут скажешь, публикуйтесь на гитхабе, многим будет интересно посмотреть на Ваш код CNN это не хухры мухры...

Пока рано. Мне надо получить достойный результат по проценту ошибок распознавания.

Посмотрел лекуновский LeNet-1, мне до него немножко осталось, надо просто на первом сверточном слое сделать не один фильтр, а четыре. На втором сверточном слое - не один фильтр, а целых восемь. LeNet-1 показывает результат 1.7%.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 22:42
Цитата:
Автор: Эгг

Но мы же не ругались, а просто обсудили один частный момент.

Нее, просто оффтоп вынес в отдельную тему.

Цитата:
Автор: Эгг

Я подумаю, если спланирую по времени, может быть и присоединюсь к тебе со своим вариантом CNN.

Алексей, закодировать CNN - это не просто функцию написать, надо сразу фреймворк бацать. Элементарно даже accuracy посчитать. Различные анализаторы типа confusion matrix (error matrix). Всякие генераторы выборок. И CNN надо научить работать не с отдельными объектами, а с выборками объектов, применяя коррекцию к весам и фильтрам только после нескольких объектов (batch-обучение). И так далее.

Так что затянется это всё.
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 16 ноя 18 23:06
Изменено: 16 ноя 18 23:08
Цитата:
Автор: Михайло
Алексей, закодировать CNN - это не просто функцию написать, надо сразу фреймворк бацать.

Спасибо, конечно, за заботу, но это будет не на пустом месте, не волнуйся за меня. Один из своих первых вариантов сверточных сетей я опробовал в 2003 году. Они, правда, отличаются от лекуновских, но есть и общие элементы. Меня не интересует ошибка распознавания mnist'а, меня интересуют некоторые другие аспекты. В рамках моего текущего проекта. Просто мы поговорили, я перечитал и появились некоторые ассоциации, которые нужно проверить. Если будет конкретное обсуждение с деталями, я буду очень рад и приму участие.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 1:33
Я не верю. Ты называешь нейросети решением линейных уравнений, это не отражает твои знания о внутреннем устройстве. Потому что это отражает лишь знания лишь о решающей функции calculate(). А о принципах backpropagation() ты не в курсе.
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 6:10
Изменено: 17 ноя 18 6:15
Это не вопрос веры. Ты пропустил "на каждом слое", когда цитировал... разберешься со временем...
[Ответ][Цитата]
Дмитрий Стволовой
Сообщений: 328
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 6:35
Изменено: 17 ноя 18 6:36
Цитата:
Автор: Михайло
Сверточная нейронная сеть Михайло
Очень амбициозно Михаил и достаточно рискованно в контексте вашей репутации, теперь как говорится "назвался груздем полезай в кузов", не будет работающего, хорошо спроектированного, кода CNN, это будут такой позор, что насмешки над гегеге и ньюпом, вам покажутся райскими песнями, но напротив, если будет результат, то вас станут воспринимать, как реального спеца по машинному обучению, а не юродивого несущего бред про "ученых" и "научное сообщество", заработаете уважение.
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 9:31
Всё что не хватает для семимильного шага вперед это еще одной реализации нейросетей.
[Ответ][Цитата]
гость
104.131.75.*
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 12:50
Неужто яйцо почуяло что может чегото спиздить?
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 13:01
Что-бы что-то там спереть нужен мозг. У яйца его нет ))
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 13:22


Ваши секреты добывания огня трением уже мало кому интересны в цивилизованном мире...


[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 13:52
Цитата:
Автор: Эгг


Ваши секреты добывания огня трением уже мало кому интересны в цивилизованном мире...

Согласен, у вас то у sapiens sapiens мозг и так в среднем на 20% меньше. У лидеров (вроде вас) думаю еще 5-10% убыло. Вам не до мелкой моторики уже. Вам протезы на все нужны.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 19:54
Пока не могу добиться даже 10% ошибки, что-то лажает: то ли ошибка в архитектуре сети, то ли в самом алгоритме.

Сделал сверточные слои с несколькими фильтрами, повторил архитектуру LeNet-1, работает с таким же качеством будто слои однофильтровые, даже чуть хуже. Где-то косяк, надо ловить.
[Ответ][Цитата]
 Стр.1 (5): [1]  2  3  4  5След. > >>