GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (2)След. > >>   Поиск:  
 Автор Тема: Как соотносить входные признаки от "случайных" данных?
iГость
Сообщений: 88
Как соотносить входные признаки от "случайных" данных?
Добавлено: 11 апр 19 4:22
Почему возник вопрос: клетки кожи или сетчатки уложены таким образом, что сигнал находящийся близко друг от друга, активизирует рядом находящиеся клетки и это вроде, как логично. При этом сигнал, скажем у кожи имеет однородную природу, пусть будет механическое взаимодействие с клетками, которое выражено силой взаимодействия(понятно, что есть тепловое воздействие и другие). Для глаз такая же картина, ели сигнал находится близко, то клетки так же находятся близко друг к дургу и опять же сам сигнал имеет фиксированную природу свет определенной длинны.

это было вступление, что бы описать аналогию.

Теперь у нас есть много данных разной природы, каждый элемент данных мы может представить, как некоторый параметр. К примеру у нас есть 100 разных параметров не связанных друг с другом вообще, скажем х1,х2,х3,х4,х5,хn Площадь дома, Количество жильцов, Цвет пола, Стоимость жилья, Количество стульев, Цвет фасада и т.д.

Предположим у нас есть информация, что эти параметры, как-то связаны друг с другом, ну скажем от них зависит будет ли данный дом продан или нет, а может еще что-то.

Идея современного анализа данных, может предложить сверточные нейронные сети, которые данную проблему могут решить находя некоторые зависимости между данными, но есть ли какие-то другие идеи, как можно сопоставить параметры разной структуры?

[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 11 апр 19 10:52
Изменено: 11 апр 19 10:53
Ты уважаешь науку, респект тебе за это. А то тут некоторые считают себя умнее ученых, говорят типа "ученые нихера не понимают, их не интересуют вопросы сильного интеллекта" и т.п. Тем бездарям невдомек, что они интересуются псевдонаучной херней. То есть все просто: никому не нужен сильный интеллект, так как это фикция.

Ладно, к черту философию. По теме: алгоритмов машинного обучения помимо сверточных нейросетей (CNN) хоть жопой ешь. Следует знать о перцептроне и многослойном перцептроне (MLP). Есть еще всякие kNN, метод построения бинарного дерева, линейная и логистическая регрессия, наивный байес, более эффективные чем нейросети - градиентный бустинг, случайный лес, бэггинг. Композиционные методы, активное обучение чего стоят. Опорные вектора (SVM) отдельной строкой.
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 11 апр 19 11:03
Забыл добавить, что только в рамках нейронных сетей, остальной machine learning не интересует.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 11 апр 19 23:58
Цитата:
Автор: iГость
Теперь у нас есть много данных разной природы, каждый элемент данных мы может представить, как некоторый параметр. К примеру у нас есть 100 разных параметров не связанных друг с другом вообще, скажем х1,х2,х3,х4,х5,хn Площадь дома, Количество жильцов, Цвет пола, Стоимость жилья, Количество стульев, Цвет фасада и т.д.

Предположим у нас есть информация, что эти параметры, как-то связаны друг с другом, ну скажем от них зависит будет ли данный дом продан или нет, а может еще что-то.

Идея современного анализа данных, может предложить сверточные нейронные сети, которые данную проблему могут решить находя некоторые зависимости между данными, но есть ли какие-то другие идеи, как можно сопоставить параметры разной структуры?

Попробуйте перевернуть задачу. Система не "анализирует данные", а система "подстраивается" под данные... заранее не зная их природу и связанность природы отдельных данных...

Что касаемо расположения сенсоров, это здесь не принципиально, это как раз таки лишь отражение свойств данных, а не системы под них подстраивающейся.

Истин я не знаю и знать не хочу...
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 2:30
Понятно, что система подстраивается под данные, а данные могут быть любые.
Вот в этом и вопрос, что в "природе"данные имеют определенных характер и являются однородными, а уже на высших уровнях, некоторым образом преобразуются(ну или преобразуют систему).

В текущих же реалиях люди собирают вообще любые данные, которые друг с другом в принципе общей природы не имеют. Нейронные сети в разных реализациях по сути пытаются через изменение весов найти фичи/признак.

Если ли иной подход к решению подобных задач, кроме протаскивания обратно градиента?
[Ответ][Цитата]
гость
188.170.82.*
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 3:01
ну, на учителе и BP свет клином конечно не сошелся - вспомните напр. о SOM, о нейрореализации анализа по главным или независимым компонентам, о нейродинамическом программировани (RL) и проч. из того же хайкина.
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 4:14
Это все получается стандартный машин ленинг, который постепенно утрачивает актуальность в пользу нейронных сетей. В целом выходит, что стандартный подход в рамках глубокого обучения, на данный момент единственно актуальный выбор для решения подобных задач.

Ведь сложность сетей растет, что позволяет решать очень большой круг задач.
К примеру относительно современные сети обладают куда большим функционалом и сложностью архитекторы, чем то, что было раньше.
это пример из 2016 года, который вроде бы и по сей день актуален
[Ответ][Цитата]
Данила Зайцев
Сообщений: 156
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 4:52
Цитата:
Автор: iГость
К примеру у нас есть 100 разных параметров не связанных друг с другом вообще, скажем х1,х2,х3,х4,х5,хn Площадь дома, Количество жильцов, Цвет пола, Стоимость жилья, Количество стульев, Цвет фасада и т.д.

Идея современного анализа данных, может предложить сверточные нейронные сети, которые данную проблему могут решить находя некоторые зависимости между данными, но есть ли какие-то другие идеи, как можно сопоставить параметры разной структуры?
Вы не понимаете о чем говорите. При чем тут сверточные нейросети? В данном случае CNN тут вообще не подойдут, Вы не понимаете принцип их работы. Для CNN важен порядок признаков и их локальная скоррелированность, "близкозависимость", именно её обнаруживают свёртки. В Вашем случае омтимальный выбор это XGB и прочие подвиды градиентного бустинга, дешево и сердито.
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 5:01
Изменено: 12 апр 19 5:08
Скажем так, что для нейросетей, данные нормализуют, перед работой и все параметры становятся одного "уровня". Когда в сверточной сети формируется несколько слоев свертки, то признаки лежащие на разных "расстояниях" относительно друг друга в первых слоях, уже в последних слоях смогут находится в одной свертке, но это уже детали и вопрос был не об этом.
[Ответ][Цитата]
гость
188.170.75.*
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 5:24

iГ> единственно актуальный выбор

наверное все-таки нет, миха верно упомянул альтернативные техники где-то в чем-то более эффективные чем дип (да и в самом DL уже разнообразие велико чтобы говорить о некоем 'стандартном' подходе (скажем, свертки осложняют вниманием, DRL любопытством, cами глубокие пачки слоев делают иерархически организованными, cложные архитектуры, как вы верно замечаете, погружают в контекст глубокой эволюции и прочая)). Cкажем, если структура данных некоей задачи такова, что допускает эффективное решение средствами теории информации (какой-нибудь инфомакс), то процедуру решения можно погрузить в нейробазис, а можно этого не делать. Что-то подобное теореме о бесплатных обедах наверное можно сформулировать не только в отношении конкретного метода, но и в отношении семейства методов.
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 5:50
Я в целом согласен, что ряд задач, если они полностью ложатся на стандартный подход нужно решить этим подходом.

Правда на ум приходит проблема отличить кошечек от собачек, где до дипленинга были придуманы тонны способов нахождения признаков/фич и их комбинация, но результат был плачевным, ни один метод просто не работал. Возможно дипленинг дает универсальный механизм работы с данными.
[Ответ][Цитата]
гость
188.170.75.*
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 6:17

успехи дипа при внимательном взгляде вовсе не повод для восторгов о чаше грааля 'универсального механизма' - и все-таки сами по себе сетки это более широкая вещь чем свертки и рекурренты (напр. еще ассоциативная память и карты самоорганизации), и ML>DL, и слишком важем класс задач где доминирует т.cк. cтруктурный фактор (и актуальны гибридные архитектуры), ведь задачами распознавания кошек и собак дело не ограничивается же - степень осмысленности беседы с глубокой сеткой о содержании текста ведь пока крайне не велика. ПРи самом поверхностном взгляде мы уже видим несколько разных механизмов в 'универсальном ядре' - 'глубоких', внимания (оценка важности), эволюции и cамоорганизации архитектуры, ассоциативной памяти, фильтрации и подготовки данных, 'коллективизма' etc.
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 7:06
Да у DL явно есть свои проблемы, не зря же пытаются, что-то другое придумать всякие спайковые сети или всякие Capsule Networks Хинтона.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 14:18
Изменено: 12 апр 19 14:26
Цитата:
Автор: iГость

Да у DL явно есть свои проблемы, не зря же пытаются, что-то другое придумать всякие спайковые сети или всякие Capsule Networks Хинтона.


Ещё раз. Конечно можете не прислушиваться, но посоветую ещё раз задуматься над тем, что все, подчеркивают - все современные методы включая традиционные ИНСы, это системы "анализа" данных, системы с готовыми мерилами, тогда как нужна система способная "отражать", а не "анализировать", система без "предвзятостей" без предустановленного в ней "представлений" о видах, типах, прочих возможных свойств данных. То, что люди называют анализом данных, это способность использовать то, что было в предшествующих данных, закрепилось в виде навыка (отразилось в виде навыка) в процессе оьучения. Первично "впитывание" особенностей, закономерностей, иерархичности и т.п. данных... первичных сенсорных сигналов, взаимосвязи между которыми совсем не однородны, как Вам кажется.
Такая система не может быть сложной в принципе, она предельно примитивна... и только её обучение в итоге даёт наблюдаемую "сложность". Целевой подход, например, распознать чего-либо конкретное в среде не катит, в данном случае дело за отражением (впитыванием) чего угодно, чего предлагает среда...

Подумайте на досуге о сути таких процессов, как эволюция (случайность и отбор), отжиг, генетический алгоритм, полный перебор. Сравните их между собой, в чем плюсы и минусы каждого, у каждого из них есть и плюсы и минусы, даже в переборе... Может что и нащупаете в недостатках и преимуществах этих процессов, которые сможете скомпоновать так, чтобы сохранить их преимущесива на фоне устранения или минимизации их недостатков... не забывая при этом, что целевые подходы не катят в этом вопросе. Слабый интеллект в традиционном ML каким бы дип или спайк и прочее... он ни был. Сильный на перекрёстке отмеченного выше...

Истин не знаю и знать не хочу, удачи...
[Ответ][Цитата]
iГость
Сообщений: 88
На: Как соотносить входные признаки от "случайных" данных?
Добавлено: 12 апр 19 14:51
Если у вас есть идеи архитектур подобных систем, то пишите, было бы интересно почитать.
[Ответ][Цитата]
 Стр.1 (2): [1]  2След. > >>