GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.7 (8)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Предметная дискуссия про NLP
гость
178.17.173.*
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 6:19
Цитата:
Автор: Михайло

Машинное обучение - обучение по примерам. Другого обучения не бывает. Бывают простые примеры - точки на плоскости, а бывают комплексные примеры, вектора в 1000-мерном пространстве. Комплексные примеры - это стрельба из лука, решение задачи по физике, сложение столбиком. Способен ли ты представить такие абстракции в виде вектора?
Стрельба из лука и умножение в столбик всётаки лучще не засовывать целиком в MLP или CNN, это задачи не на регрессию\классификацию, а скорей игрового типа, аля шахматы или поиск выхода в лабиринте, то есть это последовательность действий, каждое из которых есть предмет для отдельной классификации\регресии
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 6:32
В том и прикол, что ничего представлять не надо. Это делает машина самостоятельно, создатель машины не должен разбираться в том, чему машина обучается.

Машина находит закономерности среди 1000 параметров. Искать закономерности сложно, так как среди 1000 параметров может спрятаться зависимость типа x356 = x23 + x302^2 / x777. Такую зависимость (довольно простую) очень сложно найти. Какой выход? Дело в том, что оказывается в окружающем нас мире, в реальных примерах нет причудливых закономерностей, наоборот, все довольно очень просто. Преобладает, например, зависимость типа "линейная комбинация", еще есть зависимость "гладкая кривая". Эти и подобные обнаруженные закономерности мира фундаментальны, они резко сокращают круг поиска закономерностей в примерах (прецедентах). Если эти эвристики не использовать, то возникает проблема комбинаторного взрыва.

Закономерности в общем случае нестрогие, именно поэтому пришла в голову идея о методе наивного байеса и других его аналогах.

Эвристики неизбежны, но некоторые думают, что можно создать машину, которая найдет любую закономерность, а не только те, которые предлагаются эвристиками. Конечно же это неправда. Не верь фанатикам.

Для примера можно привести человеское мышление. Человек может годами обдумывать простые вещи и не находить простейшие связи типа закона Архимеда или открытия Галилея. Но между тем, все невольно являются заложниками стереотипа, что человеческий мозг неограничен, способен решить любую задачу. Люди не понимают, что значит "любая задача". Это очень огромный универсум, он больше чем кажется. А человек может очень мало. Понимаешь ли ты это?
[Ответ][Цитата]
Luarvik.
Сообщений: 17287
На: Предметная дискуссия про NLP
+1
Добавлено: 14 сен 17 6:45
Жил да был на белом свете Михайло, очарованный бульдозером.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 6:48
Цитата:
Автор: r
Тогда с нетерпением ждем от вас описание алгоритма. Можно формулами, как вам удобнее.

Не исключено, что Вам пора определиться на чем Вам концентрироваться. Пока Вы говорили о простейших задачах и не хотели заниматься вопросами AGI, хотя Ваши простейшие задачи не решаемы без AGI на том урвоне, что Вы вроде бы заявляли.

Если нацеливаться на простейшие поделки, то это одно. Если же по серьезному и на долго, то пора взрослеть и не вступать в споры с троллями и дилетантами в AGI, хотя возможно и хорошими профессионалами в традиционных ИИ. Они отнимут у Вас массу времени и внимания.
Хотя возможно Вам стоит заниматься именно ИИ. Определяться Вам и только Вам.
[Ответ][Цитата]
гость
188.170.82.*
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 7:00

M.> обучение по примерам. Другого обучения не бывает.

пафос михи да на самообразование.. бывает - напр. в задаче кластеризации, когда данные не организованы как прецеденты (в виде набора пар образец-метка_класса) (ассоциации на основе метрик сходства). Или ассоциативное обучение в cпециальном виде - напр. когда система карт обучается движению подражанием или вынуждено ('учитель водит рукой'). В подкрепяемом орбучении типичной является ситуация 'cложного подкрепления' - когда подкрепляется некий пакет действий и возникает специфическая задача распределения подкрепления (требующая более общего представления опыта чем множество прецедентов).
[Ответ][Цитата]
NO.
Сообщений: 10700
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 7:09
Цитата:
Автор: Михайло
зависимость типа x356 = x23 + x302^2 / x777

а какая нейросеть такое найдет?
[Ответ][Цитата]
гость
178.17.170.*
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 7:34
Цитата:
Автор: NO.


а какая нейросеть такое найдет?
да собстно зависимость понтовая, всёзависит от уровня шума и соответственно отбора признаков которые можно будет тупо PCA легко вытащить так как x23,x302, x777 будут с выходом коррелировать
[Ответ][Цитата]
NO.
Сообщений: 10700
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 8:09
по-моему Михайло неудачный пример написал
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 10:36
Цитата:
Автор: NO.

а какая нейросеть такое найдет?

Если внимательно читать мои тексты, то будет все логично. Там же написано, что ищутся не произвольные зависимости типа этой, а намного проще.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 10:53
Да, в машинном обучении есть методы обучения без учителя (кластеризация). Это когда ты учитель сам себе. То есть это суть - те же методы обучения с учителем, только учитель особый..

Лучше подойдут для рассмотрения обучающие примеры удара по футбольному мячу. Делается пробный удар, совершенно неуклюжий. Удар этот состоялся благодаря визуальным примерам и прочим мышечным навыкам. После серии ударов мозг находит закономерности между огромным вектором мышечных напряжений и траекторией полета. Ну наверное навскидку около ста мышц задействованы при ударе по мячу, у каждой мышцы десятки параметров (усилие определенным образом изменяется во времени разгон-замах-удар). Короче десять тысяч параметров - надо найти связь между успешным ударом и этими параметрами.
Вот реальная задача для искусственного интеллекта, а не то, что вы думаете.
[Ответ][Цитата]
Luarvik.
Сообщений: 17287
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 10:59
Цитата:
Автор: Михайло
Короче десять тысяч параметров - надо найти связь между успешным ударом и этими параметрами.

Интеллект Естественный никогда такой херней не занимается.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 11:34
А кто занимается? Господь-бог?

Ты сейчас (в силу своих стереотипов, убежденности и непросвещенности) находишься в положении героини фильма "прибытие". Ты просто думаешь, что мышление - это обработка визуально-эмоциональных образов, совершенно не догадываясь, где эти образы находятся. Ты думаешь, что эти образы в глазах. Нет, они в голове, в нейронах. Но почему кажется, что в глазах? Ученые знают ответ, а ты нет.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 11:57
Также и эта сложная закономерность между 10000 параметрами. Мало ли что тебе кажется. Ты дилетант в этой области. Реально мозг обрабатывает такой объем информации, быстро и непринужденно. Без сильных образов "в глазах".
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 13:02
Изменено: 14 сен 17 13:09
Кстати говоря, я тут подумал, таки более универсальным подходом должны быть методы обучения без учителя. Что значит "учитель"? Это некий достоверный источник правильных данных. Мы устанавливаем достоверность того или иного источника через то же самое обучение. То есть мы должны по примерам понять, что источник данных достоверный, что учитель на самом деле учитель.

Я вот как источник являюсь учителем? Не для всех, далеко не все получили достаточно информации, чтобы оценить мою достоверность. Очень много помех в данных, много мата. Люди не привыкли доверять матерящимся учителям. Мат и учитель не коррелируются.
[Ответ][Цитата]
cortl
Сообщений: 258
На: Предметная дискуссия про NLP
Добавлено: 14 сен 17 19:47
Михайло, отлично маскируетесь, сэнсэй.
[Ответ][Цитата]
 Стр.7 (8)1  ...  3  4  5  6  [7]  8<< < Пред. | След. > >>