GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.3 (19)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: ML battle
гость
197.231.221.*
На: ML battle
Добавлено: 12 янв 15 3:16
Цитата:
Автор: NO.

И модели нужно строить с памятью, а не математические. Например конечные автоматы. Тогда и при их выполнении будут шаги "в уме", будет этот самый ум. А так всё правда про каких-то насекомых, которые где-то рассекают и быстренько куда-то попадают.
Не интересно, у меня в провинции за такое не платят. Вероятно числа маловаты, нужно думать, а не считать.
Как Вас понимать? «математическим» является любой алгоритм, любая софтинка, даже «hell world». Математика, если убрать ореол наукообразия и ассоциаций с Эйнштейном, просто заданные символьные операции, как задали так и отработало.

Так а что память, память это просто переменная с предыдущей итерации, репрезентующая параметры модели. Если взять например «временны ряд» и его прогнозировать например всеми не любимым наив байесом, то «памятью» будут переменная хранящая векторные статистические моменты(mo,cov) полученные с большого окна предыдущих функций(признаков) от ряда.

Временный ряд всё равно кодируется в последовательность признаковых векторов, это могут быть коэффициенты с FFT, вейвлет, всякие специфические функции основанные на природе данных. Так если ряд гармонический, можно ожидать непрерывности в оконной спектрограмме и прогнозировать сравнительно плавный морфинг коэффициентов и тп. Отличие такое же как архивировать картинку и видео, как известно видео рассматривается как 3д массив, регулярности которого компрессируют такими же примерно способами как и картинки, «время» становится «глубиной», измерением как и ширина высота и надо сказать что по этому измерению регулярность на порядки проще, чем (xy).

По сути прогнозирование ВР это обычное распознавание, но с стековым изменением обучающей выборки и переобучением, от того дрейфом результата.

Парадигма автоматов менее универсальна чем ML. В каком то смысле если автомат – дифференциал, то ML – интеграл, если ассоциировать, это относится и к марковским штучкам и тп.

Но каждый дрочит как он хочет, это ещё более универсальнай тезис, так что...
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 12 янв 15 4:10
И чтобы хотел за нас.
Можно всё делать без формальностей, в принципе и сами данные это уже модель, там же не всё содержится. Можно попробовать работать с выражениями. Там рассуждение нужно чтобы видеть их тождество и видеть когда что-то нельзя сделать каким-то наборот средств. Осознанные знания. Уже нет смысла останавливаться на таком полуфабрикате.
[Ответ][Цитата]
Slava
Сообщений: 3070
На: ML battle
Добавлено: 12 янв 15 4:26
Цитата:
Автор: NO.

И чтобы хотел за нас.
Можно всё делать без формальностей, в принципе и сами данные это уже модель, там же не всё содержится. Можно попробовать работать с выражениями. Там рассуждение нужно чтобы видеть их тождество и видеть когда что-то нельзя сделать каким-то наборот средств. Осознанные знания. Уже нет смысла останавливаться на таком полуфабрикате.


кое-что уже есть - например, работа с размерностями
а остальное в большой мере зависит от того, под каким флагом это делается - ИИ-шным или симбиотическим
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: ML battle
Добавлено: 12 янв 15 6:18
Цитата:
Автор: NO.
Прошелся еще раз по МЛ. Бросается в глаза, что они не ищут причины и следствия. Хотя по сути занимаются просто перекодировкой данных в другие координаты где приоритет бит другой. Старшие биты были не идентификаторами классов, а типа фотокадрами, младшие биты наоборот больше значат, всё решается только в конце описания как в детективе.

Да, именно перекодировка.
Люблю цитировать слова Сергея Терехова (круглый стол на первой МИФИческой "Нейроинформатике", 1999г)
Нейронные сети сами по себе не производят новой информации, а лишь специфически перерабатывают её, повышая субъективную полезность. Например, при решении задачи классификации огромного объёма примеров на два класса, в результате работы системы для каждого примера получается один (один!) бит с номером класса. Но как велика его ценность для пользователя! ...
Это классическое понимание информации в смысле минимальной длины её описания по Колмогорову. Добавление к некоторому объёму данных новой информации приводит к неминуемому увеличению минимальной длины описания этого объёма. Получение результатов индуктивного вывода (на основе имеющейся базы данных примеров) об отнесении нового примера к классу - не есть увеличение объема информации по сравнению с ранее содержавшимся в этой базе данных.

Вместо нейросетей можно подставить любой метод ML (да и саму ML-науку в части её практического применения) - смысл цитаты не изменится.
[Ответ][Цитата]
mserg
Сообщений: 255
На: ML battle
Добавлено: 12 янв 15 11:17
Кстати, для владельца темы, баттл
http://algomost.com/ru/tasks/chem
[Ответ][Цитата]
rrr3
Сообщений: 11854
На: ML battle
Добавлено: 13 янв 15 5:18
"Я в кружку спирт налью из фляги
Уменьшу градус его снежком
И по душе как-будто ангел
Вдруг пробежится босиком...."
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 13 янв 15 8:49
Изменено: 13 янв 15 8:53
это греческие буквы, альфабетагаммадельталямбдамюпиротауфипсиомега

кластеризация
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 13 янв 15 9:32
Вот для нормального построения информационных моделей нужно что-то похожее на поэтический дар. У этого мужика язык более-менее ворочается.
А когда если есть только таблицы, вот тогда уж МЛ.
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
+1
Добавлено: 13 янв 15 21:30
МЛ с нечисловыми данными.
В таблице хранятся не числа, а слова. Пространство тоже не евклидово, а сократово. Вернее брахманово, которое большей частью не изучено, но там есть обезьяново в котором и содержится сократово, самой удобной для компьютера частью которого является евклидово. То есть слова нельзя расшифровать в цифры и потом всякие байесы строить, это будет потеря информации, числа же очень абстрактны. Отношения между словами тоже задаются не растояниями, а опять словами или выражениями. Близость конечно тоже есть, но только между родственными понятиями. Структура, вернее описание, этих отношений задаются не маленькой электронной схемой сложения, в которой хитро уместилось огромное число сумм двух величин, а большой базой знаний. Собственно и данные для моделирования тоже не одна длинная таблица, а множество мелких по 2-7 полей. Значений там нет, одни названия полей. Хотя данные могут содержать и общности в виде таблиц. И даже числа, т.к. математика часть языка. Но это редко, если сильно повезло, родственности и общности моделировать конечно проще. В сократовом пространстве нужно искать не растояния, а вообще хоть какую-нибудь связность. Критерием качества построенной модели является не плотность упаковки, означающая что мы вместо многомерных облачков получили линейные границы или просто точки центров классов. А наличие связности с неким контекстом. Потому, что исходная таблица сократовом пространстве только кодирована, а рассматривается во всевозможных его подпространствах. На таблицу могут посмотреть разные люди и увидеть свои образы и соотнести их со своими ценностями и целями, что и будет "метрикой" для данного случая. Какая бы таблица не была мы просто не можем с ней ничего делать пока пребываем в состоянии объективности. Таблица и контекст по сути ничем не отличаются поскольку брахман не изучен и тоже субъект. Поэтому требуется построить некий розетский камень между двумя наборами бессмысленных значков. Получить от них потомство, новый контекст. Желательно конечно меньшего размера. Но важнее чтобы от таблицы и контекста, а не от возбужденного машинлёрнера.
[Ответ][Цитата]
Slava
Сообщений: 3070
На: ML battle
Добавлено: 14 янв 15 1:00
Цитата:
Автор: NO.

Сначала нужно что-то игрушечное. Мне вот интересен генератор форм, чтобы картинки рисовать.


не слышал, чтобы кто-то мягко и осознанно управлял генерацией фракталов
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 14 янв 15 1:13
Изменено: 14 янв 15 1:16
можно на основе игры жизнь, она тоже компьютер, вот в размягчении получалось такое

в этой картинке тоже только 32 бита информации
кто не боится могут скринсейвер запустить, там оно клубится, только ему который-то .net нужен
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 14 янв 15 2:42
Я однажды хотел сделать какао растворив в молоке шоколад. Получилось не какао, а растворенный в молоке шоколад. Вот и тут дело в образах. Машинное обучение это распознавание образов, только все образы заданы заранее и обучения как раз и нет.
А вот гуталин у меня хорошо получился, литра 2 гуталина. Можно съесть, можно сжечь, можно сапоги мазать или железяки от сырости. Гуталин!
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 14 янв 15 2:55
Сейчас с кошками играл. В длинном куске поролона прорезал дыру и надел на шею кошке и коту. Кот сначала ходил на полусогнутых, потом увидел кошку и минут на 10 замер, не узнал. Потом она спину выгнула, поняла наконец такой долгий взгляд, да ещё в полуприсяде, будто перед броском.
А у компьютерых персонажей взгляд не живой, всегда очень заметно. Вокруг что-то происходит, а они смотрят куда-то вдаль или собеседнику прямо во всё лицо сразу. Такое чувство будто у них что-то болит и всё внимание куда-то в себя.
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
+1
Добавлено: 14 янв 15 3:14
МЛ видит закономерности только определенного класса. Например можно текстуры различать моделируя их как марковские источники. Но таких интерпретаций может быть сколько угодно и задача-то по большому счету найти в новом примере как раз новый тип моделей. Люди тоже сначала видят простое, потом видят отклонения от этой модели и радикально перестраивают её. А статистика делит на общее и шум. Шум либо выбрасывает либо зачем-то моделирует неподходящей моделью, получая "переобучение".
[Ответ][Цитата]

Сообщений: 105
На: ML battle
Добавлено: 14 янв 15 4:18
Цитата:
Автор: Luarvik

Им нечем "не знать".
Буддисты кстати то же говорят и про ЕИ)))
[Ответ][Цитата]
 Стр.3 (19)1  2  [3]  4  5  6  7  ...  19<< < Пред. | След. > >>