GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.9 (19)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: ML battle
гость
82.145.220.*
На: ML battle
Добавлено: 13 дек 16 5:56
Цитата:
Автор: dr2chek
Не пойму, почему на предлагаемых потом данных величина предсказания располагается близко к 0,5... То есть, как это математически происходит. Или у них данные такие "хитрые" ?

Я попробовал RF, SVM и ada. Ошибка большая везде, может, у леса чуть меньше. Из-за этого вероятность "трется" около 0.5. Например:

Type of random forest: classification
Number of trees: 500
No. of variables tried at each split: 4

OOB estimate of error rate: 48.87%
Confusion matrix:
0 1 class.error
0 15959 17424 0.5219423
1 15526 18515 0.4560971
[Ответ][Цитата]
гость
164.132.51.*
На: ML battle
Добавлено: 13 дек 16 10:03
Цитата:
Автор: гость


Я попробовал RF, SVM и ada. Ошибка большая везде, может, у леса чуть меньше. Из-за этого вероятность "трется" около 0.5. Например:

Type of random forest: classification
Number of trees: 500
No. of variables tried at each split: 4

OOB estimate of error rate: 48.87%
Confusion matrix:
0 1 class.error
0 15959 17424 0.5219423
1 15526 18515 0.4560971
48.87% это какой logloss?
[Ответ][Цитата]
гость
164.132.51.*
На: ML battle
Добавлено: 13 дек 16 11:55
Как связанны точность, ошибка и logLoss, кто знает? Нашел только что logLoss хорош тем что “сильно штрафует за не правильную уверенность”, интуитивно вижу есть связь между ошибкой и logLoss, но не нашел какая.
[Ответ][Цитата]
dr2chek
Сообщений: 871
На: ML battle
Добавлено: 13 дек 16 12:02
Цитата:
Автор: гость

Нашел только что logLoss хорош тем что “сильно штрафует за не правильную уверенность”,

Это похоже на систему отбрасывания высших и низших баллов в спортивном судействе. Так что ничего интригующего
[Ответ][Цитата]
гость
82.145.222.*
На: ML battle
Добавлено: 13 дек 16 12:55
Цитата:
Автор: гость

48.87% это какой logloss?

Это чуть лучше, чем если пихать их экзампл.

Посмотрел их предикторы. Выбросов нет, но есть корреляция - надо как-то и что-то убирать.
[Ответ][Цитата]
гость
141.0.12.*
На: ML battle
Добавлено: 13 дек 16 13:17
[/img]http://s1.uploads.su/xebzhsr8.jpg[/img]
[Ответ][Цитата]
гость
141.0.12.*
На: ML battle
Добавлено: 13 дек 16 13:19

[/img]http://img.uploads.su/v.php?id=xebzhsr8.jpg[/img]
[Ответ][Цитата]
Калитеран
Сообщений: 585
На: ML battle
Добавлено: 13 дек 16 15:17
Цитата:
Автор: гость

Прикольный виджет для матрицы корреляций, надо бы тоже себе такой импровизировать.
[Ответ][Цитата]
гость
82.145.222.*
На: ML battle
Добавлено: 13 дек 16 15:38
Цитата:
Автор: Калитеран

Прикольный виджет для матрицы корреляций, надо бы тоже себе такой импровизировать.

Спасибо.
Да, спасибо, там распределение далеко от нормального - поэтому Спирман.
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 13 дек 16 22:01
Такое лучше не таблицей, а гроздями, близкие окажутся рядом, разные далеко.
Только проекция 20 размерностей на 2 не всегда сходится, они могут устаканиваться вечно.
Но если хорошо кластеризуется то сразу делится на грозди, потом грозди быстро организуются.
Пишется очень просто, по квадрату раcтояния считаются силы, для любых немного отталкивания, а по кореляции притягивание, сила->ускорение->скорость->координата.
Смотреть приятно, типа самоорганизация.
Ускорить у меня никак не получалось, начинает двигаться как живое с подпиткой энергией.
[Ответ][Цитата]
dr2chek
Сообщений: 871
На: ML battle
Добавлено: 13 дек 16 22:54
Цитата:
Автор: Калитеран

Прикольный виджет для матрицы корреляций, надо бы тоже себе такой импровизировать.

Интересно, как выглядит матрица от сессии к сессии... Кто б построил
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: ML battle
+1
Добавлено: 14 дек 16 8:22
Цитата:
Автор: Калитеран
Прикольный виджет для матрицы корреляций


См правый нижний угол картинки 13летней давности

Отличия только в том, что отсутствует раскраска значка в зависимости от значения показателя (только размер значка меняется). Ибо зачем ДУБЛИРОВАТЬ уже показанное - можно раскраской вывести какой-то ДРУГОЙ признак.
(да, и на картинке у меня не матрица корреляций, т.к. нет диагонали с единичками - ибо способ визуализации от смысла данных не зависит и покажет любую таблицу, даже с исходными=сырыми данными).
[Ответ][Цитата]
Калитеран
Сообщений: 585
На: ML battle
Добавлено: 14 дек 16 8:43
Цитата:
Автор: Victor G. Tsaregorodtsev



См правый нижний угол картинки 13летней давности

Отличия только в том, что отсутствует раскраска значка в зависимости от значения показателя (только размер значка меняется). Ибо зачем ДУБЛИРОВАТЬ уже показанное - можно раскраской вывести какой-то ДРУГОЙ признак.
(да, и на картинке у меня не матрица корреляций, т.к. нет диагонали с единичками - ибо способ визуализации от смысла данных не зависит и покажет любую таблицу, даже с исходными=сырыми данными).
Класс!

я вот тоже тока что забацал себе такую))


PS: только смотрю они у нас разные с гостем который в R считал, что странно, кто то ошибся...
[Ответ][Цитата]
гость
165.231.0.*
На: ML battle
Добавлено: 14 дек 16 9:12
Тут ковариационная матрица не поможет, зависимость существенно нелинейная.
[Ответ][Цитата]
NO.
Сообщений: 10700
На: ML battle
Добавлено: 14 дек 16 9:18
Ну и чего тут видно? Какую интуицию можно приобрести на таких картинках?
По-моему ничего не видно. Диагональ можно вообще не рисовать, понятно, что там 1. А остальное просто общая статистика насколько велики точки, структуры никакой.
[Ответ][Цитата]
 Стр.9 (19)1  ...  5  6  7  8  [9]  10  11  12  13  ...  19<< < Пред. | След. > >>