GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (1)   Поиск:  
 Автор Тема: Как классифицировать только то, что хорошо классифицируется.
cfytr
Сообщений: 4
Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 8:13
Если непонятно объясню, спрашивайте, что непонятно. И посоветуйте, где еще задать этот вопрос.

Коротко:
Как классифицировать только то, что хорошо классифицируется.

Подробно:
Есть обучающая выборка.
Входные данные: n m-мерных векторов;
Выходные данные: m-мерный двоичный вектор;
Задача создать черный ящик, который обучется на этих данных. Черный ящик имеет n входов и один выход с тремя состояниями 0 1 и -1. 0 1 - это ответ черного ящика. -1 значит, что черный ящик не знает ответа. Обучени должно проходить так, что бы уменьшить среднюю ошибку в тех случая, когда черный ящик возвращает ответ.
Пример:
Скрипт matlab для генерации данных:

in=rand(3,10);
da=(in(1,: )<in(2,: ))&(in(3,: )<in(2,: ))&(in(1,: )<in(3,: ));
net=~(in(1,: )>in(2,: ))&(in(3,: )>in(2,: ))&(in(1,: )>in(3,: ));
out=randi(2,1,length(in))-1;
out=(out|da)&net;

in - матрица 3x10 заполнена случайными значениями от 0 до 1. 10 примеров по 3 входных значения.
out - вектор из 10 двоичных значений. out=1, когда da=1 и out =0, когда net=0, в остальных случая out заполнен случайными значениями.

Черный ящик должен запомнить зависимости, которые формируют вектора da и net и когда входной вектор подходит под эти зависимости выдавал ответ. В остальных случаях выдавал -1;
Какими методами можно создать такой черный ящик?
[Ответ][Цитата]
Анатоль
Сообщений: 1964
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 8:27
Цитата:
Автор: cfytr
0 1 - это ответ черного ящика. -1 значит, что черный ящик не знает ответа.

Плохой выбор.
Лучше для ответа взять -1 и 1. А если не знает - то 0 - середина между вариантами.
Тогда чем дальше от 0 в сторону -1 или 1 - тем надёжнее ответ.
[Ответ][Цитата]
cfytr
Сообщений: 4
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 12:28
Согласен с вами, но вопрос не в этом. Данные сильно зашумленны. Какими методами лучше пользоваться, что бы шумы не влияли на поиск закономерностей там, где они действительно есть?
[Ответ][Цитата]
гость
31.181.97.*
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 12:47
Цитата:
Данные сильно зашумленны. Какими методами лучше пользоваться, что бы шумы не влияли на поиск закономерностей там, где они действительно есть?

Объединить несколько ячеек в одну, допустим вычислением среднего арифметического. Таким образом шумы будут подавлены и преобладающее значение станет менее явно, но не менее явно чем значение шума, так как шум как правило является не критичным отклонением от реального значения, а не значением самостоятельным.
[Ответ][Цитата]
cfytr
Сообщений: 4
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 13:30
Цитата:

Объединить несколько ячеек в одну, допустим вычислением среднего арифметического. Таким образом шумы будут подавлены и преобладающее значение станет менее явно, но не менее явно чем значение шума, так как шум как правило является не критичным отклонением от реального значения, а не значением самостоятельным.

1)Поясните, что значит "Объединить несколько ячеек в одну"?
2)Мне кажется вы не правильно поняли значение слова шум. В примере черный ящик 3 входа, один выход. Соответственно данные - это обучающее множество состоящие из входных векторов длинной 3 и выходных значений. В этом множестве часть выходных значений зависят от входных, а часть нет. Вот ту часть, которая не зависит от входов я называю шумом.
[Ответ][Цитата]
гость
31.181.97.*
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 13:55
Цитата:
Поясните, что значит "Объединить несколько ячеек в одну"?

То что написано. Складываем ячейки соседние с ячейкой а результат записываем в ячейку. Тока тут такое не прокатит, маловато значение шума.
И размеры матрицы позволяют не строить шумоподавителей а распознавать твои "зависимости" на матрице в исходном виде за сотые доли секунды.

Цитата:
входных векторов
Ты можеш выражаться проще? Я голову сломал пытаясь понять что такое вектор, а сейчас ты меня в противоречивое состояние загнал, когда я не могу понять а правильное ли я читал объяснение что такое вектор.

Поясни так - матрица 3х3 в ней выбираю ячейки с 3 по 5 и запоминаю, в следующей матрице ищу запомненное и если нахожу - результат 1 иначе 0.
[Ответ][Цитата]
cfytr
Сообщений: 4
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 14:08
3 числа подаются на вход черного ящика. одно число, мы должны получить на выходе - правильный ответ. Назовем 3 числа и правильный ответ "примером". У нас есть 10 примеров. В части их этих примеров ответы зависят от входов. В другой части ответы проставлены случайно. Часть в которой ответы проставлены случайно я называю шумом.
[Ответ][Цитата]
гость
31.181.97.*
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 19 апр 13 14:39
Цитата:
3 числа подаются на вход черного ящика. одно число, мы должны получить на выходе - правильный ответ. Назовем 3 числа и правильный ответ "примером". У нас есть 10 примеров. В части их этих примеров ответы зависят от входов. В другой части ответы проставлены случайно. Часть в которой ответы проставлены случайно я называю шумом.

А. Тоесть мы смотрим на результат деятельности чёрного ящика. Тогда сравнение с эталоном спасёт мир.
На пример эталоны:
101 = 1
001 = 1
010 = 0
100 = 0
Если чёрный ящик имея на входе то что слева от равно на выход даёт тоже что и в эталоне(справа от равно), то ответ ящика верный иначе - это либо не верный ответ либо шум.
Какбы зависимость это и есть эталон.
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Как классифицировать только то, что хорошо классифицируется.
Добавлено: 20 апр 13 5:02
Цитата:
Автор: cfytr
Данные сильно зашумленны. Какими методами лучше пользоваться, что бы шумы не влияли на поиск закономерностей там, где они действительно есть?

В общем случае - лучше увеличивать размер обучающей выборки.
Чтобы оценки априорных и апостериорных вероятностей классов при некотором значении аргумента (хоть одномерного, хоть точки в многомерном пространстве) таки сходились к верным значениям.

[Ответ][Цитата]
 Стр.1 (1)