GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.13 (17)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Сущность интеллектуальных алгоритмов
Yandersen
Сообщений: 351
На: Сущность интеллектуальных алгоритмов
Добавлено: 13 ноя 14 21:33
Представим себе массив значений. Пусть каждому сенсорному восприятию соответствует однозначное состояние этого массива. Меняется состояние среды - меняется сенсорное восприятие, и соответственно изменяется и состояние массива (значения его элементов становятся другими). Таким образом можно сказать, что закономерность следования событий среды отражается и в закономерном изменении состояний массива. Т.е. за чередой изменений состояния массива последует некоторое новое состояние массива, которое возможно предсказать с некоторой долей вероятности (если в среде действительно есть законы, вызывающие закономерное её изменение). Чтобы такое предсказание произвести, нужно проследить за тем, как одно состояние массива переходит в другое и какая история изменения состояний массива этому предшествовала: это позволит выявить и запомнить закономерности (не спрашивайте как - это и есть искомый ключ к вскрытию СИИ), которые в совокупности являют собой опыт и позволяют предсказывать следующее состояние массива по предыдущим и текущему.

Допустим, значение определённого элемента массива увеличилось на Х. Чем это вызвано? Смотрим историю. Вдруг оказывается, что все предыдущие подобные изменения данного элемента на Х предворялись одинаковыми изменениями определённых элементов в определённое время до рассматриваемого события. Обнаружив это, мы тем самым выявили закономерность: если указанные элементы таким же образом будут изменяться, значит можно ожидать, что рассматриваемый элемент вскоре увеличит своё значение на Х. Ай, ну я же это всё расписывал уже. rrr3, забыли штоле?
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Сущность интеллектуальных алгоритмов
Добавлено: 13 ноя 14 22:54
Изменено: 19 ноя 14 20:03, автор изменений: гоcть

Закономерности ("проекции") зависимы от средств выявления закономерностей. (Абсолютные закономерности Вам в данном случае не нужны, если бы они даже существовали).
Сейчас представил я такую ситуацию, когда я показываю своей кошке абсолютную закономерность между ее мяуканием и моими подзатыльниками для нее. Мля, так и не выявила она закономерностей, убежала... и мяучит без умолку... и жрать видать не хочет, я ей хлебушка дал, не ест....
[Ответ][Цитата]
mserg
Сообщений: 258
На: Сущность интеллектуальных алгоритмов
+1
Добавлено: 14 ноя 14 2:33
Изменено: 14 ноя 14 2:44
Цитата:
Автор: Victor G. Tsaregorodtsev


Ладно, я не хотел - но таки добью.
Вот тут будет пара референсов: http://ru.wikipedia.org/wiki/Регуляризация_(математика)
Отличия от Вашей формулы - в:
1) аддитивность штрафа - чисто для того, чтобы находить коэффициенты модели решением СЛАУ. Мультипликативность же даст систему нелинейных уравнений или гемор с линеаризацией.
2) штраф априори (!) учитывается при нахождении коэффициентов модели, а не апостериори (на этапе ранжирования моделей).
3) коэффициент при штрафе - чтобы была возможность гибко балансировать между точностью аппроксимации и выполнением наложенных на модель ограничений.
4) получается именно ОДНА формула, без необходимости в дополнительных алгоритмах вычисления значения l(f) (тут я на Ваши обозначения сослался).

Нет проблем, например, написать и формулу, где штрафом будет сумма модулей или квадратов частных производных f по входам xi, или сумма модулей или квадратов частных производных Е по входам xi. Т.е. можно минимизировать чувствительность выхода модели к колебаниям входов, или чувствительность качества решения задачи к колебаниям входов.

Ещё пример. Строим нелинейные главные компоненты путём обучения нейросети-автоассоциатора (несколько слоёв нейронов, "средний" слой имеет малое число нейронов, число выходов сети совпадает с числом входов, на выходах требуется выдать входы, число нейронов в "узком" среднем слое меньше числа входов). Т.е. строим нелинейный проектор исходных данных в пространство малой размерности (первая половина сети) и, одновременно, нелинейный же проектор из пространства главных компонент в исходное пространство (вторая половина сети). В отличие от статистического метода построения линейных главных компонент - в сети нейроны в среднем слое не упорядочены по их вкладу в точность аппроксимации (а в стат.методе - главные компоненты упорядочены, т.е. вторая главная компонента менее важна, чем первая, и т.д.). Ну так добавим в целевую функцию при обучении сети ещё один компонент - который будет смотреть на влияние нейронов среднего слоя и корректировать решение так, чтобы первая главная компонента (выход первого нейронав среднем слое) была самая важная, и т.д.
Этот абзац - описание возможности наложения ограничений не на всю модель целиком, а на её отдельные элементы (отдельные нейроны сети). Аналогично и в других упомянутых формулах можно вводить штрафы только для части элементов модели (т.е. налагать штраф на какой-то фрагмент модели или её отдельные элементы, а не, например, на абсолютно все её коэффициенты или операнды).

Т.е. для задачи с одной моделью - полно частных примеров, надо только кругозор иметь. Был бы кому-то нужен общий вид - что, думаете, не написали бы Вашу формулу?


Когда в качестве критериев развития математики речь идет о точности описания реальности, компактности аппарата, эффективности использования, и т.д. – вопросов нет. Но стоит точность, компактность, эффективность оценить численно и свести в общий критерий – начинается какой-то ад…

Раз уж речь идет об алгоритмах, то в критерий нужно включить и утилизацию ресурсов (процессорного времени и памяти).

«Поиск» в пространстве функций выглядит примерно так.

Берем в качестве функции f нейронную сеть. У ее математической записи есть некоторая длина l(f). Минимизируем функционал E(f) для нейронной сети. Получаем некоторое значение E ошибки, а также истраченные ресурсы компьютера: память и процессорное время. Рассчитываем L(f).

Берем в качестве функции f случайные деревья. У ее математической записи есть некоторая длина l(f). Минимизируем функционал E(f) для случайных деревьев. Получаем некоторое значение E ошибки, а также истраченные ресурсы компьютера: память и процессорное время. Рассчитываем L(f).

И т.д. Перебираем все «возможные» f и находим, при какой f* достигается минимум L.

Поиск этот мысленный, т.к. я говорил о возможности формулирования ограничений/критерия из «точности», «размера функции» и «утилизации ресурсов». Почему именно эти характеристики нужно/можно использовать – долго и подробно описывал в предыдущих сообщениях. И почему алгоритм, определяемый функцией f*, будет иметь признаки интеллектуальности.

Как практически осуществить эффективный поиск f – я почти ничего не писал. И потом, если говорить о реальности, то в задачах, как правило, кроме критерия имеют место быть ограничения. Т.е. для описания исходных задач нужен язык. И есть масса различных деталей, которые здесь невозможно обсуждать.

[Ответ][Цитата]
mserg
Сообщений: 258
На: Сущность интеллектуальных алгоритмов
Добавлено: 14 ноя 14 4:01
Цитата:
Автор: ТакПриходящий

Ну, количественные оценки сложности ещё более условны, чем некоторые функционалы, такие как «норма» и тп. для векторов, матриц, тензоров и ид.

Одно можно сказать, да и то весьма условно, что есть набор свойств, которым должен удовлетворять функционал, но на практике даже это варьируется))

С некоторой натяжкой можно обобщить, что также как и «нормы», функционалы сложности в определённом смысле «асимптотически тождественны», если рассматривать их производные или статистические корреляции друг с другом, то можно увидеть большую степень похожести, эквивалетности.

А конкретных реализаций формул может быть сколько угодно, полезных под задачи.
На мембране есть статья и видос, где представлен элегантный взгляд на вычисление сложности, как мощность «монадного» графа. Таких эвристик можно нарезать множество. Главное помнить об эквивалентности и не посвятить этому не хитрому делу всю жизнь, ну если конечно не прут такие исследования.


Ну, нам не нужно «сколько угодно» реализаций формул. Нам подойдет «любой» минимум, компактный, конкретный «аппарат».

Конечно, сделанные мною оценки интеллектуальности «плохие», «условные», «субъективные» и т.д. А Вы сравните с «ИИ должен ставить цели». Берете алгоритм и … каков же формальный критерий, что алгоритм ставит или не ставит цели?

А вообще, подобные разговоры были на заре исследования операций. Ответ был примерно такой: «Исследование операций находит плохие решения задач, решение которых другими способами еще хуже».

И потом, «внутри функции» могут быть разрешены новые «аксиоматические системы», которые включают в себя понятие, которых нет в языке описания задач. Они могут быть еще более безумны, чем «комплексные числа», «дробные размерности пространства» и т.п. Только, пожалуйста, не нужно «доказывать», что это проблематично – я в курсе проблем при попытке решать проблемы «кавалерийским наскоком».

[Ответ][Цитата]
vchc
Сообщений: 194
На: Сущность интеллектуальных алгоритмов
+1
Добавлено: 14 ноя 14 5:59
Изменено: 14 ноя 14 6:14
Вот ещё одна статья, созвучная с текущим обсуждением.

Обобщая содержимое статьи и мои мысли, могу сказать, что математика в её классическом представлении, как набор способов описания физических моделей и решения задач, основанных на таких моделях не пременима к некоторым проблемам, ибо основана на том, что задачи решает человек с его естественными ограничениями мозга. В научной методологии выработаны способы решения некоторых классов задач, которые в "физическом" описании человек решить не может. "Физическое" описание преобразуется в математическое с добавлением некоторой "неестественной" аксиоматики, в результате язык описания расширяется, а связность компонент модели уменьшается, в результате чего человек может провести декомпозицию на более простые задачи, решение которых доступно мозгу.

С появлением компьютеров появляется и новый подход решения задач, основанный только на "физическом" описании. Причём в результате применения этого подхода возможно существуют решения, которые человек в принципе понять не может, ибо это продукт деятельности вычислителя с другими параметрами, отличного от человеческого мозга.

Я это всё к чему говорю. Спор в данной ветке между Виктором и mserg основан на том, что решение обязательно надо описывать в виде математической модели. Хотя на самом деле наличие решения в виде программы является уже достаточным для решения проблемы. Необходимость преобразования решения к математическому виду уже не является обязательным. Очень часто из-за этого люди тратят своё время на совершенно ненужные вещи, хотя могут просто развивать дальше программные решения. Новые условия порождают новую методологию, когда решения описываются не матмоделями, а множеством алгоритмов и наборами эвристик к ним.
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Сущность интеллектуальных алгоритмов
Добавлено: 14 ноя 14 7:11
Цитата:
Автор: mserg
«Поиск» в пространстве функций выглядит примерно так.

Берем в качестве функции f нейронную сеть. У ее математической записи есть некоторая длина l(f). Минимизируем функционал E(f) для нейронной сети. Получаем некоторое значение E ошибки, а также истраченные ресурсы компьютера: память и процессорное время. Рассчитываем L(f).

Берем в качестве функции f случайные деревья. У ее математической записи есть некоторая длина l(f). Минимизируем функционал E(f) для случайных деревьев. Получаем некоторое значение E ошибки, а также истраченные ресурсы компьютера: память и процессорное время. Рассчитываем L(f).

И т.д. Перебираем все «возможные» f и находим, при какой f* достигается минимум L.

Ну а поскольку перебирать можно аж до второго пришествия - проще получить квазиоптимальное решение. Берём немногим более избыточную=гибкую f и СРАЗУ минимизируем L (т.е. одновременно с минимизацией E пытаемся минимизировать и l(f) - всё это путём адаптации коэффициентов модели). Если штрафовали за ненулевые коэффициенты в модели - то из f затем выкидываем все члены, при которых стоит нулевой множитель (переводим длинную запись в более короткий и экономичный вид).

Цитата:
Автор: mserg
алгоритм, определяемый функцией f*, будет иметь признаки интеллектуальности.

Не будет.
Максимум - для некоторой конкретной задачи, заданной обучающей выборкой, будет аппроксимировать некоторый оптимальный решатель, например, оптимальный байесовский классификатор.
[Ответ][Цитата]
mserg
Сообщений: 258
На: Сущность интеллектуальных алгоритмов
+1
Добавлено: 15 ноя 14 9:00
Изменено: 15 ноя 14 9:04
Цитата:
Автор: vchc

Вот ещё одна статья, созвучная с текущим обсуждением.

Обобщая содержимое статьи и мои мысли, могу сказать, что математика в её классическом представлении, как набор способов описания физических моделей и решения задач, основанных на таких моделях не пременима к некоторым проблемам, ибо основана на том, что задачи решает человек с его естественными ограничениями мозга. В научной методологии выработаны способы решения некоторых классов задач, которые в "физическом" описании человек решить не может. "Физическое" описание преобразуется в математическое с добавлением некоторой "неестественной" аксиоматики, в результате язык описания расширяется, а связность компонент модели уменьшается, в результате чего человек может провести декомпозицию на более простые задачи, решение которых доступно мозгу.

С появлением компьютеров появляется и новый подход решения задач, основанный только на "физическом" описании. Причём в результате применения этого подхода возможно существуют решения, которые человек в принципе понять не может, ибо это продукт деятельности вычислителя с другими параметрами, отличного от человеческого мозга.

Я это всё к чему говорю. Спор в данной ветке между Виктором и mserg основан на том, что решение обязательно надо описывать в виде математической модели. Хотя на самом деле наличие решения в виде программы является уже достаточным для решения проблемы. Необходимость преобразования решения к математическому виду уже не является обязательным. Очень часто из-за этого люди тратят своё время на совершенно ненужные вещи, хотя могут просто развивать дальше программные решения. Новые условия порождают новую методологию, когда решения описываются не матмоделями, а множеством алгоритмов и наборами эвристик к ним.


А спора с Виктором никакого нет.

Я ведь говорю о МОДЕЛИ как приближенного описания РЕАЛЬНОСТИ. Мы берем из реальности «наборы данных» и пытаемся описать их алгоритмом (функцией, математической моделью) f. При этом мы предполагаем, что f будет «применим(а) бесконечное число раз». Скажем, закон взаимного тяготения, при определенных оговорках, действует везде во вселенной, т.е. как бы применим бесконечное число раз.

Раз это так, то «затраты» на поиск «точного, компактного и дешевого в применении» f для описания «бесконечности» могут быть весьма большие.

Кстати, данный факт проливает свет на эффективный механизм забывания. Помнить только f, позабыв наборы данных, на которых он(а) была получена. Тем более можно забыть подобранные константы на забытых данных.


Виктор же говорит тьфу, о, «модели данных». У него нет реальности, у него есть данные. А раз нет реальности, то ее и не нужно описывать. И мои критерии не нужны, ведь нужно описать конечный набор данных, а не бесконечную реальность с помощью f. Данные человек хочет описывать – что-либо здесь сделать не представляется возможным. При этом наборы данных могут быть любыми. Значит, все возможные наборы данных можно объявить (принудительно задать) равновероятными. На этом наборе получить «no free lunch теорему» и сделать массу других удивительных открытий и заключений. И т.д. и т.п.

Поэтому, когда описанная мною «повестка дня» заменяется на предложение «купить» нейросеть, это не спор и не обсуждение. Это спойлинг. Референс на регуляризацию, меня, конечно впечатлил. Особенно, если учесть наличие соответствующего примера в руководства пользователя Quick NP, наличия ссылок / тем на научном форуме с моим участием. Не говоря уже об участии в Kaggle, где эта тема обсасывается постоянно, припоминаю ссылки на конкретные библиотеки, документацию, конкретные описания борьбы с переобучением и т.д. Нужно быть альтернативно одаренным, чтобы не знать что такое регуляризация.


В общем, трэш и угар, ничуть не лучше «алгоритмов, неописумых математикой». Видимо, что-то произошло с того момента, как я прочел определение алгоритма… Если уж говорить о «модели данных», то это должно быть хотя бы не так скучно: лекция по химии.

На счет статьи … Посмотрел на нее с точки зрения критериев развития математики... не понял. Надежность математики основана на минимальных предположениях (аксиоматических системах) и строгости выводов из них. Поэтому на счет нее парятся. И, возможно, зря. Сложность доказательства (доказательство дает надежность) математических результатов такова, надежности никакой нет...

А вообще, в математике тоже трэш и угар. В формальной системе, как уже ранее говорилось, нельзя, скажем, сделать определение. Так нельзя определить новую функцию. Это уже будет нет только другая формальная система, но и другой язык. Но об этом уже было.

Насколько я понимаю, наравне с механизмом определений, математика опирается на множества аксиоматических систем, которые как бы «сдружены» друг с другом. Например, для натуральных, целых, рациональных, действительных, комплексных чисел есть своя аксиоматика. Из них «настоящие» только натуральные, а остальных как бы не бывает. Ненастоящими числами можно и не пользоваться, как и «бесконечностью», но получаете громоздкость. Пользуетесь ненастоящими числами – не понятно, насколько можно верить результатам, полученных для чисел, которых «не бывает». Дилемма: или удобства, или готовьтесь получить какую-нибудь хрень: разобрали один шар, а собрали – получилось два.

Альтернативы, конечно, есть. Например, есть мнение, что мозг создает/содержит/удаляет хренову тучу аксиоматических систем, которые сопоставляются с реальностью. Эти аксиоматические системы «сдруживаются», сливаются, унифицируются, избыточные удаляются и т.д. Критерий этого процесса тот же, что и для развития математики. Аксиоматические системы в мозге в действительности могут и не быть аксиоматическими системами. Например, содержат логические противоречия – они либо удаляются, либо отсекаются «добавлением ограничений». Если это предположение имеет место быть в реальности, то можно сказать математика мозга работает не так, как «изложено в Бурбаки».

[Ответ][Цитата]
vchc
Сообщений: 194
На: Сущность интеллектуальных алгоритмов
Добавлено: 16 ноя 14 1:34
Изменено: 16 ноя 14 2:08
Я так понял исходный спор остановился на том, что mserg пожаловался на большую трудоёмкость решения многокритериальных задач оптимизации в пространстве функции какого-либо вычислителя. Думаю, тут спорить никто не будет. Можно ещё погрустить по поводу отсутствия в математике внятных схем оценки сложности задачи/решения, как и об отсутствии методики проверки матмодели на гипотезу о физической разрешимости. По крайней мере я таких не видел, хотя конечно это не показатель. )


Цитата:
Автор: Victor G. Tsaregorodtsev

Автор: mserg
алгоритм, определяемый функцией f*, будет иметь признаки интеллектуальности.

Не будет.
Максимум - для некоторой конкретной задачи, заданной обучающей выборкой, будет аппроксимировать некоторый оптимальный решатель, например, оптимальный байесовский классификатор.


На мой взгляд будет. Я с mserg'om тут абсолютно согласен. Если вы для построения пространства функций возьмёте аксиоматику, подразумевающую наличие функции от функции вроде Higher-order логики или лямба исчисления, то интеллектуальность можно будет представить как сложную функцию, состоящую из множества простых решений различных задач. То, что для человека такие конструкты будут слабо понятны это уже другой вопрос. Собственно, здесь и надо спорить. Я бы с удовольствием послушал, развёрнутую аргументацию от Виктора.

Возможно ещё разногласие в том, что естественное понятие интеллектуальности подразумевает внутреннюю задачу целевой функции, то бишь автономность целеполагания. Ну так это всего лишь технический момент. Ничто нам не мешает создать систему из двух частей. Первая - формирует целевую функцию, вторая - решает оптимизационную задачу. Проблема тут лишь всё в той же увеличивающей сложности итоговой системы и соответствующей трудности физической реализации.
[Ответ][Цитата]
vchc
Сообщений: 194
На: Сущность интеллектуальных алгоритмов
Добавлено: 16 ноя 14 1:51
Изменено: 16 ноя 14 1:53
По поводу треша и угара в математике. Если взять общую методику решения практических задача вида:
Реальная проблема -> матмодель -> матрешение -> физреализация решения, то во многих случаях получается, что матрешение даёт не так уж много от конечного физического решения. И приходится инженерам заниматься подбором эвристик и другими плясками с бубном. А всё из-за того, что на матмодель не накладываются изначально требования по физической разрешимости и лезут в неё всякие бесконечности, дробные размерности и прочая чертовщина ) Нет ничего удивительного, что не всех такой подход устраивает и люди пытаются пользоваться методами, где матмодель использует только аксиоматику, для которой гипотеза о физической разрешимости легко проверяется.
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Сущность интеллектуальных алгоритмов
Добавлено: 16 ноя 14 6:36
Цитата:
Автор: vchc
Если вы для построения пространства функций возьмёте аксиоматику, подразумевающую наличие функции от функции вроде Higher-order логики или лямба исчисления, то интеллектуальность можно будет представить как сложную функцию, состоящую из множества простых решений различных задач. То, что для человека такие конструкты будут слабо понятны это уже другой вопрос. Собственно, здесь и надо спорить.

Да, вылов и затем использование каких-то "ложных корреляций" в качестве некоторого шага в многошаговом алгоритме - это будущие проблемы в понимании/интерпретации результирующей модели и проблемы субъективного доверия к ней (хотя объективно точность модели может быть высокой).
Slava, например, отказывает таким "скрещиваниям ужа и ежа" в пригодности. Мы с ним последний раз на эту тему, кажется, пару-тройку месяцев тут говорили (когда всплыл вопрос о методах "извлечения знания" из обученных чему-то искусственных нейросетей).
Т.е. есть противопоставление между достоверной статистической корреляцией в данных - и отсутствием осмысленности/семантики у найденной причинно-следственной связи (или у возможности использования каких-то переменных в качестве аргументов какого-то (под)выражения). Во многом зависящее от чьих-то личных (или завязанных на отмодифицированную внешними условиями профессиональную практику) перекосов баланса между прагматикой и семантикой.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Сущность интеллектуальных алгоритмов
+1
Добавлено: 16 ноя 14 21:59
Изменено: 19 ноя 14 20:21, автор изменений: гоcть
1. Кроме того, что уже отмечено выше, что закономерности могут быть не просто преобразованы в другой вид, но и нарушены при преобразованиях, есть до это еще более Важная штука которую надо хорошенько уложить в голове. Представьте замок-ключик, "мамку"-"папку" (в каких-то соединениях, например, вилка розеткой), комплиментарность (например, в ДНК) и т.д. и т.п. Так вот если закономерность обозвать "папкой", то для ее "выявления" должна быть "мамка". Если в голове нет "мамки", то "папки" для этой головы не существует. Если береговую линию мерить километровой линейкой, то выявить ее длину и очертания которые могут быть при измерении сантиметровой линейкой не получится, этой "картинки" не будет в таких "километровых" мозгах. Соответственно и наоборот, как ни странно на первый взгляд, т.е. в "сантиметровых" картинках не будет "километровых". Хотя часто считают, что если что-то поделить на более мелкое, то более крупное видно будет без проблем. Ну не видно человека в микроскоп, не получается...
2. Так вот при конструировании СИИ, часто думают как бы чего преобразовать (входные сигналы), записывая их на жесткий диск для дальнейшего анализа, по своим(!) заданным данным(!) человеком-конструктором-прграммером лекалам, т.е. в основном, анализируют свойства среды, в то время как СИИ должна иметь свои(!) "мамки" и возможность их создавать и преобразовывать.
3. В зависимости от количества и разнообразия элементов(например, если разнообразие описывается лишь положением и связями с соседями, то для систем с равным потенциалом, придется иметь довольно большое количество элементов, но "выгоднее" уменьшить количество увеличив разнообразие за счет других параметров кроме связей) будет и разный потенциал СИИ. Но этот потенциал (внешнее проявление) не является критерием отличения СИИ это или ИИ. Одним из критериев является наличие системы генерирования/случайного_перебора собственных(!)преобразований и собственных(!) "мамок" в зависимости(!) от условий окружения. Грубо говоря, система может быть "тупой" и не уметь играть в шахматы, но при этом быть СИИ, а не ИИ.
4. Так что опыт это "мамка" (самостоятельно выявленная закономерность, а не абсолютная, кроме того, скорее закономерность отношений системы/элемента со "средой"/с_окружением, а выявление закономерностей между двумя точками в среде, лишь следствие) с указанием ее положения в "сетке"-"фильтре"-"преобразователе". Другими словами нейрон бабушки. При этом запоминается именно и только то, что описано в первом предложении данного пункта, а не множество картинок сенсора. И вспоминается "что-то" при "срабатывании" "мамки" вне прямой зависимости появилось это "что-то" на сетчатке глаза или нет и никакой картинки из винчестера не считывается. Грубо говоря, "папка" "воспроизводится" по "мамке".
В принципе, это я уже объяснял при пояснениях выхода из тупика накопления "новизны" для kek_а.

Другими словами, грубо, можно сказать, что интеллектуальные алгоритмы, это алгоритмы создания автоматической системы по генерированию, преобразованию, отбору преобразований входных сигналов и "мамок" в зависимости от окружения. (А цель к системе, при желании, прикручивается отдельно при конструировании, или воспитывается при функционировании)

(Истин никогда не глаголю, всегда только свое мнение!!!)
[Ответ][Цитата]
kondrat
Сообщений: 4026
На: Сущность интеллектуальных алгоритмов
+1
Добавлено: 16 ноя 14 22:43
Изменено: 19 ноя 14 20:23, автор изменений: гоcть
По-сути, создание ИИ подразумевает формальное определение инвариантных признаков и подбор пространств, в которых эти признаки реализуются.
Например, в пространстве зеленых яблок яблочность и зеленость будут инвариантами, на основе которых, в добавок, строится и само множество. Инварианты необходимо использовать для построения множеств, но могут появиться и не использующиеся, которые оказываются приятным довеском для определенных вычислений.
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сущность интеллектуальных алгоритмов
Добавлено: 17 ноя 14 11:57
Цитата:
Автор: kondrat
Я пацифист по натуре. Однако не ленюсь повторять, пока до человека не дойдет.

Четыре раза явно недостаточно.
Кроме того, нужно не просто повторять, но вариировать формулировки.
[Ответ][Цитата]
гость
78.25.121.*
На: ИИ это:
Добавлено: 11 янв 15 1:36
95> восстановление векторных плотностей

это также несистемно (сверхредуктивно) как и попытки 'свести' 'всю' проблематику, скажем, к распознаванию образов. В принципе и задачи управления, поиска решения задачи, планирования, принятия решения, построения интерпретации текста etc можно свести к распознаванию 'правильного' образа управления, решения, плана, интерпретации.. за скобками оставлены только два вопроса (и они главные) - как синтезировать соотв. образы и как выбирать правильные критерии 'правильности'.

так и тут - восстанавливать можно по-разному и альтернативно - проблема критериев
остается, проболема обработки плотностей остается (жадные решения по плотностям не есть универсально хороший подход).

'мудрого' хочется спросить - откуда он знает как 'на самом деле'? вроде, сама такая поза есть показатель удаленности от мудрости..
[Ответ][Цитата]
гость
78.25.121.*
На: ИИ это:
Добавлено: 11 янв 15 1:41
кэп>

cуть (в каком-то виде) можно усмотреть в карте проблемной области, в обзоре. карта, конечно, неточна: узлы нужно организовать как планарный граф или в объеме, а узел-шапку вынести в надпространство.
[Ответ][Цитата]
 Стр.13 (17)1  ...  9  10  11  12  [13]  14  15  16  17<< < Пред. | След. > >>