GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.41 (49)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Даю справку Два
Андрей
Сообщений: 3811
На: Даю справку Два
Добавлено: 14 янв 19 15:32
Цитата:
Автор: Джефф Хокинс
Нейроны решётки в неокортексе предполагают, что все знания выучиваются и хранятся в контексте местоположений и пространств местоположений, и что «мышление» - это движение через эти пространства местоположений. Нам предстоит пройти долгий путь, прежде чем мы поймем детали...
Эгг, благодарю за статью. Похоже, Джефф Хокинс путём титанических усилий наконец изобрёл местологию. Которую можно придумать на коленке из обобщений бытового жизненного опыта...
Хокинс придумывает интересные теории, но зачем-то пытается немедленно найти их доказательства в живом мозге на каждом шагу. Это долгий и ненадёжный путь. Закапываясь в мелочах, он упускает из вида общую картину. Впрочем, эта же проблема прослеживалась и в его известной книжке. Как мне кажется, сначала нужно синтезировать окончательную и достаточно полную теорию работы интеллекта, а потом просто обнаружить её в мозге.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 14 янв 19 17:04
Изменено: 14 янв 19 17:29
Цитата:
Автор: Андрей
Похоже, Джефф Хокинс путём титанических усилий наконец изобрёл местологию.

Есть такой момент, да. Но я назвал бы его маппингом. Я пытался тебе рассказать о том, что маппинг более концептуален, чем "местология", но у меня не получилось.
Вот здесь: http://gotai.net/forum/default.aspx?postid=266562#266562

У Хокинга важнее другое - множественные модели, вместо одной самой правильной...
[Ответ][Цитата]
Андрей
Сообщений: 3811
На: Даю справку Два
Добавлено: 14 янв 19 17:54
Цитата:
Автор: Эгг
Я пытался тебе рассказать о том, что маппинг более концептуален, чем "местология", но у меня не получилось.
Это несправедливый самосуд. На самом деле в моих приоритетах разобраться с книжкой, что ты предложил, но у меня катастрофически не хватает времени внимательно вникнуть в этот вопрос. А спешка здесь вредна. Поэтому я затормозил топик про местологию. Хотя идеи есть. Как только появится возможность, я продолжу.

Цитата:
Автор: Эгг
важнее другое - множественные модели, вместо одной самой правильной
Да, я заметил этот важный момент. И там есть ещё много интересных мыслей помельче. Про поведение как смещение частей одного и того же предмета, про язык и математику, основанных на местоположениях, про нейроны смещения. У меня даже закралось подозрение, что Хокинс облекает свои идеи в нейрофизиологический камуфляж, чтобы под этим прикрытием просто сделать их достоянием общественности. Как фантасты маскируют свои смелые размышления формой художественной литературы.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 14 янв 19 18:55
Изменено: 14 янв 19 19:01
Цитата:
Автор: Андрей
Это несправедливый самосуд.

Да, у меня скверный характер. Как я сказал, торопиться особенно некуда...

Цитата:
Автор: Андрей
У меня даже закралось подозрение, что Хокинс облекает свои идеи в нейрофизиологический камуфляж, чтобы под этим прикрытием просто сделать их достоянием общественности. Как фантасты маскируют свои смелые размышления формой художественной литературы.

Мне тоже так показалось и как и тебя, меня немножко испугало количество совпадающих мыслей. Эйдос уже совсем готов разродиться новым понятийный животным.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
+1
Добавлено: 14 янв 19 19:12
Изменено: 14 янв 19 19:15
Вот еще по этому поводу довольно любопытный пост.

Беседы с «Высшим разумом». Информация в мозге

https://habr.com/post/433712/

"Модель не создается по информации от предмета. Она уже есть в мозге. Только тогда информацию, как ты говоришь, можно «принять», то есть выбрать вариант этой модели. Каждый предмет, ситуация, факт, явление – это только вариант более общей модели. И сама модель состоит из других моделей. Как предложение, описывающее предмет, из слов, служащих для описания не только этого экземпляра. Тебе надо разобраться в этом."
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 15 янв 19 9:32
Любителям позаморачиваться, вот есть дейтасет для CNN: 18М изображений, 11К классов.

ML-Images: the largest open-source multi-label image database, including 17,609,752 training and 88,739 validation image URLs, which are annotated with up to 11,166 categories. Resnet-101 model: it is pre-trained on ML-Images, and achieves the top-1 accuracy 80.73% on ImageNet via transfer learning.

https://github.com/Tencent/tencent-ml-images
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 16 янв 19 7:50
Изменено: 16 янв 19 7:52
Вот на аркаив еще одна любопытненькая статейка появилась...
Как систематизация и обзор - вообще очень годная, если кто-то дисер пишет - бесценная...

Hybrid Recommender Systems: A Systematic Literature Review

https://arxiv.org/abs/1901.03888

Рекомендательные системы - это программные средства, используемые для генерации и предоставления пользователям предложений и предложений по элементам и другим объектам путем использования различных стратегий. Гибридные рекомендательные системы по-разному сочетают две или более рекомендаций, чтобы воспользоваться их дополнительными преимуществами. В этом систематическом обзоре литературы представлено современное состояние гибридных рекомендательных систем последнего десятилетия. Это первая количественная обзорная работа, полностью сфокусированная на гибридных рекомендациях. Мы рассмотрим наиболее актуальные проблемы и рассмотрим соответствующие методы анализа данных и рекомендации, используемые для их преодоления. Мы также изучаем классы гибридизации, к которым принадлежит каждый гибридный рекомендатель, области применения, процесс оценки и предлагаемые направления будущих исследований. Основываясь на наших результатах, большинство исследований объединяют совместную фильтрацию с другим методом, часто взвешенным образом. Кроме того, «холодный старт» и разреженность данных являются двумя традиционными и главными проблемами, которые рассматриваются в 23 и 22 исследованиях, в то время как фильмы и наборы данных по-прежнему широко используются большинством авторов. Поскольку большинство исследований оцениваются путем сравнения с аналогичными методами с использованием метрик точности, предоставление более достоверных и ориентированных на пользователя оценок остается типичной проблемой. Помимо этого, были также определены новые проблемы, такие как реагирование на изменение пользовательского контекста, изменение вкусов пользователей или предоставление междоменных рекомендаций. Будучи горячей темой, гибридные рекомендации представляют хорошую основу для адекватного реагирования путем изучения новых возможностей, таких как рекомендации по контекстуализации, использование параллельных гибридных алгоритмов, обработка больших наборов данных и т. Д.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 18 янв 19 13:01
Занимаются люди полезными вещами...

A New Approach to Understanding How Machines Think

https://www.quantamagazine.org/been-kim-is-building-a-translator-for-artificial-intelligence-20190110

Нейронные сети заведомо непостижимы - компьютер может дать хороший ответ, но не сможет объяснить, что привело к выводу. Бин Ким разрабатывает «переводчик для людей», чтобы мы могли понять, когда сломается искусственный интеллект.

[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 20 янв 19 9:24
Прошлый раз ув. Кусаюсь запутался между словоформами и лексемами, а для обработки русского языка морфология необходима, поскольку русский язык флективный, даже частотный анализ нельзя правильно сделать без знания парадигмы. Вот есть такой инструментик, сегодня попался на глаза, даю ссылку...

rupostagger - частеречная разметка для русского языка

https://github.com/Koziev/rupostagger

Пакет позволяет распознать части речи и некоторую другую грамматическую информацию (падеж, число, род и так далее) для слов в предложении.

Для использования необходимо создать экземпляр класса RuPosTagger, затем выполнить загрузку словарной базы и языковой модели вызовом метода load(). Затем можно делать распознавание списка слов методом tag, который принимает список слов. Разбивку предложения на слова необходимо выполнять сторонними средствами заранее.

Пример:


import rupostagger

tagger = RuPosTagger()
tagger.load()
for word, label in tagger.tag(u'кошки спят'.split()):
print(u'{} -> {}'.format(word, label))

Результат работы:

кошки -> NOUN|Case=Nom|Gender=Fem|Number=Plur
спят -> VERB|Mood=Ind|Number=Plur|Person=3|Tense=Notpast|VerbForm=Fin|Voice=Act

[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 24 янв 19 8:51
Не самая "свежая" работа, но концептуальная и объединяющая в себя многие домены...

One Model To Learn Them All

https://arxiv.org/abs/1706.05137

Глубокое обучение дает отличные результаты во многих областях, от распознавания речи, классификации изображений до перевода. Но для каждой проблемы, чтобы получить хорошую модель для работы, нужно изучить архитектуру и длительный период настройки. Мы представляем одну модель, которая дает хорошие результаты по ряду проблем, охватывающих несколько доменов. В частности, эта единственная модель обучается одновременно по ImageNet, нескольким задачам перевода, подписи к изображениям (набор данных COCO), корпусу распознавания речи и задаче анализа на английском языке. Наша модельная архитектура включает в себя строительные блоки из нескольких доменов. Он содержит сверточные слои, механизм внимания и разреженные слои. Каждый из этих вычислительных блоков имеет решающее значение для подмножества задач, которые мы обучаем. Интересно, что даже если блок не является критически важным для задачи, мы видим, что его добавление никогда не снижает производительность и в большинстве случаев улучшает ее для всех задач. Мы также показываем, что задачи с меньшим объемом данных в значительной степени выигрывают от совместного обучения с другими задачами, в то время как выполнение больших задач снижается незначительно, если вообще уменьшается.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 25 янв 19 8:19
Вот, кстати, по поводу предикатов и смыслов, попалась на глаза повестка KRR симпозиума, где отметились и Ленат и Хинтон. Забавные оба.

https://sites.google.com/site/krr2015/home/schedule

Knowledge Representation and Reasoning: Integrating Symbolic and Neural Approaches

Хинтон:

Отцы ИИ считали, что формальная логика дает представление о том, как должны работать человеческие рассуждения. Чтобы можно было переходить от одного предложения к следующему, должны существовать правила вывода, содержащие переменные, которые связаны с символами в первом предложении и переносят значения во второе предложение. Я покажу, что это убеждение столь же неверно, как и убеждение, что световая волна может путешествовать только через пространство, вызывая возмущения в светоносном эфире. В обоих случаях ученых вводили в заблуждение, приводя к убедительным, но неверным аналогиям с единственными известными им системами, которые обладали требуемыми свойствами. Аргументы мало влияют на такие убеждения. Что необходимо, так это демонстрация того, что можно распространять последствия совершенно иным способом, который не включает в себя правила вывода и не имеет никакого сходства с формальной логикой. Недавние результаты машинного перевода с использованием рекуррентных нейронных сетей (Sutskever et. Al, 2014) показывают, что значение предложения может быть уловлено «вектором мысли», который является просто вектором скрытого состояния рекуррентной сети, прочитавшей предложение одно слово за один раз. В будущем будет возможно предсказать векторы мысли из последовательности предыдущих векторов мысли, и это отразит естественное человеческое мышление. При достаточных усилиях можно даже научить такую ​​систему игнорировать почти все содержание ее мыслей и делать предсказания, основываясь исключительно на тех особенностях мыслей, которые отражают логическую форму предложений, используемых для их выражения.

Ленат:

Явные полуформальные рассуждения - это сверхспособности людей! Несмотря на то, что он реализован на плохой платформе, он позволяет нам делать мощные, даже спасающие жизнь вещи. Вместо того, чтобы отказываться от методов, разработанных ИИ для такого рода рассуждений, мы должны стремиться масштабировать их точно так же, как недавно были расширены нейронные сети, глубокое обучение и т. Д., Ожидая, что аналогичные технологические и научные достижения принесут результат. Как следует из названия семинара, наиболее плодотворный подход, вероятно, будет гибридным. Для этого мы начнем с обобщения текущего состояния Cyc. За последние 31 год мы создали базу знаний, аксиоматизируя десять миллионов общих, истинных по умолчанию вещей о мире, максимизируя его дедуктивное замыкание. Это заставило нас сделать язык представления CycL все более выразительным, ввести механизмы аргументации и контекста и так далее. В то же время, мы пытались максимизировать долю этого дедуктивного замыкания, которое может быть эффективно достигнуто. Это заставило нас сделать механизм вывода Cyc гибридом из 1050 специализированных рассуждений и наложить его на десятки структур управления мета-уровня, методов и, да, уловок. Этот доклад быстро рассмотрит все это, а затем сосредоточится на том, как и почему некоторые когнитивные задачи легко выполнять Cyc, но трудно для нейронных систем, и наоборот. Это, в свою очередь, говорит о том, что некоторые проблемы лучше всего решать с помощью гибридного подхода, например, (i) применяя явные мета-аргументы Cyc поверх нейронных систем; или (ii) чтобы Cyc вызывал внешние, обученные, нейронные и статистические компоненты, действующие как модули эвристического уровня (как если бы они были специфическими для задачи рассуждениями # 1051, 1052, ...). Мы опишем два текущих таких "гибридных" приложения Cyc. Возможность рационализировать свои решения сделает системы ближайшего будущего, такие как автономные автомобили, бытовые роботы и автоматизированные помощники, гораздо более надежными и надежными.
[Ответ][Цитата]
Egg
Сообщений: 12204
На: Даю справку Два
Добавлено: 25 янв 19 12:48




Если посмотреть на эту анимацию под правильным углом и с хорошо организованной головой, то можно понять множество интересных "вещей"...
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1283
На: Даю справку Два
Добавлено: 25 янв 19 13:24
Да, изрядно напоминает суетню в муравейнике.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1283
На: Даю справку Два
Добавлено: 25 янв 19 20:56
Первый раз смотрел видео без звука. Потом обнаружил, что видео озвучено и посмотрел ещё раз. Теперь опасаюсь за эгтэро, может окончательно слететь с катушек.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1283
На: Даю справку Два
Добавлено: 26 янв 19 2:13
Изменено: 26 янв 19 3:04
Цитата:
Автор: Эгг

Вот люди правильно ставят основной вопрос машинного обучения...
Михайло, ты в состоянии понять, о чем они тут пишут? Никакого мозгоёбства - чистая математика...

https://www.nature.com/articles/s42256-018-0002-3

Learnability can be undecidable

Математические основы машинного обучения играют ключевую роль в развитии отрасли. Они улучшают наше понимание и предоставляют инструменты для разработки новых парадигм обучения. Однако преимущества математики иногда сопряжены с определенными издержками. Гедель и Коэн в двух словах показали, что не все доказуемо. Здесь мы показываем, что машинное обучение разделяет эту судьбу. Мы описываем простые сценарии, в которых обучаемость не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики. Наше доказательство основано на том факте, что гипотеза континуума не может быть ни доказана, ни опровергнута. Мы показываем, что в некоторых случаях решение проблемы «оценки максимума» эквивалентно гипотезе континуума. Основная идея состоит в том, чтобы доказать эквивалентность между обучаемостью и компрессией.


С правильной позиции вывод очевидный. Можно не менее строго показать, что такие ограничения эквивалентны существованию не редуцируемых неопределенностей.

http://gotai.net/forum/default.aspx?postid=124733#124733
[Ответ][Цитата]
 Стр.41 (49)1  ...  37  38  39  40  [41]  42  43  44  45  ...  49<< < Пред. | След. > >>