GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (2)След. > >>   Поиск:  
 Автор Тема: Рекуррентные нейронные сети: как ИИ логически думает.
Ilya Geller
Сообщений: 4881
Рекуррентные нейронные сети: как ИИ логически думает.
+1
Добавлено: 26 ноя 19 17:42
Мои "рекуррентные нейронные сети" построены из синонимичных кластеров. Что такое "синонимичные кластеры"?
К примеру есть предложение:
-- Иван и Марфа весело смеются, она любит это. "14.10.2019 - 10:13"
ИИ-разбор получает следующий набор (уже осмысленых фраз):
- и Иван весело смеётся 0.25
- и Марфа весело смеётся 0.25
- она любит смеятся 0.5
- Марфа любит смеятся 0.5
- она любит это 0.5
- Марфа любит это 0.5
- это любимо ею 0.5
- это любимо Марфой 0.5
- смех любим ею 0.5
Это пример ИИ-разбора, который замешает n-gram разбор.
Цифиры справа - веса фраз, 1 для всего предложения. Эти веса объективны, то есть ИИ-разбор тоже объективен и есть реализация Закона Природы, в то время как n-gram разбор субъективен.
"14.10.2019 - 10:13" - временая метка.
В предложении есть три синонимичных, по существительным (именам), кластера:
1. - и Иван весело смеётся 0.25
2. - и Марфа весело смеётся 0.25
- она любит смеятся 0.5
- Марфа любит смеятся 0.5
- она любит это 0.5
- Марфа любит это 0.5
3. - это любимо ею 0.5
- смех любим ею 0.5
Например програма аннотирует первое предложение по предложению из другого текста, которое разъяснянт кто такая Марфа:
-- Марфа идёт и весело смеётся. "14.10.2019 - 10:12"
в котором после ИИ-разбора получаются этот синонимичный (по существительному, имени) кластер из двух фраз:
- Марфа идёт весело 0.5
- Марфа смеётся весело 0.5.
Очевидно что есть совпадение фразы "Марфа смеётся весело" в обоих предложениях, один текст и одно предложение индексируется по другому тексту и предложению, в зависимости от временой метки: так связи между элементами (синонимичными кластерами) образуют направленную последовательность.
Например, если предложение "Марфа идёт и весело смется." обнаружено при поиске по запросу "Марфа?" к одному тексту, то автоматически найдено и "Иван и Марфа весело смеются, она любит это." в другом тексте, и ответ будет "Иван" - поскольку поставлено условие что корреляцмя рассматриваются по возростающей временой метке.
Таким образом ИИ логически мыслит, восстанавливая причино-следственые связи.
For more information see USPTO, "Ilya Geller"

Или другая проблема, так называемые "fake news" (фальшивые новости), которую можно запросто разрешить при помощи моих "рекуррентных нейронных сетей". Дело в том что все новости могут быть структуированы в синонимичные кластеры и временые метки установлены. Тогда появляется возможность проследить происхождение любой новости и мгновенно установить её подлиность, как логическую приемственость многих групп синонимичных кластеров одного текста к другому. Если таковой нет - новость фальшива.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 26 ноя 19 17:50
Местные заткнули мне рот, ничего не позволяют ни делать, ни публиковать.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 26 ноя 19 18:24
Они все теряют абсолютно всё, все ведущие корпорации США разоряются, как я и показал вам в этой теме. ИИ реально сушествует уже 15 лет и я его жертва.
[Ответ][Цитата]
Ko.B
Сообщений: 1549
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 26 ноя 19 22:40
Цитата:
Автор: Ilya Geller

Они все теряют абсолютно всё, все ведущие корпорации США разоряются, как я и показал вам в этой теме. ИИ реально сушествует уже 15 лет и я его жертва.


Можно тут поподробнее... В чём вы жертва ИИ???
[Ответ][Цитата]
Petrov.I
Сообщений: 396
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 0:06
Цитата:
Автор: Ilya Geller

Местные заткнули мне рот, ничего не позволяют ни делать, ни публиковать.


Кто ж вам не дает публиковать - делайте и публикуйте, хотя бы на этом форуме. Но думаю, что "не есть хорошо" создавать кучу тем с одинаковым смысловым содержанием. Лучше все объединить в одной теме
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 2:02
Изменено: 27 ноя 19 2:21
Цитата:
Автор: Ко.В.



Можно тут поподробнее... В чём вы жертва ИИ???


Теория была готова 10 лет назад, тогда же я подал на патенты. Немедлено мне были перекрыты всё пути к финансированию и публикациям.
Не уверен что этот сайт продержитя долго, его либо купят, либо как-то закроют, но меня заставят замолчать по любому. Вы уже видели мою технологи, удачи вам!
[Ответ][Цитата]
eto_ya
Сообщений: 1545
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 2:24
Цитата:
Автор: Ilya Geller

Мои "рекуррентные нейронные сети" построены из синонимичных кластеров.

...

Таким образом ИИ логически мыслит, восстанавливая причино-следственые связи.

Ранее я спросил у вас:
Цитата:
Автор: eto_ya
Я правильно понимаю, что вы запатентовали способ обозначения одних слов через другие слова? Т.е. запатентовали синонимию. Если так, то это мощный ход. Кроме слов ваши алгоритмы больше ничем не оперируют?

Тогда вы не ответили. Но сейчас спалились с потрохами. Все оказалось как я и предполагал.

Не обманывайте себя и других. Это не ИИ и ничего там у вас не мыслит. Вы сделали вариацию алгоритма поиска по тексту. Для поисковика сойдет, но не более.
[Ответ][Цитата]
гость
77.111.245.*
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 5:09
Почитал, и согласен с eto_ya вы сделали просто вариацию лексического поисковика, это не тема ИИ, уважаемый...
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 5:16
Цитата:
Автор: гость

Почитал, и согласен с eto_ya вы сделали просто вариацию лексического поисковика, это не тема ИИ, уважаемый...


Зато работает! Это ответ на запрос NIST TREC, который сказал что ИИ должен уметь отвечать на вопросы по их смыслу, в их контекстах и подтекстах. Покажите мне другое определение ИИ? Или что-то ещё что работает в поле Искусственого Интеллекта, как моя система?
Моя система реально работает и принсла уже сотни миллиардов реальных долларов! (Не мне, меня ограбили, PA Advisors v Google)
[Ответ][Цитата]
eto_ya
Сообщений: 1545
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 5:36
Цитата:
Автор: Ilya Geller

Зато работает! Это ответ на запрос NIST TREC, который сказал что ИИ должен уметь отвечать на вопросы по их смыслу, в их контекстах и подтекстах. Покажите мне другое определение ИИ? Или что-то ещё что работает в поле Искусственого Интеллекта, как моя система?
Моя система реально работает и принсла уже сотни миллиардов реальных долларов! (Не мне, меня ограбили, PA Advisors v Google)

Поведайте, каким образом вас ограбили. В назидание другим разработчикам.

Одним из вариантов ограбления, является то, что патентная система америки устроена так, что для патентования требуется раскрыть все "ноухау" объекта патентования Т.е. автор как бы изначально считается лохом, а патентование разводкой лоха. После чего агенты патентного бюро сливают все ценное своим хозяевам, а потом оказывается так, что за минуту до вас, кто-то уже запатентовал вашу разработку
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 27 ноя 19 5:39
Изменено: 27 ноя 19 5:40
Этого судью потом выгнали за коррупцию.
Randall Ray Rader (born April 21, 1949) is a former United States Circuit Judge and former Chief Judge of the United States Court of Appeals for the Federal Circuit.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 28 ноя 19 12:50
Лучше если человек напишет текст описания цвета. Почему?
Те проги, что создают тексты - например OpenAI и Microsoft используют GPT-2 - задействуют рекуррентные нейронные сети, слегка меняя НАХОДИМЫЕ в некой базе даных тексты.
То есть всё упирается в поисковую технологию, ещё до того как тексты измененны.
1. Мне кажется что GPT-2 не индексирует слова фраз текстов по их словарным определениям; где уникальный смысл этих фраз задаётся имено и только их словарными определениями. Значит OpenAI и Microsoft находят тексты по внешнему облику фраз, не понимая что слова значат.
В Топологии это есть области пересечения множеств: чем лучше, полнее словарные определения слов фразы - тем больше область пересечения её множества со множеством фраз поискового запроса. (См. формулу Compatibility в моих патентах, USPTO, на "Ilya Geller".)
2. Сдаётся мне что GPT-2 не расширяет поисковые запросы до сотен и тысяч значимых синонимичных кластеров, поскольку создание оных невозможно без индексации по словарным определениям. И, значит, как поисковую фразу OpenAI и Microsoft используют мало фраз.
То есть, поисковый метод, используемый OpenAI и Microsoft (GPT-2) изначально ошибочен, а значит сомнительны результаты применяемых ими рекуррентных нейронных сетей. Действительно, попробуйте сами? Вы сами увидите что это всего лишь пустой трёп не по делу.
Пусть лучше если человек напишет текст описания цвета? Зачем вам никчемный трёп?
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 03 дек 19 9:26
Рекуррентные нейронные сети - вид нейронных сетей, где связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки.
Патентуя я задал эту направленную последовательность как поледовательность временых меток. Однако такая последовательность может задаватся как выборка информации содержащей максимальное количество совпадающих фраз, что использует OpenAI.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 03 дек 19 9:48
Изменено: 03 дек 19 9:48
Цитата:
Автор: Ilya Geller

Рекуррентные нейронные сети - вид нейронных сетей, где связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки.
Патентуя я задал эту направленную последовательность как поледовательность временых меток. Однако такая последовательность может задаватся как выборка информации содержащей максимальное количество совпадающих фраз, что использует OpenAI.


Почему OpenAI выбрало для направленной последовательности выборку информации содержащей максимальное количество совпадающих фраз? Ответ прост: "Our model, called GPT-2 (a successor to GPT), was trained simply to predict the next word in 40GB of Internet text" - OpenAI брало инфомацию с Интернета где либо трудно, или вовсе невозможно найти временые метки для установки направленой последовательности по времени.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4881
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 03 дек 19 11:23
Цитата:
Автор: Ilya Geller



Почему OpenAI выбрало для направленной последовательности выборку информации содержащей максимальное количество совпадающих фраз? Ответ прост: "Our model, called GPT-2 (a successor to GPT), was trained simply to predict the next word in 40GB of Internet text" - OpenAI брало инфомацию с Интернета где либо трудно, или вовсе невозможно найти временые метки для установки направленой последовательности по времени.


Майкрософт тоже пошёл по пути направления рекуррентных нейронных сетий, создавая последовательность как совпадение макисмального количества фраз:
"Vector search makes it easier to search by concept rather than keyword. For example, if a user types in “How tall is the tower in Paris?” Bing can return a natural language result telling the user the Eiffel Tower is 1,063 feet, even though the word “Eiffel” never appeared in the search query and the word “tall” never appears in the result."
В данном случае "векторный поиск" есть направление в сторону параграфа с максимальным колическтовм совпадающих фраз, а не по времени. В дальнейшем, имея этот параграф, Майкрософт и OpenAI могут предугадать следующее слово во фразе, делая это чисто механически, то есть буздумно. Доказательство этого посыла служит то что вы видите на Интернете, GPT-2 как праздная болтовня.
[Ответ][Цитата]
 Стр.1 (2): [1]  2След. > >>