GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (2)<< < Пред.   Поиск:  
 Автор Тема: На: Рекуррентные нейронные сети: как ИИ логически думает.
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 07 дек 19 15:42
Изменено: 07 дек 19 15:46
Цитата:
Автор: гость

Почитал, и согласен с eto_ya вы сделали просто вариацию лексического поисковика, это не тема ИИ, уважаемый...



14. The computer system of claim 9 in which said facility configured to extract predicative phrases is further configured to assign to the subtexts information regarding the date of their origin.
Это так называемая технология "блокчейн", которая появилась через несколько лет после того как я получил патент. Но, видимо, те, кто начинал историю с блокчейна, побоялись идти дальше и углубляться в мои патенты.
Речь идет о логическом мышлении ИИ, как построении причинно-следственных связей.
[Ответ][Цитата]
ip178
Сообщений: 144
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 5:44
Цитата:
Автор: Ilya Geller

Местные заткнули мне рот, ничего не позволяют ни делать, ни публиковать.


Это они сделали правильно, даже я не могу без вздрагивания читать твои посты...

Ну и ты знаешь как работают рекуррентные нейросети? видимо нет, и не заморачивайся ибо толку в них около нуля
[Ответ][Цитата]
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 6:53
Изменено: 10 дек 19 6:54
Ранее не существовало объективного метода получения взвешенных фраз из текста, с учётом их временных меток. Потому рекуррентные нейросети и не работали и не использовались.
Без рекуррентных нейросетей невозможно проследить и использовать причинно-следственные связи между событиями, причина будет иметь такую же степень важности что и следствие. Но, например, в медицинских записях нахождение причинно-следственных связей в информации смертельно, в буквальном смысле, важно - нужно найти по смыслу и времени то что необходимо. Так что нас ожидает расцвет в применении ИИ-технологии с учётом временных меток.
[Ответ][Цитата]
ip178
Сообщений: 144
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 7:01
Ilya Geller, какая может быть взвешенная связь во времени? предлог "и" сто лет назад стоил дороже? ))))))))))))))))
собственно говоря, все нейросети (все мне известные) являются импульсными и не имеют привязки ко времени, что и исходит из их теории. (времена рус.яза. это не есть привязка ко времени это лишь дополнительная смысловая нагрузка)
причинно-следственные связи рассмотрены в рекуррентных нейросетях обратного распотранения см видюшку на ютубе там нейросеть говорит "я лишь точка в твоём компьютере"
[Ответ][Цитата]
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 7:14
Цитата:
Автор: ip178

Ilya Geller,
собственно говоря, все нейросети (все мне известные) являются импульсными и не имеют привязки ко времени, что и исходит из их теории. (времена рус.яза. это не есть привязка ко времени это лишь дополнительная смысловая нагрузка)


Вот вы сами и ответили на свой вопрос, голуба. Все существующие нерональные сети используют n-gram разбор и говорить о том "все нейросети (все мне известные)" - некорректно, поскольку вы имеете дело с открытием. А именно со способом структуирования языка, каковой есть совершенно новое, неизвестное ранее.
[Ответ][Цитата]
ip178
Сообщений: 144
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 7:20
Ilya Geller, кто такой галуба и с каким открытием я имею дело если о нейросетях известно в 86 года и я прекрасно в них разбираюсь (чтобы знать что к ии они могут относится только как рефлексы)
[Ответ][Цитата]
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 10 дек 19 7:24
Цитата:
Автор: ip178

Ilya Geller, кто такой галуба и с каким открытием я имею дело если о нейросетях известно в 86 года и я прекрасно в них разбираюсь (чтобы знать что к ии они могут относится только как рефлексы)


"Голуба" в моих устах есть эвфимизм, замена для более грубых слов, умоляю меня понять?
Речь идёт о конструировании фраз, в то время как традиционный n-gram - это непрерывные последовательности n-элементов в предложении и ни о каком конструировании речи нет.
К примеру есть предложение
-- Иван и Марфа весело смеются, она любит это.
n-gram разбор получает 2-3 фразы (паттерна, если не по Русски) из предложения. Например:
- Иван и Марфа весело смеются
- она любит это
или
- Иван
- Марфа весело смеются
- она любит это.
При этом n-gram чисто субъективен, вы сами решаете как резать текст и по каким критериям.
ИИ-разбор конструирует следующий набор уже осмысленых фраз:
- и Иван весело смеётся 0.25
- и Марфа весело смеётся 0.25
- она любит смеятся 0.5
- Марфа любит смеятся 0.5
- она любит это 0.5
- Марфа любит это 0.5
- это любимо ею 0.5
- это любимо Марфой 0.5
- смех любим ею 0.5
Как видите n-gram произвёл 3 (три) фразы, а ИИ-разбор - 9 (девять) объективно полученных (согласно правилам грамматики) и осмысленных фраз. Т.е. когда кто-то ищет инфу, происходит сравнение поискового запроса не с 3мя а с 9ю фразами. (n-gram вообще зачастую игнорирует грамматику и даже пропускает огромное количество слов, разбирая текст; например пропускаются предлоги, частицы и т.д.)
Цифирь справа - объективные веса, в то время как сейчас и везде веса назначаются вручную, чисто субъективно, потому как n-gram разбор не в состоянии произвести никакой объективной статистики.
[Ответ][Цитата]
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 08 июн 20 8:14
Some of the most important applications of RNNs involve natural language processing (NLP), the branch of computer science that helps software make sense of written and spoken language.

Recurrent neural networks (RNN), first proposed in the 1980s, made adjustments to the original structure of neural networks to enable them to process streams of data.

Feedforward vs recurrent neural networks

Multi-layer perceptrons (MLP) and convolutional neural networks (CNN), two popular types of ANNs, are known as feedforward networks. In feedforward networks, information moves in one direction. They receive input on one end, process the data in their hidden layers, and produce an output value. For instance, an image goes through one end, and the possible class of the image’s contents come out the other end.

https://bdtechtalks.com/2020/06/08/what-is-recurrent-neural-network-rnn/
[Ответ][Цитата]
Ilya Geller
Сообщений: 4879
На: Рекуррентные нейронные сети: как ИИ логически думает.
Добавлено: 08 июн 20 8:15
Цитата:
Автор: Ilya Geller

Some of the most important applications of RNNs involve natural language processing (NLP), the branch of computer science that helps software make sense of written and spoken language.

Recurrent neural networks (RNN), first proposed in the 1980s, made adjustments to the original structure of neural networks to enable them to process streams of data.

Feedforward vs recurrent neural networks

Multi-layer perceptrons (MLP) and convolutional neural networks (CNN), two popular types of ANNs, are known as feedforward networks. In feedforward networks, information moves in one direction. They receive input on one end, process the data in their hidden layers, and produce an output value. For instance, an image goes through one end, and the possible class of the image’s contents come out the other end.

https://bdtechtalks.com/2020/06/08/what-is-recurrent-neural-network-rnn/


Chatbots are another prime application for recurrent neural networks. As conversational interfaces, they must be able to process long and variating sequences of text, and respond with their own generated text output. This is an example of the many-to-many RNN mode.

Other users of RNNs in NLP include question answering, document classification, machine translation, text summarization, and much more.
[Ответ][Цитата]
 Стр.2 (2)1  [2]<< < Пред.