GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.6 (7)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Крупнейшее открытие как основа ИИ-технологии!
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 17 мар 20 2:17
Изменено: 17 мар 20 2:18
Ну что? Кто-то сомневается что я создал Искусственный Интеллект?
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 19 мар 20 6:29
Наука для меня есть стремление найти себя, это экзамен на адекватность, тест на выживание. Только если результаты научных изысканий покупаются, признаны рублем — только тогда вы адекватны. Например Нобелевскую не дают за вольные упражнения в эфире, а только за то что доказано практически, земное, то что буквально приносит бабло.
Поэтому я сделал абстрактную и фундаментальную Философию точной наукой, дважды доказав Внутреннюю теорию Аналитической Философии деньгами.
[Ответ][Цитата]
Misteryest
Сообщений: 1023
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 19 мар 20 6:49
Цитата:
Автор: Ilya Geller
Поэтому я сделал абстрактную и фундаментальную Философию точной наукой, дважды доказав Внутреннюю теорию Аналитической Философии деньгами.

#СправкуГеллеру
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 19 мар 20 7:41
Цитата:
Автор: Misteryest


#СправкуГеллеру


Что такое Наука? Это то что начинается с Факта; не с аксиомы, но с Факта.
Я такой Факт привёл:
К примеру есть предложение
-- Иван и Марфа весело смеются, она любит это.
ИИ-разбор получает следующий набор (уже осмысленых фраз):
- и Иван весело смеётся 0.25
- и Марфа весело смеётся 0.25
- она любит смеятся 0.5
- Марфа любит смеятся 0.5
- она любит это 0.5
- Марфа любит это 0.5
- это любимо ею 0.5
- это любимо Марфой 0.5
- смех любим ею 0.5

Этот пример — Факт. Отталкиваясь от него я опровергаю, к примеру, технологию SQL и закладываю основу ИИ.
Многочисленные ссылки на практическое использование этого Факта есть мое доказательство моей Внутренних Отношений теории Аналитической Философии.
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 15 апр 20 8:05
The results show that Ali AI won the championship with an accuracy of 74.57%, raising the record of the previous competition by 16.82%, and surpassing the accuracy of Microsoft AI by 64.78%. In the same data set, the accuracy of human is only 64.27%, and AI is even better than human.
http://www.digitaljournal.com/pr/4651506#ixzz6Jgae9cw7

Вот вам и Ванька с Марфушей...
[Ответ][Цитата]
mss
Сообщений: 2565
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 16 апр 20 9:35
Да. Растут.
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 20 апр 20 9:07
В конечном счете побеждает тот кто выигрывает!

Watson Discovery is different from traditional search
Traditional enterprise search and search engines don’t provide employees and customers with exact answers. They can’t understand the nuances of phrases and acronyms in your industry and accurately search through your complex documents in a timely manner.
Watson Discovery solves these challenges. It is enterprise search that delivers specific answers to your queries while also serving up the entire document and supporting links, allowing your employees and customers to make informed decisions with confidence.
https://www.ibm.com/cloud/watson-discovery
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 06 май 20 10:11
Arvind Krishna, IBM CEO: “More than 20 years ago, experts predicted every company would become an internet company. I am predicting today that every company will become an AI company, not because they can, but because they must”
https://www.networkworld.com/article/3542409/ibm-rolls-red-hat-into-edge-ai-hybrid-cloud-expansion.html
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 09 май 20 12:22
Изменено: 09 май 20 12:36
BERT — это нейросеть, созданная Google в 2018 году и уже доказавшая преимущества в ряде практических задач. Используя её можно решать целый ряд задач: анализировать текст, отвечать на вопросы, создавать переводчики, выявлять спам, создавать системы предиктивного ввода текста и т.д. В октябре 2019 года Google добавила нейронную сеть BERT в ядро алгоритмов поиска Google для английского языка, а в декабре – для более чем 70 языков. Новое обновление поиска получило название BERT и затронуло 10% всех поисковых запросов.
https://gorodfinansov.ru/bert-krupnejshee-obnovlenie-google-kak-optimizirovat-vash-sajt-pod-bert.html
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 31 май 20 3:45
Изменено: 31 май 20 3:46
Неужели я единственный во всей России кто что-тот делает в NLP? Отзовитесь?
Это уже становится какой-то дурной комедией. Посмотрите на программистка сайт? Я и вправду единственный во всей России, кто знает что делают Майкрософт, IBM и OpenAI?
Это же катастрофа, ужас... Россия проигрывает всухую.
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 15 июн 20 6:23
Изменено: 15 июн 20 6:25
Цитата:
Автор: Aleksandr1

кибернетика это ИИ, она только в Украине развивалась . На западе её давно забросили. Остальное это компьютерные науки.


Какая кибернетика? К примеру есть предложение:
-- Иван и Марфа весело смеются, она любит это.
n-gram разбор получает 2-3 фразы из предложения, где «N-грамма — последовательность из n элементов[1]. С семантической точки зрения, это может быть последовательность звуков, слогов, слов или букв. На практике чаще встречается N-грамма как ряд слов, устойчивые словосочетания называют коллокацией. Последовательность из двух последовательных элементов часто называют биграмма, последовательность из трёх элементов называется триграмма. Не менее четырёх и выше элементов обозначаются как N-грамма, N заменяется на количество последовательных элементов.» (https://ru.wikipedia.org/wiki/N-грамма)
Например:
- Иван и Марфа весело смеются
- она любит это.
ИИ-разбор получает следующий набор (уже осмысленых фраз):
- и Иван весело смеётся 0.25
- и Марфа весело смеётся 0.25
- она любит смеятся 0.5
- Марфа любит смеятся 0.5
- она любит это 0.5
- Марфа любит это 0.5
- это любимо ею 0.5
- это любимо Марфой 0.5
- смех любим ею 0.5
ИИ-разбор получает последовательность слов как жесткую и объективно извлеченную структуру из последовательности слов по их частям речи, а не просто последовательность. То есть до создания последовательности определяются части речи слов по грамматическим правилам и по окружающему (явному и неявному, аннотирующему) тексту. Для того чтобы создать фразу « - Марфа любит смеятся 0.5» используется тексты, которые известны из процесса обучения, и которые говорят что «Марфа» это женщина, «смеется» — это действие, а «весело» описание действия которое имеет мечто.
Цифры видите? Справа? Это — объективные веса, веса которые любой получит при разборе этого предложения. n-gram разбор не в состоянии произвести никакой статистики, ИИ - может произвести объективную.
Так вот, по словарю Ожегова: «Кибернетика — наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе». А в данном случае речь идет о форматировании информации, ее преобразовании в понятный компьютеру формат, предшествующий «управлению и передаче».
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 20 июн 20 16:41
Майкрософт признал мою технологию:

Applying linguistic structure rules to analyze sentences - for example, breaking down sentences into tree-like structures such as a noun phrase, which itself contains nouns, verbs, adjectives, and so on.
https://docs.microsoft.com/en-us/learn/modules/analyze-text-with-text-analytics-service/1-introduction
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 21 июн 20 9:51
Сравните с примером «Марфа да Иван»?

Syntax Analysis
The Amazon Comprehend Syntax API enables customers to analyze text using tokenization and Parts of Speech (PoS), and identify word boundaries and labels like nouns and adjectives within the text.
Sample Text: I love my fast, new Kindle Fire!
Text Tag
I Pronoun
Love Verb
My Pronoun
Fast Adjective
, Punctuation
New Adjective
Kindle Proper noun
Fire
Proper noun
! Punctuation
https://aws.amazon.com/comprehend/features/
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 21 июн 20 13:32
Как видите IBM также использует мою технологию:

Parts of speech

After a phrase has been tokenized, each token is categorized by a certain part of speech. Watson Natural Language Understanding uses the universal parts of speech across all languages, including noun, verb, adjective, pronoun, punctuation, and proper noun. Parts of speech are extremely important when it comes to natural language processing. It can be used in word-sense disambiguation and understanding the intent behind each word within a sentence.

Sentence splitting

There will be multiple instances where users will have to know when a sentence stops and when the next one begins without being confused with a proper noun such as “Mr.” or “Mrs.” in the sentence. Watson Natural Language Understanding determines when a complete thought has been expressed in a sentence and can tell when that sentence ends and when the next one begins.
https://developer.ibm.com/technologies/artificial-intelligence/articles/a-deeper-look-at-the-syntax-api-feature-within-watson-nlu/

Думаю пора прекратить треп об наличии ИИ, поскольку я его создал. Имеет смысл также валить всем нахер и оставить меня на форуме одного.
[Ответ][Цитата]
Ilya Geller
Сообщений: 3860
На: Крупнейшее открытие как основа ИИ-технологии!
Добавлено: 24 июн 20 13:12
Все русскоговорящие деятели, подвязавшиеся на поприще ИИ, ничего не понимают в ИИ. Без исключений.
Я единственный кто понимает что такое ИИ и как его делать.
[Ответ][Цитата]
 Стр.6 (7)1  2  3  4  5  [6]  7<< < Пред. | След. > >>