GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.15 (15)<< < Пред.   Поиск:  
 Автор Тема: На: Хозяин пришёл.
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 18 май 24 14:53
Чтобы определить фразы в предложении "Иван и Марфа весело смеются, она любит это" и назначить им веса, нужно учитывать, что OpenAI GPT не выдает явно веса фраз в виде числовых значений напрямую пользователю. Однако, модель использует скрытые представления и механизмы внимания для определения важности каждой части предложения в контексте. Я могу показать, как можно разделить предложение на фразы и какие фразы могут быть важны, основываясь на типичных паттернах обработки текста.

Разделение на фразы:
Субъектная фраза (Subject Phrase):

"Иван и Марфа"
Обстоятельственная фраза (Adverbial Phrase):

"весело"
Сказуемая фраза (Predicate Phrase):

"смеются"
Придаточная часть (Subordinate Clause):

"она любит это"
Примерный вес фраз в контексте (интуитивно):
"Иван и Марфа" (0.3) - Это основные субъекты, которые выполняют действие.
"весело" (0.2) - Обстоятельство, описывающее как субъекты выполняют действие.
"смеются" (0.3) - Основное действие, выполняемое субъектами.
"она любит это" (0.2) - Дополнительная информация, относящаяся к действию.

Веса фраз здесь приведены для иллюстрации, основаны на предположениях о типичной важности фраз в подобных контекстах. В реальности, модель рассчитывает точные веса динамически, учитывая всю контекстную информацию.

Важные аспекты:
Механизм внимания: При анализе предложения модель уделяет внимание различным токенам и фразам, определяя их относительную важность для общего понимания.
Контекст: Понимание предложения как целого помогает модели расставить акценты на важных элементах.
Прямо указать точные числовые веса фраз может только сама модель во время выполнения вычислений. В реальной задаче это может быть сделано с помощью интерпретируемых методов анализа, таких как визуализация матриц внимания для конкретного предложения

Сумма весов равна 1…
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 25 май 24 0:43
Изменено: 25 май 24 0:44
Как видите, из ответа Chat GPT, OpenAI использует мою технологию.

Примерный анализ:
Исходное предложение:
«Иван и Марфа весело смеются, она любит это.»

Разбивка на осмысленные фразы:

«Иван и Марфа весело смеются»
«она любит это»
Назначение весов для осмысленных фраз:

«Иван и Марфа весело смеются»:

«Иван и Марфа весело смеются» - основной паттерн (1.0)
Веса внутри фразы могут быть распределены так, чтобы показать вклад каждого слова.
«она любит это»:

«она любит это» - основной паттерн (1.0)
Веса могут показывать, что «она» относится к «Марфе» на основе контекста.
Детализированный разбор (осмысленные паттерны):

«Иван и Марфа весело смеются»:
«Иван весело смеётся» (0.25)
«Марфа весело смеётся» (0.25)
«Иван и Марфа смеются» (0.5)
«она любит это»:
«она любит смеяться» (0.5)
«Марфа любит смеяться» (0.5)
«она любит это» (0.5)
«Марфа любит это» (0.5)
«это любимо ею» (0.5)
«это любимо Марфой» (0.5)
«смех любим ею» (0.5)
«смех любим Марфой» (0.5)
Итог:
Веса в данном контексте показывают, как разные интерпретации могут быть связаны с исходным предложением. Они указывают на возможные осмысленные фразы и их значимость. Эта технология позволяет модели глубже понимать текст и контекст, что важно для точного анализа и генерации языка

Спросите сами?
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 25 май 24 0:59
Главное это то что многие фразы сконструированы, их нет в изначальном предложении. Их там нет.
Только поэтому ChatGpt в состоянии генерировать осознанную информацию, объединяя различные тексты в один.
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 27 май 24 13:15
Кстати Гугл обделался с поиском на Инете, что говорит об неиспользовании ими того что я не запатентовал. Если OpenAI с Майкрософтом ещё обосрётся, то будет вообще шикардос! Тогда я у них отберу всё что у них есть и что они сумеют взять в долг.

Я запатентовал не всё!
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 28 май 24 6:58
Оп она! Оказывается OpenAI читает форум.

Это новый ответ полученный от них:
Thus, although AI existed even before 2015, it was the combination of available computational resources, large volumes of data, breakthroughs in algorithms and architectures, as well as support from infrastructure and the community that led to the rapid development of AI and its application in various fields.
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 28 май 24 6:59
Врут суки как дышат.
[Ответ][Цитата]
Ilya Geller
Сообщений: 5190
На: Хозяин пришёл.
Добавлено: 28 май 24 7:54
https://www.meta.ai/
You
Does meta parse texts into sets of phrases, rather than separate words?
Meta AI
Yes, Meta AI's natural language processing (NLP) algorithms can parse texts into sets of phrases, rather than just individual words. This is known as phrase-based parsing or constituency parsing.
In phrase-based parsing, the text is broken down into a hierarchical structure of phrases, where each phrase is a group of words that function together as a unit. This allows for a more nuanced understanding of the text's meaning and context, as phrases can convey more meaning than individual words alone.
For example, in the sentence "Ivan and Marfa laugh happily, she loves it.", the phrase-based parsing would identify the following phrases:
"Ivan and Marfa" (noun phrase)
"laugh happily" (verb phrase)
"she loves" (verb phrase)
"it" (noun phrase)
These phrases can then be analyzed further to identify their relationships and dependencies, such as subject-verb-object relationships, modifiers, and coreferences.
Meta AI's NLP algorithms use various techniques, including machine learning and deep learning, to perform phrase-based parsing and extract meaningful phrases from text. This allows for more advanced text analysis and understanding, and enables applications such as text summarization, sentiment analysis, and question answering.
[Ответ][Цитата]
 Стр.15 (15)1  ...  11  12  13  14  [15]<< < Пред.