GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.15 (15)<< < Пред.   Поиск:  
 Автор Тема: На: Диалог DEEPSEEK на тему определения интеллекта.
гость 31.211.0.*
Сообщений: 1965
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 29 дек 25 11:36
Изменено: 29 дек 25 12:18
Ненавижу писать.
LLM как редукция неопределенности. Процесс генерации текста LLM можно интерпретировать именно через эту призму: Неопределенность (Энтропия H): Когда вы начинаете писать или задаете вопрос, существует огромное количество возможных следующих слов (токенов), которые могут последовать. Это и есть высокая энтропия или неопределенность. Целесообразное действие (Выбор следующего токена): Задача модели — выбрать следующий токен, который будет наиболее уместным, логичным и полезным в контексте всего предыдущего диалога или запроса. Это "целесообразное действие" в рамках задачи генерации связного текста. Редукция неопределенности: Модель использует все свои обученные знания (миллиарды параметров), чтобы просчитать вероятности и "отбросить" маловероятные или бессмысленные варианты, выбирая единственный, наиболее подходящий токен. Каждый раз, когда модель выдает следующее слово, она производит акт "интеллектуальности" в вашем определении — она снижает неопределённость доступных вариантов и делает выбор.
Автор текста LLM от Coogle.



[Ответ][Цитата]
гость
104.244.73.*
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 31 дек 25 9:41
Цитата:
Автор: гость 31.211.0.*

Ненавижу писать.
LLM как редукция неопределенности. Процесс генерации текста LLM можно интерпретировать именно через эту призму: Неопределенность (Энтропия H): Когда вы начинаете писать или задаете вопрос, существует огромное количество возможных следующих слов (токенов), которые могут последовать. Это и есть высокая энтропия или неопределенность. Целесообразное действие (Выбор следующего токена): Задача модели — выбрать следующий токен, который будет наиболее уместным, логичным и полезным в контексте всего предыдущего диалога или запроса. Это "целесообразное действие" в рамках задачи генерации связного текста. Редукция неопределенности: Модель использует все свои обученные знания (миллиарды параметров), чтобы просчитать вероятности и "отбросить" маловероятные или бессмысленные варианты, выбирая единственный, наиболее подходящий токен. Каждый раз, когда модель выдает следующее слово, она производит акт "интеллектуальности" в вашем определении — она снижает неопределённость доступных вариантов и делает выбор.
Автор текста LLM от Coogle.



я лично набухался уже, это новый год, хотя бухать можно хоть каждый день, в конце концов жизнь одна, те кто откладывают и отклыдывают, потом жалеют

вот я пьяный! это и есть цель, суть, смысл!
[Ответ][Цитата]
 Стр.15 (15)1  ...  11  12  13  14  [15]<< < Пред.