Автор: гость 31.211.0.*
Ненавижу писать. LLM как редукция неопределенности. Процесс генерации текста LLM можно интерпретировать именно через эту призму: Неопределенность (Энтропия H): Когда вы начинаете писать или задаете вопрос, существует огромное количество возможных следующих слов (токенов), которые могут последовать. Это и есть высокая энтропия или неопределенность. Целесообразное действие (Выбор следующего токена): Задача модели — выбрать следующий токен, который будет наиболее уместным, логичным и полезным в контексте всего предыдущего диалога или запроса. Это "целесообразное действие" в рамках задачи генерации связного текста. Редукция неопределенности: Модель использует все свои обученные знания (миллиарды параметров), чтобы просчитать вероятности и "отбросить" маловероятные или бессмысленные варианты, выбирая единственный, наиболее подходящий токен. Каждый раз, когда модель выдает следующее слово, она производит акт "интеллектуальности" в вашем определении — она снижает неопределённость доступных вариантов и делает выбор. Автор текста LLM от Coogle.
|
|
я лично набухался уже, это новый год, хотя бухать можно хоть каждый день, в конце концов жизнь одна, те кто откладывают и отклыдывают, потом жалеют
вот я пьяный!
это и есть цель, суть, смысл!