GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.3 (9)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Три нетривиальных сценария
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 06 авг 25 15:53
Цитата:
Автор: Это Эгг))


Декодер, разумеется, какие здесь могут быть другие варианты. Просто я его называю бустингом по нескольким причинам, одна из которых как раз в фундаментальном характере такой архитектуры


продолжайте, так как это явно не стандартное употребление термина.
какая именно фунд.характеристика подразумевается?
[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 06 авг 25 16:00
Изменено: 06 авг 25 16:05
Цитата:
Автор: daner
продолжайте, так как это явно не стандартное употребление термина.
какая именно фунд.характеристика подразумевается?

Мы же не техническое интервью проходим и не статью в журнал пишем, да и не про ML говорим))). В расслабленной беседе можно позволить себе немножко полемического задора)

Я говорил не о характеристике, а характере, разница между ними (на мой скромный вкус) примерно такая же как разница между метрикой и мерой . Редукция-бустинг -- это фундаментальная вещь, важнейший механизм управления сложностью. Одного упрощения мало, потому что модель должна быть ДОСТАТОЧНОЙ и эта достаточность определяется задачей, а не какими-то абстракцией или логикой.
[Ответ][Цитата]
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 06 авг 25 18:20
Цитата:
Автор: Это Эгг))


Мы же не техническое интервью проходим и не статью в журнал пишем, да и не про ML говорим))). В расслабленной беседе можно позволить себе немножко полемического задора)

Я говорил не о характеристике, а характере, разница между ними (на мой скромный вкус) примерно такая же как разница между метрикой и мерой . Редукция-бустинг -- это фундаментальная вещь, важнейший механизм управления сложностью. Одного упрощения мало, потому что модель должна быть ДОСТАТОЧНОЙ и эта достаточность определяется задачей, а не какими-то абстракцией или логикой.


Я спрашиваю не потому, что мы на собеседовании, а потому что невозможно рассуждать об одном и том же, если мы используем разные термины.

Честно говоря, я до сих пор не понимаю, почему вы называете декодер "бустингом". Но готов принять условность, что под "бустингом" вы подразумеваете нечто обратное редукции — я правильно понял?

Полностью согласен с тем, что достаточность определяется задачей, а не является некой автономной характеристикой модели. Именно поэтому, на мой взгляд, важно учитывать не только редукцию и "бустинг" (в вашем смысле), но и другие механизмы, без которых модель не сможет решить поставленную перед ней задачу.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 06 авг 25 19:48
Изменено: 06 авг 25 19:50
Цитата:
Автор: daner
Честно говоря, я до сих пор не понимаю, почему вы называете декодер "бустингом". Но готов принять условность, что под "бустингом" вы подразумеваете нечто обратное редукции — я правильно понял?

Полностью согласен с тем, что достаточность определяется задачей, а не является некой автономной характеристикой модели. Именно поэтому, на мой взгляд, важно учитывать не только редукцию и "бустинг" (в вашем смысле), но и другие механизмы, без которых модель не сможет решить поставленную перед ней задачу.

Много лет назад на айкоме мы обсуждали эту тему именно в такой терминологии "редукция/бустинг", у меня осталась привычка просто)) Если сильно упрощать, то - да - можно считать бустинг обратным редукции, этаким "повышателем", если Вам не нравится термин и коннотация с ML сильно мешает - предложите любой другой.

Да, согласен, всё упирается в модель, а модель используется в деятельности, в решении задач. Поэтому сначала задача, потом требования к ней, потом разработка модели, потом совокупность решения в рамках контекстов и feedback'и. Каждый такой переход - это "отображение". Задача - это "отображение" текущего состояния на целевое. Требования - это "отображение" качества решения на пространство условий, методов и инструментов. И так далее. Почему "модуль" редукции/"бустинга" является важнейшим. По банальной причине, все эти построения существуют в некоторых знаковых системах, где code - это тексты, encoder - это пространство внешнего мира, decoder - пространство понятий и смыслов. Autoencoder - это базовый семиотический элемент

[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1913
На: Три нетривиальных сценария
Добавлено: 06 авг 25 20:07
Цитата:
Автор: daner
вы прикалываетесь?
это как отрицательный рост?

Нет. I=-dН/dt, если неопределённость постоянна во времени интеллект равен нулю, если она уменьшается, интеллект отличен от нуля и положителен, если неопределённость растёт он отличен от нуля и отрицателен.
[Ответ][Цитата]
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 06 авг 25 22:10
Цитата:
Автор: Это Эгг))
Много лет назад на айкоме мы обсуждали эту тему именно в такой терминологии "редукция/бустинг", у меня осталась привычка просто)) Если сильно упрощать, то - да - можно считать бустинг обратным редукции, этаким "повышателем", если Вам не нравится термин и коннотация с ML сильно мешает - предложите любой другой.



На мой взгляд, лучше использовать термин «восстановление», а не «бустинг» — он точнее отражает суть. Но это не принципиально, поскольку мы уже выяснили, что именно вы под этим подразумеваете.



Цитата:
Автор: Это Эгг))
Да, согласен, всё упирается в модель, а модель используется в деятельности, в решении задач. Поэтому сначала задача, потом требования к ней, потом разработка модели, потом совокупность решения в рамках контекстов и feedback'и. Каждый такой переход - это "отображение". Задача - это "отображение" текущего состояния на целевое. Требования - это "отображение" качества решения на пространство условий, методов и инструментов. И так далее.


С этим полностью согласен.



Цитата:
Автор: Это Эгг))
Почему "модуль" редукции/"бустинга" является важнейшим. По банальной причине, все эти построения существуют в некоторых знаковых системах, где code - это тексты, encoder - это пространство внешнего мира, decoder - пространство понятий и смыслов. Autoencoder - это базовый семиотический элемент


С этим я не совсем согласен.
Не то чтобы я вообще отвергал идею — в целом, я, кажется, понимаю, что вы хотите сказать.

Но я не вижу в декодере «пространства смыслов».
На мой взгляд, к пространству смыслов ближе эмбеддинг — это и есть код. Именно энкодер преобразует внешний сигнал в латентное пространство и «раскладывает» раздражитель по полочкам.
А декодер просто восстанавливает внешний раздражитель на основе внутреннего представления.

Да, действительно, для внешнего наблюдателя результат восстановления может быть более наглядным — по нему проще судить, что модель «поняла». Но это уже не само понимание, а лишь его отражение.

Кроме того, я не совсем понимаю, почему вы называете автокодер «базовым элементом».
Во многих современных архитектурах он вообще не используется целиком — только энкодерная часть, для получения латентных представлений. Например, в GPT декодера автокодера нет вовсе.



[Ответ][Цитата]
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 06 авг 25 22:17
Цитата:
Автор: гость 31.211.0.*
Нет. I=-dН/dt, если неопределённость постоянна во времени интеллект равен нулю, если она уменьшается, интеллект отличен от нуля и положителен, если неопределённость растёт он отличен от нуля и отрицателен.


Возьмём, к примеру, стабилизатор изображения. Он явно уменьшает неопределённость входного сигнала, так как переводит его в стабильное и предсказуемое (для каждого условного пикселя) состояние.

Или, скажем, биткорректирующие коды в канале связи — здесь всё совсем просто. Их единственная цель как раз и заключается в снижении энтропии, то есть уменьшении неопределённости.

[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 07 авг 25 4:49
Изменено: 07 авг 25 5:40
Цитата:
Автор: daner
Кроме того, я не совсем понимаю, почему вы называете автокодер «базовым элементом».
Во многих современных архитектурах он вообще не используется целиком — только энкодерная часть, для получения латентных представлений. Например, в GPT декодера автокодера нет вовсе.

Я не называл автокодер базовым элементом интеллекта, я привел его в качестве реального и хорошо работающего примера. И я вообще не говорю про текущие реализации ML/LLM. Я говорю о моделировании. Генерация и обработка сгенерированных моделей. То, что ML/LLM делают либо очень плохо, либо не делают совсем. Мне очень понравилась ваша с ув. гость 31.211.0.* беседа и я позволил себе маленькое замечание о том, как (на мой скромный вкус) устроен базовый когнитивный элемент ("редукция/бустинг") той самой "интеллектуальности", о которой вы оба пытаетесь говорить.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 07 авг 25 5:47
Изменено: 07 авг 25 5:50
Цитата:
Автор: гость 31.211.0.*
I=-dН/dt, если неопределённость постоянна во времени интеллект равен нулю, если она уменьшается, интеллект отличен от нуля и положителен, если неопределённость растёт он отличен от нуля и отрицателен.

Есть еще один любопытный образ того, о чем Вы говорите. Это суперпозиция и коллапс волновой функции. В мире вычислений им будет соответствовать NPC и марковские процессы. То же, надо сказать, очень содержательное "направление" размышлений и ассоциаций. Особенно второе, потому что с первым вообще непонятно что делать, кроме брутфорса)))
[Ответ][Цитата]
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 07 авг 25 8:33
Цитата:
Автор: Это Эгг))
Я не называл автокодер базовым элементом интеллекта


Цитата:
Автор: Это Эгг))
как (на мой скромный вкус) устроен базовый когнитивный элемент ("редукция/бустинг")


между "элемент интеллекта" и "когнитивный элемент" есть разница?
[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 07 авг 25 8:38
Изменено: 07 авг 25 8:51
Почитайте внимательно, я перед этим сказал, что использую автокодер в качестве примера, а говорить я начал про редукцию/бустинг. В Вашей цитате в скобках об этом ЯВНО указано. Вы не должны сердиться на меня за то, что Вам понятны только конструкции из коледжевского учебника по машинному обучению))) Лично я не вижу смысла что-то обсуждать на реферативном уровне)) Как справедливо заметил ув. Дм. Стволовой — для справок сейчас есть LLM, они делают их виртузно
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1913
На: Три нетривиальных сценария
Добавлено: 07 авг 25 8:45
Цитата:
Автор: daner



Возьмём, к примеру, стабилизатор изображения. Он явно уменьшает неопределённость входного сигнала, так как переводит его в стабильное и предсказуемое (для каждого условного пикселя) состояние.

Или, скажем, биткорректирующие коды в канале связи — здесь всё совсем просто. Их единственная цель как раз и заключается в снижении энтропии, то есть уменьшении неопределённости.



Начнём со второго утверждения, как совершенно очевидно не верного. Идея корректирующего кодирования следует из теоремы Шеннона о помехоустойчивом приеме дискретного зашумлённого сигнала. Суть идеи в том, что для обнаружения и исправления ошибок в сообщение вводится избыточные данных жёстко функционально связанные с передаваемым сообщением. Эти данные радикально увеличивает так называемое кодовое расстояние. Это происходит на передающей стороне. На приёмной стороне знание этой функциональной зависимости позволяет обнаружить ошибки некоторой кратности и часть из них исправить. Ясно что никакая неопределённость при этом не уменьшается и не увеличивается, т.к. все манипуляции детерминированы. Введение избыточности можно рассматривать, как введения в сигнал искусственного "смысла", а так как этот смысл детерминирован никакая неопределённость не редуцируется.
О редукции неопределённости стабилизатором чего угодно говорить не приходится- чистейший жёсткий детерминизм.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13161
На: Три нетривиальных сценария
Добавлено: 07 авг 25 10:19
Цитата:
Автор: гость
вот что claude.ai вам отвечает:
А теперь представьте что я скажу вам главную фишку. Настоящий интеллект работает наоборот! Он не столько сжимает информацию, сколько разжимает реальность из крошечных кусочков опыта.

Мне очень понравился Ваш комментарий, я даже не уверен, что его написал Клод. Предлагаю Вам авторизоваться, взять ник (это ни чем не отличается от гостя) и мы сможем поговорить о главном)))

Именно так бустинг и работает - разжимает реальность [тут важное дополнение: в структуру классов] из крошечных кусочков опыта, которые он редуцирует до текста (кода).
[Ответ][Цитата]
daner
Сообщений: 4633
На: Три нетривиальных сценария
Добавлено: 07 авг 25 10:32
Цитата:
Автор: Это Эгг))

Почитайте внимательно, я перед этим сказал, что использую автокодер в качестве примера, а говорить я начал про редукцию/бустинг. В Вашей цитате в скобках об этом ЯВНО указано. Вы не должны сердиться на меня за то, что Вам понятны только конструкции из коледжевского учебника по машинному обучению))) Лично я не вижу смысла что-то обсуждать на реферативном уровне)) Как справедливо заметил ув. Дм. Стволовой — для справок сейчас есть LLM, они делают их виртузно



Удивительный вы человек. Вроде бы не глупый, но общаться совершенно не умеете.
Вы вообще способны вести техническое обсуждение без перехода на личности? Если нет — предлагаю вернуться к прежнему формату общения (т.е. НЕ общения), я не обижусь.

Я не понимаю вас не потому, что мне "понятны только конструкции из учебников", а потому что вы используете термины слишком вольно. Тем не менее, я стараюсь подстроиться и уловить вашу логику.

Итак, из ваших слов я понимаю следующее:
по вашему мнению, редукция/бустинг — это базовый элемент интеллекта, а автокодер — просто один из примеров реализации этого механизма. Правильно?

1. Это единственный и достаточный элемент, или вы видите другие?
2. Какие ещё, кроме автокодера, примеры редукции/бустинга вы можете привести?
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1913
На: Три нетривиальных сценария
Добавлено: 07 авг 25 10:32
Цитата:
Автор: Это Эгг))


Есть еще один любопытный образ того, о чем Вы говорите. Это суперпозиция и коллапс волновой функции. В мире вычислений им будет соответствовать NPC и марковские процессы. То же, надо сказать, очень содержательное "направление" размышлений и ассоциаций. Особенно второе, потому что с первым вообще непонятно что делать, кроме брутфорса)))


Наверное понятно , что текст сообщения о трёх гипотезах это игра в футурологию. Цель продемонстрировать предсказательную силу простого с виду уравнения I=-dН/dt.
Существуют более детализированные и, на мой взгляд, более достоверные модели. Многое высказано, как предположения, не уверен в возможности редуцирования неопределённостей квантовой природы, но общий принцип противостояния интеллекта неопределённости не исключает такой возможности.
[Ответ][Цитата]
 Стр.3 (9)1  2  [3]  4  5  6  7  ...  9<< < Пред. | След. > >>