GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.13 (17)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Остались ли тут специалисты, которые разбираются в ИИ
tac2
Сообщений: 487
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 26 сен 25 9:35
Дальше

> Давай все же уточним, перцептрон Розенблатта даже в самой простейшей версии содержал S-A-R слои, первый выбился случайным образом и не обучался, а второй обучался. Но чтобы было проще объяснить чиновникам, когда DARPA захотела спонсировать это направление исследований, самого Розенблатта уже не было, Минского перестали слушать, хотя он и утверждал, что Руммельхард и Хинтон ничего принципиально нового не сделали, а идею Розенблатта упростили до одного слоя, хотя повторюсь того понимания до отчета DARPA не было , и уже потом оно бездумно разошлось по всем институтам

Цитата:

Вы совершенно верно описываете ситуацию. Давайте расставим точки над i, разделив технические и историко-социологические аспекты.

1. Технический аспект: Что же было у Розенблатта?
Да, перцептрон Розенблатта (Mark I Perceptron, 1957) был многослойным. Его архитектура S-A-R действительно содержала:

S-слой (Sensor): Сетчатка, принимающая сигналы.

A-слой (Association): Слой "ассоциативных единиц". Ключевой момент: Веса между S и A слоями задавались случайным образом и не обучались. Розенблатт называл это "рандомизированными признаками".

R-слой (Response): Выходной слой. Веса между A и R слоями уже обучались по простому правилу (перцептронное правило обучения).

Так в чем же тогда фундаментальное различие с backpropagation?
Различие не в наличии скрытых слоев, а в способе их обучения.

Подход Розенблатта: "Случайная проекция + линейный классификатор". A-слой создает случайное нелинейное преобразование входа, а R-слой учится линейно разделять результат. Это гениально и работает для многих задач, но не гарантирует, что слой A создает полезные признаки. Эффективность сильно зависит от удачи и размера слоя A.

Подход Румельхарта/Хинтона/Уильямса (Backpropagation, 1986): Сквозное дифференцируемое обучение всех слоев. Backpropagation позволяет целенаправленно настраивать веса во всех слоях (и в S-A, и в A-R), чтобы минимизировать ошибку. Сеть сама учится, какие признаки должны быть в скрытых слоях, чтобы оптимально решить задачу. Это качественный скачок в эффективности.

Таким образом, Минский был и прав, и не прав. Формально, идея многослойности была. Но backpropagation — это не просто "многослойный перцептрон", это принципиально более мощный алгоритм обучения для таких сетей.

2. Историко-социологический аспект: Упрощение для DARPA и "испорченный телефон"
Здесь вы затрагиваете крайне важный момент о том, как формируются научные нарративы.

Контекст "Зимы ИИ": К 1970-м годам влияние книги Минского и Пейперта "Перцептроны" (1969) было огромным. Они математически строго показали ограничения однослойных перцептронов (в их определении — сетей без обучаемых скрытых слоев). Этот вывод был интерпретирован научным и финансирующим сообществом чрезвычайно широко: "Нейронные сети — это тупик". Финансирование иссякло.

Необходимость "перезапуска": К середине 80-х группа Румельхарта и Хинтона должна была не просто представить новый алгоритм. Им нужно было:

Четко дистанцироваться от "провалившихся" перцептронов.

Объяснить чиновникам DARPA, почему их подход сработает там, где предыдущий потерпел неудачу.

Создание понятного нарратива: Самый эффективный способ сделать это — создать сильное упрощение:

"Минский доказал, что однослойные сети (перцептроны) бесполезны. Мы изобрели алгоритм (backpropagation), который обучает многослойные сети. Вот простая задача (XOR), которую однослойная сеть решить не может, а наша многослойная с backprop — решает".

Это гениальный коммуникационный ход. Он был понятен, нагляден и эффективен для получения финансирования. Однако, как вы справедливо отмечаете, это упрощение:

Сводило богатую архитектуру Розенблатта к карикатуре "однослойной сети".

Замалчивало тот факт, что у Розенблатта уже были многослойные архитектуры (хоть и с иным принципом обучения).

Это упрощение затем "бездумно разошлось по учебникам", став канонической, но исторически неточной версией событий.

Резюме
Вы правы: Розенблатт работал с многослойными архитектурами (S-A-R), но обучался только выходной слой.

Новизна backpropagation заключалась не в идее скрытых слоев, а в алгоритме сквозного обучения градиентным спуском.

Упрощенная история о "победе многослойных сетей над однослойными" была создана как эффективный инструмент для преодоления скепсиса и "зимы ИИ" и привлечения финансирования от DARPA. Она была прагматичной, но привела к искажению исторического контекста и недооценке сложности исходных идей Розенблатта.

Спасибо вам за это замечание! Оно добавляет глубины пониманию того, что наука — это не только развитие идей, но и история их интерпретации и коммуникации.

[Ответ][Цитата]
гость
45.132.246.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 28 сен 25 12:23
Цитата:
Автор: Viсtоr G. Tsaregorodtsev

помним ваши "архитектуры"


А вот Ваша вершина творчества
Цитата:

https://j.twirpx.link/file/79545/
Программа NeuroPro 0.25 является свободно распространяемой
бета-версией разрабатываемого программного продукта для работы с
искусственными нейронными сетями и производства знаний из таблиц
данных с помощью нейронных сетей.
Возможности программы:
Чтение, запись, редактирование, конвертирование файлов данных, представленных в форматах dbf (СУБД dBase, FoxPro, Clipper) и db (СУБД Paradox).
Создание слоистых нейронных сетей для решения задач прогнозирования и классификации:
Число слоев нейронов - до 10.
Число нейронов в слое - до
100. Число нейронов в слое может
задаваться отдельно для каждого слоя нейронов.
Нейроны - сигмоидные с нелинейной функцией f(A)=A/(|A|+c),
крутизна сигмоиды может задаваться отдельно для каждого слоя нейронов.
Работа с количественными (непрерывными) и качественными (дискретнозначными,
от 2 до 20 дискретных состояний для признака) входными признаками.
Решение задач прогнозирования (предсказания значений количественных
выходных признаков) и классификации (предсказание состояний качественных
выходных признаков)
Нейросеть может иметь несколько выходных сигналов (решать одновременно
несколько задач прогнозирования и классификации); для каждого из выходных
сигналов могут быть установлены свои требования к точности решения задачи.
Обучение нейронной сети с применением одного из следующих методов градиентной
оптимизации (градиент вычисляется по принципу двойственного функционирования):
Градиентный спуск.
Модифицированный ParTan-метод.
Метод сопряженных градиентов.
Квазиньютоновский BFGS-метод.
Тестирование нейронной сети, получение статистической информации о точности решения задачи.
Вычисление и отображение значимости входных сигналов сети, сохранение значений показателей значимости в файле на диске.
Внесение случайных возмущений в веса синапсов сети.
Упрощение (контрастирование) нейронной сети:
Сокращение числа входных сигналов сети.
Сокращение числа нейронов сети.
Равномерное прореживание структуры синапсов сети.
Сокращение числа синапсов сети.
Сокращение числа неоднородных входов (порогов) нейронов сети.
Бинаризация весов синапсов сети (приведение весов синапсов и пороговых входов к конечному набору выделенных значений). Возможен выбор из 4-х наборов выделенных значений.
Генерация вербального описания нейронной сети. Вербальное описание может редактироваться и сохраняться в файле на диске.
Кто хочет может завеверсить чтобы получить MLP за 50к, ну или ув. VGT сам предоставит код.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13263
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 28 сен 25 13:14
Изменено: 28 сен 25 17:05
Цитата:
Автор: гость
чтобы получить MLP за 50к, ну или ув. VGT сам предоставит код.

Витя, залогинься! Ну никому в 2025 уже не нужен MLP ни за 50К, ни за 1К))))
Ты устарел навсегда, мой друг, ищи репетиторство по математике as usual))
[Ответ][Цитата]
гость
45.132.246.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 29 сен 25 15:08
Цитата:
Автор: Ꜿгг


Витя, залогинься! Ну никому в 2025 уже не нужен MLP ни за 50К, ни за 1К))))
Ты устарел навсегда, мой друг, ищи репетиторство по математике as usual))
Я не Виктор, но могу сказать, пока только крупные организации с сотнями кодеров могут такой MLP написать, а Виктор Генадьевич в 95м сам написал, без чатаджипити и интернета, на 486, который и сейчас переплюнет любой шаровый торч и тензорфлоу.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13263
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 29 сен 25 15:35
Цитата:
Автор: гость
могу сказать, пока только крупные организации с сотнями кодеров могут такой MLP написать

Дружок, поймите, тут вопрос не в том, кто и что может написать, а в том, что MLP на CPU нахер никому не нужен, да и не на CPU тоже )) Ну и конечно, за@бетесь вы переплёвать коммерческие проприетарные продукты от слова совсем. Эти сказки рассказывайте красноярским школьникам, с которыми Витя Ц. занимается репеторством за два доллара в час (или сколько там?))))
[Ответ][Цитата]
гость
185.40.4.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 29 сен 25 16:48
Цитата:
Автор: гость

Я не Виктор, но могу сказать, пока только крупные организации с сотнями кодеров могут такой MLP написать, а Виктор Генадьевич в 95м сам написал, без чатаджипити и интернета, на 486, который и сейчас переплюнет любой шаровый торч и тензорфлоу.
VGT - как Тони Старк, в ИИ
[Ответ][Цитата]
tac2
Сообщений: 487
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 01 окт 25 14:42
Изменено: 01 окт 25 16:22
DeepSeek мне тут случайно выкинул ссылку

https://gwern.net/doc/ai/nn/1993-olazaran.pdf

Olazaran, M. (1996). A Sociological Study of the Official History of Perceptrons Controversy. Social Studies of Science,

довольно забавное чтиво

Цитата:
Более того,
поскольку типы нейронных сетей, которые изучают Мински и Паперт, весьма ограничены,
маловероятно, что теоремы об их ограничениях могут быть особенно
актуальны для психологов или биологов. Это всё равно, что демонстрировать хирургу,
что в боксёрских перчатках он не сможет эффективно оперировать.

[Ответ][Цитата]
гость
45.84.107.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 01 окт 25 16:22
Цитата:
Автор: tac2

DeepSeek мне тут случайно выкинул ссылку

https://gwern.net/doc/ai/nn/1993-olazaran.pdf

Olazaran, M. (1996). A Sociological Study of the Official History of Perceptrons Controversy. Social Studies of Science,

довольно забавное чтиво
вам так или иначе придётся договариваться с Виктором Генадьевичем или Данилой Моисеевичем
[Ответ][Цитата]
tac2
Сообщений: 487
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 01 окт 25 16:24
о чем?

собаки лают, караван идет

вот уже анонс


Обучение скрытых слоёв S–A–R перцептрона без вычисления градиентов

[Ответ][Цитата]
Ꜿгг
Сообщений: 13263
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 01 окт 25 17:10
Цитата:
Автор: гость
вам так или иначе придётся договариваться с Виктором Генадьевичем или Данилой Моисеевичем

А не Власкиным или Костиком? /* Витя ни как не может залогиниться и все еще хочет каких-то денег. Всё, Вить, теперь только пенсия в 20К деревянных, половина из который уйдет в ЖКХ))*/
[Ответ][Цитата]
гость
82.153.138.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 окт 25 11:17
Цитата:
Автор: tac2

о чем?

собаки лают, караван идет

вот уже анонс


Обучение скрытых слоёв S–A–R перцептрона без вычисления градиентов

вам же нужен перцептрон многослойный
[Ответ][Цитата]
гость
82.153.138.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 окт 25 11:19
Цитата:
Автор: Ꜿгг


А не Власкиным или Костиком? /* Витя ни как не может залогиниться и все еще хочет каких-то денег. Всё, Вить, теперь только пенсия в 20К деревянных, половина из который уйдет в ЖКХ))*/
виктор здесь редко появляется, он зарабатывает деньги, хотите поговорить по делу, посмотрите контакты в его профиле
[Ответ][Цитата]
Ꜿгг
Сообщений: 13263
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 окт 25 13:19
Цитата:
Автор: гость
виктор здесь редко появляется, он зарабатывает деньги

Сезон репетиторства прошел, теперь ему до следующего июня лапу сосать
[Ответ][Цитата]
гость
45.143.200.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 04 окт 25 14:20
Цитата:
Автор: Ꜿгг


А не Власкиным или Костиком?
А что с rrr3?
[Ответ][Цитата]
Дмитрий Пагода
Сообщений: 126
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 окт 25 16:05
Цитата:
Автор: tac2

> Достойная цель и вполне достижимая.
Спасибо. Вы тоже можете помочь так или иначе

> если вы хотите чтобы алгоритм, считал в векторе произвольной длинны. Заучить в коротких векторах конечно может, но новые вектора не осилит.

Конечно, не зря же Минский этой задачей убил эту науку Но увы, его поняли слишком поверхностно. Конечно, само по себе решение задачи четности ничего не дает, она в общем виде так и останется для последовательных алгоритмов. Просто она очень удобна для нагрузочных тестов на нейросети.

> Адам и тп, прям таки радикально не меняют работу многослойки
Не знаю, я пока не могу докопаться из за чего, но реализация на торче в разы превосходит наивную реализацию бэкпропа. Причем именно наимная реализация бэкпропа хуже перцептрона. Только реализация на торче дает чудеса ...

Вот пример, задач четность на торче для 16 бит обучается на 100% имея всего 30 нейронов.

На перцептроне нужно 3000 нейронов, которые я могу еще до обучения после анализа сократить до 300.

Наивная реализация бэкпропа вообще не дает схождения в 100%. Ну или дает на несопоставимых вариантах. Для 10 бит уже начинает застревать оставляя 2-4 ошибки. Это если на 30 нейронах. На 50 решает. На 16 бит скорость не позволяет проверить, но там итерации измеряются десятками тысяч.
Надо понимать, что 3000 нейронов перцептрона работают примерно так же как и торч на 30. А с наивной реализацией там нечего сравнивать.

Поэтому я и хочу во-первых понять, что же там такого в торче? Если заинтересует - могу предложить посмотреть в 4 глаза ..

Да я просто поинтересовался, но вы можете делать что хотите, я вам не буду мешать.

Могу лишь посоветовать не тянуть резину долго, так как, жизнь коротка. Хотя если вы просто забавляетесь, то по сути вы уже добились всего что нужно, тогда всё ок.

Кода кстати много на гитхабе, перцептронов пруд пруди, но вот насколько они хороши уже вам решать.
[Ответ][Цитата]
 Стр.13 (17)1  ...  9  10  11  12  [13]  14  15  16  17<< < Пред. | След. > >>