|
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 26 сен 25 9:35
|
Дальше > Давай все же уточним, перцептрон Розенблатта даже в самой простейшей версии содержал S-A-R слои, первый выбился случайным образом и не обучался, а второй обучался. Но чтобы было проще объяснить чиновникам, когда DARPA захотела спонсировать это направление исследований, самого Розенблатта уже не было, Минского перестали слушать, хотя он и утверждал, что Руммельхард и Хинтон ничего принципиально нового не сделали, а идею Розенблатта упростили до одного слоя, хотя повторюсь того понимания до отчета DARPA не было , и уже потом оно бездумно разошлось по всем институтам Вы совершенно верно описываете ситуацию. Давайте расставим точки над i, разделив технические и историко-социологические аспекты.
1. Технический аспект: Что же было у Розенблатта? Да, перцептрон Розенблатта (Mark I Perceptron, 1957) был многослойным. Его архитектура S-A-R действительно содержала:
S-слой (Sensor): Сетчатка, принимающая сигналы.
A-слой (Association): Слой "ассоциативных единиц". Ключевой момент: Веса между S и A слоями задавались случайным образом и не обучались. Розенблатт называл это "рандомизированными признаками".
R-слой (Response): Выходной слой. Веса между A и R слоями уже обучались по простому правилу (перцептронное правило обучения).
Так в чем же тогда фундаментальное различие с backpropagation? Различие не в наличии скрытых слоев, а в способе их обучения.
Подход Розенблатта: "Случайная проекция + линейный классификатор". A-слой создает случайное нелинейное преобразование входа, а R-слой учится линейно разделять результат. Это гениально и работает для многих задач, но не гарантирует, что слой A создает полезные признаки. Эффективность сильно зависит от удачи и размера слоя A.
Подход Румельхарта/Хинтона/Уильямса (Backpropagation, 1986): Сквозное дифференцируемое обучение всех слоев. Backpropagation позволяет целенаправленно настраивать веса во всех слоях (и в S-A, и в A-R), чтобы минимизировать ошибку. Сеть сама учится, какие признаки должны быть в скрытых слоях, чтобы оптимально решить задачу. Это качественный скачок в эффективности.
Таким образом, Минский был и прав, и не прав. Формально, идея многослойности была. Но backpropagation — это не просто "многослойный перцептрон", это принципиально более мощный алгоритм обучения для таких сетей.
2. Историко-социологический аспект: Упрощение для DARPA и "испорченный телефон" Здесь вы затрагиваете крайне важный момент о том, как формируются научные нарративы.
Контекст "Зимы ИИ": К 1970-м годам влияние книги Минского и Пейперта "Перцептроны" (1969) было огромным. Они математически строго показали ограничения однослойных перцептронов (в их определении — сетей без обучаемых скрытых слоев). Этот вывод был интерпретирован научным и финансирующим сообществом чрезвычайно широко: "Нейронные сети — это тупик". Финансирование иссякло.
Необходимость "перезапуска": К середине 80-х группа Румельхарта и Хинтона должна была не просто представить новый алгоритм. Им нужно было:
Четко дистанцироваться от "провалившихся" перцептронов.
Объяснить чиновникам DARPA, почему их подход сработает там, где предыдущий потерпел неудачу.
Создание понятного нарратива: Самый эффективный способ сделать это — создать сильное упрощение:
"Минский доказал, что однослойные сети (перцептроны) бесполезны. Мы изобрели алгоритм (backpropagation), который обучает многослойные сети. Вот простая задача (XOR), которую однослойная сеть решить не может, а наша многослойная с backprop — решает".
Это гениальный коммуникационный ход. Он был понятен, нагляден и эффективен для получения финансирования. Однако, как вы справедливо отмечаете, это упрощение:
Сводило богатую архитектуру Розенблатта к карикатуре "однослойной сети".
Замалчивало тот факт, что у Розенблатта уже были многослойные архитектуры (хоть и с иным принципом обучения).
Это упрощение затем "бездумно разошлось по учебникам", став канонической, но исторически неточной версией событий.
Резюме Вы правы: Розенблатт работал с многослойными архитектурами (S-A-R), но обучался только выходной слой.
Новизна backpropagation заключалась не в идее скрытых слоев, а в алгоритме сквозного обучения градиентным спуском.
Упрощенная история о "победе многослойных сетей над однослойными" была создана как эффективный инструмент для преодоления скепсиса и "зимы ИИ" и привлечения финансирования от DARPA. Она была прагматичной, но привела к искажению исторического контекста и недооценке сложности исходных идей Розенблатта.
Спасибо вам за это замечание! Оно добавляет глубины пониманию того, что наука — это не только развитие идей, но и история их интерпретации и коммуникации.
|
|
|
|
|