GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.14 (14)
<<
< Пред.
Поиск:
Автор
Тема: На: ...нам нечего терять кроме Марковских цепей!
гость
31.44.49.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 08 мар 12 19:07
А это не имеет значение.
[
Ответ
][
Цитата
]
Fractaler
Сообщений: 2490
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 09 мар 12 11:52
Цитата:
Автор: Capt.Drew
PS: Помню пил пиво в зале Чайковскогo,
и слушал Органную мессу Баха, одновременно
пиша в мозге - трехмерную рекурсию
B+ ontological semantic дерева (2D)
и входного списка Русских слов предложения (1D)
Дерево? А где его можно посмотреть? Сколько областей знаний оно охватывает?
[
Ответ
][
Цитата
]
гост
Сообщений: 6163
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 27 фев 17 10:50
Изменено: 21 мар 17 17:17
.
[
Ответ
][
Цитата
]
гость
51.15.135.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 27 фев 17 11:49
Цитата:
Автор: ignat99
http://forum.ksri.info/viewtopic.php?pid=10422#p10422
http://forum.ksri.info/viewtopic.php?pid=10424#p10424
Игнат, Вы совсем рехнулись? Рекламу ублюдочных форумов со своим модераторством навязывайте в своей ветке. Никому не интересен Толстой и Ваши с ним отношения, начальник-подчиненный. Но можете записать видео как Толстой Вас унижает, критикует хотябы, комментирует Ваши труды и Вы безропотно соглашаетесь "дааа босс! Это хорошая идея! К утру всё бедет готовово!", это будет интересно, можно будет поржать, позларадствовать.
[
Ответ
][
Цитата
]
гост
Сообщений: 6163
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 27 фев 17 13:46
Изменено: 21 мар 17 17:18
.
[
Ответ
][
Цитата
]
гость
51.15.53.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 27 фев 17 16:01
Не уважаю я их, эти марковские цепи, туповатые они, что наивный баес, намеков не понимают.
[
Ответ
][
Цитата
]
гост
Сообщений: 6163
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 27 фев 17 17:01
Изменено: 21 мар 17 17:17
.
[
Ответ
][
Цитата
]
гость
185.220.102.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 23 мар 21 11:14
Цитата:
Автор: гость
Не уважаю я их, эти марковские цепи, туповатые они, что наивный баес, намеков не понимают.
+100500 достаточно исскуственная штука, на нём СИИ не построить.
[
Ответ
][
Цитата
]
гость
107.189.10.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 09 янв 22 8:16
Цитата:
Автор: Kek
Инженеры, программисты и философы всех направлений объединяйтесь:
нам нечего терять кроме Марковских цепей!
-----------------------------------------------------------------
Манифест строителя сильного ИИ.
-----------------------------------------------------------------
Этот призыв – ответ на зимнее обострение, которое проявилось в темах на форуме GotAi:
• «Коллективный интеллект», автор sine nomine;
• «Создадим профессиональный форум ?», автор tac.
И так, я полагаю, что центром кристаллизации должна быть идея, а не форма, ибо, как сказано в сутре сердца: «Форма – это пустота… пустота – это форма…»
Идея практическая, а не философская, ибо всего должно быть в меру. А на данный момент философского и теоретического предостаточно.
Идей ИИ, как было сказано, у каждого есть, но каждый молчит в тряпочку в надежде быть первооткрывателем. Ну что же. Попробуйте оценить вот это.
И так, сначала практическая идея, потом форма.
Прежде всего, для общего понимания ознакомьтесь с этими статьями:
1. Путь отчаянного кибернетика
2. Дедукция Холмса, или от самого общего к частному
3. Начальные свойства саморазвивающейся системы
4. «Геометрия» живой материи
5. Центральный орган. Свойства и функции
6. Целевая функция
7. Знания и информация
Теперь суть. Я попытаюсь изложить как ТЗ для программиста. Условное название эксперимента: Char-Agent. Весь проект можно назвать KnowTilus, от слова Наутилус. Почему станет ясно в конце.
Для простоты представьте себе Chat-Bot. На входе строка, на выходе строка, а посередине гвоздик… извините это из другой сказки.
Каждое поле: «От собеседника», «К собеседнику» и «CharInBeffer» - это array of byte;
У агента в «гвоздике» есть память, MemData:array of byte. Она пуста, априорной информации нет вообще. «Основа жизни господина ПЖ» - бесконечный цикл:
Procedure Life;
begin
Reaction; // активизируется, если CharInBuffer не пуст.
ReactionIdle; // активизируется, если CharInBuffer пуст.
SuperVision; // Здесь мы пишем логи, потому-что мы боги.
end;
Так как о философии ни слова, то я вам и не скажу, что таким образом реализовано непрерывное взаимодействие агента с внешней средой.
Текстовая информация не интерпретируется как текст со словами, слогами и т.д. Она интерпретируется, как непрерывный поток, элементом которого является Char или байт.
Что делает «Гвоздик»? Он сравнивает поток от собеседника со своей памятью MemData.
Целевая функция «Гвоздика» искать новое.
Первый цикл: В памяти ничего нет и первая сказанная фраза запоминается как есть.
Второй цикл: ReactionIdle…
Третий цикл: ReactionIdle…
… // циклы крутятся быстрее, чем собеседник нажимает на клавиши
Цикл N: Собеседник очнулся и его вторая фраза анализируется на наличие новых букв, запоминаются только они.
Возможна ситуация, когда собеседнику лень нажимать на клавиши и цикл замыкается на ReactionIdle слишком часто. Плохо. Переменная Emotion уменьшается. Когда она достигает порогового значения включается процедура формирования до сих пор молчавшего буфера «К собеседнику». Что там будет? А что в памяти, то и выходит. И попадает, как показано в картинке опять в «CharInBeffer». Самоедство эдакое.
Так как о философии ни слова, то я вам и не скажу, что это обратная связь.
Собеседник увидел абракадабру и ответил типа: «Чего-чего…?!» А это новое и переменная Emotion пошла вверх.
Долго ли коротко шел Иван-Царевич, пардон это другая сказка… Через какое-то время MemData будет представлять из себя таблицу ASCII с пробелами, запятыми, точками и т.д.
Дальше собеседник пишет…а нового не поступает. Ну конечно, если китаец какой-либо не напишет иероглиф.
Нового нет, возбуждение потока «К собеседнику» не приводит к появлению новых букв, что делать?
А так как о философии ни слова, то я вам и не скажу, что надо активизировать фрактальное преобразование, сиречь копирование со смещением, сиречь самоподобие.
Средствами объектно - ориентированного языка, и я здесь на стороне уважаемого tac, Char-Agent[1] перешел в фазу акматическую и «родил» объект Char-Agent[2]. А что сместилось – то? А то, что теперь единым и неделимым элементом потока надо сделать два байта. И всё по новой. Поток от собеседника тот-же, а нового много. На сколько много? А вот здесь гляньте:
Заглавная_страница
Слова_из_2_букв
Слов из двух букв в русском языке 126. (не путать с сочетанием из 32 по 2).
Дальше родился Char-Agent[3]. Больше всего слов в русском языке состоит из 8 букв и Char-Agent[8] будет долго радовать собеседника своими перлами…
Слова_из_8_букв
Но и ему придет конец, захиреет. Что делать дальше? А надо делать свертку всех восьми агентов. Появятся агенты Char-Agent[12], Char-Agent[23] и т.д. вообщем конечное число.
Дальнейшие детали я пока не буду излагать, даже на этом уровне видно, что это пока конечный автомат. Но что надо усложнить в каждом агенте, какие связи и критерии создать, чтобы превратить его и всю свертку в бесконечный автомат я представляю… но это философия, о которой мы договорились не говорить пока. И здесь есть место для дискуссии о формировании памяти образов, потому-что двум буквам и более надо поставить в соответствие индекс. Можно детализировать процедуру ReactionIdle и смещать фокус внимания не на поступающую информацию, а на уже имеющуюся в памяти, лишь бы выкопать что-то новое и тем самым реализовать целевую функцию.
Можно и нужно предоставить возможность для последовательного запоминания событий, коими будут:
- возбуждение входного канала;
- выбор паттерна из памяти;
- результат сравнения: новое – хорошо; старое – плохо.
Эти события должны записываться в память, им надо предать форму с тем, чтобы и на них распространялся фокус внимания. Отсюда появляются две переменные:
Focus – координата в памяти или номер элемента
Field – ширина в элементах или количество элементов.
Изменение Field от 1 до 2 и есть действие, которое приводит к созданию новых субагентов.
Здесь еще много работы, именно по этой причине я сосредоточился на потоке Char, это несоизмеримо проще, нежели поток Sound или Image. А увидеть закономерности проще для байтового потока.
Теперь кратко.
1. Char-Agent непрерывно взаимодействует с внешним миром, функцию которого реализует собеседник. На него возлагается задача говорить так, как если бы он говорил с ребенком.
2. Char-Agent реализует целевую функцию – находить новое и запоминать его. Для этого он усложняет свою структуру и плодит субагентов по своему подобию, реализуя фрактальное преобразование.
3. Реализуется потоковый принцип, который может быть основой не только Char-Agenta. Пока параллельно можно создавать Sound-Agent и Image-Agent. А потом сделать свертку. Радуйтесь любители нейронных сетей – это ваше, только в отличие от бинарного принципа здесь каждый нейрон – это целый агент, который связан с внешним миром и имеет свою задачу.
4. Реализован принцип иерархичности, об этом я пока не написал в своих эссе. Но здесь намечается такая картина, когда пямять образов от Char-Agenta и от Imge-Agenta устроена одинаково и оторвана уже от структуры сенсоров, это ли не принцип верхних слоев неокортекса о которых говорил Джефф Хокинс?
5. Никаких real, float, только longint, ибо весь функционал агента можно легко переложить в железо, а как это сделать я знаю. А так же никаких библиотек, ибо это непереносимо на другие платформы, а в железо тем более.
6. Все субагенты, ориентированные на формат сенсоров и объединяющие агенты, манипулирующие индексами существуют и действуют одновременно, поставляя верхнему на данный момент субагенту эмоциональное состояние (переменная Emotion), которое отражает новизну. Не говорю про энтропию, т.к. это философия.
Почему лозунг отрицает Марковские цепи, а вместе с ним вообще все математические методы? Потому что я придерживаюсь той мысли, что многое можно создать на простых алгоритмах, как RISC – архитектура процессора. В основе самого сложного гаджета, который крутится в руках студента, лежит логический элемент «И-НЕ», из него проистекает вся видимая сложность, просто иерархия элементов такова, что с вершины порнографического видео не распознать основ. Распознавание, о котором так «долго говорили большевики» тоже иерархическая задача. Её все почему-то хотят вырвать из контекста. Распознавание – это не заложенный заранее принцип, или процедура, а свойство, которое образуется в результате работы целевой функции и метода фрактального преобразования.
Если система ориентирована на поиск новизны, то распознавание в потоке объектов иерархической природы будет подчинено целевой функции. Так мы ответим на вопрос зачем распознавать? Система будет распознавать новизну. Можно возразить: шумящее с плохим отношением сигнал-шум видео будет поставлять кадр за кадром новую реализацию и система останется безучастна к структурному усложнению. Это так и было бы, если не учитывать иерархичность и связанное с ней существование субагентов, елементом рассмотрения которых является не шумящий пиксель, а область растра, которая уже имеет структурность и менее подвержена высокочастотному шуму. А чем выше субагент, тем его новизна ценнее.
Теперь о форме.
Чтобы координировать этот проект не надо много людей. Все, кто видит в этом эксперименте что-то новое, пожалуйста. Поразмыслите об этом неспешно. Организационные действия по расширению проекта, просто как мысли вслух, мне видятся так:
1. Создается финансовый фонд, например, в Яndex деньгах. Аккаунт будет открыт для всех, чтобы все видели транзакции. Платежный код будет у координатора. Наполнение фонда – пожертвования. Цель фонда – поддержать программистов, и выход в реал: встречи, конференции.
2. Координатор проекта согласовывает всё вплоть до имен переменных. Каждый программист может быть ориентирован на конкретную задачу, объединение данных - задача координатора. Это как капитан Немо строил свой Наутилус: двигатель в одном месте, ходовая часть в другом. Вот почему проект носит название KnowTilus. В отличии от Немо мы строим не лодку, а знания.
3. Возможна некая структура: сайт для продвижения идей и координации участников.
Футурология.
В результате эксперимента может и не родится ИИ. Но если появится в меру умный чат-бот, то это коммерческий продукт. Могут появится нестандартные алгоритмы распознавания. И может появится команда… А если развивать идею дальше, то с некоторого момента программисты будут не нужны, а нужны будут психологи, преподаватели, философы и филологи.
Код нужен.
[
Ответ
][
Цитата
]
гост
Сообщений: 6163
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 01 июл 22 15:29
Всё выше написанное это ерунда.
Дело в технологии.
Технология для одного компонента на полимерах
[
Ответ
][
Цитата
]
ignаt99
Сообщений: 152
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 30 янв 25 4:20
Я уже говорил про всё это, но напомню, для рагулей и картавых:
kNN, марковские цепи, случайные леса – "каменный век" машинного обучения. Например kNN тот алгоритм, который все любят за простоту, но никто не берет с собой в бой, как шахматный набор на вечеринку – вроде классика, но быстро наскучивает. Почему? Потому что он терпит крах, стоит ему увидеть что-то сложнее набора чисел: тексты, картинки, ваши любимые мемы – всё это превращает его в потерянного туриста без карты. Предложите участникам обсудить, почему так, а заодно вспомнить свои первые шаги с этим "динозавром".
Ансамбли деревьев: супергерои в мире табличек. Представьте себе, Random Forest – это Бэтмен табличных данных: хорошо работает, когда надо классифицировать цифры. Когда вектора это вектора, а не что то из реального мира, с хуем и яйцами, как говорится, когда манддой пахнет, если вы понимаете о чем я. Стоит ему показать картинку – и всё, Бэтмен без маски, просто чувак с деревяшкой, а может это хуй, хуй Буратино? Пусть участники расскажут, на каких задачах они "вывозили" с деревьями, а где их ждал полный "пень". На деревьях далеко сейчас не уедешь, мои хорошие, на СВО разве что, а потом упакуют в кстати деревянный ящик и всё на.
И нейросети – это вам тоже не шашлычок под пиво. Классические алгоритмы – это когда вы шампур в руках держите, а сверточные нейросети (CNN) – это уже робот, который жарит шашлык, подбирает музыку и комментирует футбол. Сравнение возможностей классики и глубокого обучения – тема горячая, как угли. Только голой жопой на них садиться не надо и писюн туда совать. Пусть участники поделятся, кто что пробовал, что получилось, и как они пересекались с этим новым "робо-шашлычником", если конечно не рагули, не картывае.
Например если взять классический простой датасет, например, MNIST или кошек/собак, и прогнать его через три этапа: kNN, Random Forest и CNN. Затем, конечно, устроить мини-баттл в комментариях: чьи результаты лучше, а чьи "пригодны только для музея". Естественно поощрять на этом батле склоки и мат, для остроты, в идеале чтобы по видеосвязи, чтобы люди там плевались, кидались гавном, дрочили итд. Это бы кстати возымело сумасшедший успех в сети, парни бы стали звёздами, заработали бы миллионы.
Ну и конечно же AGI... Что это? Мечта или повод открыть попкорн? Чтобы окончательно завести участников, предложите подискутировать про AGI: "Сможет ли искусственный интеллект когда-нибудь понять, почему шутка 'две нейросети заходят в бар' смешная?" Это вечный вопрос – как смысл жизни, только про ИИ. Споры тут гарантированы, а значит, скучно точно не будет.
Но в итоге как то дискуссия не пошла, потому что везде рагули и картавые, хотя топикстартер — русский.
[
Ответ
][
Цитата
]
гость
91.132.139.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 31 янв 25 4:01
Цитата:
Автор: гость
Игнат, Вы совсем рехнулись? Рекламу ублюдочных форумов со своим модераторством навязывайте в своей ветке. Никому не интересен Толстой и Ваши с ним отношения, начальник-подчиненный. Но можете записать видео как Толстой Вас унижает, критикует хотябы, комментирует Ваши труды и Вы безропотно соглашаетесь "дааа босс! Это хорошая идея! К утру всё бедет готовово!", это будет интересно, можно будет поржать, позларадствовать.
Какой падлец Игнат.
Трамп пригрозил ввести импортные пошлины в размере 100% против БРИКС, если оно попытается заменить доллар в мировой торговле. Замены доллару нет.
А вчера он заявил, что введет 25% пошлины для Канады и Мексики уже с 1 февраля.
[
Ответ
][
Цитата
]
гость
130.195.249.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 01 фев 25 8:01
Последние недели в z-каналах просто очень много видео и текстов о том, что раненых, недолеченных и буквально инвалидов отправляют воевать. В этот раз видео публикует канал «Солдатская правда»:
«Доблестная 5 бригада нашла кем пополнить ряды своих штурмовиков.
Сегодня. Прямо сейчас этих парней отправляют на штурм.
Я так, понимаю, вооруженных только пистолетами. Потому как во второй руке у них костыль или палочка. Хотя, откуда пистолеты. С ножами!
Да, и ножи им ни к чему. Костылями будут забивать противника.
Уроды. Что же вы делаете? Если осмелились отправить их в атаку, будьте смелыми до конца. Возглавьте эту атаку»
[
Ответ
][
Цитата
]
гость
130.195.249.*
На: ...нам нечего терять кроме Марковских цепей!
Добавлено: 02 фев 25 12:33
Япония рекомендовала госслужащим отказаться от китайского искусственного интеллекта, ведущий «Вестей» сослался на заявление разработчика DeepSeek:
«Основой для нейросети стал программный код, который разработан советскими программистами еще в 1985 году».
Был опубликован «фрагмент интервью» руководителя DeepSeek Лян Вэньфэн:
«Не буду лукавить, наш искусственный интеллект был создан на базе советских разработок, а именно — системы ОГАС академика Глушкова. Без нее мы бы никогда не догнали американцев с их ChatGPT», — сказал Вэньфэн.
Предприниматель, как пишет «Панорама», собирается в ближайшее время учредить премию имени Виктора Глушкова, а также открыть в Пекине музей, посвящённый научным достижениям СССР.
[
Ответ
][
Цитата
]
Стр.14 (14)
:
1
...
10
11
12
13
[14]
<<
< Пред.
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net