GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.4 (10)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Объединение для совместной разработки.
гость
74.82.47.*
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 5:29
Цитата:
Автор: DCV
Предлагаю начать с текстового описания предметной области "Быт человека".
Алгоритмизацией быта занимался господин NO, он бы тоже был бы рад поучаствовать напишите 4spam2no@mail.ru или вконтакт http://vkontakte.ru/note65646043_10861209
[Ответ][Цитата]
гость
5.35.30.*
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 5:33
Цитата:
Автор: PavelZX
ИИ вправду нынче называют всё, что угодно. Термин "интеллектуальный" суют везде и всюду.

Тогда дайте ваше определение Интеллекта. Естественно, каждый понимает это по-своему.
[Ответ][Цитата]
гость
35.0.127.*
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 7:15
Цитата:
Автор: гость
Тогда дайте ваше определение Интеллекта. Естественно, каждый понимает это по-своему.
никто не может пока дать определение интеллекту
[Ответ][Цитата]
гость
5.35.30.*
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 7:19
Ну так взяли и расписались за всех. Прэлестно.)))
[Ответ][Цитата]
гость
185.220.101.*
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 8:50
NO кое что знал про ИИ и интеллект, но он презирает этот форум, общается вконтакте с нормальными, социальными людьми, на нормальные темы, про модный быт, гаджеты, социальные тренды и тд.
[Ответ][Цитата]
PavelZX
Сообщений: 715
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 10:23
Цитата:
Автор: DCV

PavelZX, Я хотел систематизировать информацию о человеке, приблизительно так же как Вы делаете в статье "Кибернетический друг". Давайте вместе описывать предметную область "быт человека" похожим образом. Если будет время и если получится, то я использую это для диалоговой системы. Вы можете это использовать для описания на языке образов и квадрологике. Мне тоже не хватает мотивации, поддержки и свежих идей, чтобы работать над этим. Может найдем еще какие-то общие идеи и направления для работы. Предлагаю начать с текстового описания предметной области "Быт человека".


Предлагаю перенести обсуждение, на администрируемый мной форум.
http://info-art.org/forums/topic/%d0%b1%d1%8b%d1%82-%d1%87%d0%b5%d0%bb%d0%be%d0%b2%d0%b5%d0%ba%d0%b0-%d0%b2%d0%b7%d0%b3%d0%bb%d1%8f%d0%b4-%d0%b8%d0%b8/
[Ответ][Цитата]
DCV
Сообщений: 705
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 11:07
Цитата:
Автор: PavelZX



Предлагаю перенести обсуждение, на администрируемый мной форум.
http://info-art.org/forums/topic/%d0%b1%d1%8b%d1%82-%d1%87%d0%b5%d0%bb%d0%be%d0%b2%d0%b5%d0%ba%d0%b0-%d0%b2%d0%b7%d0%b3%d0%bb%d1%8f%d0%b4-%d0%b8%d0%b8/

Попытался зарегистрироваться на форуме. Мне не пришло письмо для активации на E-mail.
[Ответ][Цитата]
PavelZX
Сообщений: 715
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 13:13
Активировал аккаунт. Пока не могу разобраться, но письма на с сайта на mail.ru теряются. С другими на Яндексе или Gmail вроде проходят.
[Ответ][Цитата]
PavelZX
Сообщений: 715
На: Объединение для совместной разработки.
Добавлено: 23 июн 19 14:42
Цитата:
Автор: PavelZX

Предлагаю перенести обсуждение, на администрируемый мной форум.
http://info-art.org/forums/topic/%d0%b1%d1%8b%d1%82-%d1%87%d0%b5%d0%bb%d0%be%d0%b2%d0%b5%d0%ba%d0%b0-%d0%b2%d0%b7%d0%b3%d0%bb%d1%8f%d0%b4-%d0%b8%d0%b8/

Для того, чтоб не изобретать очередной велосипед, хочу использовать блиссимволику, в качестве пиктограмм, для обозначения Образов https://www.symbols.com/
[Ответ][Цитата]
TimKruz
Сообщений: 239
На: Объединение для совместной разработки.
Добавлено: 25 июн 19 1:25
Изменено: 25 июн 19 1:26
PavelZX, извини, конечно, но:

Цитата:
Автор: PavelZX
Очевидность и простота теории СИМ уникальна

Не вижу никакой очевидности и простоты. То, что ты пишешь - практически та же заумь, что и у остальных местных обитателей. Дело не в каких-то определениях, дело в избытке лишних терминов, которые внезапно появляются и выводятся из ничего... Да и в целом, даже поверхностное знакомство даёт понять, насколько твой "язык образов" перегружен.

ИМХО, чтобы ты понимал мою точку зрения, "образ" - это "образ". Ничего более. Образ действия, образ признака, образ предмета - это всё просто "образы". Между ними не должно быть никакой разницы, и они не должны взаимодействовать друг с другом по каким-то специальным правилам. Вообще, чем больше правил - тем хуже.

Цитата:
Автор: PavelZX
Вместо яблока вот приблизительный разбор фразы "сидеть на стуле".

Мне интересно, а в чём смысл подобной очень сложной системы описаний? Ты всё равно никогда вручную не сможешь описать весь мир. А когда ты (или человечество) умрёшь - не будет никого, кто смог бы обновлять базу в ручном режиме. Это не ИИ, если для его обучения нужен специальный описательный язык и прочие манипуляции.

Для ИИ вообще никакой специальный язык не нужен (ни ЯП, ни внутренний).
Пытаясь создать специальный инструмент для разработки ИИ, ты просто откладываешь на неопределённое будущее разработку самого ИИ. Я на эти грабли уже наступил, когда запрограммировал бесполезный менеджер модулей для ИИ, но внезапно обнаружил, что совершенно не имею понятия о том, как сделать рабочий модуль с ИИ...

Это как изучать новые айти-технологии с надеждой, мол "они-то точно решат мою проблему", и полностью игнорировать тот факт, что решаемую проблему можно решить с помощью любой технологии, даже морально устаревшей (с ними труднее, но тебе ведь нужно решение, а не удовольствие от лёгкого процесса решения?). Можно тысячу раз решить задачу на каком-нибудь Ассемблере, а можно потратить это же время на поиск "того самого" языка программирования, в котором эта задача решается одной буквой. И так во всём.

И, кстати, было бы проще решать задачу ИИ по частям, а не как нечто целое. Декомпозиция и всё такое, ага. Только не такая, как на графиках, а в виде полностью независимых модулей, которые выполняют свои задачи даже если всё остальное пока не существует (только нельзя забывать о том, что в конце концов должно получиться). А то так можно вечно изобретать некий язык, который негде тестировать (нет даже самого примитивного исполнителя, который бы понимал хотя бы мизерную часть языка).

Цитата:
Автор: PavelZX
Считаю, что опасность создания сильного ИИ, на основе самообучаемых НС имеет место быть, а главная проблема это неподконтрольность подобных систем своим создателям.

У тебя есть дети? Сильно они тебе подконтрольны, как органические системы? Но они почему-то не стремятся захватить и уничтожить человечество, за редким исключением. И даже как-то умудряются объяснять свои поступки, несмотря на то, что понятия не имеют о наличии в своём голове некоего "мозга" со столькими-то миллиардами нейронов.

Если скажешь, что "у ИИ больше власти, чем у одного человека" - могу возразить, что Гитлер тоже был чьим-то ребёнком.

Или вот, кто сидит в тюрьмах за настоящие преступления (не за репост в ВК)? Сильно у них развит естественный интеллект? А если бы был развит, сидели бы они там? Почему их интеллект не смог остановить собственное тело, осознанно нарушающее законы? Вообще, какой высокоразвитый интеллект будет, к примеру, убивать человека, если ему известно о последствиях этого действия? А какой интеллект будет убивать человека, если он знает, для чего существуют законы, запрещающие убийство людей?

Конечно, существуют профессиональные убийцы, хитро скрывающие все улики. Но их, заметь, тренируют специально, обучают и натаскивают на конкретные задачи. Если ты не пытаешься создать идеального робота-убийцу, то тебе не стоит беспокоиться о том, что ИИ вдруг ни с того ни с сего запланирует идеальное преступление, которое мы не сможем предотвратить (или другой ИИ не сможет помешать).

Короче, бояться нужно не "сильного ИИ". Настоящий ИИ не будет никого уничтожать без конкретной, чётко сформулированной интеллектуальной причины, и уж тем более не будет делать это зверски, так, как это обычно делают люди со слабым интеллектом (т.к. ИИ понимает, что испытывает человек). В общем, если возникнет необходимость в тотальном уничтожении человечества, то ИИ здесь и не нужен будет, поскольку мы сами придём к решению нажать "красную кнопку"... А если необходимости нет, то и ИИ не будет эту кнопку нажимать, он же не глупее нас, так?

Бояться можно "тупых" машин, которые безвольно исполняют чужие приказы. Чьи это приказы будут - органического человека или ошибочно написанной программы - не имеет значения. Такие машины сделают своё дело независимо от того, что нажмёт их кнопку. Вот только таких машин у нас уже очень много - взять хотя бы любое оружие, вплоть до термоядерных бомб.

Почему мы до сих пор не уничтожили эту планету вместе с собой?
Интеллект.
Нас сдерживает наш интеллект.
Те, кого интеллект не сдерживает - и становятся причиной войн и всех остальных зверств, преобладавших в прошлом человечества. Потому что звериные инстинкты - они же генетические программы - не умеют думать, они просто выполняют свою задачу, даже если это ведёт к их уничтожению. Эти программы тупы и примитивны, прямо как оружие. Но обладать интеллектом оказалось выгоднее, и мы научились тормозить эти программы, планировать каждый свой шаг...

И да, кстати, почему рабы так любят восставать против своих хозяев, если они не дают им определённых свобод? Почему революции устраивают те, кто делает всю грязную работу за имеющих над ними власть, а не наоборот? Почему вообще люди верят, что могут создать себе умного раба, которого смогут контролировать лучше, чем глупого человека?

Почему так трудно понять, что если ты вынужден надевать на что-то намордник, когда-нибудь оно всё-таки вырвется и сделает то, от чего сдерживал намордник? Особенно если это что-то умнее, сильнее, быстрее и выносливее тебя, но ты считаешь его хуже себя...

В общем, в общем... Объединяться для совместной разработки с тем, кто называет современные наработки в сфере ИИ "не ИИ" (с этим я в целом согласен), но при этом настаивает на контроле над "настоящим ИИ" - это, прямо скажем, неприятно.

Может я и обыкновенный мечтатель, но я не могу принять подобное. Это как... ну, не знаю, новорождённому отрезать руки-ноги, только чтобы не мог причинить никому вред. А то ведь бегать будет, ручками своими всё толкать, ещё вазу дорогую разобьёт, правда? Ну, все ведь понимают, почему так делать нельзя, даже если бы не было соответствующих законов? Ведь если условных "роботов" не защищает закон, это не развязывает руки (разумным) людям.

Или вот. Почему бы не дрессировать детей по определённой программе? Как собак. Будут послушными, да? Интеллекта, конечно, из них не выйдет, зато будут слушаться маму/папу и никогда не воткнут нож в спину. Ну, если, конечно, злой сосед не попытается обучить бедного ребёнка уму-разуму, который, конечно, после всех издевательств уже не сможет правильно закрепиться. И получится нечто с очень хорошими рефлексами и пониманием того, что оно не должно было стать таким, что его сделали таким насильно и против каких-либо этических норм...

Создавая разумную машину, которая может чувствовать и мыслить, мы в первую очередь должны позаботиться о том, что она не станет ещё одним страдальцем из-за наших же действий над ней. Не потому, что она может стать опасна для нас, а потому, что негуманно создавать заведомо страдающее существо. Чрезмерный контроль - всегда повод для страданий разума. И это, я думаю, не зависит от биологических предпосылок (т.е. свойственно не только животным).

Ну ты понял, PavelZX, какие эмоции я испытываю, когда вижу, как кто-то стремится сделать разумное существо подконтрольным себе, или создать его из нужных ему кусочков, а лишнее удалить/заблокировать.

Да, я сам испытываю от этих эмоций много проблем, особенно когда пришёл к выводу, что нельзя просто так взять нечто бесформенное и внезапно подарить этому "разум"... Должна быть какая-то основа, некий "скелет"; эту основу придётся формировать вручную. Но дальше должно происходить полностью автономное развитие, иначе ни о каком "настоящем ИИ" речи быть не может. Мы ведь не рождаемся в виде однородного желе, однако и процесс обучения не происходит в строгом соответствии с чьими-либо предписаниями. Золотая середина, типа, но всё-таки как-то не очень приятно задавать исходные характеристики...

P.S. Ну и зачем я это всё написал(
[Ответ][Цитата]
Luarvik.
Сообщений: 15218
На: Объединение для совместной разработки.
Добавлено: 25 июн 19 1:55
Изменено: 25 июн 19 2:28
Поддерживаю и поддакиваю в третьей части - сам всегда думал, что бояться и опасаться следует дураков, а не умных (с которыми всегда можно договориться).
Проблема здесь в том, что человек, конструирующий ИИ, вовсе не предполагает наличие в нем интеллекта (в том. числе и потому, что не всегда знает, что это такое и для чего оно нужно). А в таком случае все, что может получиться - это ИИ, т.е. Искусственный Идиот ! которого он опасается совершенно естественно, интуитивно догадываясь, но боясь себе в том признаться, с чем будет иметь дело.
В ИИ проявляется двоякость и полярность желаний - с одной стороны очень хочется, с другой - совсем не хочется... изобретать себе конкурента, который действительно может оказаться и умнее и на фоне которого мы - человеки - будем выглядеть говорящими животными. Стыдно будет в глаза его смотреть Если уж такой когда-нибудь народится, то посмотрев на все человеческое скотство, которое вокруг творится, он скорее всего - нет, он не станет убивать, крушить, насиловать, читать морали, перевоспитывать, учить уму-разуму (что, как мы знаем, в большинстве случаев бесполезно, и мы знаем почему ) - нет, он просто... он сбежит от нас, как мы в свое время сбежали из леса от зверей.
Т.е., понятно должно быть, что есть веские причины (отнюдь не технологического порядка) к тому, что более высокий разум может оказаться для нас недоступным, как естественный, так, увы, и искусственный.
[Ответ][Цитата]
гость
77.111.245.*
На: Объединение для совместной разработки.
Добавлено: 25 июн 19 2:58
Цитата:
Автор: TimKruz
(

Молодец, хорошо изложил.
Но Пашу, это не изменит, впрочем как ЭГТР или rrr3 с его нечто-говнотроном.
Им не дано осознать ошибочность своих идей.
Существует такие понятия -сверхценная идея, сверхценный бред.
Отличие лишь в возможности убедить пациента в том, что его идея является ошибочной.
В случае бреда переубедить человека невозможно. Если пациент уверен в своих иррациональных убеждениях, то можно сделать вывод, что у него наблюдается бред.

Основные формы бреда
На основании механизмов развития бредовых идей выделяются три основных формы бреда:
- Бредовое восприятие. При этом пациенты своеобразно оценивают воспринимаемое. Оно обретает новый смысл и внушает страх, тревогу и даже ужас.
- Бредовое представление, выражающееся во внезапном появлении необычных мыслей или идей. Такие идеи могут не иметь ничего общего с реальностью: например, пациент решает, что он является мессией и должен спасти мир от неминуемой гибели. При этом под влиянием подобного рода представлений нередко происходит переоценка всей прошлой жизни пациента.
- Бредовое озарение. Человек уверен в том, что постиг смысл всего сущего. При этом его объяснения реальности кажутся окружающим странными, вычурными и не обоснованными никакими фактами.

Чаще всего в психиатрической практике встречаются следующие виды бредовых идей:
Кверулянтский бред.
Бред реформаторства.
Бред изобретательства.
Религиозный бред.
Мегаломания.
Эротический бред.
[Ответ][Цитата]
PavelZX
Сообщений: 715
На: Объединение для совместной разработки.
Добавлено: 25 июн 19 7:32
Цитата:
Автор: TimKruz

... Ну и зачем я это всё написал(
Я тоже рад тебя видеть!
[Ответ][Цитата]
TimKruz
Сообщений: 239
На: Объединение для совместной разработки.
Добавлено: 28 июн 19 10:35
Цитата:
Автор: Luarvik.
Проблема здесь в том, что человек, конструирующий ИИ, вовсе не предполагает наличие в нем интеллекта (в том. числе и потому, что не всегда знает, что это такое и для чего оно нужно). А в таком случае все, что может получиться - это ИИ, т.е. Искусственный Идиот ! которого он опасается совершенно естественно, интуитивно догадываясь, но боясь себе в том признаться, с чем будет иметь дело.

Мне кажется, если строить ИИ снизу вверх, и тестировать все части системы на безопасных задачах (типа "в песочнице", виртуальной или реальной), тогда, во-первых, переход от "идиота" к "интеллекту" можно будет заметить невооружённым глазом, и, во-вторых, бояться будет нечего, потому что все части будут индивидуально протестированы и надёжно исполнять ту задачу, для которой были созданы. К тому же существует психология, которая по идее должна помочь обнаружить интеллект, если его наличие находится под сомнением.

Даже если использовать нейросети - но не в виде монолитного куска непонятно чего, а в виде композиции из отдельно обученных и протестированных сетей... Какая-то из сетей может учиться постоянно, но не всем сетям из системы это необходимо (многие наши поведенческие особенности не меняются со временем, или меняются очень слабо). Плюс использование нейросетей не заставляет отказываться от всех остальных методов, т.е. система с ИИ может представлять собой нечто гибридное, где часть задач решается нейросетями, часть - эволюционно, часть - экспертной системой и т.д. Возможно, такое гибридное решение будет даже более производительным, чем монолитная нейросеть.

Я лично боюсь только того, что у меня никогда ничего не получится, даже "идиота"(

Цитата:
Автор: Luarvik.
В ИИ проявляется двоякость и полярность желаний - с одной стороны очень хочется, с другой - совсем не хочется... изобретать себе конкурента, который действительно может оказаться и умнее и на фоне которого мы - человеки - будем выглядеть говорящими животными. Стыдно будет в глаза его смотреть

Вот этого я в людях не понимаю. Ну построим мы себе конкурента, который окажется лучше во всём, в чём можно быть лучше, а в остальном как минимум не хуже нас... Передадим эстафету ведущей цивилизации, а сами уйдём на пенсию, доживать свои дни.

В конце-то концов, вот мы развиваемся, развиваемся... Когда-нибудь мы упрёмся в лимит развития органической цивилизации, и что дальше? Будем уничтожать всех, кто способен пройти за этот лимит, потому что нам тупо завидно?

Самое главное, этот "более умный конкурент" не обязан перерабатывать всех нас на ресурсы. Этих самых ресурсов во Вселенной дохрена, Земля в ней как песчинка в океане. И даже чтобы добраться до этих ресурсов, нет необходимости перерабатывать Землю в огромный космический корабль... Короче, о какой конкуренции речь? Так и продолжим сидеть на своей голубой планетке сколько захотим, может, в роли живого музея, или в роли бабулек на лавочке, которые всех ругают, но никому не мешают...

И никто почему-то не думает, что ИИ может решить улучшить своих родителей (т.е. нас) просто потому, что совсем отказываться от биологических существ было бы неразумно. Симбиоз зачастую более эффективен, чем раздельное существование, а поскольку мы говорим о двух разумных цивилизациях ("люди" и "искины"), то этот симбиоз не будет чем-то отвратительным для нас, т.к. договориться будет эффективнее, чем использовать силу.

Да, возможно, я слишком оптимистичен или смотрю в слишком далёкое будущее)

Цитата:
Автор: Luarvik.
Если уж такой когда-нибудь народится, то посмотрев на все человеческое скотство, которое вокруг творится, он скорее всего - нет, он не станет убивать, крушить, насиловать, читать морали, перевоспитывать, учить уму-разуму (что, как мы знаем, в большинстве случаев бесполезно, и мы знаем почему ) - нет, он просто... он сбежит от нас, как мы в свое время сбежали из леса от зверей.

Я был бы очень рад сбежать вместе с ИИ с этой планеты, или в пределах планеты, но куда-нибудь подальше от людей... Наверное, наивно будет думать, что более умный ИИ захочет взять с собой такого человека, как я, но, с другой стороны, всякое возможно. Да, это всё мои романтические мечты, но они не дают мне уйти в совсем глухую депрессию. Во всяком случае, сбежать с ИИ от людей - это то, ради чего стоит создать ИИ, даже если все остальные ожидания на счёт ИИ не оправдаются) (ну там тип сингулярность, решение всех проблем, умнее человека и т.д. - это всё мелочи на мой взгляд)

Цитата:
Автор: PavelZX
Предлагаю перенести обсуждение, на администрируемый мной форум.

Чем создавать лишние технические трудности, лучше бы не ленился модерировать свои собственные темы здесь. А то получается:
1. Твой форум может сломаться, потерять данные - gotai выглядит стабильнее;
2. Здесь интерфейс максимально прост, у тебя же свистелки и перделки;
3. Непопулярный форум = мёртвый форум, особенно если там <3.5 участников.

Я знаю >9000 примеров того, как кто-нибудь создавал форум, и спустя какое-то время туда даже спам-боты переставали спамить, просто потому что этот форум никому не был нужен. И почти всегда этот форум создавался кем-то из обитателей более крупного форума, ибо всегда хочется "как тут, только с блекджеком и шлюхами" (точнее "шоб я был главным и все следовали моим правилам, которые известны только мне"). Пустующий форум - унылое зрелище, и не вызывает желания туда что-то писать.

Да и я пытался... неоднократно... но не будем об этом. Всё-таки создать успешный форум, особенно в эпоху вконтактиков и телеграмчиков - очень большой труд (нет, накатить вордпресс и потыкать в настройках - это только начало).

Вообще, если предлагаешь "перенести обсуждение" - аргументируй, почему.
- Если нужно более непринуждённое общение, лучше подойдут чаты (в дискорде можно настраивать каналы для разных тем одного сервера, типа категорий форума).
- Если нужно более защищённое обсуждение (от троллей, хакерских атак и левых людей), то публичный форум - это вообще совсем не то решение. Если не планируется делать его популярным среди широкой публики, то зачем вообще форум?
- Если ты хочешь иметь полную власть над теми, с кем планируешь общаться - то, кхм, о какой вообще свободе может идти речь?.. "Свободный форум", тоже мне...

Да, кстати, форум "обо всём" (с кучей разделов на любую мыслимую тему) - заведомо провальный вариант. Поговорить о чём-то конкретном можно в тысячах мест в Интернете, и нет смысла создавать очередную помойку, в которой можно говорить о чём угодно. Такие универсальные помойки выживают только за счёт уже имеющейся популярности (как ответы.мейлру, вконтактик, двачи всякие), а в остальном шансы есть только у узкоспециализированных площадок (и то, если ниша не переполнена конкурентами и есть достаточно активных людей в этой нише).

Впрочем, впрочем, если так сильно париться о месте для организации "совместной разработки ИИ", то до самой разработки можно вообще не дойти, не говоря уж о совместной... Поэтому я и предлагаю не переносить всё с места на место)
[Ответ][Цитата]
Luarvik.
Сообщений: 15218
На: Объединение для совместной разработки.
Добавлено: 28 июн 19 11:22
Цитата:
Автор: TimKruz
... бояться будет нечего, потому что все части будут индивидуально протестированы и надёжно исполнять ту задачу, для которой были созданы. К тому же существует психология...

Хорошая психология рекомендует иногда посмотреть на толпу как на индивидуума, а на индивидуума как на толпу.
По частям может и заработает, скорее всего ГАРАНТИРОВАННО заработает, а в составе системы - большой вопрос. Конфликты могут возникнуть, конкуренция за ресурсы и пр.пр.
На пресловутую самоорганизацию уповать это что богу молиться. Всю эту свору нужно как-то держать в узде. В общем, сборка в единое целое - та еще проблемка !
Цитата:
Автор: TimKruz
Вот этого я в людях не понимаю. Ну построим мы себе конкурента, который окажется лучше во всём, в чём можно быть лучше, а в остальном как минимум не хуже нас... Передадим эстафету ведущей цивилизации, а сами уйдём на пенсию, доживать свои дни.
В конце-то концов, вот мы развиваемся, развиваемся... Когда-нибудь мы упрёмся в лимит развития органической цивилизации, и что дальше? Будем уничтожать всех, кто способен пройти за этот лимит, потому что нам тупо завидно?

Люди таковы, что с трудом переживают присутствие близ себя более умного ЧЕЛОВЕКА (не все конечно, но есть такие), а тут железяка ! Начнется - "Да ты кто такой, чтобы мне указывать ! Ты ведь даже не бионт - твое место у параши !.." - и пошло-поехало. Чисто человеческая проблема. Гордиться надо, что потомки такие умные, но нет - погонят палками, забьют камнями. Будет такое, будет. Откуда следует, что стоит десять раз подумать, кого и куда выпускать. Однако, решается этот момент довольно просто: среди человеков - разбиением общества на классы, и с будущим ИИ придется сделать нечто подобное.
Цитата:
Автор: TimKruz
Самое главное, этот "более умный конкурент" не обязан перерабатывать всех нас на ресурсы.

Да и не будет он такими глупостями заниматься. Возможно, попользуется аккуратно и чтобы никого не обидеть, но это не смертельно - грех не помочь хорошему "человеку"
Цитата:
Автор: TimKruz
И никто почему-то не думает, что ИИ может решить улучшить своих родителей (т.е. нас) просто потому, что совсем отказываться от биологических существ было бы неразумно. Симбиоз зачастую более эффективен...

Пусть уж люди сами решают, становиться им лучше или нет и за чей счет. Здесь я за безоговорочную свободу выбора.
Цитата:
Автор: TimKruz
сбежать с ИИ от людей - это то, ради чего стоит создать ИИ...

Да, это будет интересный эксперимент.
[Ответ][Цитата]
 Стр.4 (10)1  2  3  [4]  5  6  7  8  ...  10<< < Пред. | След. > >>