GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.1 (1)   Поиск:  
 Автор Тема: Пределы риска ИИ
Igor Gabrielan
Сообщений: 705
Пределы риска ИИ
Добавлено: 23 ноя 12 9:54
1.Равенство ИИ и человека (предел Тьюринга).
2.ИИ может полностью обходиться без человека.
3.Человек начинает мешать ИИ (предел Скайнет).
4.ИИ становится богом (предел Азимова).
[Ответ][Цитата]
Fractaler
Сообщений: 2490
На: Пределы риска ИИ
Добавлено: 23 ноя 12 10:06
Цитата:
Автор: Igor Gabrielan

1) Может тождество?
2) Батарейки и сам с полки возьмёт?
3) Чем?
4) Для чего и кого?
[Ответ][Цитата]
Igor Gabrielan
Сообщений: 705
На: Пределы риска ИИ
Добавлено: 23 ноя 12 10:15
1.Нет, скажем так, приблизительное равенство.
2.Да.
3.Много и неэффективно потребляет.
4.Азимов "Последний вопрос"
[Ответ][Цитата]
Tester64
Сообщений: 1910
На: Пределы риска ИИ
Добавлено: 23 ноя 12 14:11
Далеко мыслите... Не скоро буде даже №1
А раз так то может быть...
1) ИИ наконец начинает помогать человеку в некоторых (более широких) задачах
2) Человек крепко переплетет свою жизнь с ИИ (в каждом мобильном, домофоне, бигборде)
3) Человек станет частью ИИ (импланты, протезы, усилители, перенос сознания как в "Сурогаты", виртуальность)
4) Человек слившись с ИИ станет богом.

Все зависит от подхода...
[Ответ][Цитата]
Igor Gabrielan
Сообщений: 705
На: Пределы риска ИИ
Добавлено: 23 ноя 12 20:22
В рассказе Азимова так и происходит, человеческий разум сначала переходит в бестелесную форму, потом сливается один с другим в единый человеческий разум, а потом сливается с ИИ, становясь богом.
Чтобы оценить полезность человека для ИИ и возможности их взаимополезного существования, можно представить, что первичны ИИ. Пришло им бы в голову создавать себе белковых друзей, белковых братьев по разуму, нужны бы для ИИ были белковые разумы?
[Ответ][Цитата]
Tester64
Сообщений: 1910
На: Пределы риска ИИ
Добавлено: 24 ноя 12 7:52
Цитата:
Чтобы оценить полезность человека для ИИ и возможности их взаимополезного существования, можно представить, что первичны ИИ. Пришло им бы в голову создавать себе белковых друзей, белковых братьев по разуму, нужны бы для ИИ были белковые разумы?

"Белковые друзья" - звучит лучше чем надоевшее "человечество". Если уж заговорили о полностью себя осознавшем ИИ, то все зависит от скорости осознания и "встраивание" человека на начальных этапах в логические схемы как нечто "обязательно-полезное". В моих "схемах" собака/кошка/рыбка/лошадь-домашнее животное "улучшающее настроение" (помогает их наличие, мешает-потеря), корова/курица/свинья/лабораторные_мышки - полезные но легко заменяемые (помогающие "покиданием системы", как доноры органов и научного интереса), тараканы/мыши/крысы/голуби - раздражающие (успокаивает их отсутсвие или даже уничтожение). Вопрос, в какую категорию у ИИ попадет человек.
[Ответ][Цитата]
Igor Gabrielan
Сообщений: 705
На: Пределы риска ИИ
Добавлено: 24 ноя 12 11:16
Вряд ли ИИ будут опираться на память о прошлых заслугах людей. Для них важны будут объективная полезность людей в настоящем и будущем. И если люди для роботов уже не будут необходимы, а польза от людей не будет оправдывать потребляемых ими ресурсов в настоящем, и не будет ожидаться эффективной или критически важной пользы в будущем, вряд ли ИИ останутся к людям дружественными.
[Ответ][Цитата]
Tester64
Сообщений: 1910
На: Пределы риска ИИ
Добавлено: 24 ноя 12 14:51
Цитата:
Вряд ли ИИ будут опираться на память о прошлых заслугах людей. Для них важны будут объективная полезность людей в настоящем и будущем.

Любая "самоорганизующаяся" система строится на "уживании" с окружающим миром. Иначе происходит перекос типа экологического истребления вида. "Живи и давай жить другим". В самом худшем случае будут резервации, зоопарки, лаборатории... Рабы из человечества по сравнению с машинами крайне неэкономичное решение. Уничтожение человечества это уже полный сбой программы (типа человеческой шизофрении и мании величия). Уничтожают только когда не могут разделить территорию, некое богатство/имущество, чуствуют опасность для себя или "религиозные" мотивы ("они не такие как мы").
[Ответ][Цитата]
Igor Gabrielan
Сообщений: 705
На: Пределы риска ИИ
Добавлено: 24 ноя 12 23:16
Нас просто приучили к мысли о холодном машинном разуме, исходящем из голой целесообразности. Противоположность - тёплый человеческий разум, окрашенный эмоциями.
Но удастся ли его сообщить машинам?

Но надо учитывать, что есть и отрицательные эмоции, негативные иррациональности.

Вдруг какой-то хакер заложит в машины чувство ненависти к белковым существам?
[Ответ][Цитата]
IvanFuture
Сообщений: 146
На: Пределы риска ИИ
Добавлено: 09 янв 13 21:04
Вопрос на самом деле кажется преждевременным, для начала необходимо понять как создать такой ИИ и возможно ли его создание в целом?
[Ответ][Цитата]
 Стр.1 (1)