GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.3 (3)<< < Пред.   Поиск:  
 Автор Тема: На: Запрещать ли автономное оружие?
Aleksandr1
Сообщений: 2772
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:27
Цитата:
Автор: гость

страхи ядерной войны преувеличенны, на самом деле для цивилизации будет очень полезно если она скоро случится, после не спустя пару десятков лет начнется снова технологический и цивилизационный бум
после 1 и 2 мировых войн были технологические скачки.Война от социума требует интеллектуального напряжения. А так как интеллектуалы получают бронь и не участвуют в боевых действиях. они выживают и дают потомство
[Ответ][Цитата]
Валентин
Сообщений: 3315
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:31
Изменено: 07 ноя 18 6:32
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
[Ответ][Цитата]
Aleksandr1
Сообщений: 2772
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:36
Цитата:
Автор: Валентин

"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
Всех не заставишь запретить- вон Ирану не могут запретить.
[Ответ][Цитата]
гость
185.16.29.*
На: Запрещать ли автономное оружие?
Добавлено: 12 ноя 18 1:15
50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"
[Ответ][Цитата]
KAICHENG GUO
Сообщений: 4
На: Запрещать ли автономное оружие?
Добавлено: 12 ноя 18 3:23
Привет старому брату, почему бы тебе не посмотреть на этот сайт?
http://www.allicdata.com/goods-4188740.html
[Ответ][Цитата]
Разум_Возмущёный
Сообщений: 465
На: Запрещать ли автономное оружие?
Добавлено: 13 ноя 18 11:35
Изменено: 13 ноя 18 11:35
Цитата:
Автор: гость
50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"

Это он погорячился. Природа / Реальность не ошибается, никогда. На то она и Реальность - Истина в последней инстанции.
[Ответ][Цитата]
гость
176.15.232.*
На: Запрещать ли автономное оружие?
Добавлено: 13 ноя 18 15:51
Цитата:
Автор: гость

50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"


Хотелось бы уточнить: "шизоидный разрыв между технологическими знаниями и существующими знаниями о социуме (90% : 6%). Упрощённый тезис: "обезьяна с гранатой". А истребление себе подобных, это элементарное доминирование, которое свойственно и другим видам. Вот реформация окружающей территории, это да. Это свойственно лишь двум видам: человеку и бобрам.
[Ответ][Цитата]
гость
95.161.223.*
На: Запрещать ли автономное оружие?
Добавлено: 21 ноя 18 16:13
MV:
а ты можешь?
[Ответ][Цитата]
гость
95.161.223.*
На: Запрещать ли автономное оружие?
Добавлено: 21 ноя 18 16:21
MV:
"
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
"
проблема в бараньем инстинкте "человеков "разумных"",
а надо брать нож и иногда выходить - резать уголовников.
[Ответ][Цитата]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
Добавлено: 01 янв 19 3:35
Цитата:
Автор: гость

MV:
"
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
"
проблема в бараньем инстинкте "человеков "разумных"",
а надо брать нож и иногда выходить - резать уголовников.
Автономная система вооружения – это машина, и она не может понести ответственность за нарушение международного гуманитарного права.
[Ответ][Цитата]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
Добавлено: 10 янв 19 4:31
Особенности китайской дорожной карты развития ИИ, отдающей высокий приоритет созданию «интеллектуального (智能化) оружия», включив его в перечень 4-х критических технологических областей «strategic frontier» (战略前沿), в которых ставится цель превзойти американских военных, используя стратегию «leapfrog development» (跨越发) — перепрыгивания через несколько стадий развития.
[Ответ][Цитата]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
Добавлено: 10 янв 19 5:54
На помощь Google, по сути, обвиненной в том, что свои этические принципы ее сотрудники ставят выше национальной безопасности, поспешили коллеги по ИИ-индустрии. В июле Илон Маск, соучредители DeepMind, учредитель Skype и несколько известных ИИ-профессионалов призвали коллег по отрасли подписать обещание не создавать «летальное автономное оружие» на основе ИИ-технологий, известное как «роботы-убийцы» .

В августе уже 116 известных ИИ-деятелей и специалистов подписали письмо с призывом к ООН запретить летальное автономное оружие. В своем заявлении группа заявляет, что развитие такой технологии приведет к «третьей революции в войне», которая могла бы равняться изобретению пороха и ядерного оружия.

Старший советник НАТО, основатель и директор Digital Society Institute при ESMT, Сандро Гайкен (Dr Sandro Gaycken)
И пока ООН молчит, ответ поступил от старшего советника НАТО Сандро Гайкена, отметившего, что такие инициативы в высшей степени самодовольны и могут дать авторитарным государствам асимметричное преимущество.

«Если эти наивные хиппи — разработчики из Кремниевой долины не понимают уровня угроз, то ЦРУ должно их заставить понять» — сказал Гайкен.

«Заставить понять» нужно не только гигантов ИИ-индустрии типа Google, но и множество перспективных стартапов, работающих на переднем крае ИИ-разработок.

«Стартапы должны быть встроены в крупные корпоративные структуры, иметь доступ к требуемым данным и создавать высококачественные ИИ» — считает Гайкен.

Эта же логика распространяется и на отдельных специалистов по ИИ — все они должны работать на решение задач нацбезопасности.

«Существуют огромные различия в том, как талант можно использовать в авторитарных и демократических системах. Военное командование и управляющие экономикой авторитарных государств могут заставить граждан, экспертов и ученых работать на них. В таких странах, если вам нужны очень хорошие мозги, вы можете просто заставить любых специалистов работать на вас» — объясняет Гайкен.
[Ответ][Цитата]
 Стр.3 (3)1  2  [3]<< < Пред.