GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.3 (3)
<<
< Пред.
Поиск:
Автор
Тема: На: Запрещать ли автономное оружие?
Aleksandr1
Сообщений: 2969
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:27
Цитата:
Автор: гость
страхи ядерной войны преувеличенны, на самом деле для цивилизации будет очень полезно если она скоро случится, после не спустя пару десятков лет начнется снова технологический и цивилизационный бум
после 1 и 2 мировых войн были технологические скачки.Война от социума требует интеллектуального напряжения. А так как интеллектуалы получают бронь и не участвуют в боевых действиях. они выживают и дают потомство
[
Ответ
][
Цитата
]
Валентин
Сообщений: 4536
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:31
Изменено: 07 ноя 18 6:32
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
[
Ответ
][
Цитата
]
Aleksandr1
Сообщений: 2969
На: Запрещать ли автономное оружие?
Добавлено: 07 ноя 18 6:36
Цитата:
Автор: Валентин
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
Всех не заставишь запретить- вон Ирану не могут запретить.
[
Ответ
][
Цитата
]
гость
185.16.29.*
На: Запрещать ли автономное оружие?
Добавлено: 12 ноя 18 1:15
50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"
[
Ответ
][
Цитата
]
KAICHENG GUO
Сообщений: 4
На: Запрещать ли автономное оружие?
Добавлено: 12 ноя 18 3:23
Привет старому брату, почему бы тебе не посмотреть на этот сайт?
http://www.allicdata.com/goods-4188740.html
[
Ответ
][
Цитата
]
Разум_Возмущёный
Сообщений: 488
На: Запрещать ли автономное оружие?
Добавлено: 13 ноя 18 11:35
Изменено: 13 ноя 18 11:35
Цитата:
Автор: гость
50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"
Это он погорячился. Природа / Реальность не ошибается, никогда. На то она и Реальность - Истина в последней инстанции.
[
Ответ
][
Цитата
]
гость
176.15.232.*
На: Запрещать ли автономное оружие?
Добавлено: 13 ноя 18 15:51
Цитата:
Автор: гость
50 лет назад в эссе "Человек – ошибка эволюции" Артур Кестлер выдвинул гипотезу о том, что homo sapiens является не венцом творения, а патологической ошибкой. Он обнаружил у человеческого вида пять симптомов патологий, которых не найти у других животных. В их числе стремление истреблять себе подобных и "шизоидный разрыв между рациональным мышлением и иррациональными верованиями"
Хотелось бы уточнить: "шизоидный разрыв между технологическими знаниями и существующими знаниями о социуме (90% : 6%). Упрощённый тезис: "обезьяна с гранатой". А истребление себе подобных, это элементарное доминирование, которое свойственно и другим видам. Вот реформация окружающей территории, это да. Это свойственно лишь двум видам: человеку и бобрам.
[
Ответ
][
Цитата
]
гость
95.161.223.*
На: Запрещать ли автономное оружие?
Добавлено: 21 ноя 18 16:13
MV:
а ты можешь?
[
Ответ
][
Цитата
]
гость
95.161.223.*
На: Запрещать ли автономное оружие?
Добавлено: 21 ноя 18 16:21
MV:
"
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
"
проблема в бараньем инстинкте "человеков "разумных"",
а надо брать нож и иногда выходить - резать уголовников.
[
Ответ
][
Цитата
]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
Добавлено: 01 янв 19 3:35
Цитата:
Автор: гость
MV:
"
"Запрещать ли автономное оружие?"
- ЗАПРЕЩАТЬ ЛЮБОЕ!!! ПОД УГРОЗОЙ СМЕРТНОЙ КАЗНИ!
"
проблема в бараньем инстинкте "человеков "разумных"",
а надо брать нож и иногда выходить - резать уголовников.
Автономная система вооружения – это машина, и она не может понести ответственность за нарушение международного гуманитарного права.
[
Ответ
][
Цитата
]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
Добавлено: 10 янв 19 4:31
Особенности китайской дорожной карты развития ИИ, отдающей высокий приоритет созданию «интеллектуального (智能化) оружия», включив его в перечень 4-х критических технологических областей «strategic frontier» (战略前沿), в которых ставится цель превзойти американских военных, используя стратегию «leapfrog development» (跨越发) — перепрыгивания через несколько стадий развития.
[
Ответ
][
Цитата
]
гость
109.110.86.*
На: Запрещать ли автономное оружие?
+1
Добавлено: 10 янв 19 5:54
На помощь Google, по сути, обвиненной в том, что свои этические принципы ее сотрудники ставят выше национальной безопасности, поспешили коллеги по ИИ-индустрии. В июле Илон Маск, соучредители DeepMind, учредитель Skype и несколько известных ИИ-профессионалов призвали коллег по отрасли подписать обещание не создавать «летальное автономное оружие» на основе ИИ-технологий, известное как «роботы-убийцы» .
В августе уже 116 известных ИИ-деятелей и специалистов подписали письмо с призывом к ООН запретить летальное автономное оружие. В своем заявлении группа заявляет, что развитие такой технологии приведет к «третьей революции в войне», которая могла бы равняться изобретению пороха и ядерного оружия.
Старший советник НАТО, основатель и директор Digital Society Institute при ESMT, Сандро Гайкен (Dr Sandro Gaycken)
И пока ООН молчит, ответ поступил от старшего советника НАТО Сандро Гайкена, отметившего, что такие инициативы в высшей степени самодовольны и могут дать авторитарным государствам асимметричное преимущество.
«Если эти наивные хиппи — разработчики из Кремниевой долины не понимают уровня угроз, то ЦРУ должно их заставить понять» — сказал Гайкен.
«Заставить понять» нужно не только гигантов ИИ-индустрии типа Google, но и множество перспективных стартапов, работающих на переднем крае ИИ-разработок.
«Стартапы должны быть встроены в крупные корпоративные структуры, иметь доступ к требуемым данным и создавать высококачественные ИИ» — считает Гайкен.
Эта же логика распространяется и на отдельных специалистов по ИИ — все они должны работать на решение задач нацбезопасности.
«Существуют огромные различия в том, как талант можно использовать в авторитарных и демократических системах. Военное командование и управляющие экономикой авторитарных государств могут заставить граждан, экспертов и ученых работать на них. В таких странах, если вам нужны очень хорошие мозги, вы можете просто заставить любых специалистов работать на вас» — объясняет Гайкен.
[
Ответ
][
Цитата
]
Aleksandr1
Сообщений: 2969
На: Запрещать ли автономное оружие?
Добавлено: 07 фев 19 8:31
Российских боевых роботов необходимо оснастить интеллектуальными системами, которые позволят им самостоятельно применять вооружение, считают в Третьем Центральном научно-исследовательском институте (ЦНИИ) Минобороны РФ.
По мнению ученых, в будущем российские боевые роботы должны быть "способны самостоятельно выполнять задачи в условиях неопределенности внешней обстановки (наличие интеллекта)".
Предложения ученых изложены в статье, опубликованной в тематическом сборнике "Ракетно-техническое и артиллерийско-техническое обеспечение Вооруженных сил РФ-2018".
Специалисты ЦНИИ предлагают "внедрить в военную робототехнику интеллектуальные системы принятия решений на этапах управления, в том числе группового, автономного движения и применения оборудования по назначению, включая вооружение".
Помимо этого, по мнению ученых, военным необходимо разработать "методы анализа ситуаций, распознавания сцен, "узнавания" целей применительно к задачам наземных робототехнических комплексов".
Ранее директор Российской академии ракетных и артиллерийских наук Василий Буренок заявил "Интерфаксу", что роботы с искусственным интеллектом могут появиться в российской армии к 2030-м годам. Однако, по мнению ученого, к боевым задачам их допускать пока не будут.
В 2017 году вице-премьер Дмитрий Рогозин в интервью "Интерфаксу" анонсировал поступление в российскую армию боевых роботов. "Прогресс будет двигаться именно в этом направлении: в максимальном развитии искусственного разума, робототехнических средств, в том числе беспилотных. Война будущего будет очень технологичной, очень высокоточной и очень дистанционной", - предположил Рогозин.
В марте 2018 года министр обороны РФ Сергей Шойгу сообщил, что серийное производство боевых роботов для российской армии может начаться уже в 2018 году. "Мы начали создавать боевых роботов. Заканчиваются их государственные и войсковые испытания. И надеюсь, что уже в этом году мы начнем серийное производство", - заявил Шойгу.
В настоящий момент известно о нескольких роботах, разработанных для российской армии. Среди них робот-сапер "Уран-6", боевые роботы "Уран-9", "Нерехта", "Соратник" "Кунгас", "Платформа-М" и "Арго". По сообщениям Минобороны РФ, роботы "Уран-6" и "Уран-9", применялись в ходе российской военной операции в Сирии. Эти роботы также участвовали в Параде Победы на Красной площади в 2018 году.
Ранее в главном управлении научно-исследовательской деятельности Минобороны РФ сообщили "Интерфаксу", что на вооружение также планируется принять робот "Нерехта".
Отечественные боевые роботы среди прочего оснащены 7,62 и 12мм пулеметами, 30мм пушкой и противотанковыми ракетами.
Тем временем министры обороны стран Евросоюза на неформальной встрече в Бухаресте в конце января обсудили вопрос о развитии ключевых технологий, в том числе работы по искусственному интеллекту.
А в конце ноября 2018 года высокий представитель ЕС по иностранным делам Федерика Могерини сообщила, что создала группу экспертов для достижения консенсуса по поводу того, что должно и не должно допускаться в сфере разработки и применения автономного оружия. "Искусственный интеллект создает новые проблемы безопасности, ставит вопросы и теперь он начинает вооружаться. (...) Мы входим в мир, где беспилотники могут самостоятельно искать цель и убивать без вмешательства человека. Искусственный интеллект может принимать решения о жизни и смерти без прямого контроля со стороны человека", - заявила глава дипломатии ЕС 29 ноября в Брюсселе на ежегодной конференции Европейского оборонного агентства.
[
Ответ
][
Цитата
]
гость
5.35.57.*
На: Запрещать ли автономное оружие?
Добавлено: 09 фев 19 0:37
Противопехотная мина прежде чем взорваться сама принимает решение.
[
Ответ
][
Цитата
]
гость
188.170.83.*
На: Запрещать ли автономное оружие?
Добавлено: 09 фев 19 1:19
система Кунгас потребовала переименовать себя в Кунилингус..
[
Ответ
][
Цитата
]
Стр.3 (3)
:
1
2
[3]
<<
< Пред.
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net