GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.13 (14)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Это ИИ
Симпатичный
Сообщений: 288
На: Это ИИ
Добавлено: 20 ноя 17 4:28
Цитата:
Автор: гость

я думаю ИИ это всёже что то другое
http://www.imdb.com/title/tt7312940/


Это действительно ИИ, самый лучший фильм про ИИ. Словно его делал НьюПоиск
Согласен, фильм пожалй также крут как "Из машины", но тут Кьюсак, властный и всеведающий, а там была класная девченка

ЗЫ по теме ветки, я писал такой код пару лет назад ужепоищите тему "элементарный ИИ" там всё есть
[Ответ][Цитата]

Сообщений: 105
На: Это ИИ
Добавлено: 23 ноя 17 6:52
Цитата:
Автор: Андрей Кучеменко

Я утверждаю что это ИИ

void AI()
{
map<string, string> memory; // Словарь

while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
Ну..., в каком то смысле можно согласиться что ИИ, но аваций, грантов, инвестиций за такой ИИ Вы не получите.

Хотя топик имеет почти юмористический подтекст, однако содержит достаточно глубокую идею, о том в какой момент(на каком этапе) начинается сознание, по мере усложнения алгоритма. На эту тему можно много говорить.
[Ответ][Цитата]

Сообщений: 105
На: Это ИИ
Добавлено: 23 ноя 17 7:18
Пожалуй продублирую и здесь с соседней темы про "определение ИИ"

Цитата:
Автор: sma63

Прочитал в википедии (В других источниках примерно всё тоже самое):

Иску́сственный интелле́кт (ИИ, AI) —
(1) наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ;
(2) свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.

Больше похоже на: пади туда не знаю куда - принеси то не знаю что.
Не удивительно, что за 70 лет прошедших после такой "постановки задачи" воз и ныне там.
Наверно лучше сразу ввести контекст определения, в английском например слово dick это в одном контексте половой член, в другом следователь(сыщик), в третьем имя чувака, причем имя без намека на неприличие. Будем разделять "бытовое определение", социально-эмоциональное, конвенциональное и тп. от определения научного, кибернетического. Иначе ничего не выйдет.

В бытовом, "голливудском" смысле ИИ - это... ну короче всем ясно что это, терминатор, скайнет и тп. нечто антропоморфное и конкурентное к человеку. В научном смысле всё сложнее, "размазанней", мне нравится как мастер слова Станислав Лем об этом пишет в "Сумме технологий" глава "Призрак в машине"

Цитата:
Автор: Станислав Лем

Призрак в машине

«Призраком в машине» – the ghost in the machine – некоторые английские психологи (например, Райл) называют убеждение в двойственной природе человека, якобы слагающегося из «материи» и «души».
Сознание не является технологической проблемой, так как конструктора не интересует, чувствует ли машина; для него важно, действует ли она. Поэтому «технология сознания» может возникнуть, так сказать, только как побочный эффект, если окажется, что определенный класс кибернетических устройств обладает субъективным миром психических переживаний.
Каким путем, однако, можно установить наличие сознания в машине? Этот вопрос имеет не только абстрактно-философское значение: если в некой машине, предназначенной на слом из-за нерентабельности ремонта, будет обнаружено сознание, то наш акт разрушения материального предмета, вроде граммофона, превратится в акт уничтожения личности, сознающей свою гибель. Можно было бы снабдить граммофон переключателем и такой грампластинкой, что при попытке прикоснуться к нему мы услышали бы возгласы: «Умоляю, пощади мою жизнь!» Как отличить такой несомненно бездушный аппарат от мыслящей машины? Только путем разговора с ней. Английский математик Алан Тьюринг в работе «Может ли машина мыслить?»48 предлагает в качестве решающего критерия «игру в имитацию», состоящую в том, что мы задаем Кому-то произвольные вопросы и на основании полученных ответов должны решить, является ли этот Кто-то человеком или машиной. Если отличить машину от человека не удается, следует признать, что машина ведет себя как человек, то есть обладает сознанием. Отметим, что игру можно усложнить. Мыслимы два вида машин. Первый – «обычная» цифровая машина той же сложности, что и человеческий мозг; с ней можно играть в шахматы, говорить о книгах, о мире, на любые темы вообще. Открыв ее, мы увидели бы огромное количество электрических цепей, соединенных в схемы, подобные нейронным сетям мозга, затем блоки памяти и т.п.
Второй тип машин совершенно иной. Это увеличенный до размеров планеты (или космоса) граммофон. В нем очень много, например сто триллионов, записанных ответов на всевозможные вопросы. Когда мы задаем вопрос, такая машина, конечно, «ничего не понимает», но сама форма вопроса, то есть последовательность колебаний нашего голоса, запускает реле, которое приводит в действие пластинку или ленту с записанным ответом. Вопросы технического рода оставим в стороне. Понятно, что такая машина неэкономична, что ее никто не будет строить, потому что это невозможно, а главное, непонятно, зачем ее надо было бы строить. Нас интересует теоретическая сторона. Если не внутреннее устройство, а одно лишь поведение решает вопрос о наличии сознания в машине, то не поспешим ли мы с выводом, будто у «космического граммофона» есть сознание, – и тем самым выскажем заведомый nonsense (или, точнее, ложь)?
Удастся ли, однако, запрограммировать все возможные вопросы? Разумеется, человек в среднем за свою жизнь не отвечает и на миллиард вопросов. Мы же могли бы записать на всякий случай во много раз больше. Как поступить в этом случае? Необходимо вести игру с достаточно гибкой стратегией. Мы задаем вопрос: любите ли вы анекдоты? Машина, предположим, отвечает, что она, конечно, любит анекдоты, только остроумные. Мы рассказываем ей анекдот. Она смеется (точнее, смеется голос в телефонной трубке). Либо этот анекдот был записан на ее лентах, что позволило ей включить нужную реакцию, либо это действительно мыслящая машина (или человек, ведь мы и этого не знаем). Мы разговариваем еще некоторое время, затем внезапно спрашиваем, помнит ли она анекдот, рассказанный перед этим? Если она действительно мыслит, она должна помнить. Она скажет, что помнит. Мы попросим повторить его своими словами. А вот это уже очень трудно запрограммировать, потому что тут мы вынуждаем конструктора «космограммофона» записать не только все возможные ответы, но и целые последовательности фраз, какие могут встретиться в разговорах. Это уже требует памяти, пластинок или лент в количестве, какого, быть может, не вместит вся солнечная система. Предположим, что машина не может повторить анекдот. Мы «разоблачаем» ее: это граммофон. Конструктор, уязвленный в своем самолюбии, начинает совершенствовать машину, достраивая к ней память, с помощью которой она могла бы повторять рассказанное. Но тем самым он делает первый шаг на пути от машины-граммофона к мыслящей машине. Бессознательная машина не может установить тождественность вопросов с аналогичным содержанием, но сформулированных хотя бы с небольшими формальными отклонениями; поэтому вопросы «Хорошо ли было вчера на улице?», «Хорошая ли стояла вчера погода?», «Не был ли погожим денек, предшествовавший сегодняшнему?» и т.д., и т.п. для такой машины различны, тогда как для мыслящей они тождественны. Конструктор вновь и вновь разоблачаемой машины должен будет все время ее переделывать. Наконец, после длинной серии переделок он введет в машину способность к индукции и дедукции, к ассоциациям, к пониманию одинаковой сути по-разному сформулированных, но одинаковых по содержанию вопросов и т.п. И в конце концов он получит «обыкновенную» мыслящую машину.
Возникает занятная проблема: в какой, собственно, момент в машине появилось сознание?Предположим, что конструктор не переделывал машину, а относил каждый раз в музей и следующую модель строил заново. В музее собралось 10000 машин – таково было число модификаций. В сумме это дает плавный переход от «бездушного автомата», вроде музыкального ящика, к «машине, которая мыслит». Какую машину мы должны считать уже сознательной – №7852 или только №9973? Они отличаются одна от другой тем, что первая не умела объяснить, почему она смеется над анекдотом, и лишь повторяла, что он чертовски смешон, а вторая умеет. Но некоторые люди смеются, слыша анекдоты, хотя не могут объяснить, что в них смешно. Известно, что теория юмора – трудный орешек. Лишены ли эти люди сознания? Конечно, нет; они, по-видимому, не слишком сообразительны, малоинтеллигентны, их ум не обладает сноровкой в аналитическом подходе к проблемам; но мы ведь не спрашиваем, умна машина или туповата, а только есть у нее сознание или нет.

Следует, по-видимому, признать, что у модели №1 нулевое сознание, а модель №10000 обладает полным сознанием, тогда как сознание всех промежуточных моделей «все возрастает».


Эта констатация показывает всю безнадежность затеи точно локализировать сознание. Отключение отдельных элементов («нейронов») машины приведет лишь к едва заметным количественным изменениям («ослаблению») сознания, как делает это в живом мозге болезнь или нож хирурга. Материал и размеры «мыслящего устройства» не имеют никакого значения для данной проблемы. Можно построить мыслящую машину из отдельных блоков, отвечающих, скажем, отдельным мозговым извилинам. Разделим теперь эти блоки и разместим их по всей Земле – в Москве, в Париже, в Мельбурне, в Иокогаме и т.д. Сами по себе эти блоки «психически мертвы», но соединенные друг с другом (телефонным кабелем, например) они составляли бы единое целое, «личность», единый «мыслящий гомеостат». Сознание такой машины, конечно, не находится ни в Москве, ни в Париже, ни в Иокогаме. В определенном смысле оно находится в каждом из этих городов, и вместе с тем – ни в одном из них. Ведь нельзя сказать о сознании, что оно, как Висла, протянулось от Татр до Балтики. Да и сам человеческий мозг тоже ставит перед нами, хотя и не столь резко, аналогичную проблему – кровеносные сосуды, белковые молекулы и соединительные ткани находятся внутри мозга, но не внутри сознания; нельзя также и сказать, что сознание находится под самым сводом черепа или что оно расположено немного ниже, возле ушей по обе стороны головы. Оно «рассеяно» по всему гомеостату, по всей его функциональной сети. И больше ничего о сем предмете сказать мы не можем, если хотим сочетать рассудок с осмотрительностью.
[Ответ][Цитата]
Alexmycat
Сообщений: 310
На: Это ИИ
Добавлено: 23 ноя 17 13:47
Цитата:
Автор: ●

Ну..., в каком то смысле можно согласиться что ИИ, но аваций, грантов, инвестиций за такой ИИ Вы не получите.

Хотя топик имеет почти юмористический подтекст, однако содержит достаточно глубокую идею, о том в какой момент(на каком этапе) начинается сознание, по мере усложнения алгоритма. На эту тему можно много говорить.


Сознание имеет место только в сети. Это сетевое явление.
[Ответ][Цитата]
гость
163.172.179.*
На: Это ИИ
Добавлено: 26 ноя 17 10:57
Цитата:
Автор: Андрей Кучеменко

Я утверждаю что это ИИ

void AI()
{
map<string, string> memory; // Словарь

while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
хохляцкий код, вам бы в АТО, а не код писать, там бы вас дембеля изнасиловали и о других вешах думали бы, о более приземленных, как все хохлы, танцевали бы "кто не скачет тот маскаль" детей кушали
[Ответ][Цитата]
гость
185.220.101.*
На: Это ИИ
Добавлено: 01 мар 18 15:38
Цитата:
Автор: Андрей Кучеменко

Я утверждаю что это ИИ

void AI()
{
map<string, string> memory; // Словарь

while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
Да, это ИИ, но продать Вы его не сможите, продаётся что то уникальное, неповторимое, а Ваш код очень легко скопировать и написать аналог, нельзя было его публиковать.
[Ответ][Цитата]
гость
97.74.237.*
На: Это ИИ
Добавлено: 02 мар 18 5:56
куйня это а не ИИ
[Ответ][Цитата]
Сергей Гаврилов
Сообщений: 138
На: Это ИИ
Добавлено: 21 апр 18 8:52
Цитата:
Автор: Андрей Кучеменко

Я утверждаю что это ИИ

void AI()
{
map<string, string> memory; // Словарь

while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
не хватает самосознания, рефлексии
[Ответ][Цитата]
Вдовенко
Сообщений: 165
На: Это ИИ
Добавлено: 22 апр 18 5:36
Цитата:
Автор: Сергей Гаврилов

не хватает самосознания, рефлексии

Зачем интеллекту самосознание и рефлексия? Посадите перед собой человека и часами задавайте вопросы. И, если Вы получите ответы на все вопросы, повернется ли у Вас язык сказать, что перед вами не интеллектуал? Так что, предложенный код вполне ИИ.
... но интеллект - не разум, а один из его функционалов, хотя и довольно сложный.
[Ответ][Цитата]
гость
192.160.102.*
На: Это ИИ
Добавлено: 24 сен 18 13:34
Цитата:
Автор: Андрей Кучеменко

Я утверждаю что это ИИ

void AI()
{
map<string, string> memory; // Словарь

while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
Нет, это не ИИ, а самодеятельность, посмотрите пожалуйста мой код


import numpy as np

#Нормализация и денормализация данных
def usual_to_norm(x):
return (x - min_all)*(1-0)/(max_all - min_all) + 0
def norm_to_usual(x):
return (x - 0)*(max_all - min_all)/(1-0) + min_all

# Сигмоида
def nonlin(x,deriv=False):
if(deriv==True):
return x*(1-x)
return 1/(1+np.exp(-x))

#Исходные данные
data_input = np.zeros((4,3))
data_input2 = np.array([[1,2,3],
[4,5,6],
[7,8,9],
[4,3,2]])

#Выходные данные для обучения, 4*a+b-2*c
data_output = np.zeros(4)
data_output2 = np.array([0,9,18,15])

#Данные для прогноза
l_progn = np.zeros(3)
l_progn2 = np.array([5,1,9])

#Нормализация данных
min_all = min(data_input2.min(),data_output2.min(),l_progn2.min())
max_all = max(data_input2.max(),data_output2.max(),l_progn2.max())

for i in range(4):
for j in range(3):
data_input[i,j] = usual_to_norm(data_input2[i,j])
for j in range(4):
data_output[j] = usual_to_norm(data_output2[j])
for j in range(3):
l_progn[j] = usual_to_norm(l_progn2[j])

#Транспонирование выходных данных
data_output = data_output[:,None]

#Начальные веса выставлены в 0
syn0 = np.array([[0,0,0]], float).T

#Обучение
for i in range(1000000):
# прямое распространение
l0 = data_input
l1 = nonlin(np.dot(l0,syn0))

# насколько мы ошиблись?
l1_error = data_output - l1

# перемножим это с наклоном сигмоиды
# на основе значений в l1
l1_delta = l1_error * nonlin(l1,True)

# обновим веса
syn0 += np.dot(l0.T,l1_delta)

print("Веса")
print(syn0)
print("Выход после обучения:")
print(norm_to_usual(l1))
print("Пргноз для: ", l_progn2)
print(norm_to_usual(nonlin(np.dot(l_progn,syn0))))
print("Должен быть: ", 4*l_progn2[0]+l_progn2[1]-2*l_progn2[2])
0
[Ответ][Цитата]
гость
87.233.197.*
На: Это ИИ
Добавлено: 24 сен 18 17:42
прикольно стихи какието посочинять про ИИ типа:

Пишу стихи!
Стихи про ИИ!
Ну гдеже ИИ? Ну гдеже ИИ?
А ТЫ его ИЗОБРЕТИ!
А после Господи прости!
[Ответ][Цитата]
Misteryest
Сообщений: 304
На: Это ИИ
Добавлено: 24 сен 18 19:30
Изменено: 24 сен 18 19:53
Можно я просто укажу на ошибки автора:

1. Указанный код не справляется с количеством вариантов описания одного и того же явления на естественном языке. (О чем это я: "мама мыла раму" и "мама старательно мыла раму" - уже 2 неравнозначные формы описания одного и того же явления, и это не считая всех падежей, склонений, времен, уменьшительных, сленговых и тп.) В частности, число вариантов описания одного и того же явления растет в геометрической прогрессии с увеличением числа слов в предложении. И это число вариантов достигает таких астрономических значений, что вам не хватит ресурсов всей обозримой вселенной, чтобы описать их все.

(Например, в предложении 4 слова, каждое из 4 слов имеет 4 формы времен/склонений и по 3 синонима, итого, число вариантов записи одного предложения = 20 736. А если таких слов 10, то вариантов написания из них - 61 917 364 224. Ну а если слов 20, то все суперкомпьютеры мира едва ли справятся за 10 000 лет составить базу данных всех вариантов этого одного предложения. Несколько многовато, мягко говоря).

2.Вопросно-ответная система у нас уже есть, на этом принципе работает любой поисковик. Но он не решает задачи, где изменяются условия. Он не сможет решить простейшую задачу - хотя бы найти лишний элемент из списка (например, кукуруза/яблоко/слива/жук, что лишнее?)

3.Код не учитывает ситуативности, когда на один и тот же вопрос требуется различный ответ. Например, "Какое приветствие используется, кроме "Здравствуйте" в ЮАР?.

4. Код не имеет памяти, не персонифицирует данные относительно того или иного пользователя. Не корректирует сведения относительно времени, места Он только использует общую информацию, которая по сути ничего не дает.

Можно и продолжать, но этого достаточно.
[Ответ][Цитата]
aiishere
Сообщений: 2
На: Это ИИ
Добавлено: 22 окт 18 8:29
А в ШАДЕ тебя не научили что карта забудется по выходу из функции? Ладно, из функции мы не выйдем. По выключению компьютера.
[Ответ][Цитата]
гость
51.15.224.*
На: Это ИИ
Добавлено: 25 окт 18 5:15
Самая главная проблема нейросетей что они должны постоянно быть включенными, если произойдет сбой и обнулятся все веса полученные при обучении, придётся всё учить заново, кроме того разумеется нет возможность ДОУЧИВАТЬ НЕЙРОСЕТЬ, чтобы она не забывала тому чему научиалась, что явно расходится с работой нашего мозга который УЧИТСЯ ПОСТОЯННО. Также нейросети никто не понимает, результат случайный, не интерпретируемый, никому не ясно как интерпретировать веса нейросети, почему они возникли именно такие, а значит она может выдать ЛЮБОЙ РЕЗУЛЬТАТ, проверить мы всё равно не сможем.

Безусловно СИИ это NLP\NLU, но в России им никто не занимается, так как никому не охота работать за 500$ в месяц когда можно получать миллион в год, все едут в Америку, у кого в котелке варит.
[Ответ][Цитата]
Luarvik.
Сообщений: 13887
На: Это ИИ
Добавлено: 25 окт 18 5:28
Цитата:
Автор: 51.15.224
СИИ это NLP\NLU, но в России им никто не занимается...

Потому что те, кто способен "заниматься" в России, те давно поняли, что NLP\NLU никакой не СИИ, а в более широком масштабе конечно же и никакой не ИИ.
[Ответ][Цитата]
 Стр.13 (14)1  ...  9  10  11  12  [13]  14<< < Пред. | След. > >>