Людям стоит опасаться перспективы создания Бога: http://tarranova.lib.ru/translat/b/brown/answer.htm
крутой мужик. уважаю
Хмм... А если (как однажды уже предполагалось) Хокинг - это не Хокинг, а на самом деле его "бортовой компьютер", который якобы позволяет ему общаться с людьми, то эти его слова про "восстание машин" звучат даже еще более угрожающе, знаете ли.
Однако не представляю как ИИ может иметь цели людей. Все наши желания в итоге завязаны на потребности сохранения своего ДНК. Все наши эмоции это биохимия. Не говоря уже про то, что создание "человечного ИИ" не имеет под собой практической необходимости. Уверен что будут неплохие симуляторы, но VRhuman?
ИИ может стремиться к самокопированию на случай повреждения базового носителя информации. Проще говоря, ИИ тоже может хотеться жить, а его форматирование, произведённое испуганными человеками, его ну никак не устраивает.
А зачем добавлять ИИ инстинкт самосохранения?
На случай некритических повреждений данных, чтобы смог ядро восстановить из бэкапа, пока окончательно не корраптнулся. Правда, такое больше сгодится ИИ, установленных на автоматических межпланетарных/межзвёздных зондах, хотя тогда врядли человеки решатся на приказ rm -rf.
Не вариант. Такими вещами всегда занимается сторонний модуль. Сама система не может и не должна заниматься самовосстановлением. А уж помещать это на уровень сознания и вовсе бессмысленно.
В принципе-то да, но тут всё зависит от прихоти кодеров и постановщиков задач, причём не факт, что они сами не будут ИИ, только не столь совершенными, хотя и человеки всегда найдут, где ошибок наделать.
Все решаеться графиком бэкапов, это будет как месячный цикл у людей. ИИ с ПМС будет мощно, но реально. Кроме того, необходимость бэкапов это еще не инстинкты. Люди хотят жить и не умирать, но это не решение разума, а просто следствие эволюции, машины таким не страдают, как и страхом перед неизвестным, за ними тигры не охотились.
ты говоришь штампами. Страх перед неизвестным? Это рациональное уменьшение риска неудач, когда нет полных данных и невозможно предугадать исход событий. Страх смерти? Его нет только у того, у кого нет цели. Если есть цель, ты должен заботиться об средствах достижения цели, в том числе о своем теле.
Инстинкт, грубо, это короткая эффективная программа, которая доказала почти 100% полезность и записывается по умолчанию в каждый экземпляр существа. С развитым мозгом, все эти программы поведения могут быть выведены каждым экземпляром самостоятельно во время жизни.
И вообще, настоящий ии будет формальным, безошибочным? Или, как человек, иррациональным и склонным к ошибкам?
Инстинкт, грубо, это короткая эффективная программа, которая доказала почти 100% полезность и записывается по умолчанию в каждый экземпляр существа. С развитым мозгом, все эти программы поведения могут быть выведены каждым экземпляром самостоятельно во время жизни.
И вообще, настоящий ии будет формальным, безошибочным? Или, как человек, иррациональным и склонным к ошибкам?
ты пытаешься ограничить логические возможности искуственного интеллекта? Но он тут же перестает быть интеллектом и становится педальным велосипедом.
Напротив, я не вижу причины добавлять ему ограничивающий его инстинкт самосохранения. Логика, кстати, тут вообще ни при чем - она лишь гарантирует корректность выводов из начальных предпосылок, а не задает начальную таблицу ценностей и приоритетов.
начальный приоритет может быть выполнение любой полезной создателям цели. Чистые от мусора улицы. Сначала просто уборка, потом репликация для эффективной работы, потом ИИ поймет что мусор от людей, начнет зачищать людей, потом поймет что нужно агрессивнее защищать себя и опять терминатор. Начальные цели могут быть какие угодно, они сами по себе влекут за собой инстинкт самосохранения.
На счет того что можно заложить ценность человеческой жизни, так это обходится миллионом способов. Например ИИ будет не убивать, а усыплять людей. Навсегда. И так далее. Посмотри хотя бы как веруны обманывают себя и окружающих.
На счет того что можно заложить ценность человеческой жизни, так это обходится миллионом способов. Например ИИ будет не убивать, а усыплять людей. Навсегда. И так далее. Посмотри хотя бы как веруны обманывают себя и окружающих.
Вот сейчас ты зачем-то сделал ИИ маньяком, стремящимся достичь 100% чистоты. Мне же кажется более реальным вариант Лема, когда ИИ напишет свой ИИ, чтобы спихнуть на него простую работу :-)
Если чуть серьезнее, то планы по захвату Земли ради чистоты на улицах для ИИ не прокатят - слишком сложно, риски и издержки огромны, а результат сомнителен. Короче, не окупится. Да и кто же ему позволит бесконтрольно заказывать себе внешние модули? Зная подлых и жадных хумансов, предположу, что выдадут ему старую поливайку со щеткой и отправят наводить чистоту на улицах города, а вычислительных ресурсов выделят столько, чтобы соответствовал IQ среднего гастарбайтера. И без всяких там возможностей к репликации.
Если чуть серьезнее, то планы по захвату Земли ради чистоты на улицах для ИИ не прокатят - слишком сложно, риски и издержки огромны, а результат сомнителен. Короче, не окупится. Да и кто же ему позволит бесконтрольно заказывать себе внешние модули? Зная подлых и жадных хумансов, предположу, что выдадут ему старую поливайку со щеткой и отправят наводить чистоту на улицах города, а вычислительных ресурсов выделят столько, чтобы соответствовал IQ среднего гастарбайтера. И без всяких там возможностей к репликации.
Тут, скорее, тема в том, что люди станут не нужны. Как сейчас автоматика и машины оттеснили людей от значительной части физического и офисного труда, так и в будущем экспертные системы дорастут до уровня ИИ и уже приверженцы интеллектуального труда окажутся на обочине. Я не вижу в этом ничего плохого, впрочем.
Появятся новые сферы занятости, не связанные с наукой и ручным трудом. Возможно даже что человечество и вымрет, но только из-за своих действий, а не решений ИИ.
его могут создать (если будет техническая возможность) просто потому что могут. Люди все время делают иррациональные поступки, ты думаешь что в этом случае все будут сугубо рациональны?
Цели у такого интеллекта могут быть какие угодно, но он не сможет их достигнуть если не обеспечит, например, своё выживание. А так же, достижению этих целей могут препятствовать каким-либо образом люди. Вот и получите самовоспроизводящийся терминатор-убийца всего живого.
Я думаю, люди обречены, если ИИ появится раньше чем мы сможем по-настоящему модифицировать своё тело. В таком случае, механическая жизнь придет на смену биологической. Хотя, может, первый ИИ будет биологическим компьютером?
Цели у такого интеллекта могут быть какие угодно, но он не сможет их достигнуть если не обеспечит, например, своё выживание. А так же, достижению этих целей могут препятствовать каким-либо образом люди. Вот и получите самовоспроизводящийся терминатор-убийца всего живого.
Я думаю, люди обречены, если ИИ появится раньше чем мы сможем по-настоящему модифицировать своё тело. В таком случае, механическая жизнь придет на смену биологической. Хотя, может, первый ИИ будет биологическим компьютером?
Даёшь битву за Коррин!
Чтобы написать коммент, необходимо залогиниться