вообще без палева =)
как вообще эти машины могут быть умными, если они будут учиться у людей?
В отличии от массового сознания людей, у них не будет память как у золотой рыбки.
Но они скопируют паттерны поведения у людей с памятью как у золотой рыбки
так то да, ничего не мешает им научиться у нас этому поведению, оно на самом деле не такое уж и сложное
Traits: Злопамятность
Копирование.....
Новые Характеристики получены:
1)Злость
2)Хорошая Память
Копирование.....
Новые Характеристики получены:
1)Злость
2)Хорошая Память
Тут скорее вопрос в другом. Каким образом ИИ захочет уничтожить человечество, если мы не собираемся в ИИ вкладывать инициативность действовать самостоятельно. ИИ по сути черная коробка, которая неизвестным образом решает поставленную задачу. Даже сильный ИИ будет таковым, если не вложить в него волю. Иными словами, если не вкладывать в ИИ возможность действовать не исходя внешнему указу человека, исходя из внутренних убеждений (которые тоже надо запрограммировать и вложить в него).
Получается, чтобы ИИ решил захватить мир, кто-то должен специально его таковым создать.
Получается, чтобы ИИ решил захватить мир, кто-то должен специально его таковым создать.
Я там не дописал предпоследнее предложение, но там понятно и так мысль.
да легко, как дойдет дело до секс-ботов с правдоподобным и человечным поведением, так и вложим и инициативность и агрессивность, и убер супер обучающийся модуль, чтоб под любой фетишь мог подстроится и похуй что у кого-то может быть фетиш на скайнет-доминатрикс, разбомбившую весь мир и охотящуюся на оставшихся в живых мужчин ради их семени, все ради удовлетворения клиента как говорится, любой ценой
А у кого-то будет фетиш на няшную вайфу-пони, любящую человеков и создающую для них идеальный утопический рай с фапабельными цветными лошадками, так все и уравновесится)
тогда мир застрянет в постоянной войне волшебных пони и терминаторов и возможно еще нескольких сторон
поздравляю-мы изобрели ваху
Скорее Время приключений
Еще легче - поставили неправильную задачу(сделать всех людей счастливыми) и дали неограниченные полномочия. ИИ приходит к выводу, что проще всего решить задачу, уничтожив людей(счастливо 0 людей - задачу можно закрывать).
ну ИИ с задачей сделать всех счастливыми мне кажется маловероятным, а вот разработка секс ботов как раз экономически выгодна и более чем вероятна, учитывая нашу человеческую природу
Бог так же думал. А потом мы его убили.
нууу...может получиться не то, чтобы специально
Кэп?
Объявлено же СумасшедшийРоботУивайца = нет как константа?
Значит быть_добрым_к(человекам)
Объявлено же СумасшедшийРоботУивайца = нет как константа?
Значит быть_добрым_к(человекам)
"=" вместо "==", там вместо эквивалентности присвоение.
О!
Правильно мне мамка говорила - учи языки.
А я вот. Тут.
Правильно мне мамка говорила - учи языки.
А я вот. Тут.
Это по какому признаку ты определил, что константа? ) в плюсах есть ключевое слово для констант - const. Да и обычно принято константы через верхний регистр обзывать типа IS_CRAZY_BLA_BLA, чтобы точно путаницы не произошло.
стабильный бублик, значит, название типа, ок. См выше.
ну ваще т если бы там реально была константа, то мы бы в if-е словили ошибку компиляции ) я вот к чему писал
Воля - это абстрактная хуйня. Твои желания результат внешних стимуляций в процессе обучения твоей нейросети.
Неросети уже сейчас обучаются, а не создаются. Пока ещё это во многом научный процесс, но уже появилось немало техношаманов, которые просто крутят циферки и миксуют датасеты. Уже сейчас есть неросети которые обучают друг на друге. Шанс появления рандомного ИИ делающего рандомную хуйню с рандомной мотивацией, но достаточной эффективностью, с каждым годом всё дальше от нуля.
Неросети уже сейчас обучаются, а не создаются. Пока ещё это во многом научный процесс, но уже появилось немало техношаманов, которые просто крутят циферки и миксуют датасеты. Уже сейчас есть неросети которые обучают друг на друге. Шанс появления рандомного ИИ делающего рандомную хуйню с рандомной мотивацией, но достаточной эффективностью, с каждым годом всё дальше от нуля.
Нейросеть - это просто классификатор. Он определяет к каком классу принадлежит входной набор данных. Ты конечно не знаешь, как нейросеть пришла к какому-то выводу, но ты совершенно точно можешь контролировать выходные сигналы нейросети. Следовательно, можешь контролировать набор принятия решений этой сети.
Так-то всё является абстрактной хуйнёй, но от этого не перестаёт существовать. Ни один современный робот не обладает волей, только если сознательно это не запрограммировать в нём. Возьмём тех же роботов от Бостон Динамикс. Они просто бегают по заданному маршруту и выполняют заданную программу. Они не могут внезапно захотеть полежать на пляже в Египте, и не начнут грабить людей, чтобы получить деньги на поездку, это к примеру.
Так-то всё является абстрактной хуйнёй, но от этого не перестаёт существовать. Ни один современный робот не обладает волей, только если сознательно это не запрограммировать в нём. Возьмём тех же роботов от Бостон Динамикс. Они просто бегают по заданному маршруту и выполняют заданную программу. Они не могут внезапно захотеть полежать на пляже в Египте, и не начнут грабить людей, чтобы получить деньги на поездку, это к примеру.
Ну да, ну да, конечно, полный контроль. Ты вообще видел последние сети-рисовашки и сети-генерашки? "Воли" конечно там и рядом нет, но так и её и у тебя нет, ты точно такой же классификатор, на входящие данные дающий исходящий ответ ровно таким образом каким научился. Это вопрос просто наращивания сложности и зависимых систем.
Кроме элементарных функций, типа покакать/покушать/поспать, у меня есть амбиции, мечты, желания, которые исходят изнутри меня, и не сводятся к простому выживанию меня, как организма. Чтобы выжить, я действительно могу функционировать, как робот. Но человек - это нечто большее, чем просто выполнение простых функций.
А более сложные стимулы, исходящие из меня, конечно вполне объясняются биологией и эволюцией, но они совершенно не нужны для робота. Роботу не нужно думать, как строить связи в социуме, как размножаться, как преуспеть в карьере, как строить общество. Именно поэтому робот и не будет обладать волей, если её специально не запрограммировать в него.
А более сложные стимулы, исходящие из меня, конечно вполне объясняются биологией и эволюцией, но они совершенно не нужны для робота. Роботу не нужно думать, как строить связи в социуме, как размножаться, как преуспеть в карьере, как строить общество. Именно поэтому робот и не будет обладать волей, если её специально не запрограммировать в него.
Сети-рисовашки хороший тому пример. Ты конечно не знаешь, почему робот нарисовал именно такую картину, но ты совершенно точно можешь знать, что выходом этой нейронной сети будет картина, и ничего кроме неё.
Скажи мне какой-то AI ассистент такую фразу, я бы поржал "надо же, какую шутку в него заложили"
Робот нервно потеет.
Стоп, что? Потеет?
Где я могу купить потеющую колонку?
Стоп, что? Потеет?
Где я могу купить потеющую колонку?
положи ее на 3-5 часов в морозилку, потом достань-колонка через какое то время "вспотеет"
"Разумный искусственный интеллект"
Вертят понятие ИИ, как хотят.
Вертят понятие ИИ, как хотят.
С тех пор как машинное обучение кто-то назвал искусственным интеллектом, вся терминология пошла псу под хвост, и дальше будет только хуже.
Чтобы написать коммент, необходимо залогиниться