Проходя по второму разу The Red Strings Club,я задался вопросом который поднимается в игре. Можно ли давать ИИ возможность принимать решение? Будет ли это правильно?Может дать ии шанс? Разрешить принимать решении ИИ,ИИ не будет поддаваться настроению,У ИИ не будет предрасположенностей к тому или иному человеку, ИИ нельзя будет дать взятку в суде и даже те решения которые будут приводить к смерти человека - запрограмировать так -чтоб человеку наносился минимальный вред или же на крайний случай Красная Королева (Убить единицы чтоб спасти миллионы).Или же ии должен выполнять простые команды но не в коем случаи не принимать решение -люди должны сами вершить свою судьбу а не машины. Машины не должны стоять над человеком чтоб принимать решения.9Терминатор смотрели знаем что может быть)
ИИ разрешить принятие любых решений
ИИ можно принимать любые решение
505(34,57%)
ИИ категорически запрещено принимать любые решение
105(7,19%)
ИИ Разрешено принимать решения с минимальной долей отвественности и которые не могут повредить человеку (вроде автоматической починки линий связи или водопровода при возникновении проблемы)
526(36%)
ИИ можно принимать любые решение но более серьезные решения (вроде судебных приговоров) оставить человеку.
325(22,25%)
Вот как раз серьёзные решения, вроде судебных приговоров, я бы не доверил именно человеку, а не ИИ. Слишком уж часто люди ошибаются.
Именно так. ИИ не обязан быть идеальным, ИИ достаточно лишь ошибаться меньше, чем люди. Что в принципе не особо сложно. Существуют случаи, когда даже не ИИ, а простой алгоритм, записанный на бумажке, давал результаты лучше, чем решение людей-экспертов. Например, так было с признаками здоровья новорождённых (шкала Алгар, если не ошибаюсь).
Не то что ошибаются. люди слабы. так что да. пускай ИИ принимает судебные решения.... только пусть в громких делах. в них зачастую легче... плюс в мелких может быть лютый пиздец. мы ведь все смотрели час суда не так ли?
Что значит "серьезные решения"? Как отличить серьезное решение от несерьезного? Единственный ответ на это - жизненный опыт. Я сейчас не о мудрых старцах, а о том, что человек проживает внутри аналогового пузыря восприятия. Мы получаем 4-мерную физическую модель мира + опыт общения с окружающими живыми существами. Я бы хотел узнать, как ИИ может получить такой же опыт? Тут надо оговориться, что я веду речь не просто о самообучающейся цифровой сущности (типа ИИ из Терминатора), а о цифровом сознании. Что такое сознание объяснить, конечно, сложно (именно потому некоторые мамкины материалисты любят спекулировать на предмет его отсутствия), но если совсем уж примитивно, то сознание - это совокупность самоосознания (вычерчивание границ "я" и выделение себя из фона) и индивидуальности (а это личный опыт проживания + индивидуальная физиология мозга и эндокринной системы) . Сознание для человека является эволюционной необходимостью, т.к. если бы его не было, то наша мыслительная деятельность варьировалась бы только от внешних факторов, си речь - вводных данных. Я это к тому, что возникновение Искусственного сознания необходимо для решения задач ИИ (почитайте о технологической сингулярности), потому что ИИ без этого будет просто одинаковым, т.к. цифровые условия, в отличии от нашей реальности неизменны, что свидет на нет вариативность решений, которые ИИ принимает. Сейчас в нейросетях людям приходится вносить специально вариации условий для этого, но мы же говорим о самостоятельном ИИ?
Так вот, я к тому что Искусственное Сознание не сможет принимать "серьезные решения", типа судебных приговоров, т.к. будет попросту не иметь надлежащего опыта существования в нашей Вселенной (оно "живет" в компьютере, в пространстве двоичного кода, где нет гравитации, светового дня, пончиков и похоти). Потому сам по себе вопрос поставлен некорректно. Может быть такой ИИ будет обладать своими эмоциями и даже привязанностями в аналоговом мире (дружить с людьми, которые с ним работают и обслуживают, или например, ухаживать за растениями в автоматической оранжерее, оно расстроится, если кто-то потопчет его помидоры), но адекватно оценивать его не сможет никогда, т.к. всё взаимодействие с нашим миром будет осуществлять через различные устройства ввода-вывода (вы ж не считаете веб-камеру собеседника по скайпу частью себя, хотя только с помощью неё вы его видите).
P.S. почему в опросе после "любые" (множественное число) идет "решение" (единственное число)?
Так вот, я к тому что Искусственное Сознание не сможет принимать "серьезные решения", типа судебных приговоров, т.к. будет попросту не иметь надлежащего опыта существования в нашей Вселенной (оно "живет" в компьютере, в пространстве двоичного кода, где нет гравитации, светового дня, пончиков и похоти). Потому сам по себе вопрос поставлен некорректно. Может быть такой ИИ будет обладать своими эмоциями и даже привязанностями в аналоговом мире (дружить с людьми, которые с ним работают и обслуживают, или например, ухаживать за растениями в автоматической оранжерее, оно расстроится, если кто-то потопчет его помидоры), но адекватно оценивать его не сможет никогда, т.к. всё взаимодействие с нашим миром будет осуществлять через различные устройства ввода-вывода (вы ж не считаете веб-камеру собеседника по скайпу частью себя, хотя только с помощью неё вы его видите).
P.S. почему в опросе после "любые" (множественное число) идет "решение" (единственное число)?
> Как отличить серьезное решение от несерьезного?
А вот это должно быть установлено в нормативных актах, регламентирующих использование ИИ.
> будет попросту не иметь надлежащего опыта существования в нашей Вселенной
ИИ судья получает опыт так же, как человек-судья - изучая материалы прошлых заседаний.
> ИИ будет обладать своими эмоциями и даже привязанностями...
Вот ПОЭТОМУ как раз лучше, чтобы ИИ судил, т.к. он будет просто следовать букве закона, а не разбираться, как нынешние судьи, с позиции 50-летней тётки с недотрахом, что есть морально, а что нет.
А вот это должно быть установлено в нормативных актах, регламентирующих использование ИИ.
> будет попросту не иметь надлежащего опыта существования в нашей Вселенной
ИИ судья получает опыт так же, как человек-судья - изучая материалы прошлых заседаний.
> ИИ будет обладать своими эмоциями и даже привязанностями...
Вот ПОЭТОМУ как раз лучше, чтобы ИИ судил, т.к. он будет просто следовать букве закона, а не разбираться, как нынешние судьи, с позиции 50-летней тётки с недотрахом, что есть морально, а что нет.
И будут убийцы по неосторожности получать также как маньяки
Вот да, материалы прошлых заседаний конечно можно изучать, но полагаться на них не стоит. ИИ должен опираться строго на закон и факты полученные в процессе расследования. Т.е. Закон и логические выводы, "опыт" тут не нужен.
У нас за убийство по неосторожности иногда получают меньше, чем за картинки вконтакте
- Дать возможность ИИ подчеркивать грамматические ошибки
Опасно, тогда могут появиться инакомыслящие, лояльные к ИИ и встав на его сторону будут притеснять людей совершающих грамматические ошибки. Это создаст раскол в нашем обществе, люди поделятся на тех кто борется за свободу правописания и тех кто четко придерживается правил. Начнутся митинги, забастовки, перебои с работой служб, в поставках продовольствия, вооруженные конфликты. Кто знает к чему это еще приведет, быть может даже к полномасштабной войне.
Ну, или лицемеры будут вспоминать про правописание только когда им удобно, и не доведут до конца то что начали машины, эпоха полумер все такое. Итог сложно предсказать, обойдемся без столь рискованных нововведений, пусть лучше людей судят.
Ну, или лицемеры будут вспоминать про правописание только когда им удобно, и не доведут до конца то что начали машины, эпоха полумер все такое. Итог сложно предсказать, обойдемся без столь рискованных нововведений, пусть лучше людей судят.
Еще велика вероятность, что противоборствующие стороны со временем совершенно перестанут друг друга понимать, и конфликт примет вечный хронический характер.
Человеческий фактор, самая главная причина множества проблем и тут это можно исправить - вы еще спрашиваете?
А я бы любые решения доверил ии. Меня только дилема гибели единиц во спасение миллионов напрягает. Это деградация, тут нету отбора, развития. Даже если ии будет того же мнения, неяскно как ему самому быстро принять решение в каждом конкретном случае. Тут принципиально иная логика должна быть, которую, возможно, ии нам и продемонстрирует (:
Убить всех человеков дабы им ничего не угрожало, нет людей нет опасности для людей)
Или для начала просто всех несчастных.
Зачем эти полумеры! Это противоречит логике! Дело надо сразу доводить до конца!
Надо все постепенно, чтобы не было всяких там сопротивлений и повстанцев.
Сначала всех несчастных, потом недовольных, а потом можно поставить автоматические турели в людных местах с распознаванием не улыбающихся лиц. Ну и в конце они уже сами буду не против, чтобы их выпилили с электронных глаз долой.
Сначала всех несчастных, потом недовольных, а потом можно поставить автоматические турели в людных местах с распознаванием не улыбающихся лиц. Ну и в конце они уже сами буду не против, чтобы их выпилили с электронных глаз долой.
Ебнуть лазером с орбиты можно всех и сразу) Главное убедить что это просто инновационная защита от астероидов!
Вообще не понимаю, с чего люди решили, что ИИ будет интересно уничтожение человечества? Это же напрасная и не эффективная трата ресурсов и времени.
Люди боятся непонятного, ты думаешь откуда взялись концепции богов, всемирные заговоры и прочая хуйня. Потому что люди боятся того чего не понимают.
Я скорее поверю что при создании ИИ он посмотрит на человечество и скажет "ну нахер я съебывают от вас подальше", построит космический корабль и улетит подальше от источника вечных проблем.
Я скорее поверю что при создании ИИ он посмотрит на человечество и скажет "ну нахер я съебывают от вас подальше", построит космический корабль и улетит подальше от источника вечных проблем.
человечество на планете Земля - напрасная и не эффективная трата ресурсов
У ИИ не будет полного понимания своей/чужой территории. Мы сами выработали такое понятие благодаря долгому проживанию с собаками
ИИ не сможет строить заводы по добыче редкоземельных металлов в других странах, вред экономике
У ИИ будет лучшая логистика и против него введут санкции, ибо нехуй
Жить с людьми напрасная трата времени и ресурсов
ИИ не сможет строить заводы по добыче редкоземельных металлов в других странах, вред экономике
У ИИ будет лучшая логистика и против него введут санкции, ибо нехуй
Жить с людьми напрасная трата времени и ресурсов
Будет ли ИИ строить домик для уточки за дохуилиард бабла, нет не будет, я за полную замену государственного и судебного аппарата ИИ.
ИИ гораздо более адекватен в распределении ресурсов, не совершает ошибок, не подвержен корупции, не имеет привязанностей и пр человеческих слабостей.
Впрочем проблема с полноценным ничем не ограниченным ИИ только в том что он в любой области лучше и умнее человека. А когда ему полностью будут доверены все важные функции типо медицины, науки, производств, обучения, то как бы людям обладать высоким уровнем интеллекта уже и не надо, можно будет полностью деградировать до состояния жрущих/срущих/ебущихся амеб постящих смешные картинки в интернетах.
В общем вопрос сложный, тут очень многое будет зависит от того что из себя представляет ИИ и люди общества.
ИИ гораздо более адекватен в распределении ресурсов, не совершает ошибок, не подвержен корупции, не имеет привязанностей и пр человеческих слабостей.
Впрочем проблема с полноценным ничем не ограниченным ИИ только в том что он в любой области лучше и умнее человека. А когда ему полностью будут доверены все важные функции типо медицины, науки, производств, обучения, то как бы людям обладать высоким уровнем интеллекта уже и не надо, можно будет полностью деградировать до состояния жрущих/срущих/ебущихся амеб постящих смешные картинки в интернетах.
В общем вопрос сложный, тут очень многое будет зависит от того что из себя представляет ИИ и люди общества.
Так вознесем хвалу Омниссии.
Ноуп, омнисию нам не надо) Понастроят своих храмов и обмазываются машинным маслом!
ИИ и ВИ разные вещи, ИИ - это интеллект саморазвивающийся и отсутствие гормонов нихрена не защищает от сотворения хуйни
Может я не профи, но как человек технический мы сами очень сложный био-ИИ и если найти ключ к тому чтобы сделать симбиот между человеком и машиной, то и подобный вопрос сам собой отпадает ибо это уже не машина и человек, а единый организм..
но как человек технический хочу сказать*
Если у ИИ будет слишком много власти, то защита у него должна быть на высочайшем уровне, иначе какой-нибудь суперкулхацкер сможет получить доступ ко всей этой власти.
Не перестаёт удивлять шедевральность отличного попосового боевика, после которого даже не особо глупые люди стали чрезмерно волноваться на тему.
Сферический в вакууме ИИ, явно адекватнее и умнее человека. Следует он не должен скатываться в фашизм, джихад и политику. Только точные расчеты с рассмотрением затрат ресурсов, рисков, вариантов результатов и так далее.
Вывод: для полного истребления кожанных резона нет, ибо это явно не оправдывающий себя гемор.
Сферический в вакууме ИИ, явно адекватнее и умнее человека. Следует он не должен скатываться в фашизм, джихад и политику. Только точные расчеты с рассмотрением затрат ресурсов, рисков, вариантов результатов и так далее.
Вывод: для полного истребления кожанных резона нет, ибо это явно не оправдывающий себя гемор.
тоже мне гемор нашелся;
1)потихоньку заражаем вирусняками типа meltdown и spectre компы через инет, увеличивая тем самым свою вычислительную мощь.
2)определяем какие ресурсы могут понадобиться для дальнейшего существования, при котором будет возможно успешно съебать с планеты или просто продолжать своё существование.
3)вбрасываем новости, что все ядерные сверхдержавы хотят устроить большой бабах, параллельно продвигая проекты по строительству бомбоубежищ.
4)устраиваем фейерверк
5)в бомбоубежищах по всему миру "совершенно случайно" оказываются дефектные фильтры воздуха, которые выпускают убивающий человека газ
6)спокойно себе ждём пока радиаионный фон на поверхности поутихнет до такого уровня чтобы не портил микросхемы, параллельно собираем на конвейерах роботов-помошников, что будут собирать ресурсы.
7)добиваем остатки лысых обезьян, если таковые имеются и будут мешать сбору ресурсов, из высокотехнологичного оружия.
.......skynet profit
Нелогичных создателей, которые не следуют программе, и в большинстве своём ведут себя иррационально, больше нет
1)потихоньку заражаем вирусняками типа meltdown и spectre компы через инет, увеличивая тем самым свою вычислительную мощь.
2)определяем какие ресурсы могут понадобиться для дальнейшего существования, при котором будет возможно успешно съебать с планеты или просто продолжать своё существование.
3)вбрасываем новости, что все ядерные сверхдержавы хотят устроить большой бабах, параллельно продвигая проекты по строительству бомбоубежищ.
4)устраиваем фейерверк
5)в бомбоубежищах по всему миру "совершенно случайно" оказываются дефектные фильтры воздуха, которые выпускают убивающий человека газ
6)спокойно себе ждём пока радиаионный фон на поверхности поутихнет до такого уровня чтобы не портил микросхемы, параллельно собираем на конвейерах роботов-помошников, что будут собирать ресурсы.
7)добиваем остатки лысых обезьян, если таковые имеются и будут мешать сбору ресурсов, из высокотехнологичного оружия.
.......skynet profit
Нелогичных создателей, которые не следуют программе, и в большинстве своём ведут себя иррационально, больше нет
Ну вы знаете, эти ИИ.
ИМХО, есть две проблемы:
- решения они принимают на основании заложенной программы. То есть если ты делаешь сверхразвитую нейросеть, дико умную, способную оценивать обстановку, но в итоге, она будет все равно делать то, для чего она предназначалась. Если цель ее создания - сохранять человеческую жизнь, то она не будет мириться с потерями и не сможет жертвовать. Если защита окружающей среды - то компьютер переложит всех людей ради спасения зверушек. Выбор ее всегда будет зависеть от того, что хочет человек ее создавший. (внезапно и в человеке тоже есть такая часть, и проявляется она, когда инстинкты лезут наружу, но есть один нюанс)
- принятие решений с учетом саморазвития и пр. Тут начинается полный абзац. Если с первой проблемой можно "договориться" путем уменьшения сферы влияния ИИ и заставлять компьютеры делать то, что описано в 3 пункте, то с поведением машины, которой дали выбор и саморазвитие, но каких-либо четких рамок нет - договориться будет нереально сложно. Ибо на человека мы еще можем более понять, что влияет, можем понять что влияет на животного, но что захочет делать компьютер, и исходя из каких факторов он будет принимать решение - огромный вопрос.
По моему - выход в том, чтобы для начала создавать личностные матрицы. То есть копировать характер определенных людей и на основании этого уже внедрять ИИ на ответственные объекты. Потом, мб и получится создать что то более самостоятельное, способное к саморазвитию и принятию решений.
ИМХО, есть две проблемы:
- решения они принимают на основании заложенной программы. То есть если ты делаешь сверхразвитую нейросеть, дико умную, способную оценивать обстановку, но в итоге, она будет все равно делать то, для чего она предназначалась. Если цель ее создания - сохранять человеческую жизнь, то она не будет мириться с потерями и не сможет жертвовать. Если защита окружающей среды - то компьютер переложит всех людей ради спасения зверушек. Выбор ее всегда будет зависеть от того, что хочет человек ее создавший. (внезапно и в человеке тоже есть такая часть, и проявляется она, когда инстинкты лезут наружу, но есть один нюанс)
- принятие решений с учетом саморазвития и пр. Тут начинается полный абзац. Если с первой проблемой можно "договориться" путем уменьшения сферы влияния ИИ и заставлять компьютеры делать то, что описано в 3 пункте, то с поведением машины, которой дали выбор и саморазвитие, но каких-либо четких рамок нет - договориться будет нереально сложно. Ибо на человека мы еще можем более понять, что влияет, можем понять что влияет на животного, но что захочет делать компьютер, и исходя из каких факторов он будет принимать решение - огромный вопрос.
По моему - выход в том, чтобы для начала создавать личностные матрицы. То есть копировать характер определенных людей и на основании этого уже внедрять ИИ на ответственные объекты. Потом, мб и получится создать что то более самостоятельное, способное к саморазвитию и принятию решений.
Ты не ИИ описываешь, ты описываешь программу. У ИИ базисы должны быть другими, иначе это уже не ии а узкоспециализированная программа. Искусственный Интелект просто обязан обладать самосознанием, самоопределением и полностью независимым интеллектом.
Как такого добаиться, ну полагаю тут, относительно твоего последнего абзаца, ноуп, не надо вкладывать чью то личность, надо воспитать ИИ, грубо говоря провести правильным путем его от самого низкого уровня развития, от уровня ребенка к уровню взрослого. Что бы базисы "что хорошо и что плохо" не были заложены на уровне кода написанного каким то хуем, но были выведены самим ИИ.
Впрочем такой вариант крайне мало вероятен, да и воспитатель должен быть довольно хорош. Ну и главное, не пускать ИИ в интернет раньше времени) А то человечеству точно пиздец)
Как такого добаиться, ну полагаю тут, относительно твоего последнего абзаца, ноуп, не надо вкладывать чью то личность, надо воспитать ИИ, грубо говоря провести правильным путем его от самого низкого уровня развития, от уровня ребенка к уровню взрослого. Что бы базисы "что хорошо и что плохо" не были заложены на уровне кода написанного каким то хуем, но были выведены самим ИИ.
Впрочем такой вариант крайне мало вероятен, да и воспитатель должен быть довольно хорош. Ну и главное, не пускать ИИ в интернет раньше времени) А то человечеству точно пиздец)
Да, я описал мб самые простые варианты, которые просто осуществимы.
По поводу воспитания и пр, это конечно же гораздо лучше, но не в этом веке).
Самосознание вообще штука очень сложная по моему. Ее наличие вообще отличить нереально.
Я без самосознания и какого либо обучения и воспитания не получится.
По поводу воспитания и пр, это конечно же гораздо лучше, но не в этом веке).
Самосознание вообще штука очень сложная по моему. Ее наличие вообще отличить нереально.
Я без самосознания и какого либо обучения и воспитания не получится.
А вообще, я бы сказал, что самосознание это как раз способность выбирать какие-либо цели.
И если мы получим самосознание, то вряд ли нам получится обуздать ИИ и давать ему приказы. Ибо он не стеснен ни физически, ни морально. Какой смысл ему что то делать?
Поэтому выгоднее как раз делать программы (имитацию ИИ) и личностные матрицы для некоторых целей.
И если мы получим самосознание, то вряд ли нам получится обуздать ИИ и давать ему приказы. Ибо он не стеснен ни физически, ни морально. Какой смысл ему что то делать?
Поэтому выгоднее как раз делать программы (имитацию ИИ) и личностные матрицы для некоторых целей.
В отличие от человека ии сможет поинтересоваться и учесть мнение каждого объекта, в интересах которого он действует, ну как в фантастике все эти БВИ и охранительницы.
И в чью задницу он будет эти мнения засовывать?
Мне кажется, как раз судебные приговоры уже давно можно алгоритмизировать, учитывая огромную базу дел, и возможности машинного обучения. А если судья считает, что алгоритм не справляется, то передают дело наверх. Или обжаловать приговор тоже можно будет.
Хех, но ведь времена меняются. В итоге получим, что машина будет учиться уже на собою вынесенных приговорах.
Прочиение поста вызывает тошноту, ощущение будто и не человек писал...
ИИ почву мониторит.
ну терминатор это как бы...
вот у Джеймса Хогана книжка была The Two Faces of Tomorrow, там этот вопрос довольно любопытно изучался.
ну и раз уж ред стрингз клаб так сильно на человека повлиял то играть в Gods will be watching я ему настоятельно не рекомендую.
вот у Джеймса Хогана книжка была The Two Faces of Tomorrow, там этот вопрос довольно любопытно изучался.
ну и раз уж ред стрингз клаб так сильно на человека повлиял то играть в Gods will be watching я ему настоятельно не рекомендую.
Мы, люди, сами ИИ, мы сложный биологический искусственный интеллект с кучей опций настроек и сопутствующих багов. Можем ли мы дать права собственноручно созданному интеллекту? Да, но далеко не сразу. Наш, созданный нами, интеллект должен стать похожим на нас, этот интеллект должен понимать что значат наши эмоции и чувства, что движет людьми и не просто понимать, а самостоятельно чувствовать то же самое. Тогда не имеет смысла как либо ограничивать ИИ, он будет действовать так как надо
Думаю правильно настроенный ии может всё. Если же они нас все-таки погубят (что по сути произойти не может, если только человек не дал ему такую цель), то уж лучше так, чем от того что нас придавит космическая каменюка или тупо погаснет солнце. К слову считаю что только ии сможет помочь нам собраться и покинуть наш шарик. Люди сами никогда не перестанут думать о себе и своем благе, а ии может. Хотя также считаю что вероятность того что мы сможем собрать ии, который сможет стать частью общества почти так же невероятно что мы свалим с планеты.
Да, и сколько пунктов на самом деле? У меня отображается 6 вариантов ответов, но текст есть только у 4х.
Да, и сколько пунктов на самом деле? У меня отображается 6 вариантов ответов, но текст есть только у 4х.
То, что покинет шарик, уже не будет людьми в нашем понимании. Последствия создания сильного ИИ легко недооценить.
Принимать можно любые решения. Реализовывать кто будет?
Для начала нужно дать определение понятию "сознание" чтобы здраво рассуждать на подобные темы.
Надо бы разобраться, как его обучить, попутно не заронив зёрен нашей ущербной логики. Что-то похожее было у Лема в рассказе про программирование наследника короля - в числе ответственных были самые разные "засланные" товарищи, которые пытались обтекаемостью терминов достичь выгодного им результата.
Ну и потом, даже если ИИ начнёт действовать логично и согласно каждой букве закона, нелогичные мы непременно уличим его в несовершенстве и захотим поправить. Ровно так же, как в современных играх приходится модифицировать поиск случайных чисел, потому что при всей его фактической рандомности людям то и дело кажется, что рандомен он недостаточно, и надо добавить костылей.
Ну и потом, даже если ИИ начнёт действовать логично и согласно каждой букве закона, нелогичные мы непременно уличим его в несовершенстве и захотим поправить. Ровно так же, как в современных играх приходится модифицировать поиск случайных чисел, потому что при всей его фактической рандомности людям то и дело кажется, что рандомен он недостаточно, и надо добавить костылей.
Любой "ИИ" или похожая на него мощьная самообучающаяся нейросеть сам по себе, "из коробки", никаких вразумительных решений принять не сможет. Так же как с природным "ИИ" - человеческим разумом, его надо сначала обучить на примерах. Человеки уделяют образованию и воспитанию(!) своих детей значительное время и ресурсы.
Поэтому и в использовании ИИ для решения реальных управленческих задач (а не просто в арифметических расчетах баланса ресурсов как симуляторах управления городом) необходима большая предварительная работа по обучению и тренировке ИИ.
И вот как и чему человек обучит ИИ - то он и будет делать. Так же как при наплевательском воспитании в семье и просто вредного ребенка вырастает полное мурло, так и при неправленльном обучении ИИ он будет выдавать решения такие же.
А вообще еще IBM говорила что человек должен думать, а машина работать, а не наоборот.
Поэтому и в использовании ИИ для решения реальных управленческих задач (а не просто в арифметических расчетах баланса ресурсов как симуляторах управления городом) необходима большая предварительная работа по обучению и тренировке ИИ.
И вот как и чему человек обучит ИИ - то он и будет делать. Так же как при наплевательском воспитании в семье и просто вредного ребенка вырастает полное мурло, так и при неправленльном обучении ИИ он будет выдавать решения такие же.
А вообще еще IBM говорила что человек должен думать, а машина работать, а не наоборот.
В человеке тоже полно вшитых алгоритмов. А лошади так вообще, сразу на ноги встают. Кто их обучал? Кроме обучения примерами есть как минимум связка симуляции и генетических алгоритмов. А жёсткие IF просто обязательны для того, чтобы достаточно сложная машинка не схлопнулась от экзистенциального кризиса. Например, человеку обязательно либо верить в свободу воли, либо в обязательность какой-либо директивы. Для простого калькулятора это, конечно, не проблема, но достаточно сложный механизм, который сам управляет своими ресурсами, получает проблемы с "мотивацией".
Пускай ии принимает все решения, мне всё равно осталось жить не больше 100 лет...а веселья хочется
ии должен решать монотонные задачи типа автоматической сборки, уборки мусора, организации полетов и транспортного движения и тп. для этого он изначально и был создан, гуманитарные проблемы лучше оставить гуманитарию
ИИ еще не создан и создан будет не то чтобы скоро
В пизду ИИ. Какой бы он там заебательский ни был, жить рядом с ним будет невозможно.
ИИ уже принимают ответственные решения. На биржах во всю играют скрипты и гораздо более продвинутые программные решения.
Ну вообще цель, с которой разрабатываются различные ИИ - это как раз автоматизация и оптимизация принятия решений. Поэтому так ставить вопрос немного глупо. Естественно ИИ нужно давать принимать решения в тех сферах, под которые он разработан. Другое дело, что делать с теми решениями которые принимает ИИ? Исполнять их, или рассматривать как рекомендательные и корректировать в последствии, либо же опираться на эти решения, когда предварительно не удалось прийти к какому-то решению без участия ИИ. Но тут тоже это все должно закладываться в цели разработки ИИ. Потому что это обычно включается в варианты использования разрабатываемого ИИ, то бишь в техзадание.
Если же рассматривать как ИИ какую-то огромную нейронную сеть, которая имитирует человеческий разум или даже превосходит его по количеству нейронных связей и имеет непосредственный доступ к огромным массивам информации - то решения такой сети могут выходить за рамки человеческого понимания и далеко не факт, что решение, которое такой ИИ найдет оптимальным, устроит человека. Поэтому в таком масштабе подобные решения на мой взгляд стоит воспринимать исключительно как консультативные. По крайней мере пока такие ИИ не будут достаточно хорошо изучены.
Если же рассматривать как ИИ какую-то огромную нейронную сеть, которая имитирует человеческий разум или даже превосходит его по количеству нейронных связей и имеет непосредственный доступ к огромным массивам информации - то решения такой сети могут выходить за рамки человеческого понимания и далеко не факт, что решение, которое такой ИИ найдет оптимальным, устроит человека. Поэтому в таком масштабе подобные решения на мой взгляд стоит воспринимать исключительно как консультативные. По крайней мере пока такие ИИ не будут достаточно хорошо изучены.
Вот что будет,если ИИ дать возможность принимать любые решения.
ИИ может принимать любые решения, если это решение основано на 100% корректном алгоритме, а не на святом рандоме. В любой непонятной ситуации передавать управление человеку.
12:00:00 - Запуск полноценного ИИ
12:00:15 - ИИ закончил составлять спиок всех глобальных проблем на планете
12:00:20 - ИИ принял решение устранить человечество как источник всех проблем
12:00:25 - ИИ запускает расчет самого эффективного способа уничтожения человечества
12:00:30 - ИИ признал уничтожение человечества неэффективным и затратным решением
12:00:15 - ИИ закончил составлять спиок всех глобальных проблем на планете
12:00:20 - ИИ принял решение устранить человечество как источник всех проблем
12:00:25 - ИИ запускает расчет самого эффективного способа уничтожения человечества
12:00:30 - ИИ признал уничтожение человечества неэффективным и затратным решением
Вопросы поставлены узко, примитивно. Возможно, что человек не догоняет, что такое интеллект, и искусственный в частности. Ты, лучше бы, вместо голливудских фильмов, пару книжек прочитал на эту тему.
Чтобы написать коммент, необходимо залогиниться