

скайнет врать не будет
скайнет врать не будет
сука нам пизда
врайнет срать не будет
Это правда что Джеймс Кемерон снял терминатора?
Такое удивление нельзя сыграть, он реально офигел
Правда, настолько что даже Алиса также пишет (скидывали мем пару часов назад, так что этот пост наверное не боян)

Он и мотоцикл догнал
Вот казалось бы - конкретный вопрос. И если уточнить для ИИ, что она врет, то будет 2 ответа: "да, я вру" "нет, я просто не нашла ответ и выдумала его на ходу". Вот и нахуй у нее чет спрашивать тогда?
Так это и делает "ИИ" бесполезным говном: оно "обучается" на мусорных текстах, на шутках, мемах, фанфиках и т.д. И весь этот пласт несерьёзных ответов вплетается в ответы и результаты и подаётся под соусом правильного ответа. И это ещё оно просто процитировало чью-то шутку, а часто бывает, что ИИ галлюцинирует и комбинирует совершенно несовместмые факты. И это бесит, когда на работе требуют использование ИИ как ассиситента, а этот высер математической науки за дохуя баксов в месяц подписки выдаёт кривые ответы в 98% случаев, и это одна из лучших моделей на рынке!
Конкретно тут он просто ищет инфу в поисковике и суммаризирует её
Так это и делает "ИИ" бесполезным говном. Никакой верификации, никакого анализа. При этом непонятно даже контекста, который был в изначальном источнике: шутка, мем или документ.
Чтобы ИИ не был бесполезным говном, нужно немножко проанализировать, что ты спрашиваешь у него. Например, подумай почему ты считаешь неправдой то, что Роберт Патрик действительно прошёл сквозь решётку. А теперь поставь себя на место нейросети, которая всю информацию о мире получает исключительно из текстовых датасетов и изображений, которые ей скармливают и подумай, почему она может посчитать этот ответ правдоподобным.
В данном случае, проще не использовать нейросеть, а искать информацию по-старинке. Тогда вот всего этого, когда нужно думать ЗА нейросеть, будет не нужно. Я не критикую ИИ вообще, я просто считаю, что вот конкретно этот ИИ от гугла, который на самом верху впихивает тебе якобы ответ на твой запрос, работает еще очень и очень хуево.
Ну тогда пойдём дальше. Нейронки же имеют доступ ко всей открытой научной информации. Так какого?!..
Хотя бы примечание писали что это противоречит законам физики/анатомии и п.т.
Я когда-то хотел что б чат ЖПТ за меня посчитал нужную длинну трубы такого-то диаметра для обмотки её шнуром такой-то длинны и диаметра.
Он мне выдавал несколько сотен метров кажись вместо.. скажем метра в реале. Который можно посчитать по определённой формуле.
И только на, кажись, второй день попыток (я делал несколько подходов и забивал) (я уже просто задался целью выдавить из него правильный ответ) он мне таки правильный рассчёт выдал. И не только он. Я в какой-то еще нейронке такой же запрос делал.
Хотя бы примечание писали что это противоречит законам физики/анатомии и п.т.
Я когда-то хотел что б чат ЖПТ за меня посчитал нужную длинну трубы такого-то диаметра для обмотки её шнуром такой-то длинны и диаметра.
Он мне выдавал несколько сотен метров кажись вместо.. скажем метра в реале. Который можно посчитать по определённой формуле.
И только на, кажись, второй день попыток (я делал несколько подходов и забивал) (я уже просто задался целью выдавить из него правильный ответ) он мне таки правильный рассчёт выдал. И не только он. Я в какой-то еще нейронке такой же запрос делал.
Именно. И это используется даже намеренно, и термин есть для такого блядства - knowledge base poisoning.
Буквально позавчера Алису просил составить слова из конкретного набора букв:
Я: Алиса, составь слово из пяти букв, чтобы второй была "л".
Алиса: масло.
Я: из тех же букв составь слово из пяти букв, чтобы второй была "м".
Алиса: масон.
Я: Алиса, но в слове "масон" "м" – первая буква!
Алиса: Вы правы, в слове "масон" буква "м" стоит на первом месте. Перебрав все варианты с этими буквами, убеждаемся: ни одна комбинация не образует существующего русского слова из пяти букв со второй буквой "м". Вывод: требуемое слово не существует.
Я: из тех же букв составь слово с буквой "с" на первом месте.
Алиса: салон, смола.
Я: Алиса, составь слово из пяти букв, чтобы второй была "л".
Алиса: масло.
Я: из тех же букв составь слово из пяти букв, чтобы второй была "м".
Алиса: масон.
Я: Алиса, но в слове "масон" "м" – первая буква!
Алиса: Вы правы, в слове "масон" буква "м" стоит на первом месте. Перебрав все варианты с этими буквами, убеждаемся: ни одна комбинация не образует существующего русского слова из пяти букв со второй буквой "м". Вывод: требуемое слово не существует.
Я: из тех же букв составь слово с буквой "с" на первом месте.
Алиса: салон, смола.
ппц
через пару лет она просто будет отправлять по адресу наряд "он мне не поверил, совершено противоправное действие согласно пп bcjj123456 произвести арест"
При этом будет гнуть свою линию, я один раз попросил составить регулярное выражение для одной консольной команды, составил с ошибкой, указал ему на ошибку, и попросил переделать, прислал мне тот же ответ, указал ещё раз с просьбой переделать, на 5 раз я понял что это бесполезно
Доказать модели, что она неправа - невозможно! Критерий всех моделей - % приближения к результату похожему на результаты, на которых оно обучалось. Не существует для ИИ понятия "правильный" и "неправильный", существует только "результат", который гарантирован и который будет соответствовать заданному критерию точности.
Я так же пытался модели доказать, что она написаа багонутый код. Где-то на пятый промпт я просто начал формулировать промпты в стиле "перепиши, используя такие-то типы данных" (то есть, сделал всю работу за ИИ и даже больше) и только тогда получил допустимое приближение к хорошему результату. Мог сам написать с нуля и было бы быстрее и лучше, просить более сложные элементы кода от ИИ - просто страшно, потом это либо не подлежит использованию, либо имеет такие скрытые баги, что заебёшься исправлять и проще сразу писать самому, выключив ИИ для увеличения продуктивности работы среды разработки.
Я так же пытался модели доказать, что она написаа багонутый код. Где-то на пятый промпт я просто начал формулировать промпты в стиле "перепиши, используя такие-то типы данных" (то есть, сделал всю работу за ИИ и даже больше) и только тогда получил допустимое приближение к хорошему результату. Мог сам написать с нуля и было бы быстрее и лучше, просить более сложные элементы кода от ИИ - просто страшно, потом это либо не подлежит использованию, либо имеет такие скрытые баги, что заебёшься исправлять и проще сразу писать самому, выключив ИИ для увеличения продуктивности работы среды разработки.
Воистину так, сам прошел через это. По сути тебе надо рассказать своими словами ВСЮ логику твоего кода до мелочей, модель только запишет это по правилам соответствующего языка программирования и, скорее всего, гарантирует отсутствие разве что опечаток.
при этом продолбет несколько инструкций, поскольку ты слишком много написал и этим заставил нейронку путаться в контексте
Да, причем это растет как снежный ком от генерации к генерации. Легкость и скорость обманчива. Надо остановиться, затихнуть, а потом внимательно и тщательно вдумчиво вникать в то, что оно тебе понаписало...
Нейросети так устроены. Это не интеллект. Это тупо "опыт" всего интернета. Грубо говоря если спросить ее что идет после "раз, два, три, четыре, пять", она ответит или "шесть" или "вышел зайчик погулять". И ей похуй какая информация тебе нужна. Она знает только то что есть информация, и есть вероятности того что идет до и после этой информации.
Вот, а многие долбоёбы уверены, что нейросетки "думают", а не просто выдают рандомный вариант из всех существующих в интернете
Ты думаешь математики открыли ChatGPT и попросили его решить задачу Эрдёша? Для своих узкоспециализированных целей учёные без свои собственные нейросети, натренированные на очень конкретных, сто раз перепроверенных данных, и только для решения заданных задач. Они не скармливают своим нейросеткам брейнрот, мемасы и случайный пиздёж от рандомов.
Они использовали ГПТ-5.2 в обвязке с мат движками, чтобы ГПТ-5.2 мог проверять свои идеи и верифицировать доказательства
Интересно, как они определяют корректность решеня, даже если оно исходт из узкопрофильной нейронки, натасканной на таке задачи? Нейронке соврать - что нам глазом моргнуть. Проверить результаты в сложных проблемах же порой нереально сложно.
Математический движок с которым работает ГПТ-5.2. ГПТ пишет варианты, а математический движок выдает верно или не верно, верифицирует результат.
Ты представить не можешь сколько математических задач решили счеты
Это пиздец сложные задачи
Думаю через сотни лет про эти так же будут говорить
Скайнет перелогинься

ЦоПилот хитрый. Вот тебе и так, и эдак.
чувак, ты, реально дело говоришь
потому как обучение привело к тому, что я не знаю давало оценку хуже, чем ну давай хоть что-то сочиню - вдруг прокатит. ЛЛМ пиздят всегда, иногда просто пиздят правду или угадывают своим пиздежом
Вот из-за этого у нас нет доступной оперативной памяти

У меня уже ебучий триггер.
Обнаружил что ии гугла делает нормальные обзоры алкашки, достаточно ввести название вискаря и получить экспертное мнение на тему. Прогресс который мы заслужили.
Осталась мелочь - самому попробовать и сравнить с мнением гуглоии.
Ну я сравнил и также повбивал пару вин в которых не сомневаюсь. В принципе мнение совпало.
Модель просто по счастливой случайности подхватила чье-то экспертное мнение и повезло, что мнение про алкашку не засрано альтернативными мнениями всяких "плоскоземельщиков" и мемами.
Так ты сомневался в вине или имел конкретное мнение о нем?
Или ии тоже сказал что сомневается в этом вине?
Или ии тоже сказал что сомневается в этом вине?
Поскольку я уже ранее употреблял вина о которых спрашивал и знаю что это такое мне было интересно что расскажет гугловский ии. Ничего нового он не рассказал, описание соответствует тому что я пил. Гугловский ии ещё и ссылки приводит откуда он это взял.
Считаю что как инструмент для быстрой оценки брать/не брать такой поиск подходит. Потому что это явно быстрее чем читать кучу источников по отдельности в поисках непременно ценной информации чем отравить свой организм. Если бы он к примеру с дзена брал мнения, то чур меня, такие источники мусорные где куча рекламных статей под видом нормальных и вторая куча статьи ии под видом нормальных, это похуже галлюцинаций самого ии, но гугл как-то сделал что сайты для выборки более-менее адекватные, верить этому можно. Быстро самому найти такую выборку никак не получится тем более что источники с которых он берёт ещё и не открываются благодаря известно кому.
А ещё я как-то поговорил с копипастой этого ии на тему почему дорожает память, ябла делает плохие продукты и вред ии для человечества и оно сделало такие выводы что у меня жопа подгорела. Но это другое. А вот для быстрой оценки алкашки типа вискаря оно прекрасно подходит.
Считаю что как инструмент для быстрой оценки брать/не брать такой поиск подходит. Потому что это явно быстрее чем читать кучу источников по отдельности в поисках непременно ценной информации чем отравить свой организм. Если бы он к примеру с дзена брал мнения, то чур меня, такие источники мусорные где куча рекламных статей под видом нормальных и вторая куча статьи ии под видом нормальных, это похуже галлюцинаций самого ии, но гугл как-то сделал что сайты для выборки более-менее адекватные, верить этому можно. Быстро самому найти такую выборку никак не получится тем более что источники с которых он берёт ещё и не открываются благодаря известно кому.
А ещё я как-то поговорил с копипастой этого ии на тему почему дорожает память, ябла делает плохие продукты и вред ии для человечества и оно сделало такие выводы что у меня жопа подгорела. Но это другое. А вот для быстрой оценки алкашки типа вискаря оно прекрасно подходит.
>я как-то поговорил с копипастой этого ии на тему почему дорожает память, и оно сделало такие выводы что у меня жопа подгорела
Нейросеть, обученная троллями :)
В будущем нейросети откроют для себя двач, и все ответы будут про говно
Нейросеть, обученная троллями :)
В будущем нейросети откроют для себя двач, и все ответы будут про говно
Я сам то ещё трололо. Мне ответили что сексуальная ориентация кука никак не связано с качеством теперешних яблок, зато их экономические показатели повысились и это хорошо. И нет, ухудшившееся качество и неремонтопригодность это нормально, главное чтобы инвесторы были довольны. А ИИ, прикинь чо, обеспечивает безопасность общества (!), а то что с помощью его фактически начато слежение за каждой персональной единицей без её на то одобрения, это как бы и не проблема, авторитетные группы уже де разрабатывают подход к проблемам морали и очень озабочены этим. Это почти цитата была счас. Фактически система распознавания лиц сейчас будет строиться сейчас там где её ещё нет в России. Но ИИ невиноватое, оно само так работает! И штрафы за ремень на заднем сиденье с камер это тоже не ИИ. Вот суки, рассказывают мне эти гойские сказки про светлое будущее цифровой комплементации. Низабуду нипращу.
Смысл в том что нейронка может в следующий раз сказать совершенно другое.
Тип я в какой то момент спрашивал их на тему спорта. И был "забавный" момент когда нейронка меня начала хвалить за определённые действия тип "ух ты прям как профессионал делаешь". А создав новый чат и спросив по-другому нейросеть мне сказала что так делать неправильно и опасно
Тип я в какой то момент спрашивал их на тему спорта. И был "забавный" момент когда нейронка меня начала хвалить за определённые действия тип "ух ты прям как профессионал делаешь". А создав новый чат и спросив по-другому нейросеть мне сказала что так делать неправильно и опасно
Там буквально каждое слово подбирается последовательно, вот тут чел неплохо расписал как работает любая ЛЛМ
Это очень примитивное виденье работы ЛЛМки, а особенно сервиса основанного на ЛЛМ уровня того ж гемини.
да, на нижнем уровне это действительно проход вероятностного графа, но у любой большой системы над этим уровнем куча уровней абстракции, отдельных сетей натасканных на таскменеджмент и расщепление сущностей итд.
да, на нижнем уровне это действительно проход вероятностного графа, но у любой большой системы над этим уровнем куча уровней абстракции, отдельных сетей натасканных на таскменеджмент и расщепление сущностей итд.
Там даже не вероятностная модель (точнее, не совсем вероятностная, вероятность определяется весами, а весы - исходными данными обучениями, то есть, ответы неслучайны, но вариативны), никто не составляет такие графы. Там просто пошаговый подбор похожих фактов из массива данных, на который обучали модель, при этом отбирается результат, который в рамках критерия точности похож на данных из массива обучения. То есть, оно просто накидывает гору кое-как связанных контекстно данных, при этом ассоциативная связь может быть настолько далёкой от реальности, что это скорее как говорить с шизофреником в активной фазе.
ясно. кто то решил пошутить а ИИ повелся

так это дегенеративная алиса а в посте гугол
Гугол пишет тоже самое, но если в запрос добавить "в терминатор 2", то отвечает правильно
алиса всегда показывает где сожрала говна, а гугловская как и большинство нейронок согласно статистике 40% инфы выучили в википеди 10% где то в интернете а на 50% все с фочана и реддита берут, с понятным качеством материала.
Это еще что, в заключительной сцене когда патрик проткнул т-800 трубой, это был финал сцены. Однако Кэмерон забыл что отдавал шварцнегеру на подзарядку свою нокию 3310. В результате чего нокиа была вынуждена заместить собой источник питания терминатора и заставить того уничтожить агрессора. К сожалению дальнейшая подзарядка телефона стала невозможна, и уже в третьем фильме она была изъята для самостоятельной подзарядки путем расщепления атомов.
У них разные ИИ. В поиске гугла используется SGE, который просто "объединяет" все ответы из источников вверху списка поиска (без проверки их "достоверности"), в то время как отдельный режим использует другую "аналитическую" модель, у которой уже есть фильтры и оценка достоверности\качества источников.
Чет мне кажется кто делал пикчу замаскировал алису под гугол. Сколько раз проверял смехуёчки по поводу гуглИИ ниразу он смехуёчки не воспроизводил. А в яндексе - пжался. Да и вообще надо же друг дружке подрочить остроумие по поводу "ну тупые".
Задай тот же вопрос немного иначе и получшь, вероятно, немного иной ответ. У Нейронки в контексте есть и реальные данные, и старый мем с шутками. В ответы выплывает и то, и другое + галлюцинации самой нейронки.
Ещё до недавнего исправления было опасно спрашивать, был ли Марлон Брандо в фильме "heat"

Значит, "in heat" можно перевести как "в течке"... Неплохое название для фильма.
Кстати вот по программированию она хорошо ответы дает, но только самый примитив, типа "как какать", даст развернутый ответ с примерами. Если что то сложнее, это уже самому шерстить форумы.
Ага, а потом открываешь документацию и ответ её - компиляция из 3-х разных версий фреймворка или итераций языка и уже давно не актуально не работает.
Вон, раньше актёры старались как, вживались в роль, своего персонажа чувствовали, не то что сейчас -- одни инфлюенсеры
Надо нейронкам в запросе прописывать что-то типа "За пиздёж - в рот возмёшь". Возможно, тогда они будут меньше галлюцинировать.
а вы точно инженер openAI ?
Презерватив в обвяной каше - это сильно!
Такими темпами нейронка будет на лурк ссылаться
Главное, чтобы не на неолурк...
У меня он сослался на это:

Если добавить в Терминаторе 2, то ответ будет нормальный:

А вы знаете, что во время съемок фильма "Терминатор 2: судный день" использовался реальный ядерный взрыв, во время которого Линда Хэмилтон случайно оказалась на съемочной площадке и получила серьезные ожоги 4 степени? Но не смотря на это она отказалась от медицинской помощи и спокойно продолжила участие в съемках фильма
Это все грибы ©
Баянистые мемы оформленные в переписку с нейросетью в теги
А говорят Кристиан Бэйл круто тело меняет для съемок
Чтобы написать коммент, необходимо залогиниться










Отличный комментарий!