Я только сейчас узнал, что Лиза родственница Хуанга. :(
Что с целом рассказали?
обещают аналогичную зелёным производительность с меньшим потреблением энергии и меньшей ценой
а что по ретрейсингу? Слышал его не будет на мидл и лоу видяхах. Что говорят то?
ничего об этом не говорили, возможно пропустил.
вопрос был про видяхи мидл и лоу, то что рейтрейсинг на RDNA2 есть и так все знают.
Его почти не касались, сказали только что "поддерживаем DXR от мелкомягких", но АМД влепили модуль для лучей в каждый CU так что не получить его можно только программно, или если они будут пересматривать структуру CU специально для средних уровней (Я могу поверить для ноутов/встроеных карт)
Да нахуй эту технологию, эффект надо с лупой высматривать везде кроме технодемок.
Наиболее заметен он в счётчике фпс.
Наиболее заметен он в счётчике фпс.
ПОКА это для техно демок. Я так думаю после того как консоли следующего поколения получат его на потаённой основе, это будет реально используемая технология. Как бы освещение это чуть ли не половина для реалистичной графики. Так что если брать видяху на вырост ИМХО ретрейсинг все же желателен. С ним реально графоний можно хороший развернуть.
Нет не будет.
Можно долго разглагольствовать на тему преимуществ рейтрейсинга, но на деле уже десяток лет как есть множество алгоритмов и глобального освещения и отражений.
При этом визуально никто не отличит освещение GI/RTX, если разработчик специально не будет хитрить. Уже давно GI считается относительно физически корректно, и в отличии от RTX ещё и быстрее.
А отражения?
Вот например нам показывают разницу с RTX и без.
1) Отражение огня в глазу. Рили? В батлфилде кто-то в глаза пялится? В любой другой игре кто-то в глаза пялится? Ну да, половину фпс сожрать ради отражения огня в глазу - норм.
2) Появилось освещение от огня. Рили? В 2020 году они не могут добавить в эффект обычный точечный источник света? Они просто специально для демки вырубили свет у эффекта, не более.
3) А отражение лужи полный фейспалм. Уже давно везде юзается screen space reflection, в том числе в их же играх. Уже лет 10 то точно. А ещё у него куча оптимизаций (типо бинарного поиска, мип уровней у z-буфера и т.д) и поэтому практически не отъедает ресурсов. Конкретно в их луже должно быть полное отражение.
А так же для плоских поверхностей существует практически бесплатный алгоритм "screen space planar/project reflection", который позволяет генерить pixel-perfect отражения без реймарчинга.
А в этом пейпере от nvidia они сами же не используют RTX, потому что недостаточно фпс и используют лайтпробы для диффузного освещения. https://developer.download.nvidia.com/video/gputechconf/gtc/2019/presentation/s9900-irradiance-fields-rtx-diffuse-global-illumination-for-local-and-cloud-graphics.pdf
А ещё есть просто неоспоримый факт касательно того, что RTX ждёт участь physx/tressFX и прочих распиареных, но ненужных фич. Это новый движок UE5, в котором они отказались от рейтрейсинга и делают глобальное освещение/тени иными методами.
Можно долго разглагольствовать на тему преимуществ рейтрейсинга, но на деле уже десяток лет как есть множество алгоритмов и глобального освещения и отражений.
При этом визуально никто не отличит освещение GI/RTX, если разработчик специально не будет хитрить. Уже давно GI считается относительно физически корректно, и в отличии от RTX ещё и быстрее.
А отражения?
Вот например нам показывают разницу с RTX и без.
1) Отражение огня в глазу. Рили? В батлфилде кто-то в глаза пялится? В любой другой игре кто-то в глаза пялится? Ну да, половину фпс сожрать ради отражения огня в глазу - норм.
2) Появилось освещение от огня. Рили? В 2020 году они не могут добавить в эффект обычный точечный источник света? Они просто специально для демки вырубили свет у эффекта, не более.
3) А отражение лужи полный фейспалм. Уже давно везде юзается screen space reflection, в том числе в их же играх. Уже лет 10 то точно. А ещё у него куча оптимизаций (типо бинарного поиска, мип уровней у z-буфера и т.д) и поэтому практически не отъедает ресурсов. Конкретно в их луже должно быть полное отражение.
А так же для плоских поверхностей существует практически бесплатный алгоритм "screen space planar/project reflection", который позволяет генерить pixel-perfect отражения без реймарчинга.
А в этом пейпере от nvidia они сами же не используют RTX, потому что недостаточно фпс и используют лайтпробы для диффузного освещения. https://developer.download.nvidia.com/video/gputechconf/gtc/2019/presentation/s9900-irradiance-fields-rtx-diffuse-global-illumination-for-local-and-cloud-graphics.pdf
А ещё есть просто неоспоримый факт касательно того, что RTX ждёт участь physx/tressFX и прочих распиареных, но ненужных фич. Это новый движок UE5, в котором они отказались от рейтрейсинга и делают глобальное освещение/тени иными методами.
Знаешь почему SSR уступает RTX?
С 10 секунды
Поэтому и называется SCREEN SPACE Refletion. Он не рендерит отражения от объектов, если они находятся за пределами кадра. 10 лет уже мучаемся с этим.
По другим технологиям не знаю.
RTX наверное заимеет свои оптимизации, так же как DLSS 2 с ИИ.
С 10 секунды
Поэтому и называется SCREEN SPACE Refletion. Он не рендерит отражения от объектов, если они находятся за пределами кадра. 10 лет уже мучаемся с этим.
По другим технологиям не знаю.
RTX наверное заимеет свои оптимизации, так же как DLSS 2 с ИИ.
РТ - очень крутая штука и сильно повысит ФПС, она не только для отрисовки отражений. Такой выч. шейдер заменяет собой просчет ресурсоемких задач. Когда это научатся делать популярные игровые движки - не понятно,но штука очень круто может разгрузить ЦПУ.
Ну, и я смогу делать свой код еще более говяным (мечтали прирост производительности? ахаха, нет)
Ну, и я смогу делать свой код еще более говяным (мечтали прирост производительности? ахаха, нет)
Разгрузить цпу? Повысить фпс? Ты ничего не путаешь? Рейтрейсинг это нереально ресурсоемкие вычисления, именно поэтому до недавних пор он принципе не работал в реалтайме
Нет =) Рейтрейсинг - мат. операция, что используется просто таки везде в играх. Ну вот к примеру определить, попал ли выстрел по цели или нет? да, можно определить пересечение геометрических объектов (коллайдеров) но дешевле провести луч из точки в направлении и проверить попадание. Ну, условно говоря это обычный "луч" из школьной геометрии - тригонометрии. Так все пули в первой халве работают к примеру. Просчитать один луч - не то что бы дорого и не то, что бы дешего. Обычная мат. операция. Или к примеру лучом считают, кликнул ли ты по трехмерному объекту (в 3д игре подобрать аптечку какую\ патроны)
Просто видюха за раз может лучей кинуть дохрена. И это все используется для графических шейдеров. Но никто не мешает нам написать вычислительный шейдер, что попадание пуль \ подбирание аптечек, ну любой просчет направления в общем обработает на видюхе а не на цпу.
Особенность видюхи в том, что она может просчитать этих
Просто видюха за раз может лучей кинуть дохрена. И это все используется для графических шейдеров. Но никто не мешает нам написать вычислительный шейдер, что попадание пуль \ подбирание аптечек, ну любой просчет направления в общем обработает на видюхе а не на цпу.
Особенность видюхи в том, что она может просчитать этих
Не, красные его используют в основном для отрисовки теней, а не делая каждый кусок грязи отражающим как зеркало, выходит не вырвиглазно.
Будет рт только без отдельно выделенных ядер, тоесть падение производительности при включении ретрейсинга будет несколько больше по сравнению с нвидией.
Вру, вроде будут у них выделенные блоки для рейтрейсинга но больше ничего амд об этом не говорили.
а дрова хоть одни нормальные сделают?
Да заебали уже, нормальные у них дрова.
Есть перевод от прохайтека
Аналог 3070 будет на 80 баксов дороже, а вот более производительные варианты дешевле чем у зеленых
Если все эти графики верны, красные наконец-то догнали зеленых. Осталось дождаться тестов.
ну как догнали. Почти сравнялись по железкам.
в софте и технологиях у них все еще огромная пропасть.
Если ты как говорится "content creator" то amd можно только сказать спасибо за конкуренцию и низкие цены на geforce
в софте и технологиях у них все еще огромная пропасть.
Если ты как говорится "content creator" то amd можно только сказать спасибо за конкуренцию и низкие цены на geforce
Ля, смотри
ты видео-то смотрел? Или ты настолько любишь поспорить что пропускаешь шанс разобраться?
Даже с DLSS 1.0 уже круто можно въезжать в 4к контент, да ещё и с включенным RTX. Для меня по сути не существует игр с RTX, в которых нельзя включить DLSS, оно того просто не будет стоит.
Но в целом да, АМД уже готовят аналог данной технологии.
Но в целом да, АМД уже готовят аналог данной технологии.
это не во всех играх будет, в начале на супер компьютерах создают эту нейросеть, потом как я понял ее слепок вставляют в драйвера
В профессиональном софте.
Каждый понедельник открываю новости CG и че там по обновлению прог.
Очень клевые фишечки дает в работе карточки от зеленых.
с другой стороны на красных некоторый софт просто не запускается
я вот хочу скажем в блендере Динойзинг в вьюпорте в рендер в 10 раз быстрей(да да блендер плохой, а я дно и не профессионал)
и у меня нет выбора кроме как брать rtx.
Каждый понедельник открываю новости CG и че там по обновлению прог.
Очень клевые фишечки дает в работе карточки от зеленых.
с другой стороны на красных некоторый софт просто не запускается
я вот хочу скажем в блендере Динойзинг в вьюпорте в рендер в 10 раз быстрей(да да блендер плохой, а я дно и не профессионал)
и у меня нет выбора кроме как брать rtx.
Я ж и говорю, в гейминге от этих фишек толку почти ноль. Вон только забавные ролики с апскелингом делать.
А РТ и ИИ в работе - отлично же, кто спорит. Только нафиг это в линейку geforce совать, когда у них есть квадры и а100? Или раз интел сует авх512 в i3, то теперь и они будут в потребительские девайсы совать то, что не нужно?... Интел вон уже отъехал, херовая практика.
А РТ и ИИ в работе - отлично же, кто спорит. Только нафиг это в линейку geforce совать, когда у них есть квадры и а100? Или раз интел сует авх512 в i3, то теперь и они будут в потребительские девайсы совать то, что не нужно?... Интел вон уже отъехал, херовая практика.
Потому что квадры стоят в несколько раз больше большенсво авторов не может себе это позволить?
можешь призенташку 3080 глянуть. там хуанг прямым текстом рассказывает какой интерес к джифорсу проявляют авторы средней руки.
и то вот ноешь про dlss, но реально это очень крутая фишка. и практически отлично идет. Я очень надеюсь что она не заглохнет, и вроде пока не собирается.
можешь призенташку 3080 глянуть. там хуанг прямым текстом рассказывает какой интерес к джифорсу проявляют авторы средней руки.
и то вот ноешь про dlss, но реально это очень крутая фишка. и практически отлично идет. Я очень надеюсь что она не заглохнет, и вроде пока не собирается.
Но артефакты, Карл! Артефакты! Хз, мне нравится чистая картинка.
Radeon Open Compute есть. Оптимизированные библиотеки, всякий машинлернинг и даже транслятор с куды. В общем, амд и интел щас усиленно делают свои gpgpu велосипеды
Пожалуйста не надо говорить про софт. Если ты слылишь только про CUDA RTX и другую проприетарную закрытую хуиту это не значит что у конкуретна нет пдобного.
OpenCL = CUDA
FidelityFX = DLSS
DXR = RTX
FreeSync = G-Sync
только все что слева - открыте и свободные технологии которые может использовать кто угодно. А справа - пидорские поделия завязаные на вендора.
И если тебе будут кукарекать что "CUDA КО-КО-КО стандарт индустрии блаблабла" вспомни о том что G-Sync нвидия слила вчистую в пользу FreeSync'a
OpenCL = CUDA
FidelityFX = DLSS
DXR = RTX
FreeSync = G-Sync
только все что слева - открыте и свободные технологии которые может использовать кто угодно. А справа - пидорские поделия завязаные на вендора.
И если тебе будут кукарекать что "CUDA КО-КО-КО стандарт индустрии блаблабла" вспомни о том что G-Sync нвидия слила вчистую в пользу FreeSync'a
да мне пофигу на стандарты индустрии и CUDA и прочие.
есть программы, фишки и инструменты которыми я пользуюсь. на одной карте они работают, на другой нет. Это просто факт.
есть программы, фишки и инструменты которыми я пользуюсь. на одной карте они работают, на другой нет. Это просто факт.
Ну так ты знаешь кого благодарить за то что, что то работает на вендорлоке. Вместо того чтобы голосовать рублем за решения которые работают везде в том числе и на нвидии ты голосуешь за анальное рабство. У тебя наверное и айфон да?
"Ну так ты знаешь кого благодарить за то что, что то работает на вендорлоке. "
разработчиков? которые не хотят делать программы для малопопулярных карт с прявым софтом
О или AMD, которая не предоставляет нужных технологий для работы отдельных функций?
я знаю кого благодарить за то что оно работает хоть где то Nvidia, которая тратит тонны денег на создание новых технологий.
разработчиков? которые не хотят делать программы для малопопулярных карт с прявым софтом
О или AMD, которая не предоставляет нужных технологий для работы отдельных функций?
я знаю кого благодарить за то что оно работает хоть где то Nvidia, которая тратит тонны денег на создание новых технологий.
и я понимаю что может быть тебе это нужно для работы и всё такое. но не питай иллюзий. если ты получаешь деньги за работу на этом, а тебя ебут - ты шлюха.
отдавай себе в этом отчет.
И я не говорю что это плохо. Когда деватсья некуда и нужны деньги это нормально. Когда на работе стоят такие задачи это нормально. Но защищать это - не нормально.
отдавай себе в этом отчет.
И я не говорю что это плохо. Когда деватсья некуда и нужны деньги это нормально. Когда на работе стоят такие задачи это нормально. Но защищать это - не нормально.
Ого у тебя горит. И да у меня айфон лол. Мне нужна хорошая камера, на момент покупки в нем была самая лучшая.
Я голосую рублем за функционал и работоспособность.
И я не знаю почему ты называешь "предоставляют широкий функционал с кучей возможностей " - " "тебя ебут "
Я голосую рублем за функционал и работоспособность.
И я не знаю почему ты называешь "предоставляют широкий функционал с кучей возможностей " - " "тебя ебут "
>И да у меня айфон лол.
ч.т.д.
ч.т.д.
А не сговор ли это? Интелы с амд, а амд с нвидией...
сговор, вот пруф:
6900XT (1000$) = 3090(1400$)
И еще:
RX 6800 = 2080TI = 3070 - 579$
RX 6800 XT = 3080 - 649$
RX 6800 = 2080TI = 3070 - 579$
RX 6800 XT = 3080 - 649$
Почти. 6800 чуть выше 3070 будет, оттуда и 80 баксов сверху.
А теперь посмотрим на полки магазинов и облизываемся от 3080 за 1200 баксов. Если спустя 2 месяца 6900XT будет дешевле 3080 то мой выбор очевиден.
Не будет.
Кто знает, я без проблем урвал 3080 за 640 евро, надеюсь так же и 6900XT урвать, если с ценой порядок будет. За наши магазины я даже говорить ничего не буду, ибо смысла нет.
6800XT = 3080 = $649
Тупой тут не он.
Какая ирония
Ты умненький, заметил важную деталь. Мама тобой гордится!
После 6900XT, остался один вопрос: как??!? Как она это делает? Им просто не хватало менеджмента? Как она раскочегарила всю контору за 4 года на оба фронта? Дети индиго? Масоны? Нам нужны ответы!
Она просто Азиат.
И родственник Хуанга.
- дядя, дай посмотреть!
- на, только не делай точь в точь!
- дядя, дай посмотреть!
- на, только не делай точь в точь!
Но Хуанг вроде только по видеокартам (пока), Зен 3 пока выглядит успешнее чем RDNA2.
насколько я знаю в плане процов к ним пришёл гениальный инженер ненадолго, потом ушёл дальше
насчёт видюх, мож по подобной схеме откатали или ещё какого непризанного гения нашли
насчёт видюх, мож по подобной схеме откатали или ещё какого непризанного гения нашли
во нашёл видос, инженера зовут Джим Келлер
есть годное видео про него
есть годное видео про него
Большое спасибо AMD. Благодаря их разработкам и новой серии видеокарт, мы получили нормальную конкуренцию.
и я теперь куплю geforce pf +- нормальные деньги
и я теперь куплю geforce pf +- нормальные деньги
Слава Лизе Су, Лизе Су слава.
Ave AMD! Deus FX!
Ave AMD! Deus FX!
именно, без конкуренции нвидиа бы уже наверное по 3косаря 3090 продавала
Это даже не конкуренция. Это самая настоящая резня бензопилой посреди белого дня! Нвидиа хоть понимает, как тут бороться, а интел вон уже козявки доедает в углу.
Исторический камбек, короче.
Исторический камбек, короче.
Интел сам виноват, забил на развитие на кучу лет.
А nvidea нормально так вкладывается в технологии. так что все у неё нормич +-
ну теперь не монополист на игровых картах. не сможет сверх сверх прибыль получать.
А nvidea нормально так вкладывается в технологии. так что все у неё нормич +-
ну теперь не монополист на игровых картах. не сможет сверх сверх прибыль получать.
А зачем интелу было напрягаться если единственный конкурент на время выпал из соревнования ?
Перевод производства на новый техпроцесс это крайне не дешевое удовольствие, а коль альтернативы нет, то можно сложить лапки и впаривать каждый год новый сокет и +1 мегагерц к текущей архитектуре.
Здоровая конкуренция всегда ведет к прогрессу.
Перевод производства на новый техпроцесс это крайне не дешевое удовольствие, а коль альтернативы нет, то можно сложить лапки и впаривать каждый год новый сокет и +1 мегагерц к текущей архитектуре.
Здоровая конкуренция всегда ведет к прогрессу.
ну вот когда слишком долго не напрегаешься происходит такая шляпа.
у нвидеа тоже конкурентов фактически небыло последние х лет 90% рынка игровых карт.
и ничего, развивались, чет ковыряли, держали клевые чипы в запасе.
у нвидеа тоже конкурентов фактически небыло последние х лет 90% рынка игровых карт.
и ничего, развивались, чет ковыряли, держали клевые чипы в запасе.
У них очень развит сегмент математических рассчётов. А там индустрия требует больше флопсов.
ну не, резня бензопилой эт если б они видяхи и процы за бесценок продавали
цену держат, никто от прибыли добровольно отказываться не будет
а вот то что подталкивают рынок - эт вообще отлично
цену держат, никто от прибыли добровольно отказываться не будет
а вот то что подталкивают рынок - эт вообще отлично
Где те кто кричал что они догонят 2080ti? Хавайте догнали и перегнали за меньшую цену и энергопотребление. А значит еще и на бп можно сэкономить.
Вот уж на чем и не стоит экономить, так это на БП. Т.к. горят они в основном. А еще могут и прихватить с собой много чего.
Я имею ввиду не качество а мощность бп.
Тут тоже существует заблуждение, что если процессор, условно, 9900к и видеокарта 2080, то обязательно нужен киловаттик - если не разгонять (что сейчас смысла имеет мало как и у intel, так и у amd) то честных 650 ватт хватит точно, даже при 100% загрузки обоих. Например сисоники имеют запас по мощности, даже если нагрузить их выше 20% от номинала, то будут работать стабильно. А то что кпд не будет идеальным - пофиг.
Для процента кпд есть стандарты верить не верить им это уже ваши проблемы.
стандарты учитывают штатный режим
при работе с перегрузкой заданный КПД может не обеспечиваться
при работе с перегрузкой заданный КПД может не обеспечиваться
Скорее, на электричестве. Его стоит считать, да.
Слава амудэ лизе су слава!
Интересно посмотреть тесты этого Smart access mode когда идет сборка из дабл красных.
Ждём тестов...
если не налажают с драйверами на старте и учитывая все проблемы старта продаж у зелёных, Лиза вполне может потеснить Хуанга
#АМУДЕТАЩИ
#АМУДЕТАЩИ
мне бы 1060 на 1080ти (за бу хотят 30тыщ) сменить за вменяемые деньги. дедушка fx8300 с дремучим кулером раскочегарится. узкое место всё равно останется - память ддр3, но её можно если не погнать то снизить тайминги. когда нить потом смена всего - кулер оставлю потому что он и 300ватт рассеит и корпус. ну мож бп 800ват хватит
ничего, еще пару лет а там ддр5, а там годик подождать чтобы поешевела, вот тогда заживем
не стыдно музейный экспонат терзать?
ты смотри как он вычищен, пусть юзает, если он так хорошо за ним ухаживает
fx8300 будет ботлнечить 1080ти, дело даже не в памяти
эта конфигурация будет больше фпс выдавать чем с 1060. а можно ещё по шине погнать процессор. 8 физических ядер счас не у всех есть. я бы конечно тесты посмотрел, но в данном случае заменить видяху это единственный выход апгрейда. на это гнездо заметно более мощных процессоров нет и не было - это была та же модель с заводским разгоном. ддр4 не воткнуть - только гнать память или тайминги менять. брать 1080 даже ТИ под новую систему неоправдано и бесперспективно.
бутылочных горлышка будет два - память и процессор. но процессор играет роль когда в игре много объектов, да и процессорозависимость игр упала... а память да - на каждом шагу будет обламывать
бутылочных горлышка будет два - память и процессор. но процессор играет роль когда в игре много объектов, да и процессорозависимость игр упала... а память да - на каждом шагу будет обламывать
да пофиг 5% туда, 10% сюда, лишь бы драйвера работали, а не как на RX 5700
сижу на 5700 ХТ, были косячные дрова которые вызывали черный экран, который лечился перегрузкой, дрова которые отключали мой рифт с, но спустя год дрова очень хорошо допилили, фреймрейт высокий везде, нет просадок. Так что они молодцы, наконец-то все и вся подтянули)
ну так знаешь, генеральный директор
мимо проходила
мимо проходила
А консоли под ногами со своими 30 фопесами
А акции упали. Печалька.
Странно,что никто еще не принес сюда это:
Потому что это само собой разумеющееся
Потому что это на презентации процессоров было.
Чтобы написать коммент, необходимо залогиниться