Бегом на красную сторону
А смысл?
Медведю нравится твой комикс
Я что-то пропустил и красные снизили ценник в 1.5 раза?
А, так это за 4гб... тю.
$199 за 4Гб это хорошо или плохо?
Не разводи раковальню. Если ты пользуешь 1080р, то 4 гб видеопамяти это оптимально. За год ты найдешь только 2-3 игры, которые у тебя эти 4гб скушают.
Бляяя,я использую Radeon HD 7790 с 2Гб памяти,с ДВУМЯ КАРЛ!!!И проц 4670.И у меня хорошо идут все самые-самые игры на минималках,учитывая,что 7790-четырёхлетний графон среднего уровня.
6670hd с 1гб и e8400. И даже дум идет. Правда в 720 и 25 фпс в среднем. А у тебя КАРЛ, все еще нормально.
рекомендуемая цена на 970 была 329$, на 980 была 550$
а на 1080 уже 699$
1080 дает настолько гигантский скачок производительности, что в общем то цена адекватна более чем.
Производительность не измеряется в гигобайтах видеопамяти. Ты задаешь неправильные вопросы.
Как бы 4 гига для 1920х1080 самое то.
Так, а как там дела со всем остальным у этой карты, что не является памятью?
ну по тестам она лучше обычной 980ой.. хотя тесты не дают всей картины
А если я запущу игру с кучей всяких технологий от зеленых, который лучше всего работают только с зелеными же видеокартами?
не удивительно что там RX 480 сольет 980й, точно так же как и 1080 слила кроссу из двух RX480 в красной AotS
кросс нигде нормально не поддерживается. А миф "Купить 2 радеона дешевле, чем один джефорс"-это бред.
Понадобятся доп затраты на охлаждение, корпус, блок питания...
Понадобятся доп затраты на охлаждение, корпус, блок питания...
Но разве поддержка кросса не добавляется вместе с поддержкой сли?
Под кросс нужна мать, под кросс нужен БП, возможно корпус. И я не шарю, но подозреваю что проц. мощности больше чем на одну 1080. И таким макаром бюджетный вариант превращается в небюджетный
Лучше 980-это не достижение,так как эта карта очень не стабильная.Столько рассказов на YT слышал,как карта работала на медленном режиме и просто отказывалась подстраиваться под более высокие настройки игр,а уж про вылеты из игр из-за неё-это отдельная статья.
Сравнивать с 970 надо.
Сравнивать с 970 надо.
Молодцы Радеоны. Не сдаются и создают хорошую конкуренцию.
Голые цифры по gtx 1070 и 480x
https://www.techpowerup.com/gpudb/2840/geforce-gtx-1070
https://www.techpowerup.com/gpudb/2848/radeon-rx-480
Довольно таки неплохо.
https://www.techpowerup.com/gpudb/2840/geforce-gtx-1070
https://www.techpowerup.com/gpudb/2848/radeon-rx-480
Довольно таки неплохо.
даже очень хорошо.
Голые цифры слишком голые. Практика показывает что чудес не бывает.
Если они дадут производительность чуть ниже чем 1070 то они и продавать ее будут чуть ниже чем 1070, иначе это просто потерянная прибыль.
А рисковать и пытаться отжать долю рынка вряд ли возможно, там куча факторов на пару с ожидаемым большим провалом продаж по PC в ближайшие годы, в частности видеокарт.
Можно просто исходить из цены как сам производитель оценивает свой продукт, а оценивает он его в 200$. Чую будут подводные камни
Если они дадут производительность чуть ниже чем 1070 то они и продавать ее будут чуть ниже чем 1070, иначе это просто потерянная прибыль.
А рисковать и пытаться отжать долю рынка вряд ли возможно, там куча факторов на пару с ожидаемым большим провалом продаж по PC в ближайшие годы, в частности видеокарт.
Можно просто исходить из цены как сам производитель оценивает свой продукт, а оценивает он его в 200$. Чую будут подводные камни
НВидиа имеет кучу маркетинга, вроде встроенного стрим-сервиса, движка по обработке головной шерсти, ещё какие-то малозначимые бонусы, но зато огромный опыт поддержки и выпидоривания своих драйверов, а радионаторы ещё пару лет назад славились своими нестабильностью и неоптимизированностью. Года два назад, когда маленький мальчик интересовался видюшками, сходные по заявленным ТТХ кристаллы от зеленых обгоняли кристаллы от красных, хоть и стоили дороже. Может быть, красные решили не конкурировать с нвидиа а просто задавить их демпингом, как поступала АМД со своими многоядерными камнями, не уступавшими интел, но бывшими в полтора раза дешевле?
Это миф, не было многоядерных камней равных интел и стоивших в полтора раза дешевле. Единственный козырь амд проявлялся на многопоточности которяй работала у полторы калек из всех приложений, причем касалось это только процессоров схожей плюс минус стоимости.
Мне кажется, или Радеон сосет?
NVIDIA GeForce GTX 1070 Memory Clock: 2002 MHz
8008 MHz effective
Bandwidth: 256.3 GB/s
AMD Radeon RX 480 Memory Clock: 2000 MHz
8000 MHz effective
Bandwidth: 256.0 GB/s
NVIDIA GeForce GTX 1070 Memory Clock: 2002 MHz
8008 MHz effective
Bandwidth: 256.3 GB/s
AMD Radeon RX 480 Memory Clock: 2000 MHz
8000 MHz effective
Bandwidth: 256.0 GB/s
Разница аж с орбиты видна, да...
вы либо можете в сарказм
Никогда не любил красных, но похоже у меня нет выбора...
Я так понимаю гонку мощностей radion проиграли поскольку нечего предложить противовес 1080 nvidia и решили отыграть на ценеи доступности к широкой аудитории?? так??
Многие игры подстраиваются под консольки, и ты хоть лоб разбей, но сборка дороже +1к зелёных просто трата если у тебя не 4к.
А 4к даже 1080 не тащит. Так что вообще нет резона столько тратить.
2xgtx1080 тащит в 4k.
Нахуя вообще нужен этот 4к? VR разве не более интересней и зрелищней? Да и цена комфортного 4к обойдется дороже любого VR устройства.
Проблема в том что для хорошей картинки VR как раз требует 4к разрешение.
Так что бери выше, и VR И 4к
Так что бери выше, и VR И 4к
Проблема в том что 4к и 60 фпс это играбельно, но не "совсем" комфортно. Получается нада уже 3-way sli, а его нвидиа культурно собирается прикрыть.
Потому говорю вам что 4к ВР пока не для современного железа.
Потому говорю вам что 4к ВР пока не для современного железа.
Я если честно не знаю как выглядит 4k но уверен это как с 800x600 перейти на FullHD.
Смотрю контент в нетфликсе на 4к телеке, так как пока посмотрел только Черный список и Брейкинг Бэд, то впечатления неоднозначные, часть сцен выглядят просто бомбовски, а другая часть как обычное fullHD. В любом случае потраченных на телек денег не жалею, скоро будет больше контента.
ну хз, был на мелкой выставке, если на панели разница заметно, то на мониторе 4к разницы не увидел вообще, а цена ой как кусается. Хотя вроде как представитель объяснял, что ЦА не задроты и не для медиа делалось, а системы видеонаблюденя, чертежные программы и моделирования.
Кому-как а для меня - Radeon - хрень. унего нет технологии CUDA
Плохо с linux, нет Cuda, забили на старые карточки, последние бета драйвера (которые максимально, что можно найти для моей HD6470M) глючные - не работает включение экрана после опускания крышки и еще пары моментов, поддержка хер забила отвечать.
Ты бы ещё сказал что на HD2900XT драйверов не завезли, красные хотя бы 3 "поколения" поддерживает 7ххх, Rх 200, Rх300, зелёные так вообще только полтора новое и что-то из предидущего
А если херню не пороть? Зеленые прекратили поддержку 9-series в марте этого года. На видеокарту 9800GTX есть дрова под Win10x64. На 6-series есть дрова на Win8x64 - напомнить когда на рынке были GeForce 6800?
360-DriverPack поддерживаю карты на 5 покалений назад.
И убедительная просьба не фантазировать на тему "новыми дровами убили производительность предыдущих карт в 2а раза"
360-DriverPack поддерживаю карты на 5 покалений назад.
И убедительная просьба не фантазировать на тему "новыми дровами убили производительность предыдущих карт в 2а раза"
О, брат по нечастью. Мой ноут с HD6370M тоже не работает с дровами AMD. Экран вобще не работает никогда, разве что после костылей в реестре. И то, пока на зарядке. Поставил Win10, тогда стало лучше. Но в итоге накатил линукс с открытыми дровами. А сам сейчас с десктопом на GTX950, пусть самой нищебродской из серии, зато хватает поиграть (Witcher 3 тянет нормально в FullHD без разгона) и нет того кошмара с дровами. Хотя да, это скорее из-за того что карта новая, но у зелёных всегда были драйверы чуть лучше.
А что такое cuda и зачем оно надо?
CUDA (англ. Compute Unified Device Architecture) — программно-аппаратная архитектура параллельных вычислений, которая позволяет существенно увеличить вычислительную производительность благодаря использованию графических процессоров фирмы Nvidia.
Википедия, короч
Википедия, короч
т.е. это не для игр, а для неких абстрактных вычислений. майнить что-ли?
из статьи на Вики я понял, что может применяться везде. Но сказать, применяется ли в играх, я не могу
CUDA дело хорошее, но вроде если пк для игор то как бы и не нужно. Да и не все ее видят, в свое время огорчился, KeyShotу например побоку какая карта, все расчеты на ЦП ложатся
Мне для игор и не надо. Я занимаюсь 3D анимацией, и мой рендер-движок пользует ЦПУ и CUDA. Причем CUDA выполняет примерно 90% всего рендеринга
а что за движок? знакомый для синима4д взял с CUDA, но в итоге один фиг не подключилось, вроде только в максе какой то профит с CUDA был.
А так повторюсь, поскольку АМД себя больше как игровые позиционируют, то им подобное без надобности, у них вообще такого направления нет, и нет продуктов специфичных, вроде теслы
А так повторюсь, поскольку АМД себя больше как игровые позиционируют, то им подобное без надобности, у них вообще такого направления нет, и нет продуктов специфичных, вроде теслы
Я пользую IRay. Подумываю приобрести Octane. Но он, падла, дорогой
iray? помню слышал много негатива в его сторону, сейчас с ним все хорошо?
Вполне. быстро и красиво
Еще есть Xilisoft Video Converter, в нём тоже применяется CUDA.
Как же тут много экспертов по всем вопросам.
Всё просто. Берётся набор целевых приложений где будет работать видеокарта. Сравнивается цена\производительность. Выбирается лучший вариант в данный момент времени. ВСЁ. Все остальные цифры которые указывает производитель вам должны быть параллельны. Важен только результат.
Всё просто. Берётся набор целевых приложений где будет работать видеокарта. Сравнивается цена\производительность. Выбирается лучший вариант в данный момент времени. ВСЁ. Все остальные цифры которые указывает производитель вам должны быть параллельны. Важен только результат.
радики суки стелят гладко, а потом садишся на письки только натыкаешся.
Чтобы написать коммент, необходимо залогиниться