Сложна
Перевод:
"С возвращением @AMD. Threadripper (процессор AMD) и Geforce GTX 1080 TI (видеокарта NVIDIA) составляют шикарный тандем."
"С возвращением @AMD. Threadripper (процессор AMD) и Geforce GTX 1080 TI (видеокарта NVIDIA) составляют шикарный тандем."
В чём суть очередного витка обоюдного троллирования красных и зелёных? Поясните для прошляпивших.
Тут не троллинг даже. Новый проц от амд выстрелил и нвидия их и поздравляет с этим.
Троллинг в том, что у АМД наконец вышел процессор, который без ботлнека может вывезти топовую карту Нвидиа. Человек выше наговорил хуйню про интел.
Ясно. Спасибо!
А какие процы от амд будут узким местом в паре с 1080ti?
Для игроков что Ryzen 7, что все Threadripper один хрен. Игрокам Threadripper не нужны. Для некоторых игр нужно будет вырубать половину процессора, чтобы много ядер иг не пугало. Но это дурацкие игры. Так-то проц лучше, но не для игр, а стоит в два раза дороже. На вырост разве что, только вероятность такого выроста мала. К тому времени, как появится какая-то йо-хо-хо игрулька, которая захочет многоядер, к тому времени процессор AMD EPYC переименуют в Ryzen X Assgrinder.
хуясе
шутки про обогрев помещений снова актуальны?
шутки про обогрев помещений снова актуальны?
Так то у интела X - серия не хуже. Емнип на 7800 при разгоне потребление и за 300вт переваливало.
Нет, новые интелы - хуйня с соплями под крышкой, которая проигрывает райзенам по всем категориям.
AMD не для тела, он для души.
Ламповый АMD понимавший что мир уже совершенен в своем несовершенстве.
Ламповый АMD понимавший что мир уже совершенен в своем несовершенстве.
Тролинг в гифке, надеюсь чувак быстро уберет руку
Ну небольшой троллинг все таки присутствует. Nvidia намекает что с таким процом нужна хорошая видеокарта, коей по их мнению является GeForce, а не видеокарты AMD. =)
Не только. В новых процах 64 линии PCI-E, значит можно поставить 3-4 видюхи, а не одну. И продать соответственно столько же, чему зелёные несказанно рады в отсутствие конкурента "Vega" на полках магазинов.
А есть смысл ставить несколько видюх? Да и думаю нет такой программы (кроме минёров) которую бы не потянул 1080
Ты недооцениваешь говноразработчиков с их говнооптимизациями.
Типа 4к на 3 мониторах D:
4k даже на одном мониторе 1080Ti не вытягивает в стабильных 60фпс.
приятно греет мысль что 4K будет окончательным разрешением видеоаппаратуры (а конкретно 2 * 4к) так как дает предельное разрешающее разрешение на каждый глаз на углы 120 град. т.е если он закрывает все поле зрения то ты все равно пикселя на нем не увидишь.
У тя со зрением, чтоль проблемы? Для моника перекрывающего углы зрения с 50см это где-то 46-52 диагональ при 16k, только пиксели ты там один хрен будешь видеть, и чтоб картинка была приятна - карточки придется рендерить все при 64k (да, да, здравствуй 4xFSAA)
Да любая песочница, человек там любит строить огромную хуню, например спейс инжинерс, хотя там вроде в последних обновах завезли Аптимизацию
ммм... заплатить пол ляма рушлей чтобы играть в майнкрафт в 4к на 3 титанах
Смотря для чего. Для игр в 4к и работы с графикой например стоит.
Подоплека скорее всего в отношениях Nvidia и Intel. Статья по этому же поводу - https://3dnews.ru/956827.
Последнее предложение:"Дело в том, что сейчас между NVIDIA и Intel довольно натянутые отношения: речь идёт не только об усиливающейся конкуренции в области самоуправляемых автомобилей, но также о прекращении кросс-лицензионных платежей со стороны последней по использованию GPU-технологий."
Последнее предложение:"Дело в том, что сейчас между NVIDIA и Intel довольно натянутые отношения: речь идёт не только об усиливающейся конкуренции в области самоуправляемых автомобилей, но также о прекращении кросс-лицензионных платежей со стороны последней по использованию GPU-технологий."
Чтобы написать коммент, необходимо залогиниться