1 мс? Для наглядности надо было сделать 5, к примеру. А то выглядит как обычный моник, но с охуенным откликом.
У TN матриц такой отклик есть. Это у IPS сейчас только только с 2 мс начали появляться, так то минималка 4-5мс идёт.
IPS с хорошим откликом.. жутко дорогие. Из более мнее доустпных 15-20к рублей VA. Правда TN для шутеров интереснее, но.. углы обзора муть.. особенно для тех кто за пару часов игры на кресле сползает почти под стол :D
Будет повод сидеть ровно
Это когда кино смотришь или скролишь. А когда играешь. Сидишь как не когда не сидел в школе)
(разрешите доебаться)
Судя по "не когда" ты там так и не усидел.
(доеб окончен)
Судя по "не когда" ты там так и не усидел.
(доеб окончен)
Если IPS мониторы с форсированным режимом MPRT в 1 мс. Типа включаешь режим MPRT и монитор обрезает яркость и контрастность, но дает честный отклик в 1 мс.
Сорян, давно сижу на IPS, вообще из головы вылетели TN с их откликом... Да и те TN, за которыми сидел раньше или на работе, тоже откликом не баловали)
У меня глаза вытекли когда я пресел с TN Самсунга Т220 (2мс) на IPS LG 29UM59-P (5мс).
При движении все в мыле и шлейфы и шлейфы... ппц.
При движении все в мыле и шлейфы и шлейфы... ппц.
В какой ААА игре 2019г на ультрах есть больше 60фпс?
Тебе список большой или очень большой?
Погоди, ты сейчас консольщика спугнешь.
давай большой. у меня 1080ти. еще не видел ни одну игру которая выдавала бы мне больше 60 фпс. (2к моник)
А ты вертикальную синхронизацию выключи.
о да! топ совет! У меня G-Sync. Конечно вертикалуку я отрубаю!
А Г-синк разве не лимитирует фпс?
Отключай вообще все, будет больше.
У меня стабильно 60 фпс на сраной r9 270x.
И только DOOM выдает 150 на вулкане.
Отключай вообще все, будет больше.
У меня стабильно 60 фпс на сраной r9 270x.
И только DOOM выдает 150 на вулкане.
а ты поставь 2Х2080ti и увидишь
У меня 1070Ti, моник 27" Acer Nitro VG270bmiix 75Гц. И в играх 19 года в которые я играл - на ультрах с включенной синхронизацией всегда 75 фпс, без просадок. А если отключить то иногда переваливает и за 100. Проверялось на Metro Exodus, Far Cry New Dawn и Devil May Cry 5.
2019 у меня нет, но вот это на 1080 TI 60 фпс в FullHD изи выдает:
assassin's creed odyssey
battlefield 1
far cry 5
assassin's creed odyssey
battlefield 1
far cry 5
> assassin's creed odyssey
Ну вот тут ты заврался. Игра настолько нестабильна в плане производительности, что у тебя должны быть регулярные просадки по фпс.
Ну вот тут ты заврался. Игра настолько нестабильна в плане производительности, что у тебя должны быть регулярные просадки по фпс.
Визуально просадок нет и стабильно 70 кадров фрапс показывает на моём китайском ПК с криворуким разгоном до 4,2ГГц на 6 ядер, у меня моник 60 Гц
Вот пример с чуть большей частотой E5-1650v2@4.5Ghz +1080TI но 120 ГЦ монике.
Вот пример с чуть большей частотой E5-1650v2@4.5Ghz +1080TI но 120 ГЦ монике.
Не надо ля-ля, всё норм даже на gtx1080 i7 6700K. Конечно FPS 1% около 45, но по ощущением это не создаёт никаких проблем.
бро, фар край 5 это такое себе мерило, он у меня в 2к с 1070 60фпс держит
Я не претендую на оценщика игр и их производительности, просто высказал свое мнение, я часто микроскопом гвозди забиваю.
RTX2070 на ультрах в БФ5 и Метро точно выше 70.
в HD? во всех, если у тебя хотя бы 780.
На консолях - хорошо, если хоть 60 есть.
А что в не ААА мы уже не играем?
есть еще такие штуки, как frame time и input lag, не всё упирается в мощность гпу,
разрешение монитора и его частоту
разрешение монитора и его частоту
Ну что, пора начать срач про фреймтайм гиперпня?
для этого здесь вилка с 9900к
Input lag мы начнём смаковать с запуском Stadia от Google.
Ты чо пес облачный гейминг нахуй видеокарты играй на планшете в экзодус!!1
С артефактами и инпутлагом 160 мс, видимо, с клиентом и сервером в соседних стойках, лол))
Вангую такую же "дикую" популярность у этой штуки, как у IoT.
С артефактами и инпутлагом 160 мс, видимо, с клиентом и сервером в соседних стойках, лол))
Вангую такую же "дикую" популярность у этой штуки, как у IoT.
Говорят сонька уже выкатила такой сервис. Надо поймать консольщика и допросить.
А что, ахуенно. Если моник хоть и 1080р всего, но в остальном очень пиздатый то это очень даже норм связка. Правда в случае если ты добыл чисто 2080Ti (Подарили, накопил, насосала, украл...) но проц на уровне i7, то такого конфига на очень дохуя хатит в ультрах играть.
Это бессмысленно если моник FullHD. i7 мало? лол да там i5 за глаза.
Меньше моник ===> видеокарта может выдать больше фпс
Видеокарта может выдать больше фпс =====> нужен процессор, способный выдать больше фпс
ЦП же пофиг на разрешение, полигоны то он одни и те же считает что в 720 что в 4к а вот видяхе надо больше пикселей красить.
Видеокарта может выдать больше фпс =====> нужен процессор, способный выдать больше фпс
ЦП же пофиг на разрешение, полигоны то он одни и те же считает что в 720 что в 4к а вот видяхе надо больше пикселей красить.
ЦП не пофиг на разрешение, потому что на ЦП лежат тонны постпроцессинга.
Это как? Цпу отправляет кадр на гпу, тот его рендерит, отправляет обратно процу, тот его постпроцессит, отправляет обратно гпу, тот строит изображение.
Ничего не перепутал?)
Ничего не перепутал?)
Если мы говорим про рендеринг средствами GPU, то не CPU не "отправляет кадр на GPU". CPU передает GPU информацию для построения сцены - загружает необходимые текстуры, модели, шейдеры (включая изменение координат объектов), причем лишь последнее он делает каждый кадр, а остальное - только по необходимости, когда надо, например, добавить новый объект или изменить уровень детализации. GPU вычисляет кадр, кладет его в буфер и сообщает, что все готово. Тогда начинается постпроцессинг средствами CPU, в самом простейшем случае на картинку накладывается пользовательский интерфейс, но есть и полноценные шейдеры, которые сложно или даже невозможно сделать средствами GPU, например - искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие и т.д. В старых играх даже сияние всяких ламп/светильников делалось на CPU (не освещение, а именно светящийся ореол), поэтому оно регулярно просвечивало сквозь стены.
Подготовленная картинка отдается обратно GPU для отображения.
Подготовленная картинка отдается обратно GPU для отображения.
Спасибо.
Честно говоря, в наш век ударного развития GPGPU мне сложно представить, что существуют пикселшейдеры, которые невозможно (или невыгодно) делать силами GPU. Есть примеры из современных игр?
Речь ведь идет в контексте топика.
Все остальное - HUD, UI-overlay - это не "тонны постобработки".
Вообще, касательно UI. Неужели через шину гоняется каждый отрисованный кадр целиком? Это же огромные накладные расходы.
Честно говоря, в наш век ударного развития GPGPU мне сложно представить, что существуют пикселшейдеры, которые невозможно (или невыгодно) делать силами GPU. Есть примеры из современных игр?
Речь ведь идет в контексте топика.
Все остальное - HUD, UI-overlay - это не "тонны постобработки".
Вообще, касательно UI. Неужели через шину гоняется каждый отрисованный кадр целиком? Это же огромные накладные расходы.
>Есть примеры из современных игр
Да, и еще, буду признателен за пример любой старой игры, которая использует пикселшейдеры, но за счет постобработки на цпу при увеличении разрешения последний становится ботлнеком.
Это расставит все точки над i в заявлении, что камню не пофиг на разрешение.
Да, и еще, буду признателен за пример любой старой игры, которая использует пикселшейдеры, но за счет постобработки на цпу при увеличении разрешения последний становится ботлнеком.
Это расставит все точки над i в заявлении, что камню не пофиг на разрешение.
> Тогда начинается постпроцессинг средствами CPU, в самом простейшем случае на картинку накладывается пользовательский интерфейс
Который вообще не постпроцессинг и сейчас отрисовывается средствами GPU (в том же Юнити)
> искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие
Всё, что вы перечислили - делается на GPU. Никогда не слышал, чтобы кто-то делал это в реалтайме на CPU и вообще сомневаюсь, что это имеет практический смысл
Который вообще не постпроцессинг и сейчас отрисовывается средствами GPU (в том же Юнити)
> искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие
Всё, что вы перечислили - делается на GPU. Никогда не слышал, чтобы кто-то делал это в реалтайме на CPU и вообще сомневаюсь, что это имеет практический смысл
Да. i7-9800x хватит надолго под ПО с текущими требованиями.
Тебе приснилось что я сказал будто i7 мало, наоборот, они всегда ахуенные и долгоиграющие процы. А вот на счёт i5 теперь сомневаюсь, когда с него на i7 но на поколение правда выше перешёл, разницу прочуял сразу.
Хром и винда сожрут.
нужно много активных вкладок в хроме чтобы столько скушать
Одна, две, МНОГО. Так сейчас браузеры считают.
Ну на наш офис в 15 человек 70 гб оперативки, не с головой, но хватает. С браузером работают все постоянно.
(работаем через терминалы)
(работаем через терминалы)
Сами браузеры уже давно не так много жрут, но есть странички, что начинают отжирать памяти.
Тот же фэейсбук режет слова реклама на 20 отдельных табличек.
Тот же фэейсбук режет слова реклама на 20 отдельных табличек.
Не надо, десятая винда очень хорошо работает с памятью и не жрет лишнего.
ну не скажи, 3-4 виртуальные машины всё сожрут.
Ну, какое-то время с сидел на старом мониторе. Ламповом, ибо я сделал выбор - все в железо. Монитор купил позже, но было забавно с охуевшим железом, играть 4:3.
А мой старый добрый самсунг 1280*1024 тупо сдох, теперь печ750 не везде 60 кадров выдаёт :(
Было бы еще смешнее, если бы не факт того, что во многих современных играх эти ебанные вилка и нож являются чуть ли не минимальными требованиями к запуску.
Игры должны работать на том оборудовании, для которого они разрабатывались. ПК - отличная платформа была, есть и будет.
А игры и работают на консолях, и на пк тоже, просто железо из поста на столько же пизже консольного, на сколько и дороже.
Даже более того, их банально не хватит на современные максималки - 4к и 90+ фпс. Пеку под грядущие ААА можно в ипотеку брать с такими ценами на железо.
4к и 90+ кадров? Такое под силу разве что sli из 2080ti да и то не во всех играх и не со всеми настройками графики, да и сам sli далеко не везде работает. Может в майнкрафте?
Вот и я про то. Мониторы 4к/120фпс завезли, но на них можно на полную запустить тот же майнкрафт, и то не со всеми текстурпаками, да что-нибудь уровня фоллаута.
Майнкрафт? Та неее, с ума сошёл ты, не иначе. 50 кадров максимум ( ͡° ͜ʖ ͡°)
В меню майнкрафт все 500 выдаёт.
Я тебе больше скажу, Сталкеры в меню выдают овер 1200+ кадров, аж дросселя свистеть начинают на видяхе. Разрабы говна навернули, когда забыли поставить лок на 60 фпс.
А нахуя 4к лично мне, если монитор больше 23 дюймов у меня по габаритам в стол не влезет?
Чтобы использовать его вместо стола, очевидно же.
Гонял Ghost Recon Wildlands в 4k на 780. Выше это супер оверкилл для fullHD.
*вздох*
Уже наверное неделю бьюсь вантузом об форточку пытаясь подобрать монитор под подобный конфиг... Там завесты на черном фоне, там 5мс GtG, там плотность пикселя (хочется попробовать 32" моник 1440p), там точность изображения хромает, там неравномерность изображения (на каком-то Acer Predator нашел)...
Уже наверное неделю бьюсь вантузом об форточку пытаясь подобрать монитор под подобный конфиг... Там завесты на черном фоне, там 5мс GtG, там плотность пикселя (хочется попробовать 32" моник 1440p), там точность изображения хромает, там неравномерность изображения (на каком-то Acer Predator нашел)...
Acer Nitro XV273KP =)
Близко к тому что присмотрел - Acer 27 XB271hubmiprz (UM.HX1EE.005/UM.HX1EE.008). Вот у этого наткнулся что народ плевался на тему что изображение не равномерное по цветам.
Я подбирал высокочастотный 4к с IPS. Цена/качество у этого, пожалуй, лучшее. По крайней мере, мне так кажется :D
Ну я пока в сторону этого и смотрю. Была светлая мысль пересесть на 32", но я так понял 32" и 1440р это фиговое сочитание. А из 4к 144герц только две модели, но цена у них уже чересчур перебор (как две 2080ti).
Лол, почти мой случай.
Только 2080 не Ti и моник 144гц.
Ща планирую взять Acer Nitro XV273KP.
Только 2080 не Ti и моник 144гц.
Ща планирую взять Acer Nitro XV273KP.
Взрывная шутка.
А теперь можно возвести всё в квадрат, если юзаешь BlurBuster... Не знал, но когда попробовал - я офигел!!! (Не сочтите за рекламу, мож кому нить пригодится)...
на сайте я так и не понял - это утилита какая то?
Да, только нуждается в тонкой настройке, я чет не так настроил, у меня теперь инпут лаг в минус ушел и монитор показывает будущее.
Да я её сразу установил, когда купил новый моник на 1мс и пользую иногда, тоже советую. Но это для задротов и надо знать еще, как её настраивать. Я её только для CS 1.6 и QuakeLive использую.
Незнаю почему она позиционируется для 3D, и производители моников тоже показывают 3Д игры при своих Blur Reduction технологиях, когда самое наглядное - это 2D игры - да та же Terraria, играл на 4мс монике - как сырой тряпкой по экрану(всему экрану), а после blur buster - просто отдых для глаз - можно фокусироваться и вести любой пиксель на экране, он будет чёток. Вобщем Zowie + BlurBuster - прорыв я бы сказал.
мой вариант только не герои а другре старье
Была на башорге цитата от чувака, который проапгрейдил комп до самого топового железа и теперь сидит за этим компом и только слушает музыку в винампе.
Знаю человека, который психанул, купил дорогой геймерский ноут. За месяц наигрался в те тупорылые игры и дальше листает борды, да смотрит аниме.
скорее Rich parents
Если в майнкрафте увеличивать дальность прорисовки, то нагрузка возрастает нелинейно. А дальность прорисовки там по дефолту ну очень маленькая, если строишь что-нибудь монструозное на сотни блоков.
Зачем на вилке написали про оверпрайснутый кусок говна?
А на ноже зачем?
RTX 2080Ti еле еле до 60FPS дотягивает при 4к. И то не во всех играх. В ларке вообще 40fps
Чтобы написать коммент, необходимо залогиниться