>для майнинга
Пидарас
Пидарас
а шо , хуше стало?
4060Ti в некоторых моментах проигрывает 3060Ti
Всё индивидуально, но 4090 — пока самая сильная видеокарта на рынке.
Он идиот.
Сильная в разрешении 4к, такие видюхи берутся под хорошее разрешение экрана. Если ты еще 10 лет собираешься на фуллхд сидеть, то это не значит, что все разделяют твое стремление.
да, по цене сосет. если не хочешь спонсировать отношение куртки с топовыми картами за 1к+ баксов, то лучше брать топовую б\у карту, а не новое.
Ну да, отдать 200 кусков за б/у карту, которая возможно наебнется через месяц. Лотерея для очень богатых.
В принципе откинуться и у новой есть шансы. :)
А карта, которая была у другого уже прошла простой тест -- не сдохнуть под нагрузками и околопохуистичным отношением предыдущего владельца.
Не говорю что нужно подскакивать и идти срочно покупать Б/У, но не стоит к этому относиться будто они поголовно сломанные и тем более разводить FUD. Думать и решать куда тратить свои кровные в конце концов вам.
А карта, которая была у другого уже прошла простой тест -- не сдохнуть под нагрузками и околопохуистичным отношением предыдущего владельца.
Не говорю что нужно подскакивать и идти срочно покупать Б/У, но не стоит к этому относиться будто они поголовно сломанные и тем более разводить FUD. Думать и решать куда тратить свои кровные в конце концов вам.
У меня 20серия сдохла через 3 месяца. По гарантии поменяли
Взял б/у RX580 на алике за копейки (70 c лишним бачин) и доволен как слон. Они ещё и корпус с кулерами новый поставили, чем не новая видеокарта ?
у новой гарантия есть,у бу хрен
4090, чо думать-то?
Да я вот тоже думал так, пока не увидел ваш тред, в котором 4060ti сосёт у 3060ti
Тут просто сама 4060 позорная. С остальной 14й серией все нормально.
Ну так посмотри ролик 3090ti vs 4090. Выбираешь себе паркетник который может по говнам залать, а смотришь обзоры малолитражек для многодетных мам. В чем локига?
4090 - действительно самая мощная карта, но нужна ли тебе ёбаная печка (для неё рекомендуют киловатный блок ставить, сука электросварка в пике 5 киловат потребляет, так ей можно железные конструкции варить, а тут такое чудище в пеку предлагают засовывать, я хуею с зелёных) ещё и размером с PS5, я бы на твоём месте дождался 5000-й серии, если нынешняя карта не прям ничего не может и тебе не нужны такие мощности по работе.
Если зажать теплопакет, то производительность 4090 снизится на один процент, а энергопотребление станет ровно как у 3090, например. А если пожертвовать 2,5% fps, то уже и в 300 Вт укладывается. Техпроцесс всё-таки очень энергоэффективный.
https://overclockers.ru/blog/molexandr/show/80083/regulirovka-napryazheniya-geforce-rtx-4090-pozvolyaet-sohranit-92-proizvoditelnosti-pri-230-vt
https://overclockers.ru/blog/molexandr/show/80083/regulirovka-napryazheniya-geforce-rtx-4090-pozvolyaet-sohranit-92-proizvoditelnosti-pri-230-vt
Ооо, у меня кулстори с этой 4090.
У меня есть корпус от Thermaltake - LEVEL 20 VT. Там материнка влезает не больше miniATX. (мне тогда хотелось корпус с горизонтальным расположением материнки)
Купил гигабайтовскую 4090, Она влезла, но прям впритык. И понеслась...
Проц (ryzen 5800x) начал улетать в ебеня по температурам (95 и выше градусов при норме раньше в 70 градусов).
Я, дурила, подумал, что водянка накрылась спустя полтора года. Пошел, сдал ее по гарантии.
Разочаровался в водянках, решил купить огромную топовую башню от be quiet или noctua (взял первую).
Еще подумал, что райзены видимо чет горячие, и решил перейти на 13ые интелы (и СОВЕРШЕННО забыл обзоры на них, они тоже горячие).
В общем, заменил еще мать и ОЗУ на DDR5. Итог - хуй тебе, лови троттлинги.
Догадался сунуть руку в корпус и понять, что 4090 выбрасывает свои 450 ват вверх, прямо в башню.
Потом понял, что водянка, видимо, тоже была в порядке (она стояла сверху и вытягивала эти же 450 ватт через себя)
Пошел, купил 240ую NZXT, решил поставить ее вперед, а не вверх. Пошел ты нахуй, любитель miniATX платформ. Водянка не влезает из-за огромной видяхи. Бляяя.
Психанул и купил гигантский корпус от Cougar - Panzer Max.
Теперь все влезает, НО!!!
Корпус теперь с классическим расположением материнки, видеокарта висит, надо ставить держатель. Держатель крепится в нижней правой части материнки (на 2 винта, на тех же отверстиях, которые крепят мать к корпусу). И это применимо только к полноразмерным ATX-матерям. На мини расположение отверстий другое, держатель не крепится.
Опять жопа сгорела, пошел купил полноразмерную мать. Все встало. Уже успел выдохнуть...
Новая водянка у меня имеет 2 вертушки спереди и 2 сзади. Держатель по длине не дает поставить одну из задних вертушек. Пришлось немного колхозить и на струбцине аккуратно сгибать держатель в сторону. Вышло неплохо и не скажешь, что кривой дебил ее сгибал, а не так с завода было.
Я уже лет 10 сам компы себе и друзьям собираю, но тут прям целое кретин-комбо собрал и получил историю "Как купить видеокарту за 150к и проебать потом еще 100к"
У меня есть корпус от Thermaltake - LEVEL 20 VT. Там материнка влезает не больше miniATX. (мне тогда хотелось корпус с горизонтальным расположением материнки)
Купил гигабайтовскую 4090, Она влезла, но прям впритык. И понеслась...
Проц (ryzen 5800x) начал улетать в ебеня по температурам (95 и выше градусов при норме раньше в 70 градусов).
Я, дурила, подумал, что водянка накрылась спустя полтора года. Пошел, сдал ее по гарантии.
Разочаровался в водянках, решил купить огромную топовую башню от be quiet или noctua (взял первую).
Еще подумал, что райзены видимо чет горячие, и решил перейти на 13ые интелы (и СОВЕРШЕННО забыл обзоры на них, они тоже горячие).
В общем, заменил еще мать и ОЗУ на DDR5. Итог - хуй тебе, лови троттлинги.
Догадался сунуть руку в корпус и понять, что 4090 выбрасывает свои 450 ват вверх, прямо в башню.
Потом понял, что водянка, видимо, тоже была в порядке (она стояла сверху и вытягивала эти же 450 ватт через себя)
Пошел, купил 240ую NZXT, решил поставить ее вперед, а не вверх. Пошел ты нахуй, любитель miniATX платформ. Водянка не влезает из-за огромной видяхи. Бляяя.
Психанул и купил гигантский корпус от Cougar - Panzer Max.
Теперь все влезает, НО!!!
Корпус теперь с классическим расположением материнки, видеокарта висит, надо ставить держатель. Держатель крепится в нижней правой части материнки (на 2 винта, на тех же отверстиях, которые крепят мать к корпусу). И это применимо только к полноразмерным ATX-матерям. На мини расположение отверстий другое, держатель не крепится.
Опять жопа сгорела, пошел купил полноразмерную мать. Все встало. Уже успел выдохнуть...
Новая водянка у меня имеет 2 вертушки спереди и 2 сзади. Держатель по длине не дает поставить одну из задних вертушек. Пришлось немного колхозить и на струбцине аккуратно сгибать держатель в сторону. Вышло неплохо и не скажешь, что кривой дебил ее сгибал, а не так с завода было.
Я уже лет 10 сам компы себе и друзьям собираю, но тут прям целое кретин-комбо собрал и получил историю "Как купить видеокарту за 150к и проебать потом еще 100к"
Только 4060 сосёт
Спасибо всем отписавшимся :)
ну 4070 тоже тот еще высер
Не брать ничего. Следующие флагманы будут анонсированы осенью/зимой и с их релизом цены на 3090 и 4090 сильно упадут. Потому как новых суперигор особо не ожидается, то просто перетерпи. Лучше потрать деньги на переход на платформу с DDR5 -> новый проц + новая мать + m2.SSD ~1TB. Потратишь меньше денег, ощутишь улучшение качества жизни уже, и получишь платформу для апгрейдов на следующие 5 лет
А лет через пять 4090 вообще будет 100 баксов стоить.
Или кусочек жареной крысы.
Или кусочек жареной крысы.
Чет 2080ti как-то не стоит 100$.
да и 1060 стоит больше 100евр
полез поискать
я хуею
у нас её в продаже нет вообще, а на ebay продают от неё коробку за 160 баксов
я хуею
у нас её в продаже нет вообще, а на ebay продают от неё коробку за 160 баксов
почему терабайт? ща как раз коплю денег и как раз не хотел покупать видюху...
Intel Core i9-13900KF - вот такой проц выбрал... норм? или я что-то пропустил
ну и мать E-ATX фиг знает какую брать. Вроде ASRock Z790 Taichi Carrara мне подходит...
Intel Core i9-13900KF - вот такой проц выбрал... норм? или я что-то пропустил
ну и мать E-ATX фиг знает какую брать. Вроде ASRock Z790 Taichi Carrara мне подходит...
Страшный оверкилл. Я за 6 лет едва смог загрузить свой предыдущий i7-4770k. Процессор не столько бутылочное горлышко, сколько основа для новой платформы. Лучший выбор, который ты в принципе можешь сделать - это i5-13600. Он великолепен, его хватает на всё с избытком, а цена его всего $300-350. Мать неплохая, но ты можешь взять GIGABYTE Z790 AORUS Elite AX (LGA 1700/ Intel Z790/ ATX/ DDR5/ Quad M.2/ PCIe 5.0 за примерно $260, она не хуже и примерно в 2 раза дешевле
И вообще, напиши в личку бюджет, я постараюсь дать максимально полезный покупательский совет
И вообще, напиши в личку бюджет, я постараюсь дать максимально полезный покупательский совет
спасибище )
TBF зависит от того, какие задачи еще выполняются на ПК помимо игр. Мне например для разработки проц важнее видяхи бывает
если ты мамкин стример, то норм. иначе переизбыток производительности на проце. основной упор в игорях при выкручивании настроек это видюха. лучше переплату за проц вложить в неё.
Зависит для того, зачем тебе комп.
Если для игорей, i9 в нахуй не сдался. Если брать сейчас брать - бери 13700kf
13700+4090 укатают в игорях 13900+4080 ровно на разрыв в производительности ВК.
Если для рабочей работы там у АМД варианты интересней или лезь с сегмент WS на Xeon ( не хуеты с аллика, а 3647, 4189, 4677)
Если для игорей, i9 в нахуй не сдался. Если брать сейчас брать - бери 13700kf
13700+4090 укатают в игорях 13900+4080 ровно на разрыв в производительности ВК.
Если для рабочей работы там у АМД варианты интересней или лезь с сегмент WS на Xeon ( не хуеты с аллика, а 3647, 4189, 4677)
Heroes of Might&Magic III =)
У тебя 144Гц монитор?
У меня 5 мониторов, а оказалось, что подключить можно только 4 )). Три монитора 4К и 2FHD. Один из них надо купить на большую частоту
такой совет прокатил бы для условного 2007 года.
а может случится так, что санкций всыпят настолько, что бакс станет 100500 рублей, и ты будешь рад, что урвал 4090 за грошовые 200 тысяч.
а может случится так, что санкций всыпят настолько, что бакс станет 100500 рублей, и ты будешь рад, что урвал 4090 за грошовые 200 тысяч.
Вот примерно так в прошлом году и вышло. Ждал момента купить 3060 или 3060ти. Дождался, бля. А обстановка то и не думает улучшаться. Поэтому я и взял 4070. Для моего проца её хватит с головой. Лучше синица в руках, чем дятел в заднице.
позавчера писал, что у меня GTX 780.
брал году в 2013 с расчётом на её долгожительство. В результате за 10 лет поиграл только Sarious Sam-2, немног в Dead space и ещё чуть ещё в что-то, уже и не помню. последние полтора года вообще в КС 1.6 гоняю, когда играть хоцца.
но т.к. бывает нужна мощща для ускорения видео (кодирование)( в Адоби Премьер и ПО для обработки фото, то начитавшись за два дня https://joyreactor.cc/post/5546167 + обзорчики на Ютуб и сайтах, вчера купил 3060 от Асус с 12ГБ. - понял, что всё равно за современными играми не гонюсь, а поиграть можно и в игрушки предыдущих десяти лет на Ультра-настройках - вроде такой карты должно для них хватить.
да, стоит многовато - почти 40т.р., можно было взять тысяч на 7-8 дешевле, но эта от Асус тиха и холодна, а мне это важно.
да к тому же у меня и остальное железо старое, PCI экспресс еще 3 версии.
брал году в 2013 с расчётом на её долгожительство. В результате за 10 лет поиграл только Sarious Sam-2, немног в Dead space и ещё чуть ещё в что-то, уже и не помню. последние полтора года вообще в КС 1.6 гоняю, когда играть хоцца.
но т.к. бывает нужна мощща для ускорения видео (кодирование)( в Адоби Премьер и ПО для обработки фото, то начитавшись за два дня https://joyreactor.cc/post/5546167 + обзорчики на Ютуб и сайтах, вчера купил 3060 от Асус с 12ГБ. - понял, что всё равно за современными играми не гонюсь, а поиграть можно и в игрушки предыдущих десяти лет на Ультра-настройках - вроде такой карты должно для них хватить.
да, стоит многовато - почти 40т.р., можно было взять тысяч на 7-8 дешевле, но эта от Асус тиха и холодна, а мне это важно.
да к тому же у меня и остальное железо старое, PCI экспресс еще 3 версии.
Схуяли цены на 3090 и 4090 сильно упадут? 3090 уже единицы продажах, цены чет ни на 3090, ни на 3080 ни на их Ti версии как-то не упали, что они и продолжали лежать выше ценника 4080. Выкатят 4090Ti за 1699, а на 4090 снизят до 1299 и хули толку?
зачем мне опать 2Тб ссд на 1Тб?
чтобы было куда снова апаться
к тебе пришла фея качалки
к тебе пришла фея качалки
> Следующие флагманы будут анонсированы осенью/зимой
Куртка уже давно поменял время между поколениями
Паскаль появился в 2016 году
Тюринги - 2018
Амперы - 2020
Ада (4000 линейка) - 2022
Так что новых топов раньше осени 2024 мы не увидем
Куртка уже давно поменял время между поколениями
Паскаль появился в 2016 году
Тюринги - 2018
Амперы - 2020
Ада (4000 линейка) - 2022
Так что новых топов раньше осени 2024 мы не увидем
Посмотри вот это видео. Там подробно рассказано про карточки, сравнивают производительность и в конце есть совет что брать:
Кстати у i2hard наверное самый топовый контент среди всего хайтек железа
нууу, есть ещё Vik-on, PRO Hi-Tech, ну и куча других каналов в английском сегменте, а также каналы типа Дмитрия Бачило, у которого просто в общем детально говориться о железной тематике (пускай и не современной)
Бачило за последние три года жалкая тень себя самого информации в видео 0 а как начинает петь про байкал становиться грустно.
а в чём проблема, по-моему он как раз объективно по ним всё рассказывает, мол: "да, это далеко не интел и не АМД по мощностям, но и чудес не бывает, и чтобы байкалы и эльбрусы стали сопоставимы - нужно чтобы эти кампании испарились наряду с арм и некоторыми другими, а т.к. ниша уже занята, то и финансирование на развитие архитектур получить не выйдет и даже не смотря на это байкалы и эльбрусы показывают неплохую производительность примерно на равне с другими производителями, находящимися в таком же положении (как например китайские процы для внутреннего рынка)
топы 40xx реально топы. но цена. 30xx можно было урвать по вкусной цене на авитах, когда их сливали активно. сейчас цена на вторичке выросла, но всё ещё довольно аппетитна по сравнению с актуальным поколением. главное суметь взять нормальную. в противном случае вылезут все минусы вторички - отсутствие гарантии, возможная подстава в виде отремонтированной гнили.
я лично сменил моник на 2к 144Гц и моя 1080ти соснула. взял на авитах 3090 и сейчас во всех игорях просто как даунич выкручиваю всё на максимум.
я лично сменил моник на 2к 144Гц и моя 1080ти соснула. взял на авитах 3090 и сейчас во всех игорях просто как даунич выкручиваю всё на максимум.
А в некоторых выигрывает. Особенно в энергопотреблении.
И всякие 3060 с 12-ю гигабайтами и шиной на 196. С ценником в 2 раза ниже.
ну ценник не в 2 раза ниже, а 7600 все же победитель выйдет со своей ценой и производительностью. Но соглашусь, ебаный цирк происходит с видюхами последние несколько лет.
7600 GT была хорошая карта.
Ваще поебать сколько там бит, лишь бы прирост фпсов был.
его почти нет
ни игр, ни фпсов
игорь, доколе
игорь, доколе
Они как я понял и стоят одинакого.
300 баксов и 400 баксов
На деле - и того больше.
Ну если смотреть на потребление , и сделать сравнение с одним потреблением энергии то новая должна быть получше. А вообще обрезали что бы покупали дороже.
А почему мне, пекабоярину с 500+ ватт блоком питания должно быть не похуй на энергопотребление.
Если часто используешь комп, то в нынешней ситуации со сверхконскими ценами на электричество(по крайней мере в большинстве стран Европы, не знаю как еще где по миру сейчас) просто нет смысла брать +/- одинаковую по мощности видюху с высоким энергопотреблением, даже если она ЗНАЧИТЕЛЬНО дешевле, разницу в цене отобьешь очень быстро...
Если не менять видеокарты как перчатки, то сейчас энергопотребление на деле самый важный параметр видеокарты как по мне.
Любую игру можно запустить на 6-8летнем ведре, если оно еще живо и это особо не меняется.
Ну и разумеется это все только если брать в расчет то, что человеку не похуй на деньги.
Если не менять видеокарты как перчатки, то сейчас энергопотребление на деле самый важный параметр видеокарты как по мне.
Любую игру можно запустить на 6-8летнем ведре, если оно еще живо и это особо не меняется.
Ну и разумеется это все только если брать в расчет то, что человеку не похуй на деньги.
>со сверхконскими ценами на электричество(по крайней мере в большинстве стран Европы, не знаю как еще где по миру сейчас)
Украина 1.68грн за киловат. В ночное время - 0.84 (если счётчик двухфазовый)
Эта цена уже года три не меняется, если не дольше
Украина 1.68грн за киловат. В ночное время - 0.84 (если счётчик двухфазовый)
Эта цена уже года три не меняется, если не дольше
Ща как раз обещают поднять вроде...
Да не смеши. Даже при разнице в 50 Вт ты будешь один киловат разницы нажигать часов 20 активной игры, то есть блин неделю, если ты не Майнер.
Не знаю как в Европе, а в РФ это 5 рублей. Вот и считай, сколько лет ты будешь отбивать эту разницу в цене. При этом 5 рублей в неделю отдавать проще чем пару десятков тысяч сразу
Не знаю как в Европе, а в РФ это 5 рублей. Вот и считай, сколько лет ты будешь отбивать эту разницу в цене. При этом 5 рублей в неделю отдавать проще чем пару десятков тысяч сразу
Кому реально совсем не похуй на энергопотребление видях, так это майнерам.
потому что Хуанг охуел и твой 500+ блок считает нищебродской хуйней, а настоящие пацаны уже переходят на киловатники
Потому что карточку разрабатывали не для тебя, а я для майнеров. Просто майнинг неожиданно крякнул немного, и на безрыбье приходится продавать её тебе.
Так они для майнеров стараются, им это важно. А пк бояре уже у них купят.
Ну майнинг бум прошел, так что теперь будут стараться для нейросетевиков.
где нужна шина и память с которыми на 4060 всё плохо
только на PCIE 4.0, на ней 8 линий, а не 16 распаяно
Внезапно скорость шины чуть ли не главный параметр видеокарты, потому что поебать на возможности видеокарты, если данные с нее тупо не успевают поступать.
когда Vega делали так же думали наверное, но внезапно она с 2048+ шиной и 20+ гб памяти все-равно у зеленых сосала почему-то
Что за сказочные цифры?
по объему памяти лень искать но точно помню была какая-то версия на 12-16-18-24 ГБ или около того, не меньше 12гб точно.
Это обратный случай, когда выстроили целое шоссе для дома престарелых. С другой стороны, ты можешь увидеть просто огромную разницу в частотах и не такую уж большую разнцу в тестах.
Такая же хуйня. с xformers генеришь?
конечно
Смотря насколько большие. Мне 6гиг хватает для 1920*1080. А дальше - апскейл.
что ж.чисто сгенерить 1920*1080 удалось, хоть ошибки о нехватке памяти появлялась, но это заняло целую 1минуту и 22 секунды
То есть, было бы у меня больше памяти, сгенерировалось в разы быстрее
Другой вариант:
960х540, hirezfix resize: from 960x540 to 1920x1080
занял 01:51,в котором то же самое: была ошибка о нехватке памяти и поэтому так много времени заняло
То есть, было бы у меня больше памяти, сгенерировалось в разы быстрее
Другой вариант:
960х540, hirezfix resize: from 960x540 to 1920x1080
занял 01:51,в котором то же самое: была ошибка о нехватке памяти и поэтому так много времени заняло
Тестил недавно. 1920х1080 норм рендерится, 1536х1536 уже с горем пополам, бывает куда-ошибки, но если всё вообще отрубаю, что может врам жрать - уже получше. Выше 1536 по ширине и высоте уже не рендерит. В таком случае помогает только medvram, который использую, чтобы проапскейлить какую-то пиздатую картинку. При этом медврам может за где-то 2 с половиной минуты сделать 2048х2048 что при обычной смене разрешения, что при апскейлере. При этом заметил еще, что хайрез требовательнее к враму, чем просто то же разрешение выставить в настройках. gpu кстати 2080 super
да, тож заметила, что хайрез больше врам жрёт, пока тестила выше
А в чем проблема больших артов? Все модели заточены либо под 512 либо под 768 а дальше скриптом увеличивается и для него особо памяти не надо. 8 гигов хватает и для 1000+ размера.
Вот для обучения память надо. И для текстовых нейросеток.
Вот для обучения память надо. И для текстовых нейросеток.
я могу максимум 512x768 делать арт с апскейлом до 1,8. Всё, что выше, это уже скорее всего выйдет ошибки недостаточно памяти видюхи. А я хочу выше
а генерить на 1000х1000+ нет смысла, так как будет получаться каша, из-за того, что всё тренится на боле мелких размерах
Тем более, недавно я хотела расширить созданную картинку (где-то на 921x1368) до 1920×1080 через инпейнт. У меня каждая 3я попытка выбивала недостаток врам.
а генерить на 1000х1000+ нет смысла, так как будет получаться каша, из-за того, что всё тренится на боле мелких размерах
Тем более, недавно я хотела расширить созданную картинку (где-то на 921x1368) до 1920×1080 через инпейнт. У меня каждая 3я попытка выбивала недостаток врам.
У меня RX 570 8GB и я не хочу ебаться с установкой на амд. Использую google colab и sagemaker с разными webui сборками. Да, там ограничение на время/мощности в бесплатных версиях, но мне хватает. Не для работы все таки.
И пока всего несколько раз упирался в недостаток местного 16GB VRAM, да и то это был controlnet с высоким разрешением. В Full HD все генерится без проблем(через 2х апскейл)
И пока всего несколько раз упирался в недостаток местного 16GB VRAM, да и то это был controlnet с высоким разрешением. В Full HD все генерится без проблем(через 2х апскейл)
вот, эту картинку запихнуть в inpaint, и пытаться в этом же разрешении (фулхд) менять личико или всю девочку с байком, но это надо делать именно при Inpaint area: whole picture, чтобы сетка отталкивалась от всей картинки, а не только выделенного месте и немного около него.
У меня эт не получится, ошибку будет выдавать о недостатке памяти врам
У меня эт не получится, ошибку будет выдавать о недостатке памяти врам
так то 16 врам, а у меня 8врам. Вот я и хочу карточку с 16 врам
память же нужна больше для обучения нейросетки
И не только. При 4 Гб сетка без костылей не запустится даже. При 8 работать может, но это минимум.
В 2000 году у меня был крупный апгрейд компа. Среди прочих железок, была видеокарта nVidia Vanta. В обзорах этой видеокарты писали, что нвидии надо было создать бюджетный вариант видеокарты Riva TNT. В итоге, они выпустили ту же самую видеокарту, только с шиной памяти 64 бит вместо 128 бит. Позже, они придумают, как удешевлять карты по-другому. Например, выключая вычислительные блоки.
Это что же получается? С 2000 года шина памяти всё ещё была 128 бит? Прям с Riva TNT2 и по Maxwell? И только начиная с Pascal перешли на 256 бит шину?
Это что же получается? С 2000 года шина памяти всё ещё была 128 бит? Прям с Riva TNT2 и по Maxwell? И только начиная с Pascal перешли на 256 бит шину?
Это ещё обрезок был GeForce 4 MX 440 , где шейдеры обрезали(или просто не наложили) и нормальные игры типа Doom3 не шли.
Я проходил Doom 3 уже на 9800GT. Ужас, какая скука. Комплекс Альфа 1, час геймплея, комплекс альфа 2, час геймплея, комплекс альфа 3... Самая нудная часть игры. Id Software разучились в дизайн уровней? Почеу в Doom и первые два квейка не было скучно играть?
Насколько помню, в 3м думе пытались в саспенс. Что-то у них в подходе поменялось + студия переживала не лучшие времена
Как вспомню этот кусок текстолита, нихрена на ней не запускалось, ужас а не видеокарта
И что бы поиграть в Splinter Cell , приходилось запускать эмулятор шейдеров или режим который их скипал , но типо работало еле еле.
В условном 2005 году, GeForce 4 MX 440 была "затычкой". Она была офисной видеокартой для офисных игр вроде Алавар или Pop Cap.
Однако на момент выхода она тянула вообще всё. В то время, многие игры затачивались ещё под Voodoo 2. А потому, GeForce 2 MX 400 была для таких игр прям быстрой. Морровинд и Готика, Warcraft 3, Ice Windale, Neverwinter Nights, Deus Ex, Арканум, Red Alert 2.
Однако шло время, и в какой-то момент её производительности стало не хватать. Такие игры, как NFS U, Half Life 2, Sims 2, Far Cry и Unreal Tournament 2003 шли только на минимальных настройках графики. В 2002 году можно было приобрести топовую видеокарту, которая через год уже не тянет ничего. Интересный был год.
Однако на момент выхода она тянула вообще всё. В то время, многие игры затачивались ещё под Voodoo 2. А потому, GeForce 2 MX 400 была для таких игр прям быстрой. Морровинд и Готика, Warcraft 3, Ice Windale, Neverwinter Nights, Deus Ex, Арканум, Red Alert 2.
Однако шло время, и в какой-то момент её производительности стало не хватать. Такие игры, как NFS U, Half Life 2, Sims 2, Far Cry и Unreal Tournament 2003 шли только на минимальных настройках графики. В 2002 году можно было приобрести топовую видеокарту, которая через год уже не тянет ничего. Интересный был год.
нихрена не запускалось на рива тнт из-за отсутствия шейдеров. из-за сайлент хила 3 помню пришлось апнуться на гф, так как даже эмулятор шейдеров на моём говне не справлялся и выдавал там просто белый экран.
Помню использовал приложение 3d analyze, что бы некоторые игры запустить, которые требовали минимальные шейдеры.
Прикольная прога , с помощью неё читерил - типа wallhack по сети в call of duty2
Я только во благо. Запуск первого принца, сплинтер целла и ещё чего-то))
Всё было, но надо было зарабатывать и нужен был доп инструмент разделения сегментов
8800 Ultra - 384 bit
GTX 285\380 GTX 690- были по 512bit
Тоже и у красных.
8800 Ultra - 384 bit
GTX 285\380 GTX 690- были по 512bit
Тоже и у красных.
Интересно. То есть, шина становилась всё больше, но теперь она становится всё меньше? Судя по картинке в посте.
Чет как-то дохуя ты проспал, все шины были от 64 до 512. В рядовых продуктах выше 384 последнее время не лезут.
Были даже 768 Bit видюхи - 7990 и Титан. А так потребительские 512 вполне считались нормов в прошлом десятилетии.
Частоты и пропускная способность на каждую линию растут с поколениями памяти, для гддр6 32 бита на каждые 2 гигабайта никто не израсходует, то есть пока тебе почему-то хватает 8 гигабайт на 128 бит вообще внимания можно не обращать.
Ну были разнве карты, хз че они так, может и так хвататет, у меня вон была в 2008 7900gs c 256 шиной
Покупая 2080 Ti, я думал, что серии 4ххх будет хоть в полтора раза лучше и перейду на неё, но судя по количеству игр и производительности нынешних карт, придётся ждать лучшие времена.
Ну и мой старичок, переживший два блока питания, три проца и не работавший ни дня на базовых частотах.
>для майнинга
Пидарас
Пидарас
Хужепидорас
Из-за тебя и других же таких же пидарасов - да.
Так как раз в 2017 году и был дефицит из-за бума майнинга. Не сравнить с 2020 конечно, видюхи хоть и были оверпрайз но купить их можно было. Но всё равно обидно из-за вас майнеров которые покупали по 5-10 видюх в руки. Пришлось покупать 1070 за 36к.
Если ты конечно покупал одну или две видюхи, что можешь сделать с немм всё что угодно, твое право, хоть микроволновке разогревай.
Паразит
Из за того что АМД понерфили драйвера, убрав из них поддержку VR, мне пришлось апгрейдиться. А так карты хватало тупо на все игры в разрешении 1080 на ультрах бегать.
что-то на красноглазом
Если интересно, могу объяснить.
fglrx - драйвер для видеокарт ATi. В 2008 году был переименован в Catalyst. Разработка была прекращена в 2015 году.
AMDGPU - новый драйвер. Основан на драйвере radeon. Создание отдельного драйвера понадобилось из-за того, что разработчики бывшего драйвера fglrx влились в проект (подробнее). Драйвер поддерживает только GCN 1.0 (Radeon 7000 и RX 200) и новее (для более старых нужно использовать всё тот же radeon).
AMDVLK - системная библиотека, реализующая Vulkan для видеокарт AMD. Изначально была самой топовой и быстрой, но потом появилась другая - RADV. В Steam Deck как раз используется RADV, так как Valve поддерживает именно эту реализацию Vulkan, пишет код и финансирует разработчиков.
DXVK - прослойка совместимости для запуска Windows-игр под Linux.
Поясню. Под Linux существует софтина под названием Wine (которую часто по ошибке называют эмулятором, но это враппер-транслятор), которая позволяет запускать программы и игры. Игры используют Direct3D, поэтому осуществляется трансляция вызовов Direct3D в OpenGL. Это страшно медленно - такие игры теряют вплоть до 30% фреймрейта. Недавно на замену транслятору WINED3D вышел DXVK, который транслирует вызовы Direct3D не в OpenGL, как раньше, а в Vulkan. Оказалось, что потери фреймрейта в этом случае составляют 0%. А каких-то багов, глюков отрисовки попросту нет.
Именно появление DXVK стало причиной создания Steam Deck.
Wine Staging - версия Wine с экспериментальными фичами. После тестирования, фичи входят в основной Wine. Также существует Proton - версия Wine, которую добавили в Linux-версию Steam для бесшовного запуска Windows-игр под Linux (так, что пользователь даже не знает, что это Windows-версия игры). Proton отличается от Wine лишь незначительно, например патч, апскейлящий изображение на весь экран.
-noreactlogin это ключ запуска Steam, позволяющий залогиниться в старых 32-битных версиях системы. Неделю назад его убрали, и как теперь логиниться, непонятно.
fglrx - драйвер для видеокарт ATi. В 2008 году был переименован в Catalyst. Разработка была прекращена в 2015 году.
AMDGPU - новый драйвер. Основан на драйвере radeon. Создание отдельного драйвера понадобилось из-за того, что разработчики бывшего драйвера fglrx влились в проект (подробнее). Драйвер поддерживает только GCN 1.0 (Radeon 7000 и RX 200) и новее (для более старых нужно использовать всё тот же radeon).
AMDVLK - системная библиотека, реализующая Vulkan для видеокарт AMD. Изначально была самой топовой и быстрой, но потом появилась другая - RADV. В Steam Deck как раз используется RADV, так как Valve поддерживает именно эту реализацию Vulkan, пишет код и финансирует разработчиков.
DXVK - прослойка совместимости для запуска Windows-игр под Linux.
Поясню. Под Linux существует софтина под названием Wine (которую часто по ошибке называют эмулятором, но это враппер-транслятор), которая позволяет запускать программы и игры. Игры используют Direct3D, поэтому осуществляется трансляция вызовов Direct3D в OpenGL. Это страшно медленно - такие игры теряют вплоть до 30% фреймрейта. Недавно на замену транслятору WINED3D вышел DXVK, который транслирует вызовы Direct3D не в OpenGL, как раньше, а в Vulkan. Оказалось, что потери фреймрейта в этом случае составляют 0%. А каких-то багов, глюков отрисовки попросту нет.
Именно появление DXVK стало причиной создания Steam Deck.
Wine Staging - версия Wine с экспериментальными фичами. После тестирования, фичи входят в основной Wine. Также существует Proton - версия Wine, которую добавили в Linux-версию Steam для бесшовного запуска Windows-игр под Linux (так, что пользователь даже не знает, что это Windows-версия игры). Proton отличается от Wine лишь незначительно, например патч, апскейлящий изображение на весь экран.
-noreactlogin это ключ запуска Steam, позволяющий залогиниться в старых 32-битных версиях системы. Неделю назад его убрали, и как теперь логиниться, непонятно.
Linux для работы, windows для гейминга, майнинг для пидарасов.
Купил R9 290X после майнера пидораса восстановленную. Стоила 6к рублей. Тянет киберпанк, онлайн игры все, рдр с хорошими настройками и вообще не знаю на что её менять на HD мониторе
Купишь Oculus Quest или любой другой VR сет и поймешь. Видяха - крутейшая, маркетологи AMD - пидарасы.
>Я до сих пор не умею создавать 64-битные префиксы Wine...
WINEARCH=win64, не?
WINEARCH=win64, не?
И ты до сих пор не используешь PortProton?
Да даже 1060 с 6Гб кекает с этого!
Гы, Моя купленная за 25к у майнеров 6700хт ебёт новую помойку от нвидии pf 45-60к. Приятно
то хня с коннектором который норовит загореться, то свистоперделки картинку не улучшают, и в 4к не может карта. огромное потребление энергии и сильно зарезаные карты среднего сегмента. я не хочу оплачивать чужой банкет с коксом и шлюхами - 1060 ещё поработает
ну вроде как все определились, что коннектор просто долбоебы неплотно вставляли и была малая площадь контакта.
почему с другими коннекторами такой хуйни не было?
Ты сейчас рили будешь оправдывать криворуких? Если руки из жопы и в башке нихуя нет, то ты и без коннекторов/переходников найдешь как комп угробить.
НУ ИЗВИНИТЕ, для вас не предусмотрели защиту от долбаеба, думали вы догадаетесь вставить коннектор ровно до щелчка/конца/победы (нужное подчеркнуть)
НУ ИЗВИНИТЕ, для вас не предусмотрели защиту от долбаеба, думали вы догадаетесь вставить коннектор ровно до щелчка/конца/победы (нужное подчеркнуть)
ты прямо абсолютно уверен что сгоревшие коннекторы не вставили до щелчка? с дури конечно можно и молекс наоборот воткнуть, но я скорее поверю что новый разъём по сравнению со старым ещё сырой оказался
Я купил 3060TI а потом понял, что монитор тянет максимум 60кГц и fullHD. Но зато все игры летают. Еще бы, сука, не летали.
Я когда тоже купил в том году 3060 Ti думал всё летать будет, но потом с большим удивлением понял что мой Ryzen 5 2600 мешает раскрытию видяхи, пришлось и проц апгрейдить.
купил 2080ти(давненько уже).. пришлось проц+мать+бп брать.. и корпус ибо хуета здоровая как жопа носорога + на монитор переходники.. сюка... дороже вышло чем планировал
купи видяху и все.. говорили они.. это просто говорили они
купи видяху и все.. говорили они.. это просто говорили они
Жиза купил у китайцев кошерную ртх 3070 асус таф за 24к и проц говна р5 2600. Так у друга ноут на 3060 которая как десктопная 3050 выдаёт больше фпс в варзоне 2 чем у меня, но там и проц i5-11400 да и подсистема памяти по лучше, но сам факт.
У тебя там монитор с 60 кГц случайно порталы в соседние вселенные не открывает?
Пардон. Герц конечно.
Отличный комментарий!