Это копия, сохраненная 16 сентября 2020 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Актуальные модели:
RX 470 — RX 590: Уходящий на покой Polaris. Polaris — надёжно.
RX Vega 56/64: Уходящая на покой вега. Дров нет.
RX 5500: Похоже навсегда останется только в качестве ОЕМ решения. Конкурент Nvidia GTX 1650.
RX 5500XT: Доступна в версиях на 4 и 8 Гб. Обладает производительностью RX 590 за идентичную цену (но это не точно), при этом потребляет меньше электроэнергии. Конкурент Nvidia GTX 1650 Super.
RX 5600XT: Твердый, сильный, симметричный, 192 битный и 6 гиговый ответ Кожану Дженсену. Конкурент Nvidia GTX 1660 Super.
RADEON VII: Производительность не соответствующая объёму видопамяти (16Гб). Явно не стоит брать для игр. Была поделена на ноль картами ниже.
RX 5700/5700XT: Великолепные, замечательные, духозахватывающие, гениальные первые представители нового семейства. Конкурент Nvidia RTX 2060 (Super)/2070 (Super). В ТЕХ играх разносят зелёных с ощутимым отрывом.
Rumor RX 6900/XT: Предположительно на 146% производительнее 2080 Ti. По слухам, выйдет в этом году.
Технологии Radeon Boost, Radeon Image Sharpening, FidelityFX, Anti-Lag и Radeon Enhanced Sync а также прочие технологии, которые ты все равно отключишь для стабильности и более низкой задержки, доступны на всех вышеописанных видеокартах.
Выбор вендора:
Asrock, Dataland: No data.
His: Выбор нищеброда.
Powercolor: Эксклюзивный партнёр. Бюджетные, есть в большинстве магазинов.
Asus, Gigabyte, Msi: Бюджетные решения плохи. Топовые продукты хороши. ПО у гиги сырое.
Sapphire, Xfx: Эксклюзивные партнёры. Лучший выбор, но могут обосраться быть нюансы.
Yeston: Китайские меметичные поделки. No data.
От брака никто не застрахован. Никто ничего не обещал.
Возможное решение проблем с чёрными экранами и вылетами на RX 5700XT:
1) Корпоративные драйвера Radeon Pro Software: https://www.amd.com/en/support/kb/release-notes/rn-pro-win-20-q1
2) Андервольтинг. Видеогайд по ссылке: https://www.youtube.com/watch?v=29g0LmytY9M&feature=youtu.be&t=34
Решение проблем с записью видео на RX Vega:
Накатываем HEVC кодек, во вкладке общих настроек драйвера выбираем его (HEVC) в соответствующей менюшке. OBS тоже никто не отменял.
Решение проблемы снижения частот на RX 5700XT:
https://community.amd.com/thread/176003
Решение проблемы с фликерингом на Полярисах:
DisplayPort кабель подходящей для монитора версии и PCI Gen3 в BIOS/UEFI.
Шапка для переката: https://pastebin.com/41aRdHbj
Прошлый тред тонет тут: >>4641768 (OP)
Ну, какой вопрос...
Здарова мальчишки, мне нужна AMD карта просто для работы. Не для какого-то там видеомонтажа, а буквально браузер, офисы, немного фотошоп, и у меня два 4к монитора. Мне вот надо чтобы при, допустим, воспроизведении 4к видосика в фуллскрине на одном экране, ничего не захлебывалось, все было ок.
Какой минимальный вариант может меня удовлетворить?
>RX 5600XT
>Конкурент Nvidia GTX 1660 Super.
Как можно из треда в тред постить этот посос?
Скинь мне видео на ютубе с 4к на котором моя амд должна обосраться.
Запустил сейчас первое попавшееся - абсолютно плавно в 60 кадров идет.
мимо 5700ХТ
>Запустил сейчас первое попавшееся - абсолютно плавно в 60 кадров идет.
Ура! Карта за 40+к наконец-то смогла запустить видео. Всячески поздравляю.
Бери 1050, у амд полярисы не умеют в ускорение видео, а брать что то старее или новее нахер надо.
Хуй знает, может вообще процессор просчитывал, вот и хочу убедиться. Там же кодеки-хуедеки разные могут быть.
Алсо, 8к 60фпс не воспроизводилось.
Понял тебя, благодарю.
Поменял оперативку с "G.Skill Ripjaws V DDR4 2x8Gb F4-3200C16D-16GVKB (B-DIE)" на "G.Skill Trident Z Neo DDR4 2x8Gb F4-3600C16D-16GTZNC (хуюниксы)" и уже две недели без бсодов и проблем с wattman сижу.
Возможно, плашки были палёные или не вытягивали свой xmp профиль. Так шо лгбт подсветка решает проблемы.
на ютубе vp9 используется, любая карта с поддержкой этого кодека сможет в 4К@60 fps
А как какать?
Если она даже на условно "проверенном" заводском профиле не завелась, работала бы она лучше на кастомном разгоне?
Это еще от матери зависит, надо было в ручном режиме выставлять и проверять.
>RX 5500XT
>Конкурент Nvidia GTX 1650 Super
Стоящий на 5к дороже. Вы бы шапку почистили чтоль
Ебанутый? 4-х гнилобайтная версия не конкурент 1650 супер, только 8 гиговая. А 4-х это 1650 на гддр6
>Лучше на б/у рынке смотри, майнить на них никто не будет, да и нет смысла, а стоят копейки. Да что уж там, 560 дешевле магазинной 550 на 2-3к, а ломаться в них нечему.
Чего тогда цены взвинтили? И разве радивон 7 2017? Он ведь за несколько месяцев до 5700 вышел.
>RX 5600XT: Твердый, сильный, симметричный, 192 битный и 6 гиговый ответ Кожану Дженсену. Конкурент Nvidia GTX 1660 Super.
Опять НЕ ТА игра
RX590 отлично отапливает квартиру
2070c прекрасно тянет все игры в отличие от срадевона
второй прогончик (игра на хдд)
Внёс исправления в шапку касательно 5500XT, а про этих ребят забыл.
Бери фьюри с лохито
Любая карта с двумя дисплейпортами и одним хдми. Подключать моники естественно надо только в дп.
У амуды, такое чувство, видеокарты только в 3д марке работают стабильно
Если честно, то доебали просадки фпс в той же пердоте 2 и вылеты
Ну и то, что даже в форзе фпс мог резко упасть в два раза, и восстановиться только после альттаба
Жди видеокарты от штеуда, Раджа говна не сделает. Чиплетный дизайн наконец то в видеокартах и дрова будут выдизанными, это же штеуд.
Зачем мне ждать? Я взял затычку 2060, которой мне за глаза для всего
Нет, я сразу сказал, что 8к у меня не работает.
А вот наконец и ТА игра. 2070 супер вперде.
10
Отключи enhanced sync если включен, накати нормальный проигрыватель (mpv, potplayer, vlc, mpc любой уже на уровень выше дефолтного). У меня хоть и не настоящий 4К, но всё работает ок.
Отключи enhanced sync если включен, накати нормальный проигрыватель (mpv, potplayer, vlc, mpc любой уже на уровень выше дефолтного). У меня хоть и не настоящий 4К, но всё работает ок.
ЕЩЕ ЧУТЬ ЧУТЬ И ПОТАНЦЕВАЛ БУДЕТ РАСКРЫТ, НУЖНО ЛИШЬ НЕМНОГО ПОДОЖДАТЬ
С телефона кстати что 4к, что 1080р видео, - полосит. Если скачать фильм какой-нибудь то с большой вероятностью такого не будет, видимо проблема с видео определённого формата. VLC кстати фиксит.
potplayer, kmp, mpc - нет
Враньё. RX 5500 XT 4gb +/- как GTX 1650 super, хотя это зависит от игры. Где-то одинаковые, где-то несколько хуже, где-то лучше.
>А 4-х это 1650 на гддр6
Посмеялся
Крч сейчас есть видеокарта NVIDIA GeForce GTX 770 c 2 гигами, надо проводить аптдейт.
Хочу купить АМД потому что дешевле и процессор Ризен мне зашёл.
Что посоветуете для игор под PCI-E 3 x16 в ценовой категории 10-15 к? За такую цену можно будет прям помощнее взять? ФОЛЛАУТ 4 на максималках потянет - нет?
RX 5500 XT 8gb, если найдёшь за вменяемую цену. Кроме RX 5500 XT в двух версиях сейчас у AMD брать нечего из-за майнеров. Недавно зашёл в Ситилинк, посмотрел на 8-гб RX 570 по цене 8-гб RX 5500 XT и понял, что мы опять приплыли.
Не лезь туда, оно тебя сожрет
Если серьезно, то не сравнивай процы от амиде и видеокарты от амиде.
С процами можно добиться компромисса путем пердолинга с шиной и памятью - тогда будет всё заебись шуршать.
А вот с видеокартами - всё будет зависить от кривизны рук ебучего индуса.
Вот здесь второй скрин >>664408 - моё сообщение. Мне хватило недели на радеоне, чтобы понять, какой это кал для пердолей. Если готов мириться с отсутствием внятного аппаратного ускорения, вылетами, (всем тем, что я там перечислил), а также безумным жором под 300 вт в пике, то дерзай. Да, в некоторых задачах амиде быстрее, но полтора тайтла не стоят ебли и нервов в 90% других задач.
>Лучше на б/у рынке смотри
Добра тебе за этот совет. Вместо RX550 в магазине купил за те же деньги слегка поюзанный RX570 на авито у хорошего чувака, не майнера и не барыги. Очень доволен.
Правда, Radeon Software как не запускался со старой видюхой, так и не запускается с новой, потому что в АМД работают удивительные люди.
Всё у всех запускается. Предыдущая карта тоже амд была? Удали нормально все дрова через ddu или амдшную софтину, потом новые накатывай.
Секстипл просран, пацаны.
Всегда пожалуйста. Снеси дрова с помощью amdcleanuputility и установи по новой, скачанные с сайта. Устанавливай отключив инет или службу автоматического накатывания дров, то есть чтобы винда не успела автоматом скачать. Те что винда сама накатывает через диспетчер устройств (версия 19.20), или как написано в шапке с pro версией, будут без кнопки настроек драйвера.
>>666980
Естественно, я удалял их начисто и ставил снова. И винда ничего не ставила, у меня старая добрая семерка. В первый раз после установки Radeon Software запускается, а больше не хочет, только иконка висит в трее. Я гуглил, у многих такая проблема. Некоторым помогает установка дров с нуля, но не всем.
Это бродвелл зион, аналог i7 5775C без разгона, знаменит 14 нм техпроцессем и быстрым 128 Мб L4 кешем для встройки на отдельном кристалле, которой проц тоже пользуется. За счёт этого не очень чувствителен к частоте ОЗУ и неплохо держится в играх. H97 чипсет память гнать не даёт, поэтому частоты памяти 1866 МГц.
По фреймтайму хз, особо не замерял, но аноны говорят збс.
>i7 5775C без разгона, знаменит 14 нм техпроцессем и быстрым 128 Мб L4 кешем
Вот этого мне для понимания было более чем достаточно. Просто жир. Во сколько обошлось?
Покупал за 7 с йойбай, а сейчас на Али за 6.4 лежат.
>>667105
Был уже такой, но помер, возможно пережал креплением мудянки. А до этого 4960hq тоже был, там канал отвалился...
Больше не хотелось со склейками экспериментировать и решил нормальный полноценный проц взять. Собстна из-за подкручивания болтов креплений сокета для этих мутантов видимо перебилась часть дорожек платы и пропала половина линий псие.
В смысле, набор зондов, которые еще и самопроизвольно обновляются в неподходящий момент?
Набор зондов, в котором работает современный софт (с зондами, конечно же).
> обновляются в неподходящий момент
Давно пофиксили.
Всё так, но на LTSC версии не так грязно как на обычной прошке. Да и на ней вполне стерильно если всякий мусор на этапе установки отключить. Т.е. переходя с семёрки на десятку можно выбрать между баттплагом и драконьим дилдаком, а без них в сообщество актуального софта не пустят.
> LTSC
Аноны ставят по советам таких как ты, а потом приходят в виндотред /s/ и спрашивают, почему не работает тот или иной софт.
У меня всё работает исправно. Есть нюансы: нужно установить языковой пакет (у меня установлен, но не включен), и активировать через кмс сервер (ведь это корпоративная версия), но лично мне комфортно без активации, а то хрен знает какие обновы мне из-за ноутбучного ОЕМ ключа прилетят.
Я даже чутка соскучился за мусором в фоне и загрузкой оперативы выше 2.4Гб после включения, возможно накачу обычную, уже вроде апрельскую выкатили.
В играх и программах разницы не заметил.
>Покупал за 7 с йойбай, а сейчас на Али за 6.4 лежат.
Для обладателей 1150 плат это лютый WIN.
В 2004 добавили поддержку gpu scheduling (правда, амд поддерживает его только в бета-дровах) и variable fresh rate, что потенциально должно повышать производительность игр на современных api, так что попробуй.
> gpu scheduling
Так, про это слышал, в ютубе шумели вроде "ну всё теперь лоу лейтенси пацаны будем ногибать". Вполне резонная штука. Проверю.
> variable fresh rate
Так так так погоди, я что зря дисплей порт купил? Зря фрисинк комплект собирал?
> первое сырое и несвоевременное
Увеличивает 1% low и убирает микростаттеры в некоторых играх.
Все версии PCI-E совместимы между собой, просто карта 4 версии будет работать со скоростями 3 версии.
Вряд ли эту видеокарту делели специально для владельцев премиальных материнских плат аналогичной стоимости, поскольку только там есть этот PCI-E 4.
Отличие этой видеокарты от лбой другой в том, что она МОЖЕТ работать со скоростями 4 версии. Сам разъём остаётся абсолютно такой же, разница лишь в лимите скорости.
А драйвера эти мудели исправили?
Я так понял что с 5500 xt такая проблема, потому что не смотря на большее количество видеопамяти работает хуже, пздц
Если только к рефам, разве что и то не точно.
На не рефах производители меняют дизайн печатной платы и компановку кто во что горазд.
Этот зион в нормальном обычном интеловском исполнении. Вставил и забыл. Там вроде сейчас и 5775C подешевел, правда хз есть ли смысл, они особо не гонятся, первые 14нм комом. Хотя наверное есть, новые доски 1151/1200/ам4 дорогие, по 7-8 к за среднюю мамку, это пиздец.
Не подхватились драйвера виндой из-за предыдущей карты, поставил дрова с сайта амд.
Все заработало, теперь вопрос, нахуй мне amd software, который нельзя убрать из автозапуска, с него профит какой-то есть?
Хочется удалить.
По такой логике ты можешь выбросить всю САТУ, бо она не достигает стандарта даже САТА3. Просто воспринимай это как технологию будущего, которая пока что просто есть без применения
Сижу на 5508. Все норм. Перекачусь на ПСИ4 как только будет Зен3. Но думаю там прирост для 5500ХТ минимальный.
Ступеньки там ничего не значат, он отодвинут отдельно потому-что воняет браком.
Держи в курсе.
Это игра для даунов, игра не для даунов - Total War Saga TROY.
И вообще все игры без dlss и лучей для даунов и где зеленая любимка отстает - для даунов.
Кокой токой бум майнинга? Вот этот хайп из-за высокого газа на бутериуме? Закончится через неделю.
Есть пикрилейтед и есть пара вопросов.
Почему пиковая температура такая большая ~95 градусов при 70 на чипе, что это значит и стоит ли беспокоиться?
Стоит ли выставлять профили гейминг и еспортс в адреналине?
Вот.
Ответьте адекватно, плиз.
Не должна быть горячее ~68 градусов, так что или брак, или прохой продув корпуса (отсутствует вентилятор на выдув).
Профили не нужны. Выбирай стандарт. Гейминг и еспортс просто включат тебе пару опций, которые ты и сам можешь настроить в зависимости от игры, если понадобится и если это этого вообще будет толк.
> в лишней памяти
Хороший вопрос, с одной стороны она ничуть не лишняя, и лучше не ограничивать себя, с другой будет как RX 578 которая явно предназначалась для нескольких мониторов, или QHD Low так что игр в которых она может выдать нормальный фреймрейт загрузив всю память по пальцам посчитать.
Надо сперва понять, пиковая температура чего. Если памяти, то GDDR6 горячая, запросто при охлаждении за 80 градусов уйдёт. И пиковое значение выше средней.
Эта дрочь - тоже температура чипа, только не средняя, а пиковая. Пиковая выше средней, это норма. AMD заявляет, что у тебя есть запас на градусов 10-15.
Раньше пиковые тоже были выше, просто такого количества датчиков не было и пользователи об этом не знали. Меньше знаешь - крепче спишь.
У меня на рыксе сейчас всё ок. Фликеринг дисплей порт кабелем пофикшен.
Почему она у меня достигает 204%? Заметил, что после достижения этой цифры начинаются микрофризы, хоть и небольшие раз в две минуты примерно.
Где-то прочитал, что это пиковая температура на всей плате, т.е. температура мосфетов/дросселей.
>Эта дрочь - тоже температура чипа, только не средняя, а пиковая
Как-то странно звучит, температура ростет линейно и выше 70 не поднимается, ты утверждаешь, что это пиковая в самом чипе?
>>670097
Амудешные карты просто были горячими, отвалы у невидии были.
>Что означает цифра "использование памяти"
Занятую видеопамять, как ни странно.
Больше 100% — проливается в оперативку. Больше 200%, как у тебя, видимо, — проливается в пейджфайл.
А можно какой нибудь запрет на использование пейджфайла поставить?
вот вот, нужно только потерпеть
Совсем как невидии 500 серии отваливались?
Не бери карты периода дерьмового припоя с самым дешёвым неадекватным охлаждением и будет тебе счастье.
>>670171
>Как-то странно звучит, температура ростет линейно и выше 70 не поднимается, ты утверждаешь, что это пиковая в самом чипе?
Чип прогревается неравномерно. Раньше ставили один датчик температуры, выбирая потенциально самое горячее место на глазок. Теперь по чипу раскидывают несколько датчиков, поэтому появилась возможность различать среднюю и пиковую температуру. На RDNA формально максимальная температура выше, но по факту она ближе к реальной максимальной локальной температуре чипа.
Затем, что моя GTX 1050 - это звуковая карта с возможностью вывода изображения, а иногда хочется поиграть.
Местный магазин продаёт новую 5500 XT 4гб от Asrock за 12,9к. То есть карта с тремя теплотрубками, двумя вентиляторами и металлическим бекплейтом стоит дешевле, чем самые дешёвые GTX 1650 super в каком-нибудь ситилинке с бруском алюминия и одним вентилятором.
Ну и я долгие годы сидел на невидии, теперь хочу попробовать карты от AMD. Кукареки за дрова я серьёзно не воспринимаю. У меня драйвер невидии умудряется падать даже когда я в браузере текст читаю.
Ждём когда Госпожа Лиза ССУ че нить опубликует.
так 5500 чуть лучше 1050
>У меня драйвер невидии умудряется падать даже когда я в браузере текст читаю.
Значит АМД вообще не заработает.
если конечно ты не переустановишь шиндовс
Значит надо брать. Ты спеки смотри, она на более тонком техпроцессе и более новой архитектуре, есть декодирование вп9 видео с Ютуба, меньше жрет, быстрее.
Но что значит дешевле, ты наверное новые смотришь, а надо 574 на Авито смотреть, по цене 4-5к это самый топ за свои деньги.
Ну вот смотри новая 5500хт в ситилинке 15400р. 570 сейчас почти 18 (лол год назад около 12 была). Если первая быстрее по частоте проца и памяти при этом это ддр6, а не 5, чому она дешевле то? Может с ддр6 какие-то проблемы или чому так?
Бери раз дешевле, норм карта, если хочешь новую тем более, за 15к если только бу 1070ti на авито можно выцепить.
Сапфир
Чел я вообще другой анон, просто случайно увидел обсуждение и охуел от взлета цен. Я 570й брал года полтора назад.
>Если первая быстрее по частоте проца и памяти при этом это ддр6, а не 5, чому она дешевле то?
Потому что спрос именно на 570 - её советуют почти во все стартовые сборки, такая же хуйня былп с гиперпнём, когда "техноблогеры" все поголовно пидорасы а те кто их смотрит пидорасы в квадрате активно его форсили и в итоге цена с 3200₽ за 1,5 месяца улетела к 8 тысячам.
На самом деле, дело в майнерах. Эти карты активно на фермы покупали, ну а щас доллар ебнул сверху.
Это включаемая опция, как я ее мог заметить. По поводу игр, либо они пофиксили что-то новыми дровами, либо раньше правда эта фича не везде могла работать. Конкретно в бф5 она в драйвере не отображалась, но в бф и своих гавнофильтров хватает тащемто. Вот для варзоны реально годная штука, ибо там по дефолту картинка мыльная.
Кто-нибудь помнит тему с софтмодом игровых ATI-видях в FireGL? Где-то ещё осталась внятная инфа, как это делается?
Это где тупо бивис прошивали в профессиональную карту если у них общий чип и память?
#Раньшебылолучче ЕВПОЧЯ
А я вот думаю, понижать ли тайминги памяти моей рыксы, у неё вон какие конские на 1750. Если тупо понизить частоту, появятся лагины и фризалища.
>почему амд карты так греются?
>мему уже 20 лет а он все актуален
Потому что GCN в играх неэффективен и приходится выжимать частоты до последней капли. В вычислениях отношение мощщи на ватт у AMD как раз чуть ли не лучше. У RDNA за счёт переделки архитектуры в играх эффективность выше даже без учёта нового техпроцесса, если сравнивать с Radeon VII.
>>670461
>так 5500 чуть лучше 1050
Спасибо, посмеялся. 1050 < 1050 ti < 1060 3gb < 1060 6gb <= 5500 XT 4gb. 1408 ALU против 680, 4гб против 2гб.
>Значит АМД вообще не заработает.
Удивительное умозаключение. Проблемы начались после переустановки драйвера, винда та же, никаких новых обновлений. У невидии новые дрова далеко не безупречны, а GF Expirience вообще стал запредельно помойным.
>А 570 не лучше? Или это какая-то более новая линейка?
5xx и 5xxxx - это разные линейки карт с разным архитектурами на разных техпроцессах. Новая линейка для игр значительно лучше.
RX 5500 XT > RX 580 > RX 570
>>670626
>Странно почему 5500 дешевле тогда?
Она была дороже, но сейчас опять майнеры пошли скупать полярисы и на них подскочили цены. В майнинге GCN - лучшая архитектура, RDNA и Turing хуже.
>Потому что спрос именно на 570 - её советуют почти во все стартовые сборки
Никакого смысла ставить 570 и 580 в стартовые сборки при наличии 1650 super и 5500 XT нет вообще. А вот какая из двух лучше - хороший вопрос, я заказал 5500 XT, в пятницу буду щупать.
Купил я недавно майненую 570 с али, буквально два-три дня поиграл в колду, а она артефактами пошла. Отнес в сервис говорят память сгорела, замена будет стоить 5к (лол!).
К слову я немного вольтаж ей снижал еще.
> а от чего память на видюхах горит?
>Купил я недавно майненую 570
>с али
просто сказочный долбоёб, ну отчигоже ?
>Пацаны, а от чего память на видюхах горит?
Заводской брак максимум 3% от всех прияин поломок. Всё остальное это условия эксплуатации. Ты купил карту, который Хуан Хуй в подвале своей фермы гонял на фулвольтаже при 100% влажности и 40% жаре.
>>>4671116
>RX 5500 XT > RX 580 > RX 570
>1050 < 1050 ti < 1060 3gb < 1060 6gb <= 5500 XT 4gb. 1408 ALU против 680, 4гб против 2гб.
Бля, то есть 1650 супер лучше 1060 и 580?
ебать, выходит 1650 супер маст хев?
жир карта, топ кража!
> Набор зондов, в котором работает современный софт (с зондами, конечно же).
> > обновляются в неподходящий момент
> Давно пофиксили.
Похуиксили. Прилетела очередная партия зондов и стал слетать загрузчик Veracrypt на ультрабуке, я его маму ебал этого говна - пидарасня зондовая считает что лучше знает что и как должно быть. Ребут - и пошла пизда по кочкам восстанавливать то чего не сломалось
>Бля, то есть 1650 супер лучше 1060 и 580?
В среднем по больнице лучше, у неё же чип от 1660, хоть и порезанный. RX 5500 XT тоже лучше 1066.
Дело не в частотах, вернее, главным образом не в них. Я думаю, надо написать пару паст, одна краткий обзор видимокарт от AMD для ньюфагов, а другая - разбор отличий GCN от RDNA. Ничего мегасложного там нет, но почти никто этого не знает, зато срут так, что через край.
А может это гойтрейсинг поспешил? Где эти счастливые обладатели первых рейтрейсинг карт за косарь бачей с обрезанной или дефектной VRAM? Неужели все сдали по гарантии и поменяли на суперы с доплатой?
>Да всё и так понятно, RDNA шустрее работает с инструкциями от части потому-что убрали "мусор" по пути, вот скорости и прибавилось. Это ещё на презентации разжёвывали, если не ошибаюсь.
Судя по твоему сообщению, ни разу не понятно. Никакого мусора AMD не убирала, наоборот, много что добавила.
Улучшение плавности картинки при использовании фрисинка не заметит только слепой. Или говноед любитель играть с vsync, которому уже не комфортно играть без огромного инпут-лага.
Однозначно бери с фрисинком, только выбирай модель с displayport, чтобы потом и с зелёной картой всё было норм. И потом не забудь залочить FPS в драйвере/игре чуть ниже частоты обновления монитора, например 70фпс для 75гц, поскольку любая подобная технология не сможет подстроить герцовку если частота кадров выше возможностей матрицы.
Если брать новый монитор то только с фрисинком, даже если нвидия. Но брать монитор только ради фрисинка перебор.
На 20% со сглаживанием в настройках игры самое то.
Вот так
https://pastebin.com/wakPaCDi
На этот вопрос нет простого ответа. Если совсем кратко и без пруфов, то GCN позволяет запихать максимальное число потоковых процессоров на чип, получив теоретически очень высокую производительность в вычислениях. Однако использовать эту мощщу в играх оказалось очень непросто из-за высоких задержек и неравномерной загрузки. Зато GCN очень полюбили майнеры, где этих проблем нет.
В RDNA сделали ставку на снижение задержек до четырёх раз и увеличение производительности на такт. Карты RDNA намного проще эффективно использовать в играх, они хорошо выполняют как код под GCN, так и под Nvidia. Однако переделка привела к значительному уменьшению числа потоковых процессоров на чипе (1408 vs 2304, 2560 vs 3 840), поэтому майнерам RDNA не интересна. Теперь у AMD, как и у Nvidia, есть две архитектуры, для игр и для вычислений.
Из шапки надо вырезать RX 5500. Во-первых, она только OEM, в магазинах мы её не увидим. Во-вторых, по сути она идентична RX 5500 XT.
В шапке написана ерунда. Если RX 5500 конкурент GTX 1650, а RX 5500 XT - RX 590, то GTX 1650 конкурент RX 590? На самом деле RX 5000 и RX 5500 XT значительно обходят GTX 1650 и в среднем работают как GTX 1650 super, в ТЕХ играх догоняя GTX 1660.
Vega - это развитие Поляриса, поэтому основные особенности GCN относятся и к ней. Vega56 и Vega64 наглядно показали, что в игровых задачах GCN очень плохо масштабируется, то есть значительное увеличение числа CU и ALU не приводит к значительному улучшению производительности. Даже память HBM2, необходимая для загрузки такого монстра, не зарешала.
Я думаю, Вегу используют в APU по двум причинам:
1. RDNA ещё не был готов к выходу Райзенов, Вегу же проектировали параллельно.
2. GCN позволяет уместить максимум ALU при имеющемся транзисторном бюджете, а в APU бюджет очень ограничен. Тем более, что при небольшом числе ядер GCN намного легче загрузить целиком.
> плохо масштабируется
да нехуя подобного
у веги проблема только то что охлаждать её трудно, мало того что чип горячий, так ещё и память тоже горячая и рядом с чипом
нормальная вега либо с водой либо nitro+ с испарительной камерой и тогда всё заебись
Я не вижу разницы вообще.
Беру из твоего же примера. В GTA V на фулхаде прирост в 1,4 раза, в Far Cry 5 в 1,3 раза, а вычислительных блоков в 1,8 раза больше. И это при том, что у RX 580 нет HBM2 памяти.
Для сравнения, у GTX 1080 на треть больше CUDA-ядер, чем у GTX 1070, и производительность тоже примерно на треть выше. Паскаль в играх лучше масштабируется, это факт. При этом у GTX 1080 память тоже GDDR5 с тем же объёмом.
GCN плохо масштабируется из-за того, что для загрузки одного CU нужно четыре длинные волны64. То есть с ростом числа CU на чипе нам нужно не столько же, а значительно больше потоков. Игры дай бог две волны из четырёх более-менее забьют, а дальше CU работает с половинной эффективностью, если не хуже.
Вот пошёл неполный поток на исполнение, а дальше нужно ждать ещё три такта прежде чем посылать следующий. SIMDы векторные, они выполняют одну инструкцию к куче чисел. Поэтому если инструкции разные, то нам нужно сперва дождаться выполнения следующий, даже если часть ALU простаивает.
Для сравнения, у RDNA один CU нагружается двумя волнами32, которые ещё и вдвое короче, то есть их легче забить. Если часть ALU простаивает, то мы сможем их нагрузить не через три такта, а уже на следующий.
Для сравнения, у Turing одна волна32 выполняется 16 ядрами за два такта. Ядра разделены на целочисленные и дробные. Скажем, планировщик посылает целочисленным ядрам волну32 за такт, следующий такт она всё ещё будет выполняться, поэтому освободившийся планировщик отправляет следующую волну32 на дробные ядра. Поэтому Turing более эффективен, чем Паскаль, он может параллельно проводить вычисления с дробными и целыми числами.
У GCN самые высокие требования к распараллеливанию и самые высокие задержки.
> В GTA V на фулхаде прирост в 1,4 раза, в Far Cry 5 в 1,3 раза, а вычислительных блоков в 1,8 раза больше
блоков в 1.7777 раза больше, прирост в разных играх разный
в shadow of war почти 1.7
> GTX 1080 на треть больше CUDA-ядер, чем у GTX 1070, и производительность тоже примерно на треть выше
лол нет, пикрелейтед
точно так же в гта и фк5 прирост меньше теоретической прибавки в блоках, а у 1080 ещё и частоты выше
> У GCN самые высокие требования к распараллеливанию и самые высокие задержки.
не вопрос, но тезис о том что GCN как-то радикально хуже масштабируется абсолютно не состоятелен
да и GCN в r9 290 и в radeon VII это две большие разницы
>блоков в 1.7777 раза больше, прирост в разных играх разный
в shadow of war почти 1.7
Я специально искал в твоей пикче пример хорошего использования и тоже нашёл его, но в большинстве случаев GCN нагружается откровенно плохо. Я не стал приводить в пример ТЕ игры, а дал типичные.
>лол нет, пикрелейтед
Я смотрел тесты GECID, там прирост в среднем чуть меньше трети. У тебя на пикче внизу синтетические тесты как раз показали разницу в треть. Возможно, разница из-за настроек качества графики и разных бутылочных горлышек.
>не вопрос, но тезис о том что GCN как-то радикально хуже масштабируется абсолютно не состоятелен
Не радикально, но очень существенно. Nvidia использует wave32, и RDNA тоже, поэтому GCN с его wave64 за четыре такта в принципе хуже и это едва ли существенно изменится.
У RX 5700 XT 2506 ALU, у Radeon VII 3804 ALU. Техпроцесс одинаковый, частоты примерно те же, память у Radeon VII лучше. Теоретическая вычислительная мощность у ALU у них одинаковая, но у Radeon VII их аж на 1298 больше. И что мы видим? В играх Radeon VII лишь немного быстрее при намного большем энергопотреблении, а в некоторых случаях производительность одинаковая.
Не знаю, когда 1298 лишних ALU дают смешные 10% в квадхаде, радикально ли это хуже или не совсем радикально.
Я думаю, незачем тащить простыни в шапку, достаточно добавить ссылку на пасту, которую я привёл выше. Кому интересна разница в архитектурах, те прочтут.
В принципе, разбор имеющихся карт можно перенести в отдельную подробную пасту, может, скоро её напишу. А в шапке оставить только самое краткое описание. Разница в тексте пойдёт на ссылки на пасты.
> но в большинстве случаев GCN нагружается откровенно плохо.
Точно так же, как и паскаль.
Тесты приведены, ты пиздабол с пруфами.
> GCN плохо масштабируется кудах!
> нет смотри вот блоков больше в х раз и произвдительность выше в 0.5х-х раз >>672886
> ВРЁТИ а вот паскаль святой всегда в х раз быстрея рЯЯЯЯЯЯЯЯ
> нет смотри примерно то же самое >>672886
> ПУК ХРЮК КУДАХ ВРЁТИ ТЕСТЫ НИ ТЕСТЫ ЭТА ДРУГОЕ
ору
это как с маня-мантрами про волшебную оптимизацию на приставках
казалось бы объективно предпосылок для более высокой производительности более чем дохуя
казалось бы, костыльная винда и вылизанная оптимизированная фрибздя на пс
но нихуя
собираем пк с примерно той же комплектухой и получаем примерно то же самое, в пределах погрешности измерений
так и тут, теоретизирование об архитектурах не интересно никому кроме разработчиков
Действительно.
Чтобы найти игры, которые хорошо загружают Вегу, тебе нужно ещё постараться, таких примеров немного. А я могу сходу целую пачку накидать.
Если GCN нагружается так же плохо, как и Паскаль, почему GTX 1080 ti быстрее Веги 64 при значительно меньшем числе ALU и без HBM2?
Здравствуй жопа новый год, теперь у него уже речь не о масштабировании GCN, а о том что абсолютно разные архитектуры имеют разную производительность в разных приложениях.
Ёбаный стыд.
> ТЕСТЫ НЕ ТЕСТЫ
Ну смотри ещё разок.
Вот 1070, 1080 блоков больше на 33%, а производительность выше на 18%. 33\18=1.8, прирост хуже ожидаемого в 1.8 раза.
Вот 590 и v64, блоков больше на 77%, а производительность выше на 54%. 77\54=1.4, прирост хуже ожидаемого в 1.4 раза.
GCN масштабируется лучше паскаля, никаких особенных проблем именно с масштабированием у GCN как заявлялось здесь >>672879 нет, ты пиздабол.
Ещё вопросы?
>теперь у него уже речь <...> о том что абсолютно разные архитектуры имеют разную производительность в разных приложениях.
Я вообще-то с самого начала писал о том, что GCN очень по-разному себя проявляет в разных задачах, поскольку она очень зависима от распараллеливания. В чисто вычислительных задачах вроде майнинга всё отлично, но в играх (а речь у нас об играх) с этим хреново. Да, есть некоторые исключения, но средняя игра не способна рационально загрузить GCN.
>>673184
> нет смотри вот блоков больше в х раз и произвдительность выше в 0.5х-х раз
> ВРЁТИ а вот паскаль святой всегда в х раз быстрея рЯЯЯЯЯЯЯЯ
Посмотри не только на относительные числа, но и на само количество ALU. Почему RDNA примерно равен по производительности с Pascal или Turing с тем же числом ALU, а GCN для той же производительности нужно НАМНОГО больше тех же самых ALU?
>Ещё вопросы?
У меня вопрос. Ты родился долбоёбом или специально тренировался? Нахуя ты маняцифры с юзербенчмарка тащишь?
> Vega56 и Vega64 наглядно показали, что в игровых задачах GCN очень плохо масштабируется, то есть значительное увеличение числа CU и ALU не приводит к значительному улучшению производительности.
>>672886
> да нехуя подобного вот пруфы
>>673236
> А ВОТ СМОТРИ ДВЕ РАЗНЫЕ АРХИТЕКТУРЫ ИМЕЮТ РАЗНУЮ ПРОИЗВОДИТЕЛЬНОСТЬ НИХУЯ Я УМНЫЙ
>>673243
> ТЕСТЫ НЕ ТЕСТЫ
не та картинка приклеилась
> Да, есть некоторые исключения, но средняя игра не способна рационально загрузить GCN.
А с этим кто-то спорил, ебаклак? Речь о масштабировании всю дорогу была.
ЧСХ чем дальше, тем больше появляется игр которое грузят GCN как следует, та же rdr2 и death stranding например.
Я не использовал какие-то там дерьмобенчи хрен знает откуда, а привёл средние результаты тестирования разных игр того времени. Подчёркиваю: того времени, чтобы свести к минимуму влияние асинхронных вычислений и тонкостей аппаратного и программного планирования (в этом плане Паскали серьёзно отличаются от Turing, GCN и RDNA).
"Видеокарта GeForce GTX 1080 с ускоренной видеопамятью до эффективных 11 ГГц опережает GeForce GTX 1070 на 27% по среднему показателю и на 19% по минимальному, если речь идет о разрешении Full HD. В Quad HD разрыв между адаптерами увеличивается до 39% по средней частоте и до 25% по минимальной."
https://ru.gecid.com/video/sravnenie_geforce_gtx_1070_vs_geforce_gtx_1080_11gbps/?s=1
Я могу привести пример какой-нибудь игры, которая не может загрузить все ALU 1080. И что же, 1080 вообще не нужна и больше 2 тысяч ALU не нужно? Какой смысл тыкать единичными примерами?
Мне скинули стопку графиков, которые показывают, что кроме отдельных случаев в среднем по больнице никакого прироста в 1,7-1,8 раз не наблюдается.
Я повторяю вопрос:
>Почему RDNA примерно равен по производительности с Pascal или Turing с тем же числом ALU, а GCN для той же производительности нужно НАМНОГО больше тех же самых ALU?
>ЧСХ чем дальше, тем больше появляется игр которое грузят GCN как следует, та же rdr2 и death stranding например.
В RDR II RX 5700 XT и Radeon VII показывают аналогичную производительность при разном тепловыделении и разном числе ALU.
У меня тут ещё один глупый вопрос возник. Если GCN сейчас наконец-то стал работать в играх как надо, зачем AMD создала RDNA и перешла на wave32? Зачем было разрабатывать чип Navi 14, когда можно было взять половинку от Radeon VII, например?
> >загрузчик Veracrypt
> Потому-что есть блоатлокер вместо этой твоей прошедшей аудит верыкрипт.
Битлокер пусть в очко себе вставят
Во втором сезоне алмаз апал, а так обычно голд апаю и дропаю.
2060s
Зачем ее вообще менять? Для FHD ее еще хватает.
Это по ваттумайну, у меня на самсунге дают 50-53мх и жрут в районе 175ватт с розетки.
Пул, найсом после взлома не пользуюсь.
Ну такое. Надо очень много вег и халявное электричество. Иначе розетка выебет
Чаю, все эти полярисы и Веги такое говно всратое, жрущее и морально устаревшее, рдна с драйверами тоже в рот его ебать, сейчас наверно только кожанкин оптимальный выбор, либо ждать рдна2
>1660
Ну хуй знает. На амуде больше свободы, как правило, больше видеопамяти, асинхронные манявычисления, красивше бюджетные и средние карточки. К тому же раз мы тут, и сделали такой выбор, то у нас, скорее всего, аллергия на зелёные карты или жажда выиграть в цене за производительность.
Что дало новидео? Поддержку пуксинка? Но только когда понесла убытки и поняла бессмысленность g-sync когда есть фрисинк. CUDA? Мы все равно рендерим и стримим процессором или вторым ПК. Ниже потребление и тепловыделение? Не настолько чтобы переплачивать 3-10к. Гойтрейсинг? Есть в нескольких играх, да и не стоит он того пока что.
Итт кто нибудь 56ую в нормальном человеческом разгоне в этой параше тестировал, тот же анон с морфеусом?
>>675575
Дорого пиздец даже за 1650.
>>675892
Двощую
нет, лучшее что можно сделать - поставить воду и прошить в 64
RX 5500 XT в некоторых играх доходит до GTX 1660, поэтому на пике она занимает своё место. Судя по результатам вообще все GCN-карты показали себя плохо, ведь RX 590 еле дотянула до RX 5504 XT.
На данный момент RDNA и Turing самые стабильные и предсказуемые карты, GCN и Pascal то показывают себя очень хорошо, то садятся в лужу.
да пиздеж + игра багованное дно
Разница между 1070 и 1080 всего 10 фпс. Как-то хиленько. Зато fury x опережает 980ti - потенциал таки раскрылся. Интересно было бы увидеть тесты 780ti по сравнению с r9 390. Видел тесты в новых играх где тишка очень сильно сливается. А вообще походу ультимативные настройки в этой игре скорее всего совсем не оптимизированы поскольку Vega 64 уж как-то сильно отстаёт от 1080. Ну или amd в дровах накосячила.
https://www.ozon.ru/product/videokarta-msi-geforce-gtx-1050-oc-2gb-179863175/?stat=bXJfMjgxNDBfMzM4NzZfb2ZyOjE3OTg2Mjg1Ng==
https://www.ozon.ru/product/videokarta-gigabyte-geforce-gtx-1050-oc-2gb-gv-n1050oc-2gd-179863753/?stat=bXJfMjgxNDBfMzM4NzZfb2ZyOjE3OTg2MzIzNQ==
https://www.ozon.ru/product/videokarta-asus-rog-strix-geforce-gtx-1050-oc-2gb-strix-gtx1050-o2g-gaming-179863174/?stat=bXJfMjgxNDBfMzM4NzZfb2ZyOjE3OTg2MDIzMg==
Потянет в 30фпс даже 564 14 CU. Но точно можно будет сказать только когда он выйдет
1050 в 2020 только б/у с доплатой от продавца.
Предположительно в ноябре.
>А вот 500 серия только для майнинга была, стоила как 1066 - перформ на уровне 1050.
Жирно.
Вот вы тут спорили о шейдерных процессорах, но связи меджу их количеством и производительностью на скриншоте нет. Как и разницы при большем объёме видеопамяти. Следовательно, корреляция скрыта в частоте. Меньше шейдерных процессоров, но выше частота ГП — выше производительность. Ну и новые технологии наверняка зарешали.
Дотатред на месте, я спокоен.
Плохие гои.
5700хт на своем месте, как и всегда, я спокоен.
780ти нужно сравнивать с 290, они вышли примерно в одно время. И нвидия в данном случае давно уже сосет у АМД, ибо 290 в итоге оказалась на уровне 970, которая вышла аж через год и стоила дороже. В некоторых играх 970 слабее, чем 290, кстати.
Какая же нвидия параша.
Нет. 780ti это был прямой конкурент 290x, а 290 был конкурентом просто 780, когда эти карты вышли. AMD потом выпустила 390 с производитеьностью 290x и чуть более производительную 390x.
Лол, а сколько красной перемоги и АМД-победы в шапке и треде-то, а на деле опять не те игры и драйвера утонули, несмотря на то, что уже третьих индусов сменили для их написания. ДХ9 игры-то нормально работают, или всё еще нинужна?
мимошёл бывший фанат красножопых затычек, укатился после уёбищной веги 56, у которой отвалился чип спустя полтора года использования
Экспериментальные дрова могут быть неочень, так везде обстоят дела. На то они и бета. А DX9 всё так же говно, и игры не те, что уж тут поделать? Вот даже flight simulator высрали, а он на DX11. Нахуй он такой нужен?
>Аноны, у кого имеется 5700xt, можете скинуть ваши фпсы в доте
Ну ёпта. Илитные владельцы великолепной 5700хт не играют в ети ваши доки.
Есть вега 56 и с ней начались проблемы. Начну с того, что купил вегу 2 года назад с цу на чипах хуйюникс. На сегодняшний день, уже как месяц имеются проблемы в играх. Если конретнее, в игре раз в пол-минуты+- просаживается фпс. Тесты на скорую руку показали что мозг ебет память карты собсна результат на пикрил. Во время теста отъебнул монитор, а после начались натуральные зависания самого пк на 2 секунды. ( отражено на графике памяти карты )
Что с этим можно сделать шобы работало нормально?
Ох уж этот амд экспириенс.
То же пришлось говна поесть, перед тем как разобрался. Утешаю себя тем, что а такую цену у инвидии ничего бы не взял.
вариант 5700xt с CU сразу нахуй
Майнеры опять говна в жопу залили, и пынька за 20 лет нихуя не сделал, так ещё рубль шатает, его друзьям надо выгодно продавать ресурсы за бугор, а выгоднее всего это делать при заниженном курсе рубля.
Амуде когда нибудь будет смысл брать? А то я хотел себе рдна2 взять, но что не поколение то оверпрайс и дефицит, оно хоть откатывается на спаде битка?
970 не стоила дороже.
она продавалась за 12к.
дороже она стала стоить после известных событий, скакнув до 20к сразу
Налоговый период заканчивается, ситуация в Беларуси, ЦБ продает валюту в меньших объемах.
Так что цены будут только расти.
Сложный прикол.
Посмотрел этот видос, да и почти весь канал значит т.к. видео охуенные, на уровне канала "Этот компьютер", но про мониторы.
Вспомнил, что на видеокартах же давно integer scaling запилили.
Запустил бордерлендс 3, переключится в 720р и что могу сказать, целочисленный апскейл до 1440р выглядит весьма неплохо. От простого апскейла 1080->1440 отличается значительно более угловатыми шрифтами, а сама игра может чуть более мыльная, но это незаметно.
Интересный DLSS экспириенс получился.
>>680143
Да.
Причем я покупал 5700 турбину, пришлось ее поменять по гарантии, а через 45 дней поменять бесплатно мне ее смогли только на новенькую 5700ХТ с турбиной
Нитра тогда для меня слишком дорого стоила, она около 35 стоила, почти как 2070ы, а турбина 5700, как мне сказали, очень недурственная - холодная и не громкая.
Не соврали.
А вот про 5700ХТ с турбиной ничего хорошего сказать не могу.
АМД Ютилити ессесно.
Там прямым текстом указано, что на драйвера чипсета она не влияет никак.
Хороший, блять, тамада и конкурсы интересные...
Чую "Слить реф 5700ХТ за 28к и взять RDNA2" у меня не прокатит.
Неужели воду на нее брать и сидеть до успокоения пиздеца?
Я ебанутый и хочу новые амд пощупать. Невидия экспириенс мне наскучил.
Интересно, сколько заломят за референс\фаундерс-бетатест эдишн? Я хочу именно новый реф, ибо он будет без турбины, а потом воду мутить.
Взял за 25к в феврале, до сих пор проигрываю с ценников.
зарепортил
Говно, но я думаю что взлетит потому-что говно взлетает на ютубе.
Ага, очень, знаменитая "оптимизациия амуде". ОРУ!>>664462
https://www.youtube.com/watch?v=693NBRwk8z4
Защита от дурака же.
АМД культисты в рф сильны и будут покупать оверпрайснутый брак от Лизы при любой цене.
Наконец то нашелся бенчмарк в котором амуде лидирует. В другие бенчмарки больше не играем уже больше месяца.
Скачал предпоследние драйвера для семёрки, вручную поставил драйвер, а затем CCC, и всё заработало. Игры играются, настройки применяются, пока ничего не падает. После панели управления Nvidia софт Radeon выглядит как космический корабль. Для сравнения посмотрел на свежий GeForce Expirience, дизайн для школьников, функционал бедный, нужно залогиниваться. Да, есть у красных косяки, что-то я уже у себя обнаружил, но в целом всё далеко не так плохо, как обычно пишут.
Самой карте очень не повезло, ей очень легко устроить антирекламу. По производительности она в среднем как 1650 super, а по цене соответствует тем же 1650 super в хорошем исполнении. Да, формально карта от зелёных дешевле, но только за счёт убогих обрубков с куском алюминия заместо охлаждения. Поэтому можно с умным видом сделать тесты карт в хорошем исполнении, а затем написать минимальные цены, которые к данным картам не относятся.
И результаты тестов тоже гуляют туда-сюда. Из-за узкой шины младшая 5500 XT очень сильно просаживается при нехватке видеопамяти. В одних тестах настройки лепят как можно выше, поэтому 1650 super вырывается вперёд. В других ставят реалистичные настройки, с которыми и будут играть люди, в них карты одинаковы или 5500 XT даже немножко быстрее (а по чипу она быстрее).
Я хочу какой-то понятный анонс пигнави, желательно с ценами.
Чтобы слить свой референс 5700ХТ, пока за нее деньги дают и взять себе новую карту на выходе.
>Пикрил ебало
А я то думаю, где я видел этот типаж? https://www.youtube.com/watch?v=Hy-C4YvECMk&feature=youtu.be
Попробуй андервольтинг на стоковом ПО от амуды или афтербернере, сможешь понять фортануло ли с камнем, а прошиваться лучше уже с проверенными реальными возможностями конкретно твоей видюхи. У меня например на 580 от поверколора не вывозит стандартные 1340 Mhz долго и скидывает на более низкие частоты, а если понизить напругу, то заебись как влитые.
Короче не надо в слепую шиться, это бестолково.
Исчерпывающий пост. Очень познавательно.
Да ебаный в рот, что же вас так биосы шить тянет, хотя вы нихуя не понимаете.
Не нужно шить.
Родина вам More power tool дала, прописывай все лимиты в реестр, нет, не хочу, хочу шить бивасы и получать кирпичи.
Прошил бивас, взял разгон, что не брал до этого. Изи
Отвал драйвера.
В 99% случаев случается, когда карте тупо не хватает напряжения на ядре при том уровне нагрузки, который ты дал.
Охуенно, у меня на веге56 такого нет, последние самые дрова. До этого вроде было
35к за ссаную видюху самого дешманского форм фактора уже почти устаревшего поколения? Это много даже если ты 100к получаешь.
К тому же она печка и шумит, реф можно брать 5700 без хт.
С стоковых 1375/1750 погнал в 1466/2000, всё стабильно. Это норм для 4гб? Выше по памяти совсем не берёт. Во всяком случае, на 2100 бублик норм, а в игре крашится система. Какие у вас брали разгоны?
Обычно не трогаю, чтобы не грелось выше 70 градусов под наргузкой
Интересно, почему с турбинным исполнением делают топовые печки, которые, по идее, меньше всего подходят для этого охлаждения. Сделали бы RX 550 и RX 560, охлаждались бы отлично, выдувая весь горячий воздух из корпуса. Идеологически самое верное решение.
Дешевизна же. Эта самая дешёвая система охлада для массового производства, читал статья как-то очень давно.
Дешево и позволяет ставить даже самые лютые печки в самые глухие и уебищные корпуса.
Даже армороговнина будет получше турбины, на мой взгляд. Сам сидел на турбине несколько лет. Пиздец полный. Помимо шума еще и грелась как ебанутая. Шаманил там всё что только можно - похуй. После перешёл на нормальный двухвертильный вариант - небо и земля.
Тем не менее, ты не сможешь гарантировать одинаковые температурные режимы во всех конфигурациях при условии, что у тебя не турбина.
RTX 3080 - 1150$
RTX 3070 - 720$
Ожидаем пополнение у красного лагеря?
https://overclockers.ru/blog/TEXHAPb/show/40776/insajder-nazval-tochnye-ceny-i-datu-nachala-prodazh-videokart-nvidia-ampere-3000-j-serii-geforce-rtx-3070-720-dollarov-i-vyshe-v-referensnom-ispolnenii
Пруфы - хуйня, сразу скажу, но согласно политике куртки "Цена согласно производительности" информация выглядит близкой к правде.
Ну нахуй, если будут такие цены, буду реально к своему АМДшному процу покупать АМДшную же видеокарту
Сделал так в декабре и мне норм.
Хотя, честно, если бы не коровавирус, то лучше бы пересидел это поколение на 1066.
Как владелец 1600 рузена и 5700хт спрошу: а что не так-то?
Ну я согласен с тем, что без проблем не обошлось, но ничего из ряда вон не наблюдалось, всем доволен.*-+
с РДНА?
Крайне проблемные на старте карты, так еще и без лучей. Хотя интересные в плане производительности на доллар.
Так-то все норм, я просто перспективы пытаюсь увидеть. Интересно же как будет склейка и инфинити фабрик на ГПУ работать.
>>4635102 - кун
За 18к суперов не было
2 кека памяти не стоят переплаты в пол карты
Взял не супер.
Ладно 2060Ы, ладно 2070, но 2060 - соснул.
В любом случае, если тебя все устраивает и производительности тебе полностью хватает, то чому ты сомневаешься? Могу тебя лишь поздравить.
Алсо, какую именно,за сколько и как быстро толкнул?
у меня тоже скрипеть снова начала.
Помогала чистая переустановка драйверов, отключение ЛГБТ свистоперделок и прочее.
Можно было конечно подождать и попробовать ее слить сейчас, чуть дороже, в тонкий момент между бумом майнинга и анонсом новых карт, но мне настолько остопизднели различные выкрутасы от карты, что я просто психанул и продал
1650 оверпрайс, можно взять НОВУЮ рыху 470-580 на 4gb не говоря уже что можно взять ДВЕ рыхи 470 с ЛОХИТО за те же деньги, каждая из которых уделает 1650 и даже 1650s.


Выбираем гаджет к новому учебному году с партнёрами 3DNews. Часть I
Реклама

Обзор смартфона Huawei P40 Pro: один против всего мира

ВИДЕОКАРТЫ
Групповое тестирование 44 видеокарт в Microsoft Flight Simulator 2020

26 августа 2020 Валерий Косихин
Новый MSFS еще на стадии альфа-тестирования произвел впечатление самой масштабной и красивой игры современности. Теперь, после релиза, когда сетовать на раннюю версию графического движка уже нельзя, можно добавить, что это еще и чрезвычайно требовательный проект, созданный с расчетом на GPU нового поколения. А пока таких еще нет в продаже, проверим, на что годятся существующие видеокарты
⇣ СОДЕРЖАНИЕ
⇡#3840 × 2160

Играть в Microsoft Flight Simulator на 4К-экране с фотореалистичной графикой дано не всем, причем в данном случае речь идет не о высоких кадровых частотах за пределами 60 FPS, а о борьбе за минимально приемлемый фреймрейт. Radeon VII и GeForce RTX 2070 SUPER удержались на грани, но Radeon RX 5700 XT и GeForce GTX 1080 Ti с этим уже не справились. Ну а все, на что может рассчитывать владелец GeForce RTX 2080 Ti и мощного центрального процессора, — около 40 FPS в требовательных сценах.
Даже снижение качества графики до среднего уровня не разгоняет MSFS до уверенных 60 FPS на GeForce RTX 2080 Ti, хотя флагман NVIDIA вплотную приблизился к этому показателю. Благо список устройств, подходящих для игры в режиме 4К с кадровой частотой 30 FPS, оказался довольно обширным. В него вошла вся серия GeForce RTX, начиная с 2060 SUPER, Radeon RX 5700 и 5700 XT, а также формально устаревшие, но мощные видеокарты Radeon RX Vega 64, GeForce GTX 1070 Ti и старше.
Если вы хотите во что бы то ни стало запустить MSFS на экране Ultra HD и получить высокий фреймрейт, пусть даже ценой катастрофического падения качества графики, то подобную возможность дают старшие модели семейства GeForce RTX (как минимум 2070 SUPER) и, с натяжкой, GeForce GTX 1080 Ti либо (с еще большей натяжкой) Radeon VII. А вот пользователям популярных предложений средней категории (Radeon RX 5600 XT и GeForce GTX 1660) и далеко не самых слабых ускорителей предшествующего поколения (Radeon RX Vega 56 и GeForce GTX 1070) не приходится рассчитывать больше чем на 40 FPS.



⇡#Выводы
Microsoft Flight Simulator образца 2020 года — удовольствие определенно не для всех. Причем дело не только в специфическом жанре и сложности освоения. Можно без колебаний утверждать, что на данный момент это одна из самых сильных игр на PC с точки зрения графики. Да что там говорить, просто самая сильная, а заодно самая требовательная. До сих пор эта корона принадлежала Red Dead Redemption 2, которая в прошлом году установила новую планку системных требований для ААА-проектов, но теперь у нас есть новый лидер.
Достаточно сказать, что при ультравысоких (а это еще не максимальные!) настройках качества графики ни одна из потребительских видеокарт, включая GeForce RTX 2080 Ti, не гарантирует уверенных 60 FPS даже в разрешении 1920 × 1080, не говоря уже о 2560 × 1440 и 4К. Впрочем, современным компьютерам нужно дать скидку на то, что MSFS не так нуждается в высоких кадровых частотах, как более динамичные игры. К тому же нагрузка на GPU здесь тем сильнее, чем ниже самолет над землей и, соответственно, чем выше детализация объектов, а в небе компьютеру дышится полегче. Не говоря уже о том, что для съемки живописных скриншотов можно выкрутить графику до максимума практически на любом игровом ускорителе. Но факт есть факт: чтобы насладиться пейзажами MSFS во всей красе и без тормозов, требуется беспрецедентно мощное железо.
Впрочем, пускай системные требования Microsoft Flight Simulator 2020 вполне адекватны качеству изображения, которое порой не отличается от фотографий или статичных 3D-рендеров, свой вклад в запросы к производительности внесли издержки графического движка. Из-за того, что игра пока не совместима с Direct3D 12 и не умеет использовать больше четырех ядер CPU (а может, и в силу каких-либо других скрытых факторов), при разрешениях 1920 × 1080 и 2560 × 1440 между всеми старшими видеокартами NVIDIA, которые доминируют в бенчмарках, трудно обнаружить разницу на практике, а ускорители AMD, которые лучше всего работают именно в режиме Direct3D 12, порой демонстрируют разочаровывающие низкие результаты. Кроме того, в игре есть баги, вызывающие непредсказуемое, но сильное падение фреймрейта, которое легко принять за норму, если не знать, как должно быть на самом деле.


Выбираем гаджет к новому учебному году с партнёрами 3DNews. Часть I
Реклама

Обзор смартфона Huawei P40 Pro: один против всего мира

ВИДЕОКАРТЫ
Групповое тестирование 44 видеокарт в Microsoft Flight Simulator 2020

26 августа 2020 Валерий Косихин
Новый MSFS еще на стадии альфа-тестирования произвел впечатление самой масштабной и красивой игры современности. Теперь, после релиза, когда сетовать на раннюю версию графического движка уже нельзя, можно добавить, что это еще и чрезвычайно требовательный проект, созданный с расчетом на GPU нового поколения. А пока таких еще нет в продаже, проверим, на что годятся существующие видеокарты
⇣ СОДЕРЖАНИЕ
⇡#3840 × 2160

Играть в Microsoft Flight Simulator на 4К-экране с фотореалистичной графикой дано не всем, причем в данном случае речь идет не о высоких кадровых частотах за пределами 60 FPS, а о борьбе за минимально приемлемый фреймрейт. Radeon VII и GeForce RTX 2070 SUPER удержались на грани, но Radeon RX 5700 XT и GeForce GTX 1080 Ti с этим уже не справились. Ну а все, на что может рассчитывать владелец GeForce RTX 2080 Ti и мощного центрального процессора, — около 40 FPS в требовательных сценах.
Даже снижение качества графики до среднего уровня не разгоняет MSFS до уверенных 60 FPS на GeForce RTX 2080 Ti, хотя флагман NVIDIA вплотную приблизился к этому показателю. Благо список устройств, подходящих для игры в режиме 4К с кадровой частотой 30 FPS, оказался довольно обширным. В него вошла вся серия GeForce RTX, начиная с 2060 SUPER, Radeon RX 5700 и 5700 XT, а также формально устаревшие, но мощные видеокарты Radeon RX Vega 64, GeForce GTX 1070 Ti и старше.
Если вы хотите во что бы то ни стало запустить MSFS на экране Ultra HD и получить высокий фреймрейт, пусть даже ценой катастрофического падения качества графики, то подобную возможность дают старшие модели семейства GeForce RTX (как минимум 2070 SUPER) и, с натяжкой, GeForce GTX 1080 Ti либо (с еще большей натяжкой) Radeon VII. А вот пользователям популярных предложений средней категории (Radeon RX 5600 XT и GeForce GTX 1660) и далеко не самых слабых ускорителей предшествующего поколения (Radeon RX Vega 56 и GeForce GTX 1070) не приходится рассчитывать больше чем на 40 FPS.



⇡#Выводы
Microsoft Flight Simulator образца 2020 года — удовольствие определенно не для всех. Причем дело не только в специфическом жанре и сложности освоения. Можно без колебаний утверждать, что на данный момент это одна из самых сильных игр на PC с точки зрения графики. Да что там говорить, просто самая сильная, а заодно самая требовательная. До сих пор эта корона принадлежала Red Dead Redemption 2, которая в прошлом году установила новую планку системных требований для ААА-проектов, но теперь у нас есть новый лидер.
Достаточно сказать, что при ультравысоких (а это еще не максимальные!) настройках качества графики ни одна из потребительских видеокарт, включая GeForce RTX 2080 Ti, не гарантирует уверенных 60 FPS даже в разрешении 1920 × 1080, не говоря уже о 2560 × 1440 и 4К. Впрочем, современным компьютерам нужно дать скидку на то, что MSFS не так нуждается в высоких кадровых частотах, как более динамичные игры. К тому же нагрузка на GPU здесь тем сильнее, чем ниже самолет над землей и, соответственно, чем выше детализация объектов, а в небе компьютеру дышится полегче. Не говоря уже о том, что для съемки живописных скриншотов можно выкрутить графику до максимума практически на любом игровом ускорителе. Но факт есть факт: чтобы насладиться пейзажами MSFS во всей красе и без тормозов, требуется беспрецедентно мощное железо.
Впрочем, пускай системные требования Microsoft Flight Simulator 2020 вполне адекватны качеству изображения, которое порой не отличается от фотографий или статичных 3D-рендеров, свой вклад в запросы к производительности внесли издержки графического движка. Из-за того, что игра пока не совместима с Direct3D 12 и не умеет использовать больше четырех ядер CPU (а может, и в силу каких-либо других скрытых факторов), при разрешениях 1920 × 1080 и 2560 × 1440 между всеми старшими видеокартами NVIDIA, которые доминируют в бенчмарках, трудно обнаружить разницу на практике, а ускорители AMD, которые лучше всего работают именно в режиме Direct3D 12, порой демонстрируют разочаровывающие низкие результаты. Кроме того, в игре есть баги, вызывающие непредсказуемое, но сильное падение фреймрейта, которое легко принять за норму, если не знать, как должно быть на самом деле.
>каждая из которых уделает 1650 и даже 1650s
Чем она их уделает блеадь? ФПС в джва раза ниже нахой!
Обожаю когда хуисасы ноют что им говорят свой РТХ и 12 директ в жопу засунуть, вместе с 4к.
>Короче пока 12 директ не запилят эта игра идёт нахуй
Что-то мне это напоминает.
Ах да, пару тредов ниже у рязанек фолыч третий не идёт, и они его нахуй посылают.
И логичный вопрос, вам с продукцией амд специальная памятка идёт, что говорить в неудобных ситуациях?
за 7к. Говорят, что не майнила, под хвост не баловалась, стоит брать?
И что за бренд такой Dataland?
Чел, там все ноувидео карты не дают 60фпс в фхд, вот где неудобная ситуация. Тютюрям тоже нужен 12ый директ
> лучшем симе всех времен и народов на овер 10000 часов кристально чистого геймплея на кончиках пальцев
Похуй.
это в том, в который никто не играет?
Он спрашивал вообще за 574 за 7к.
И вы заебали уже, люди которые ноют что 4 гиговые карты не нужны, вы вообще в игры играете или на дваче срете в основном?
Обновляю комп частями. Сейчас купил Sapphire nitro + rx 5700 xt, а проц с оперативкой и материнкой ещё в пути.
Я решил проверить работоспособность карты в своём старом компе на Phenom X4 955 и матерью M4A87TD с 16 гигами оперативы и БП на 650 ватт(Два контакта на 8 пинов подключены), но винда не грузится. Карта светится, вентиляторы крутятся, да и биос я вижу через новую карту, но всё повисает на чёрном экране как раз в тот момент, когда должна начинаться загрузка винды.
Если вернуть старую 750 Ti, то всё работает.
Я даже винду седьмую снёс и установил десятку, но что дальше проверять и как быть, я не знаю.
Собственно вопрос: может ли это быть из-за старой материнки/проца/биоса, или проблема в чём-то ином? Как назло, нет рядом друзей с более-менее современными компами, у кого я мог бы проверить турбину. Сейчас попробую подключить материнку отдельным БП и проверить.
Рыкса 570 на подобной матери работала, но на счёт RDNA ничего не скажу. Пробовал тупо ПОДОЖДАТЬ пока накатятся дрова и система определит что это за ебала?
Последнее обновление биоса от ASUS в 11м году было. Уже смотрел этот вариант. Чуть больше года они поддерживали материнку, всего-лишь.
1280x720, 0:27
Хммм, с подождать хороший вариант. Пожалуй я сейчас так и сделаю. Хотя 10-15 минут она в рабочем состоянии точно висела
Не просто играем, а ещё и не боимся упереться в видеопамять выкручивая текстуры до предела.
> Вам они не нужны потому что у вас есть деньги на другие карты.
Справедливо.
Но увидев то, что на ультрах в 1440р бордерлендс 3 умудрилась сожрать все 8 гб и попросить еще, а на фуллхд все равно больше 4гб - проще уж сразу нормальную карту взять.
Тем более, что оценив свои траты, эта разница в 2-2.5к набирается ограничив себе в ненужной хуйне.
> верхнем ценовом сегменте
Доброе утро, у нас тут доллар полчаса назад 76 потрогал, так что всякие 5500-5600ХТ уже средний сегмент.
До твоего поста не знал про такое ПО. После прочтения установил, запустил в безопасном режиме, всё подчистил, но результат оказался такой же. Продолжаю пока что плясать. не понимая что делать
> и пынька за 20 лет нихуя не сделал, так ещё рубль шатает, его друзьям надо выгодно продавать ресурсы за бугор, а выгоднее всего это делать при заниженном курсе рубля
Навальноонолитега.
>5600xt asus rog
вот нахер покупать оверпрайснутые карты из мидла когда за тотже прайс можно было взятьь 5700?
ну, как тебе сказать насчет оверпрайсности? лучше скажите, как частоту памяти снизить, а то в драйверах 1500 залочено
>ну, как тебе сказать насчет оверпрайсности?
ладно убедил, но за 260 такое только конч купит
через morepowertool
Ты кроме Навального никого другого не знаешь? Гугли на Ютубе Комолова, чел Скайвокер поясняет за капитализм по хардкору.
В этом треде есть одна красная тема, и это не совок. Смекаешь?
Читал что люди и на 450 ваттах с ней прекрасно живут, да и сам производитель 600 советует, а у меня 650. И ведь она стоковая. Не может же она весь БП выжрать просто расходами на экран загрузки?
Спасибо тебе большое, Анон! Я, пожалуй, пока успокоюсь, пока что-нибудь не сломал, и дождусь новых железок. Обязательно отпишусь по результатам проверки в нормальных условиях.
И плюс не понял шутеечки про 4к. В каком плане проверить стоит? На ютубе или отдельно скачанном видосе?
А ещё люди говорят что прививки вызывают аутизм и что земля плоская. А ещё потребление ГМО продуктов вызывает ракоспид и портит духовные скрепы. Тоже то ли мифы, то ли факты.
Да незачто. Сам сидел на четырёхвёдерном пахоме с рыксой, не подходят они друг другу.
Отвалы случаются, цепи питания на дешманах например в асусах 474 майнгинг версиях проживают ровно гарантийный срок в 3 месяца, а потом ВРМ надо менять, но это не отвал конечно починить можно. Но даже зная это наперед ты можешь продлить карте жизнь андервольтинг, андерклок - вот это вот все.
Слышал, что были проблемы со старыми матерями, возможно даже у anusа.
Но свою 5700ХТ я в мамку с ш7 2600 вставлял без проблем.
> Двач, это правда?
Если прожаривать 24\7\365, то что угодно отвалится кмк.
> И плюс не понял шутеечки про 4к.
А это не шутеечка, как я понял. У полярисов не завезли кодировщик видео или он кривой до жопы и потому 4к видео лагает.
Играю на своём 4к телеке на 1070 во всякое, мне норм
Фильмы смотрю подключив внешний хард к телеку, ютуб тоже смотрю в приложухе телека
В нативе, офк.
У меня не было хоть как-то тащашей игры пекарни с 2006 года. Перепрохожу андеграунд 1, задрачиваю соников, из нового неспешно прохожу жта5 и ларку2013 на средне-высоких. Фпс в районе 50-60. В соник форсес на максималках стабильные 60 кадров было. Ну и в блэк мезе фпс точно больше 60
Меня в целом устраивает. Может в январе поменяю видюху на какой-нибудь 2060с или 2070 с рук, чтоб длсс был, а 1070 в комп бати и племянницы поставлю
> Тогда норм, действительно.
У меня требования не большие.
Да и вот взять ту же ларку - не вижу разительных отличий на средних и полностью высоких. Как и у жта.
В киберпанк на выходе скорее всего буду в 1080 гонять, что не особо приятно, но просто подальше отодвинуть от телека - благо диван позволяет, да и через пару недель возьму беспроводные клавомышь
Что за 4к, если у тебя 580 то не будет аппаратного декодирования видео на Ютубе в хроме или лисе. Можно его включить через расширение h264ify но тогда фхд максимум будет. Любые скачанные видео будут проигрываться через видюху, если кодек подходящий. Просто скачай нормальный плеер, mpc be и когда видео открываешь там будет написано внизу gpu, значит работает аппаратный декодер.
Программно и SSAA можно сглаживание использовать, но аппаратное все таки приятнее работает.
С 2011 года на 27" 1440p сижу и то лесенки злоебучие вижу, а в 1080р наверное вообще инфаркт схватил бы.
> С 2011 года на 27" 1440p сижу и то лесенки злоебучие вижу,
Вот что с 4к збс - это минимальная видимость отсутствия сглаживания
На 15 дюймовом 1080р без него тяжко. В на 42 дюймовом 4к телеке без него норм вполне, если в довольно мелкие детали не вглядываться. Во время геймплея вообще не до этого
Скорее б настала эра 8к
У моей тни 560 и 4к моник лол. В игрулечки просто в 1080р поигрывает иногда.
> Скорее б настала эра 8к
Пока не выпустят на рынок качественные технологии интерполяции, вроде DLSS или апскейлеров на телеках, то 8к не настанет.
Алсо, на канале Zzanya тупо целый эпос про мониторы с матаном и всем таким. рекомендую.
1920x1080, 0:46
> Пока не выпустят на рынок качественные технологии интерполяции, вроде DLSS или апскейлеров на телеках, то 8к не настанет.
Соглы
> Алсо, на канале Zzanya тупо целый эпос про мониторы с матаном и всем таким. рекомендую.
Видел, классный канал, мне понравился. Подписался
Да, спасибо, что поправил.
В вебм надо перекодировать, но по описанию ясно, что чип того, может и драйвер, но ближе первое, ибо они изначально на высоких частотах работают. Можешь попробовать через ПО радеон понизить в играх частоту на 20% и посмотреть что будет.
Вижу только возможность записи полного экрана либо отдельного окна целиком, руками задать нужную область не получается.
Когда-то для этого использовал бандикам, но ставить его лень, да и платный он.
Проверь драйвера, либо провода подумали, переткни другой стороной.
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-8-3
Блять ну когда уже выйдет стабильный драйвер, ну ебаный рот!
Когда они уже введут ноль оборотов в точную настройку вертушки?
И когда исправят загрузку с нулевыми оборотами в обход менджменту.
Разве? Video Decode при просмотре 4K@60 на ютубе загружается где-то на 30%, само видео идёт без проблем.
Эх, как же хочется анончика, который запилил бы гайд на настройки адреналина.
карту нагружает частично видео, но основная нагрузка идет на процессор видимо.
вот смотри как рально должно нагружать проц 4к 60 фпс если идет через видяху декодинг
Лучше продай свою Вегу, пока она на пике майнинга, добавь эти 5к с водянки и купи нормальную карту.
Нормальную это какую? Они ведь тоже из-за майнинга подороже стали, или нет?
должен быть ДЕКОД при воспросизведении.
енкод это когда ты кодируешь видос в другой формат например
8ram
HIPRO HPE450W
h81m-e33
R9 270 рипнулась
Хочу взять Аsrосk RX 5500 XТ 4Gb за 13к, нормально будет?
Алсо, может ли быть, что напруга на материнка убила видяху? Там в один юсб порт если воткнуть что-то, ток трещать начинает
Ну да, 17% загрузки на 4.44 ГГц это неплохая нагрузка на проц, возможно там не работает как надо у анона
Гемороя хапнешь с этим абасроком 4 гиговым, лучше на авито рыксу 588 возьми и на пивас останется.
Что-то не понял прикола, теперь диспетчер задач говорит что нагрузка идёт на 3D.
588? Там пара лотов на всю раисю.
А если 580 4гб, новая стоит на пару тыщ дешевле, но по тестам смотрю 5500 получше будет. Да и новее она как-то. А что с ней не так, вендор хуевый?
Глянул тесты, по ходу реально так. За 12к можно взять, но почему она такая относительно дешёвая...
>Хочу взять Аsrосk RX 5500 XТ 4Gb за 13к, нормально будет?
Нормально.
>>693137
Рубрика "вредные советы". Если говорить о новых, то из-за майнеров цены на Полярисы неадекватные, а RX 584 не конкурент RX 5504 XT. 588 только БУ с майнинга, тут как повезёт.
>абасроком 4 гиговым
По плате он почти не отличается от Сапфира, охлаждение несколько проще, но тоже более чем адекватное. Если не будет брака, то годная карта.
>>693167
Обоснуй. Производительность аналогичная, если аналогична и цена, как в данном случае, то надо брать карту с лучшим исполнением.
>>693186
Где берёшь? Вангую, небольшой магазин, продают остатки по старым ценам.
>Обоснуй. Производительность аналогичная, если аналогична и цена, как в данном случае, то надо брать карту с лучшим исполнением.
Я другой анон но вот тебе мое мнение. Производительность +- одинаковая, да. А вот компании разные. Невидия лидер и топ, амуде вечно вторая индуская компания состоящая из условностей вечных танцев с бубнами итд. Ты же не будешь это отрица? К слову я сиду на пузене 2600 + rx 578, если че вдруг. Так вот нахуя мне брать продукт от вечно второй компании когда есть аналог от топ компании? Нету проблем с дровами и прочими подводными? Смысл в амд только когда она предлогает или ценник гораздо дешевле аналога от конкурента, либо предлагает за те же деньги что и конкурент мощность побольше. Все. Во всех остальных случаях она не нужна. Это касается и процов. Это тот самый случай.
Если у тебя корпус стоит на полу, а не перед ебалом, то разницы нет. Однокулерный шумит сильнее
Нет, вполне годно, малыша берешь от Палита штормХ и чиллишь.
А ты цены видел? 700 баксов за тыкву 3070.
Если амуда не проебется, должен быть годный ответ за меньший прайс.
Антон с 5500xt в треде. Задавай вопросы.
>Производительность +- одинаковая, да. А вот компании разные.
Сами чипы GPU производит один и тот же завод - TSMC (ох уж эта азиатская семейка). То есть вопросы к 1). архитектуре GPU и к 2). программной поддержке, то бишь к дровам.
Архитектура RDNA будет долго актуальной, потому что она используется в чипах соснолей нового поколения. Что касается оптимизации игр, то я уже подробно разбирал, как AMD и Nvidia идут навстречу друг к другу (AMD добавила поддержку волн32 и упростила загрузку ALU, Nvidia улучшила т.н. "асинхронные вычисления" и перешла на 64 ALU в CU). Я не верю, что в будущем в играх будет такая же пропасть, как между Максвеллами/Паскалями и Полярисами, мы уже сейчас её не наблюдаем.
Что до софта, то мне трудно сказать, насколько драйвера подтянули с релиза и сколько их ещё будут доводить до ума. Лично у меня драйвер работает стабильно, проблемы только с CCC, да и то не принципиальные. Самое страшное, что может случиться - это уход AMD с рынка и полное прекращение поддержки, но это невозможно.
>Так вот нахуя мне брать продукт от вечно второй компании
>сиду на пузене 2600 + rx 578
Не знаю, зачем, это тебя надо спрашивать.
>Смысл в амд только когда она предлогает или ценник гораздо дешевле аналога от конкурента, либо предлагает за те же деньги что и конкурент мощность побольше.
Если технически RX 5500 XT стоит на том же уровне или даже несколько выше по исполнению, производительность без всякого многолетнего ожидания раскрытия потанцевала аналогичная, и с дровами ситуацию подтянули, то с чего она будет стоить значительно дешевле? AMD - это не благотворительная организация, а чистый доход у неё и так не ахти.
Два чая адеквату
Короче. Мне как рядовому пользователю дико поебать кто так какие чипы производит и у кого там какая архитектура. Я как обычный Миша приходя в магазин хочу взять себе карту которая будет у меня работать из коробки без проблем и вот это вот все и при этом давать мне хороший фпс в играх везде и всегда на протяжении n - го количества времени. И вот прихожу я в магаз и вижу допустим две по мощности одинаковые карты. Одна от невидии лидера и которая подходит под все мои желания описанные выше а вторая от амуды. Стоят одинаково. Нахуя мне амуда?
>Если технически RX 5500 XT стоит на том же уровне или даже несколько выше по исполнению, производительность без всякого многолетнего ожидания раскрытия потанцевала аналогичная, и с дровами ситуацию подтянули, то с чего она будет стоить значительно дешевле? AMD - это не благотворительная организация, а чистый доход у неё и так не ахти.
Пошли мантры. Мне как рядовому Мише поебать насколько она там технологичнее и вот это вот все. Я хочу играть здесь и сейчас. А не ждать 2 года когда проблемы с дровами поиксят наконец. Что может предложить амуда кроме ценника? Может оптимизацию? Нет, все пилиься под невидию(5700 в той же одесее с трудом 60 рисует). Может новые технологии? Хуй там плавал. Привет 5700 без лучей и вот этого всего. Может удобный стриминг с карты? И здесь сосем. Кроме мифического потанцевала когда он уже нахуй ненужен и тупо сам чип невовозит большо то и нет нихуя.
>то с чего она будет стоить значительно дешевле?
С того чо на данный момент амд это уровень Б во всем. Оно тупо хуже. Так или иначе. Вот и все. И при все при этом я ка человек сидящий на амд платформе не хейчу ее и рад что могу сидеть хотя бы так. И скажу довольно неплохо сидится. Но советовать людям брать карту от амд когда есть по такой же мощности и ценнику невидия это за гранью. То же самое касается процессоров. Амд на данный момент уровень Б и в ней есть смысл когда можно купить то же самое ощутимо дешевле. Все.
Да и еще добавлю я уже год просидел на 2600 + rx 578 и адовых проблем не было у меня которые есть у людей сидящих на амуде. Таких как синьки, черные экраны, зависания, не та память, не те дрова, не тот бивас, не та игра и вот этого всего. И то я таки начал лазать в бивасе от и до изучил настройки драйвера амд итд, и это далеко не в положительном ключе. Когда я сидел на 6400 +550ti я вообще забыл что такое бивас и настройка драйвера.
>Всё ещё ищите декод на амуде? Удачи.
Ну тут подстава конечно. Встройки штеуда могут в ютуб, а рыкса нет. Хотя, возвращаясь в момент покупки, когда стоял выбор между RX580 и GTX1060, я вы всё равно взял рыксу, ибо про потанцевал не соврали.
Неоднозначно. Во многих проектах 1060 будет получше 578, где то похуже. Смотря вот что играешь. А по факту они уже обе не торт. Хоть с потанцевалом, хоть нет.
1750 и 2050 в этом году можно вообще не ждать похоже
> что то хотя бы за 20-25к
Что-то уровня 5600-5500ХТ максимум за эти бабки.
Курс не 60 все же.
Я уже откладываю 60 штук на пигнави
Рядовой Миша отбитый долбоеб. И он либо ЦА Яблока, либо готовых сборочек за оверпрайс. Это модно понять, если ему 40+. Но в остальных случаях нет
>рядовые мантры про плохую АМУДУ
А вот и залётный казачек и спалился.
Обе карты оверпрайс говно и дороже аналогов от кожана. Вот если бы производительность 1660s по цене 1650 у амд, то другое дело, а когда 5600 стоит дороже 1660s и проигрывает вообще везде, с черными экранами и кривыми дровами, это хуйня какая то полная
Кожанка, спок. Забирай своего друга и пиздуйте в свои треды докладывать об очередной победе над "силами зла".
АМД имеет свои проблемы. Это понимают те, кто пользуются этими продуктами. Но это далеко не то говно, каким его называют залётные зелёные (во всех смыслах).
Фанатик спок. Залетный? А может это ты залетный? Я сижу на системе полностью от амуды. И хули ты мне сделаешь? Амд не говно когда оно стоит дешевле конкурента с аналогичной производительностью. Но когда цена одна и та же и челик советует взть амд это дерьмо мимо которого я не смог пройти.
>АМД имеет свои проблемы
И их очень дохуя. Спорить будешь? Че ты хочешь донести то вообще, а? Я свою позицию обосновал, ты че хочешь? Сказать что вместо 1650s надо брать 5500xt?
> >Всё ещё ищите декод на амуде? Удачи.
> Ну тут подстава конечно. Встройки штеуда могут в ютуб, а рыкса нет
На ютубе тем временем все больше роликов в новом AV1, подержка которого не факт что появится даже в амперах. А vp9 который по эффективности как avc+мыльцо потихоньку отправляется вслед за vp8 на свалку истории, ибо в отличии от hevc никому кроме гугля нахуй не нужен. Короче расслабляем булки и готовимся вместе с тютюрями декодить ютаб на проце
какую лучше взять на авито или новую карточку на замену говнища 630 ЖЫТИ 1Гб, чтобы сим4 хотя бы пошел на ай3 профессоре?
присматриваюсь к РХ 470 (но кажется, дорохо) или 750 Ти?
>Мне как рядовому пользователю дико поебать кто так какие чипы производит и у кого там какая архитектура.
То есть ты оцениваешь продукт исключительно по логотипу?
>Одна от невидии лидера и которая подходит под все мои желания описанные выше а вторая от амуды. Стоят одинаково. Нахуя мне амуда?
Ты изначально сформулировал мысль через задницу. Пусть зелёная карта тебя полностью устраивает, но про красную ты ничего не написал. Я ничего не буду за тебя додумывать. Если в магазине я вижу две карты, зелёную и красную, и обе полностью меня устраивают, то я возьму от красных для поддержки конкуренции. Если они не равны, то я внимательнее их сравню и выберу ту, которая несколько лучше.
>Что может предложить амуда кроме ценника?
Мне как покупателю RX 5500 XT она предложила бюджетную карту в очень хорошем исполнении с хорошей актуальной архитектурой, притом вообще не печку. Я не навязываю свой выбор. Если кто-то хочет сэкономить и купить самую дешёвую 1650 super из фанеры с фольгой чтобы потом хвастаться ИТТ соотношением fps/$, пожалуйста, кто же против.
>Нет, все пилиься под невидию
Время обновить сектантские методички. RDNA так устроена, что на ней в принципе хорошо работают игры под Невидию. Архитектура молодая, под неё ещё ничего толком не написали, но она уже хорошо работает здесь и сейчас.
>Привет 5700 без лучей и вот этого всего.
Мда. Я бы послушал твой вой, если бы AMD завезла лучи сразу. Или раздувать чип на дорогом техпроцессе (ряяяя, дорого, AMD должна быть дешёвой!), или резать кэши и ALU (ряяя, где мощща, опять незатащили!). Ну и ещё больше нововведений за один раз, больше всплывёт ошибок (ряяяя, опять дрова плохие, сто лет будут доводить до ума).
>Может удобный стриминг с карты?
Я не стримлю на карте и вообще не стримлю. Что, каждый второй стримит? Нет, меньшинство, которое и без тебя знает, что ему покупать под какие задачи.
>Кроме мифического потанцевала
Если бы ты знал, что такое этот самый полумифический потанцевал видимокарт АМД, ты бы заткнулся и не позорился.
>>693960
>Когда я сидел на 6400 +550ti я вообще забыл что такое бивас и настройка драйвера
Судя по твоим опусам, ты и как думать тоже забыл.
>Мне как рядовому пользователю дико поебать кто так какие чипы производит и у кого там какая архитектура.
То есть ты оцениваешь продукт исключительно по логотипу?
>Одна от невидии лидера и которая подходит под все мои желания описанные выше а вторая от амуды. Стоят одинаково. Нахуя мне амуда?
Ты изначально сформулировал мысль через задницу. Пусть зелёная карта тебя полностью устраивает, но про красную ты ничего не написал. Я ничего не буду за тебя додумывать. Если в магазине я вижу две карты, зелёную и красную, и обе полностью меня устраивают, то я возьму от красных для поддержки конкуренции. Если они не равны, то я внимательнее их сравню и выберу ту, которая несколько лучше.
>Что может предложить амуда кроме ценника?
Мне как покупателю RX 5500 XT она предложила бюджетную карту в очень хорошем исполнении с хорошей актуальной архитектурой, притом вообще не печку. Я не навязываю свой выбор. Если кто-то хочет сэкономить и купить самую дешёвую 1650 super из фанеры с фольгой чтобы потом хвастаться ИТТ соотношением fps/$, пожалуйста, кто же против.
>Нет, все пилиься под невидию
Время обновить сектантские методички. RDNA так устроена, что на ней в принципе хорошо работают игры под Невидию. Архитектура молодая, под неё ещё ничего толком не написали, но она уже хорошо работает здесь и сейчас.
>Привет 5700 без лучей и вот этого всего.
Мда. Я бы послушал твой вой, если бы AMD завезла лучи сразу. Или раздувать чип на дорогом техпроцессе (ряяяя, дорого, AMD должна быть дешёвой!), или резать кэши и ALU (ряяя, где мощща, опять незатащили!). Ну и ещё больше нововведений за один раз, больше всплывёт ошибок (ряяяя, опять дрова плохие, сто лет будут доводить до ума).
>Может удобный стриминг с карты?
Я не стримлю на карте и вообще не стримлю. Что, каждый второй стримит? Нет, меньшинство, которое и без тебя знает, что ему покупать под какие задачи.
>Кроме мифического потанцевала
Если бы ты знал, что такое этот самый полумифический потанцевал видимокарт АМД, ты бы заткнулся и не позорился.
>>693960
>Когда я сидел на 6400 +550ti я вообще забыл что такое бивас и настройка драйвера
Судя по твоим опусам, ты и как думать тоже забыл.
https://www.youtube.com/watch?v=kjoPB74iU1g
В рекомендуемых вообще GTX 650 указана, так что не о чем беспокоиться.
Я бы не брал на авито всё на чём можно майнить (полярисы паскали).
Твой пост больше похож на оправдание амд.
> Я бы послушал твой вой, если бы AMD завезла лучи сразу
Я вот, наоборот, надеялся, что амд лучи на 5700(ХТ) таки завезет. Хоть и в таком же поганом исполнении, как на паскалях. Я хотя бы просто глянуть хочу как оно вживую выглядит, чтобы решать надо оно мне или нет.
Теперь придется Pig Navi брать.
Другой анон
Пчел, ратрас будет на универсальных ядрах чуть позже, но без доплаты и лучшего качества.
Хули вы тут все дети такие, физик и волосы ничему не научили? А карты для физики отдельные? Хочешь спец карту покупать для лучей отдельную?
> физик
Охуенная технология убитая проприетарностью невидии, хотет современных игр с ней.
> волосы
Тоже самое, заебало уже на пластмассу или солому смотреть.
> А карты для физики отдельные?
ИМХО, жду отдельных карт для апскейлинга.
комп i3-2140, 8gb@1333 DDR3, 1 hdd, 1 ssd, видяха какое-то полное говнище 512мб, даже цифры не запомнил
думаю купить термопасту 240 р для бурста профессора
вк: 1030 за 5000р (прирост в убер-дойчланд-бенчах +400% от моей), или 1050ти за 10000р (прирост в бенчах +850%)
или рх550 4гб (прирост +300%) за 6500р?
хочу брать новое в днс или ситилинке, а не с рук абычто+в мусохрании выбор особо не велик, а в райцентр гонять ради кота в мешке, пусть лучше переплачу
склоняюсь больше в 1050ти, на ней 4 гига, а не 2 и на крайняк будет запасная нормальная карта, если моя 2070с полетит или вдруг продам в ожидании поставки новой 3090супер ТИ
+думаю, стоит ли менять блок питания, которому уже 6 лет и он какой-то ноунейм 450вт на какой-нибудь чифтек 300-350вт за 2500рупий, но с сертификатом?
>AV1
что это? впервые слышу
на нем есть видео в 4к? дай ссылку на такое видео, хочу посмотреть как проц загрузит
>Архитектура молодая, под неё ещё ничего толком не написали, но она уже хорошо работает здесь и сейчас
бля, вот этой строчки охуел.
нвидия архитектуру меняет каждый год и никто не удивляется что она работает, хотя под нее еще ничего не написали
Плохо ставил, аш264ифай норм работает, на сам плагин пробовал нажимать, галочку ставил енейбл? После того как установил закрой бровзер и опять открой.
Можешь через mpc be пробовать открывать Ютуб ссылки
нормально я ставил и галочка была, может дело в ЯндексБраузере конечно, пробну в другом
ну раз в 6 лет, думаю, термопасту сменить не помешает
>То есть ты оцениваешь продукт исключительно по логотипу?
Мне дико поебать что там нарисовано на логотипе, зеленое или красное, пускай там хоть коричневое будет. Я оцениваю продукт по удобству, мощности и безпроблемности. Невидия это дает, амд нет. А если карты по мощности примерно = и стоят одинаково, то зачем мне брать вместо лидера вечную бета контору?
>Если в магазине я вижу две карты, зелёную и красную, и обе полностью меня устраивают, то я возьму от красных для поддержки конкуренции.
Твоя пацанская воля, че. Я вот не готов ради поддержки отстающей компании брать их продукт и страдать потом.
>Мда. Я бы послушал твой вой, если бы AMD завезла лучи сразу. Или раздувать чип на дорогом техпроцессе (ряяяя, дорого, AMD должна быть дешёвой!), или резать кэши и ALU (ряяя, где мощща, опять незатащили!). Ну и ещё больше нововведений за один раз, больше всплывёт ошибок (ряяяя, опять дрова плохие, сто лет будут доводить до ума)
На все это мне дико похуй как рядовому пользователю. По факту технологии нету и все. А че там как это не мои проблемы.
>Я не стримлю на карте и вообще не стримлю.
Это ты не стримишь. А многие стримят и даже если не стримят то имеют такую возможность по дефу в нормальном качестве сделать итд итп. У амд это все из говна и палок и работает супер хуево и супер нестабильно впрочем как и всегда.
Короче, че ты хотел сказать то? Невидия лучше амд это будет отрицать только дурачек. Хочешь брать 5500xt бери, но не надо орать что амд лучше. Хуже оно блять, почти во всем.
Последний раз я видел физикс в Borderlands 2 и Alica Madness returns.
Как так он во все движки встроен?
> Как так он во все движки встроен?
PhysX in other software
Unreal Engine game development software by Epic Games.
Unity (game engine) by Unity ApS.
И вообще физикс сейчас свободный sdk
Атлон 200GE (процессор со встройкой) + 2x4 DDR4 + дешёвая мать на А чипсете как раз обойдутся в 10к в днс.
И вообще как он справляется с браузингом?
Однако будущие модели на архитектуре RDNA 2 будут поддерживать всё
Microsoft опубликовала список видеокарт, которые будут поддерживать все функции DirectX 12. Согласно этому списку, актуальные модели AMD не полностью совместимы с современной игровой графикой.
Полностью совместимы видеокарты серий GeForce RTX, RDNA 2 и Intel HPG. А вот GeForce GTX и современные модели AMD не поддерживают Ultimate-функции под новым уровнем Feature Level 12_2, например Mesh Shaders и VRS.
Mesh Shaders, в частности, предоставляет разработчикам больше контроля над тем, как программа взаимодействует с графическим процессором. Variable Rate Shading (VRS) позволяет разбивать картинку на экране на зоны и рендерить их с разной степенью детализации. Так системные ресурсы направляются туда, где они больше всего нужны.
Также в рамках новых функций для DirectX 12 под уровнем Feature Level 12_2 реализованы технологии DirectX Raytracing и Sampler Feedback. В целом, на сегодня совместимостью с DirectX Feature Level 12_2 обладают только видеокарты GeForce RTX и Quadro RTX.
На авито.
Опять блекскринит или что?
> на нем есть видео в 4к?
Тут есть https://www.youtube.com/playlist?list=PLyqf6gJt7KuHBmeVzZteZUlNUQAVLwrZS
Старый плейлист, сейчас уже большинство популярных роликов/клипов есть в av1, но иногда надо принудительно форсить чтобы тытруба их выдала
Пиздец какие дауны в треде сидят. Советует Антоу продать вегу и купить 5500/5600. Ты совсем еблан конченый?
Даже обрубок веги 56 sapphire pulse. С простым андервольтом идёт абсолютно в ровень с 5600xt(у которых распердоленый биос?) при этом вега даже не шитая в 64 и не разогнаная и имеет 8гб памяти.
Цена веги в лучшем случае 15к на авито, а 5600xt почти 30к стоит.
Нахуй таких советчиков. Мимо имею вегу 56 и 2070 с.
Вегу имеет смысл менять хотя-бы на 2070с, потому что доплачивать в любом случае не мало. У красных вообще сейчас нет карты на которую имеет смысл менять вегу, 5700/xt хоть и мощнее но без лучей, а разница в производительности сейчас не имеет смысла, вега практически везде выдаёт 60+кадров еа ультрах. Менять надо либо на топ rdna2 когда выйдет либо на 3000 серию зеленых
Вот, тест который показывает что 5600xt и vega 56 фактически идут в ноздря в ноздрю, правда в rdr2 вега немного ебет из за асинхронки
Только тут uw в 1440p.
https://youtu.be/ULCstu-2hM0
он так же загружает видеокарту декодингом. проц почти не нагружает
выходит видяха и эту хуйню аппаратно декодирует, ну или это наебка и в этом плейлисте 4к на вп 9
Пкм на видео - статистика для сисадминов и смотри на кодек. На трейлере Halo там точно должно быть 4k60 av1 если у тебя последний хромоногий броузер
А, шоб было AV1 надо фулашди ставить
Какая же ютуб параша, смотрю halo avc1 в 1080p60 на 1440p и он без всяких ав1 смотрится ебически чётким, включаешь любое другое 1080p видео на ютубе — квадрат на квадрате.
+2мб вот так экономия канала.
>>695552
>>696042
>>696212
Это давно уже ввели, для экономии места так сказать. AVC1 для непопулярных видосов, VP9 для набравших хотя бы 1000 (так было раньше по крайней мере) просмотров либо залитых хотя бы в QHD разрешении. Да да 1080 и всё что ниже идут лесом и получают отвратительное качество, если только не заливать с избыточно высоким битрейтом в 30 кадров.
> для экономии места так сказать
Где ты видишь экономию места, если vp9 и av1 весят одинаково?
Для нас одинаково, для ютуба они пиздецки сжатые, и vp9 версия может быть предоставлена, в случае если видео выстрелит, на протяжении полугода.
ну ХЗ 1080р видел и качественные ролики.
зависит скорее от камеры или как его рендерили, я ХЗ.
есть 1080 чисто мыло как будто апскейл 720р, а есть 1080р которое от 4к почти неотличимо.
а вт 4к режут конечно очень часто
Ясно, держи в курсе.
Я уже написал от чего зависит, популярность + меньше частота кадров, т.е. не 60 а 50 фпс или 30, чем меньше фпс тем выше может быть битрейт в угоду качества картинки.
>лучшем симе всех времен и народов на овер 10000 часов
>майкрософт флай симулятор
Это какой то пакет для офиса что ли?
В том году купил 5700хт Нитро+ за 27к.
Сперва личное наблюдение по своим файлам, затем загуглил в ютубе, как бы это не звучало, и там давно уже всё разжевали.
нихуя ты шелок колмс
В Ведьмаке 2 режется производительность, ГПУ загружен на 60-70%, при это ФПС проседает до 40.
Проц тоже далековат от максимальной загрузки.
Пробовал разные настройки, даже вообще выгружал Радеоновскую приблуду.
Вега 56/6700
При этом в Фурмарке, например, все заебись.
Гуглить пробовал, но везде только советы, как улучшить произодительность на слабом пека, а мой и третью часть должен прекарасно тянуть.
Такая хуйня после патча под макось, ищи ранние версии игры, там всё нормально
>>697098
>>697106
https://steamcommunity.com/app/20920/discussions/0/2639605881178024939/
Поискал в обсуждениях "gpu utilization" и нашел эту хуйню, помогло.
Опять какая-то очевидная фигня решаемая установкой стабильных дров или отключением напердоленных настроек в MSI Afterburner или что-то такое.
Во первых, амд картами нельзя пользоваться в стоке, там вольтаж дико завышен с завода, тебе надо карту андервольтнуть, подобрать частоту и вольтаж для твоего чипа, померлимит, выставить кривые кулеров и сохранить этот профиль. Потом загружать при необходимости.
Ну епт, любой чип практически можно андервольтнуть, хоть штеуд хоть новидео. Производитель заранее подстраховывается чтобы все чипы даже самый хуевый нормально работали. Такой чип и разгоняется лучше, берёт более высокие частоты на меньшем вольтаже.
В случае с амд возможно дело ещё и в том, что как объяснял анон в этом итт треде, архитектура GCN больше подходит под вычисления, а графическая нагрузка в типичной игре никогда не грузит чип и все его блоки полностью, соответственно он хорошо поддаётся андервольтингу.
просек
Как так вышло и почему, 5600xt с распредолеными биосами сливает в rdr2 веги 56. Которая блять в стоке.
Это я даже молчу про простой андервольт вег, у которых при снижение p7 с 1200мв до хотя бы 1050мв рост производитености от 8 до 10%. (кста это самый сильный буст от простого uw на моё памяти, даже 480-580 рыкса так не бустились от uw) с ним вообще разрыв.
А ведь ещё и разгон есть и прошивка в 64,но это уже немного экстрим ок.
Но простой uw доступен на любой веге, по крайней мере я не встречал исключений.
И память спокойно берет 920(по крайней мере на 3 самсунгах не было никаких проблем, хуюникс не гнал)
Паскаль не меньше 50 ват жрёт в простое. Что на это скажет Хуан?
ты тредом ошибся.
> любой чип практически можно андервольтнуть
хе-хе, у меня 590 вообще не поддается андервольту, стоит только на самый децл занизить напругу - начинаются вылеты в игорях. проиграл в лотерею, видимо
11289-09-20G сапфир нитро, без понятия какая это партия
>Я вот, наоборот, надеялся, что амд лучи на 5700(ХТ) таки завезет
Программно, как на Паскалях, ХЗ, а аппаратно не завезли вполне справедливо. Во-первых, RDNA по сравнению с GCN требует раздувания управляющей логики и кеша. А кеш реализуется памятью SRAM, чудовищно быстрой, но значительно более громоздкой, чем DRAM. Как следствие, всё это хозяйство занимает много места на чипе. Число ALU и так пришлось значительно сократить, а если добавлять аппаратный рей-трейсинг, то чип ещё сильнее раздуется на самом дорогом техпроцессе. В итоге получаем удорожание видеокарт при буквально том же уровне производительности в 95% случаев на сегодня. Сами же будете выть про "AMD зажрались".
Во-вторых, вполне понятно желание не валить все новые технологии разом в кучу, а обкатывать их постепенно. Сперва обкатали 7-нм техпроцесс на старой архитектуре (Radeon VII), затем обкатали новую универсальную архитектуру (RDNA), а далее будут испытывать уже рей-трейсинг в дополнение к ней. Это как тик-ток у Интел. Кожанка так и поступил: очень зрелый техпроцесс (12 нм - фактически улучшенный 16 нм, а тот вырос из 20 нм) и переделка архитектуры Паскалей.
>>695557
>нвидия архитектуру меняет каждый год и никто не удивляется что она работает, хотя под нее еще ничего не написали
Невидия может себе позволить постоянно перерабатывать архитектуры, тратя на это значительные средства, и добиваться наилучшего результата здесь и сейчас. Но вместе с тем её стремление приспособиться к текущим API приводит к быстрому устареванию карт в случае, если эти самые API серьёзно меняются, что мы и видим сейчас.
>Я оцениваю продукт по удобству, мощности и безпроблемности. Невидия это дает, амд нет.
>Хуже оно блять, почти во всем.
>без проблем и вот это вот все и при этом давать мне хороший фпс в играх везде и всегда
>Одна от невидии лидера и которая подходит под все мои желания описанные выше а вторая от амуды.
>на данный момент амд это уровень Б во всем. Оно тупо хуже. Так или иначе. Вот и все.
Тонны воды и рекламных обобщений. По делу тут и разбирать нечего. Что такое "мощность"? Если тепловая, то брать нужно 28-нм GCN, отопление квартиры круглый год. Если нет, то как анализировать производительность? Отношение fps на ватт, на миллион транзисторов, на доллар, на число ALU? И fps в каких играх на каких API? Что имеется ввиду? "Почти во всём, без проблем, оно тупо хуже, категория Б" - это оханья и аханья.
>А если карты по мощности примерно = и стоят одинаково, то зачем мне брать вместо лидера вечную бета контору?
Если карты примерно равны по мощности и по исполнению, если дрова у тебя будут нормально работать что красные, что зелёные, то AMD смогла выпустить хороший конкурентный продукт, а не второсортную ерунду. Но почему такой продукт должен стоить значительно дешевле? Напомню, когда вышла HD 7970, это была самая дорогая видеокарта в истории Radeon, потому что это был первоклассный продукт.
>Это ты не стримишь. А многие стримят
Многие - это сколько? 70% владельцев видеокарт? Можно ли сказать, что доля рынка Radeon упёрлась в процент стримеров? И если нет, к чему это пустопорожнее рассуждение?
>В случае с амд возможно дело ещё и в том, что как объяснял анон в этом итт треде, архитектура GCN больше подходит под вычисления, а графическая нагрузка в типичной игре никогда не грузит чип и все его блоки полностью, соответственно он хорошо поддаётся андервольтингу.
GCN хронически недогружается в играх и страдает от высоких задержек, поэтому единственный способ поднять производительность - это тупо увеличивать тактовую частоту и напряжение, то есть разгонять. У RX 400 жор вполне умеренный, 75/120/150 ватт, если я правильно помню, то есть на уровне GTX 1050/1060/1070. А вот как пошли на RX 500 разгонять, тогда жор и попёр.
Чувак я уже понял что ты тупой фанатик иди нахуй, плез.
>Тонны воды и рекламных обобщений. По делу тут и разбирать нечего. Что такое "мощность"? Если тепловая, то брать нужно 28-нм GCN, отопление квартиры круглый год. Если нет, то как анализировать производительность? Отношение fps на ватт, на миллион транзисторов, на доллар, на число ALU? И fps в каких играх на каких API? Что имеется ввиду? "Почти во всём, без проблем, оно тупо хуже, категория Б" - это оханья и аханья.
Начались козыря в виде прикидывания дурачком и доеб до слов. Итак понятно про что речь, про выдаваемый фпс в играх и комфортный шейминг без статеров без не тех игр итд. Амд этого полноценно не дает. Невидия даяет. Пошел нахуй.
>Если карты примерно равны по мощности и по исполнению, если дрова у тебя будут нормально работать что красные, что зелёные, то AMD смогла выпустить хороший конкурентный продукт, а не второсортную ерунду. Но почему такой продукт должен стоить значительно дешевле? Напомню, когда вышла HD 7970, это была самая дорогая видеокарта в истории Radeon, потому что это был первоклассный продукт.
Если, если, если. Если да кабы, слышал такое? Если бы у бабушки был хуй она бы была дедушкой.
>Многие - это сколько? 70% владельцев видеокарт? Можно ли сказать, что доля рынка Radeon упёрлась в процент стримеров? И если нет, к чему это пустопорожнее рассуждение?
Нинужно!!! Так и запишем.
Че ты хочешь то ты заебал?
Обхясняю на пальцах. Я не хейчу амд, ясам собрался в 2019 году на амд полностью и доволен на 4- из 5 этой системой.
Амд это компания номер 2 и ее преимущество всегда было в цене. Что с интелом что с невидией. И если продукт от невиди и амд между собой равен и внимание стоят одинаково я возьму невидия потому что амд в этом случае ненужно, так понятно? То же самое с процессрами. Даже если они сейчас они выпустят продкут реально крутой и лучше конкурента, то доказать это еще людям нужно будет, за что такой ценни и что оно реально лучше или как минимум не хуже конкурента. И это нужно сделать во всех сферах. Начиня от железки и заканчивая сфотом и вот этим всем. На данный момент амд этого не достигла. А ты пошел нахуй. Больше я базарить с фанатиком не буду.
Чувак я уже понял что ты тупой фанатик иди нахуй, плез.
>Тонны воды и рекламных обобщений. По делу тут и разбирать нечего. Что такое "мощность"? Если тепловая, то брать нужно 28-нм GCN, отопление квартиры круглый год. Если нет, то как анализировать производительность? Отношение fps на ватт, на миллион транзисторов, на доллар, на число ALU? И fps в каких играх на каких API? Что имеется ввиду? "Почти во всём, без проблем, оно тупо хуже, категория Б" - это оханья и аханья.
Начались козыря в виде прикидывания дурачком и доеб до слов. Итак понятно про что речь, про выдаваемый фпс в играх и комфортный шейминг без статеров без не тех игр итд. Амд этого полноценно не дает. Невидия даяет. Пошел нахуй.
>Если карты примерно равны по мощности и по исполнению, если дрова у тебя будут нормально работать что красные, что зелёные, то AMD смогла выпустить хороший конкурентный продукт, а не второсортную ерунду. Но почему такой продукт должен стоить значительно дешевле? Напомню, когда вышла HD 7970, это была самая дорогая видеокарта в истории Radeon, потому что это был первоклассный продукт.
Если, если, если. Если да кабы, слышал такое? Если бы у бабушки был хуй она бы была дедушкой.
>Многие - это сколько? 70% владельцев видеокарт? Можно ли сказать, что доля рынка Radeon упёрлась в процент стримеров? И если нет, к чему это пустопорожнее рассуждение?
Нинужно!!! Так и запишем.
Че ты хочешь то ты заебал?
Обхясняю на пальцах. Я не хейчу амд, ясам собрался в 2019 году на амд полностью и доволен на 4- из 5 этой системой.
Амд это компания номер 2 и ее преимущество всегда было в цене. Что с интелом что с невидией. И если продукт от невиди и амд между собой равен и внимание стоят одинаково я возьму невидия потому что амд в этом случае ненужно, так понятно? То же самое с процессрами. Даже если они сейчас они выпустят продкут реально крутой и лучше конкурента, то доказать это еще людям нужно будет, за что такой ценни и что оно реально лучше или как минимум не хуже конкурента. И это нужно сделать во всех сферах. Начиня от железки и заканчивая сфотом и вот этим всем. На данный момент амд этого не достигла. А ты пошел нахуй. Больше я базарить с фанатиком не буду.
> Программно, как на Паскалях, ХЗ
Да хоть так.
Мне бы хватило 30 кадров побегать в чем-нибудь и посмотреть нравится оно мне или нет.
Вон тебе амперы выкатывают с DLSS 3.0
Это снова я. Ебался с картой несколько дней, тестил по несколько часов в играх и фурмарке, там было все норм. Потом решил слегка разогнать вентиляторы для майнинга и, о чудо, вылеты прекратились. Сутки компьютер работал, я периодически проверял температуру в по AMD, а потом решил открыть аиду и чекнуть че там по датчикам и, сука, температура памяти была 96 градусов. Это вообще нормально?
Пришли мне железки, и я подключил свою карту в материнку B550 Aorus elite. Всё заработало! Установил дрова на карту и всё работает замечательно. Страх был в том, что впервые заказывал железо на CU, и боялся что придёт нерабочая видеокарта, а для проверки был на тот момент только старый комп
Предполагаю что проблема была в недостаточном питании карты через материнку.
Спасибо вам, аноны. Надеюсь хоть кому-то мой опыт будет полезен.
Там же дх9, а нави хуево с ним работают, есть патч специальный, который в вулкан переделывает дх9, в папку с игрой кидаешь файлик и всё.
https://www.youtube.com/watch?v=w7Zvbs9SDqE
AMD выкатила нечто странное. По памяти RX 5300 слабее GTX 1650, по чипу быстрее, по аналогии с RX 5500 XT и GTX 1650 super.
Странный заменитель. TDP слишком высокий, хотя и сам чип (не считая памяти) очень мощный для своего класса.
Была похожая хуйня, что я тебе скажу, друг, амд карты - полная хуйня, продавай этот кал, пока он хоть чего-то стоит и найдется лох, который это купит , и покупай кожанкина.
Меня производительность пока устраивает. Покупать сейчас вк перед выходом новых моделей даунизм.
> Меня производительность пока устраивает. Покупать сейчас вк перед выходом новых моделей даунизм.
Ты собираешься с 588 пересесть на 3080 или что? Очень сомневаюсь, а ждать бюджетные модели амперов очень долго + даже на старте они будут овепрайс. .
Этот даунёнок наверно ждёт пиг нави, очерединой обсёр амд, интересно, что теперь нового придумает Лиза, чтобы их фанаты страдали от юзерэкспириенса их подделия.
В апексе есть читеры?
Просто откатись на 20.2.2 или 20.4.2 и сиди на жопе ровно, куда ты лезешь?
>Чувак я уже понял что ты тупой фанатик иди нахуй, плез.
Кроме последней пеки всю жизнь сидел на Intel начиная с Pentium III, почти все видеокарты были от Nvidia, начиная с GeForce 2. На чисто красной сборке сижу считанные дни, но уже фанатик. Ладно, фанатик так фанатик.
>Если, если, если. Если да кабы, слышал такое? Если бы у бабушки был хуй она бы была дедушкой.
Я повторяю свой вопрос: почему AMD должна продавать конкурентный продукт задёшево, если он конкурентный, а не так давно компания 4 года подряд была в убытках? На НИОКР нужно накопить, иначе после Ryzen и RDNA будет очередной посос, который навредит рынку и лично тебе, жадному дебилу.
>Амд это компания номер 2 и ее преимущество всегда было в цене.
Не всегда. Сперва с легендарными Атлонами, а затем на старте GCN AMD рубила бабки только так. Добро пожаловать в капитализм. Если продукт можно продавать дороже, он будет стоить дороже.
>И если продукт от невиди и амд между собой равен и внимание стоят одинаково я возьму невидия потому что амд в этом случае ненужно, так понятно?
Понятно, что на вкус и цвет все фломастеры разные. Если перед тобой два, как ты написал, равных продукта за одинаковый прайс, но ты выбираешь только один из них, это называется религия. Не усирайся со своей и уважай чужую.
>Вентиляторы под нагрузкой снижают обороты
>Но рх588 в исполнении асус рог один из лучших среди рх580
>Эта фсьо амуда виновата
Да понял, я понял.
Алсо, вот чисто мой опыт, сколько ни смотрел асусы, у них всегда неоч отзывы на вк, а стрикси/роги ни одного нормального не находил, везде все плюются и хуесосят это говно.
У меня сгорела рх478 через два года после покупки в исполнении хвалёного и якобы топового вендора для амд Сапфир Нитро+, который в нагрузке держал 112 градусов на врм и 78 на гпу и у которого радиатор в два раза меньше и уже, чем на асус рог. Потом я ещё столкнулся с топовейшей поддержкой Сапфира и выяснил, что Сапфир не авторизирует СЦ и эти пидоры сами что хотят то и творят ремонтируя видеокарты, которые подлежат списанию. Так что не надо тут рассказывать про хуёвый Асус.
Итак, господа амудешники, предлагаю поднять на повестку дня фиксы vsync'a от амуде, окромя freesync.
Крч, есть моник без фрисинка, хочу, чтобы задержек и микрофризов не было на 60 герцах, что мне включать?
Ant-Lag? Enhanced Sync? Еще что-то? Все сразу?
Вангую тут большинство с таким же говном вместо монитора сидит, давайте разберемся.
Как вообще апекс поживает спустя полтора года? Если сейчас вкачусь сильно буду сосировать?
У меня жижа, та же версия дров, no issues.
> хочу, чтобы задержек и микрофризов не было
Стандартный профиль, всё поотключай. Антилаг работает только когда видимокарта загружена на 100%, и косит всего несколько милисекунд задержки.
Enhanced Sync говно, вообще не нашёл ему применения.
Если хочешь больше плавности и меньше потери кадров, но нет фрисинка — тройная буфферизация OpenGL твой выбор.
Кста, >>699749
> Антилаг работает только когда видимокарта загружена на 100%, и косит всего несколько милисекунд задержки.
Если мои игры (симуляторы) грузят видеокарту на 100% есть смысл оставить включенным? Я к тому, что профит от антилага только в шутерах и подобных играх?
>Адреналин опять перестал видеть доступные обновления
amdcleanuputility из безопасного режима, и установи стабильные названные выше версии дров, любую на выбор.
>грузят видеокарту на 100% есть смысл оставить включенным
>игры (симуляторы)
Всё ещё влияет на отызвчивость, но ощутимо только в онлайн шутанах. На твоё усмотрение, но я бы выключил.
И еще вопрос про Глубину цветопередачи. При цветовом формате YCbCr появляется возможность выбрать 10 брс. При формате RGB только 8 брс (ну и говнопомойный, дупогорелый 6 брс). Суть вопроса: так ли важен этот 10 брс, если его можно выбрать только на YCbCr, который хуже чем RGВ?
Да, на 90%.
Да нормально поживает. ТТК уменьшили в последнем обновлении. Если будешь опять играть, то заходи в рейтинговые игры, там будешь играть с такими же по скилу игроками.
https://ru.wikipedia.org/wiki/SRAM_(память)
Очень быстрая энергозависимая память, которая занимает места гораздо больше, чем более медленная DRAM, используемая в ОЗУ. Из SRAM набираются кеши в CPU и GPU. Если как-нибудь посмотришь на схемы современных чипов в масштабе, то увидишь, что собственно вычисляющие блоки очень небольшие, зато обвязка у них будьте здоровы.
На пике Ryzen 5 PRO 4650G с порезанным кешем. Слева Кеш L3 занимает места столько же, сколько целое ядро включая кеши L1 и L2. Справа видно, какую малую часть в GPU занимают 64 ALU двумя блоками и скалярный блок. У Navi кеша ещё больше.
понял, просек фишкарь
Чето слишком много карт. Года два или три назад народными картами были рх570-580 и 1060.
Какие современные аналоги этих карточек? Фиг проссышь в этих ваших 1650-1650ti-1650super.
У тебя же написано следы бу? Купил майнинг говно и бомбит лол.
Как владелец огромного количества карт и использующий в данный момент радик 7 в нейронках и 2070с для Игорь.
Смело заявляю, сапфир самый топовый производитель вообще среди всех карт. У кожанки нет ничего подобного, да они могут иногда обосраться в том 5700pulse, и тех поддержка почти бесполезная.
Но это мастер пис качество исполнения , и тут дело не в том что сапфир дело супер качественно. Нет они просто делают хорошо, так как и должно быть сделано . Просто остальные такое гавно блять делают, что по хорошему их судить должны за это. Топ говна это асус, особенно у красных со своими стриксами, такая хуета вообще не должна выпускаться в продажу и сливаться на уровне контроля качества. Гига чуток лучше оьычнр, так же постоянно делает говно, но оно хотя-бы может работать.
но вот в чем проблема, нет ни у гиги, асус, msi, серии карт хоть красных или зеленых, которую ты купил хоть и значительно дороже, но исполнение точно будет качественным во всех аспектах. Нет сука, там всегда всё через жопу, даже в самых дорогих версиях имеется овер дохуя критических проблем.
По факту лишь powercolor, свой red devil периодически выпускает ещё пизже нитро+, это топ жир. Да бывает иногда исполение не лучше нитры, но охлад всегда будет на ступень выше.
Xfx вообще куски говна, понятия не имею какого хуя они в шапке, это кал уровня стрикса.
Kfa не могу ничего сказать, ни разу не решился брать.
Palit говно конечно, но обычно явно лучше гиги и ануса
> дело не в том что сапфир дело супер качественно. Нет они просто делают хорошо, так как и должно быть сделано
За столько лет-то научились. Они же, ЕМНИП, с самого начала эксклюзивно только Radeon делали?
> радик 7 в нейронках
Я тупой. Поясни, разве для нейронок кожанка не лучше?
> Топ говна это асус, особенно у красных со своими стриксами
Анус априори говно, согласен.
> Гига чуток лучше оьычнр, так же постоянно делает говно, но оно хотя-бы может работать.
Если они начнут, блджад, нормальные вентиляторы в карты ставить, то будет топ в среднебюджетке.
Ага.
Добро пожаловать снова. Амд экспириенс. А то что хотел то? Ты думаешь оно просто так дешевле невидии стоит? Или ту думаешь амд добрая компания для нищих двачеров? Карты надо брать только от гойвидии.
1660s похоже одна
Амд высрала оверпрайс говно 5500xt, которая дороже 1660s и наверное ни в одной игре не выдает фпса больше.
>У тебя же написано следы бу? Купил майнинг говно и бомбит лол.
Баран, я её из магазина брал новую, а это описание видеокарты при приёме по гарантии. Ещё раз, у меня сапфир нитро+ наебнулся, а товарища рх478 нитро+ наебнулся и начал артефачить. На канале Майнеры в носках полно сапфиров. Сапфир такое же говно как и все, только чуть лучше всяких обосраных померколоров и гигабайтов. Но единственные карты, которые не прогорают в 99% случаев это сапфир и асус.
Ах да, забыл ещё упомянуть "отличные" термопрокладки у сапфира, которые обтекали жиром и лепили на себя всю грязь, после чего и коротнуть могло из-за жировой пыли.
Я просто не буду упоминать про охуительные термопрокладки на пасралях, которые У ВСЕХ НАХУЙ текли
>Palit говно конечно, но обычно явно лучше гиги и ануса
Последний радевон от Палит вышел лет 10 назад, лол.
И да, что не так с 5700 пульс?
Да.
GTX 1650 super, RX 5500 XT 4gb и GTX 1660.
>>701187
Это касается только версии на 8 гигов, на неё цены действительно неадекватные. Вангую, из-за того, что её скупают майнеры. Когда я узнал у продавца в одном магазине, что у них RX 5508 XT скупают на майнинг, то изрядно охуел. Вот тебе и игровая архитектура.
За сапфир согласен, сам недавно взял сапфировскую карту и очень доволен исполнением.
>Palit говно конечно, но обычно явно лучше гиги и ануса
Не согласен, Palit делает хорошие карты за свои деньги. Не зря советуют покупать карты у фирм-специалистов. Сапфир делает только красные карты, а Палит зелёные. Это не всякие универсалы вроде Ануса, которые могут себе позволить завалить одну линейку продуктов и всё равно отбить бабки на другой.
Это касается KFA и Powercolor. Да, KFA совсем простые, но на спичках не экономят, лучше за такие деньги ничего нет.
>У меня Postal 2 иногда тормозил на Ryzen 5 + GTX 1050, невидия не спасла.
А ты уверен что виновата 1050, а не пузен 5? И даже если представить что тормозило из за невидии. Ты же не будешь отрицать что амд таких случаев гооораздо больше и они боле критичные, просто потому что под невидии оптимизон всегда как под лидера и вот это вот все? Или тоже бред написал? Ты осознаешь что такое лидер со всеми вытекающими из этого?
>А ты уверен что виновата 1050, а не пузен 5?
Каким образом может быть виноват процессор? Может, драйвера на него плохие? Или инструкции, которым около 40 лет, в прошлом месяце поменяли? Ларчик открывается очень просто: старые игры попросту не умеют использовать все возможности современного железа. Единственный грех разработчиков - отсутствие машины времени. Даже одно ядро Райзена избыточно мощное для Postal 2 или тем более HL1.
>просто потому что под невидии оптимизон всегда как под лидера и вот это вот все?
То есть раз Невидия лидер, то в 2003 году игры оптимизировали под GTX 1050? Напомню, CUDA-ярда на рынке появились году в 2008, если память не изменяет. Многие старые игры действительно лучше работают на картах Невидии, потому что GCN и вслед за ним Navi никогда не славились хорошей поддержкой Dx9. Но это явно не про первый HL.
Алло, где перекат, уебки?
зачем ты с ку заказывал? ты нарко?
Пиздос. Не ну это сразу -10% к FPS.
>перекат
Ещё #93 не утонул, этот тоже не торопится. Ну что он даст? Тред будет подниматься во время постинга, но кто ищет треды таким способом, и сможем ли мы переплюнуть пузенотред? У нас всё по тегам. Пускай тонет потихоньку.
Анонцы пускай пока напишут что сколько стоит и к какому сегменту относится.
Деды воевали, а ты теперь у нациков покупаешь!
> рад
Главное чтоб работала. Боковуху мона вообще не трогать. Либо оче аккуратно выгнуть обратно(если руки не из жопы_).
Лол у меня такой выбор.
На одном стуле РХ580/8
На другом 1060/6
Меня удивляет как Рыкса жрет 185 Ватт, более технологична, +2 гига памяти, при этом сливает существенно во всех игрушках 1060 - которая жрет 120 Ватт, едва греется, менее технологична, и имеет меньше памяти.
Ах и сейчас все 580 пушкой выстрелили +20-25-30 долларов. Что за нахуй случился? Лол уже в мой бюджет только стремные влазят. А 1060 в покое, хоть МСИ, хоть Палит, хоть Гига.
3070 за 500 долларов, которая быстрее 2080Ти.
АМД нечем крыть это. Тупо нечем.
>АМД нечем крыть это. Тупо нечем.
Ну почему же, если слухи не пиздят и Нави 22 будет иметь производительность 2080ТИ по цене 5700/ХТ — то будет неплохо.
>Меня удивляет как Рыкса жрет 185 Ватт, более технологична, +2 гига памяти, при этом сливает существенно во всех игрушках 1060 - которая жрет 120 Ватт, едва греется, менее технологична, и имеет меньше памяти.
https://pastebin.com/wakPaCDi
Паскаль для игр довольно удачен, не зря Navi местами очень похожа на него.
>Ах и сейчас все 580 пушкой выстрелили +20-25-30 долларов. Что за нахуй случился?
Майнинг. Только RX 5504 XT пощадили, всё остальное гребут.
Нет.
1660c - стоит в джва раза дороже.
1650с - стоит немного дороже (20-30 долларов, в зависимости от пары) и при этом проигрывает 1060/6.
Вообще надо на Ампер перекатываться. Я приторможу покупку до октября-ноября и будут усиленно мониторить б/у рынок. Заодно и бюджет подниму.
>1650с <...> проигрывает 1060/6
Никак нет. Где-то они равны, где-то 1650s даже мощнее. При всех плюсах Паскали очень посредственно поддерживают асинхронные вычисления, а это реалии новых игр.
Если нет денег на 1660s, бери RX 5500 XT или 1650s.
Классная статься, спасибо.
Интересно, есть ли смысл продавать бу рыксу за 14к (за столько же за сколько она была куплена год назад), как думаешь?
мимо
>за те же деньги
>бу и новый товар
Ну ты понил. Технически это карты разных уровней. Я говорю о новых картах чтобы не сравнивать жопу с пальцем.
Жопой не веляй, нахуя мне 1660с, если на вторичке лежит 1070ti за 16к и 1080 за 20, обе ебут тюринг?
Без понятия, всё зависит от бюджета. Если продать RX 580 за 14к и купить на них GTX 1650s или RX 5504 XT, то ты получишь ту же производительность при меньшем жоре. Это, конечно, приятно, но стоит ли того? А если к этим 14к что-то добавлять, то это другой вопрос.
Ну вот я тоже думаю, что не стоит, лишь лишняя морока.
А до амперов по разумной цене еще минимум 2-3 месяца, а там уже новый год и опять цены взлетят, короче амперы уже в следующем году можно будет купить, а без карты и игор которых в общем-то нет сидеть до февраля такое себе, а с майнингом ситуация еще сто раз поменяется.
Маленький спекулянт внутри меня хочет воспользоваться случаем, но разум все время останавливает.
По твоей логике надо брать новое ладо ведро, вместо подержанной иномарки и сосать бибу? При том что можно найти 1070ti которая будет еще на гарантии.
Я так и сделал два месяца назад, купил 1660s, брат жив.
> При том что можно найти 1070ti которая будет еще на гарантии.
А вот это врятли, посмотри когда вышли паскали, я лично таких не нашел, + на них ещё некоторые майнили активно, взял бы только 2080 за 20к в нормальном исполнении, со всеми проверками, при условии, что у меня есть карта, чтобы в случае чего я не остался ни с чем.
При условии, что щас вышли амперы, вообще бы 1080ti за эти деньги искал
Ну вот например, насчет охлада правда не уверен в этом исполнении. https://www.avito.ru/nalchik/tovary_dlya_kompyutera/gtx_1070ti_na_garantii_1993981316?slocation=621540
Моя логика никак не подталкивает к конкретной покупке, я просто отметил, что GTX 1066 несколько слабее GTX 1650s и RX 5504 XT. А уж кто там что купит по какой цене, мне-то что?
Меня удивляет тупость сравнения прогресса архитектур с помощью сравнения цен новых и б/у видеокарт. Ясное дело, предыдущее поколение будет выгоднее, значит ли это, что прогресса нет?
Первая версия:
https://pastebin.com/6nDez6AX
Нойс паста, хотелось бы больше ностальгии по тераскейлу и небольшого перечня вменяемых моделей на 200/300, но для шапки лучше так.
Хороший оп-пик. Кстати, что с ебалами?
>Майнинг
Есть такое.
Сегодня два сапфира и два ХФХ забрал с почты. Все четыре 578.
Одна единственная Вега на домашней пеке уже по 400 вечнодеревянных в сутки приносит. Правда непостоянно, в основном пик 2 и 3
дешевый ампер будет только через полгода примерно. весной 2021
>Какой стоит тип рендера?
Опенгл, конечно же. Софтверный режим никто никогда не использует, ибо это рудимент с тех, допотопных времен конца 90-х, который тормозит вообще у всех на любой машине. Так вот, слабая gtx 960 2gb работала прекрасно с опенгл.
А я тебе скажу причину. С какой-то там версии Адреналина, в начале 20го года амд убрали поддержку старых игр из драйверов. Ты когда запускаешь старую игру, то у тебя гпу и память работает на минмиальных частотах, отсюда и лаги. Я так не смог поиграть в бф3 и кое как играл в Сплинтер селл.
Ну, 580 я купил 2 года назад, когда еще Адреналина не было и тогда-то и заметил эти просадки, от чего бомбанул. Но, возможно ты прав, с частотами частенько были проблемы. Кстати, сейчас проблем в халфе не вижу. Но! В одной (современной) игре, при включении травы начинается дикий пиздец на 580, чего не было на gtx 960. Это, кроме как криворукими радеонщиками, никак не объяснить.
И это "отставание" от зеленых по части поддержки было всегда было у радеонов.
Жидко напукала тебе в ротеш.
Вот теперь можно перекатывать. Ты это и сделаешь. Не вижу смысла в списке вендоров и перечислении технологий, но думай сам. Я и так два треда подряд криворучил в шапке, так что дерзай.
Нормально ты разжевал, кстате, как и обещал.
Поэтому на помощь пришла амдфлэш и биос от старшей версии. Судя по тестам, примерно пятипроцентный прирост в бенче и 6-7 в игорях. Стоит ли вообще овчинка выделки (в смысле вероятности выхода из строя с такими танцами), или не париться и вернуть все в сток?
Кончено нет. А чтоб был нормальный андервольт надо ещё частоту скинуть, пробуй 10-50-100 МГц скинуть
Ну ценник амперов приятно удивил.
А АМД с ее пигнави деваться особо некуда, там кристалл огромный же и особо цену не снизишь.
В отличие от GCN, Navi сравнимы с Turing и Pascal по частотами и числу ALU. У RX 5700 XT и RTX 2070 Super одинаковая формула ALU/TMU/ROP, одинаковая память (8 ГБ, 448 ГБ/с), примерно равные частоты в играх при очень похожей производительности. Аналогично RX 5700 соперничает с RTX 2070, а RX 5500 XT по православным праздникам догоняет GTX 1660.
Далее, чип RX 5700 XT довольно небольшой, всего лишь 251 мм^2, 10,3 млрд транзисторов и 2560 ALU. Для сравнения, у RTX 2080 Ti 18,6 млрд транзисторов и 4608 ALU (часть из них заблокирована). У RTX 3070 и 3080 17 и 28 млрд транзисторов соответственно.
Для того, чтобы конкурировать со всей линейкой Turing, AMD нужно выпустить чип ~500 мм^2 с 5120 ALU. Даже если по соображениям производства часть ALU будет отключена, по мощности он всё равно будет успешно соперничать с RTX 2080 Ti и RTX 3070. Это в худшем случае просто механически удваивая число CU. Посмотрим, что AMD сможет в плане улучшения архитектуры RDNA2.
>там кристалл огромный же
Это не у Big Navi кристалл огромный, а у Navi кристалл очень небольшой. Где огромные кристаллы, так это у RTX 3090.
Спасибо, кэп, я выше про это писал. Но удвоенный кристалл на том же техпроцессе - это ~20 млрд транзисторов Big Navi против 28 млрд транзисторов у RTX 3090. Вот если бы Кожанка уместил мощщу RTX 3090 в 20 млрд транзисторов, то весь отдел Radeon пошёл бы вешаться.
>В свете выхода видеокарт Nvidia Ampere повышенного могущества возникает вопрос: чем может ответить AMD и не хватит ли почтенного доктора Лизу Су кондратий?
Слышал, что она с кожанкиным какими-то родственниками друг-другу приходятся, так что речь о кондратии тут даже не заходит + никто еще не отменял промышленный шпионаж, вероятно Мрс.Лизка второй человек после Мр.Кожанкин, который в курсе дел и инсайдов.
Скорее всего будет тоже самое, что и с нави будут чутка дешевле, чутка холоднее, не будут дотягивать до топовых решений в лице 3090.
Учти же, что ампер производится на 8нм Самсунга, а бигнави либо на обкатанном в доль и поперек 7нм+ или даже на 5нм ТСМС, это будет как минимум дешевле и техпроц возможно даст некоторый буст.
Вот выйдет ответ от красненьких, тогда и померяемся фыпыэсами, я даже с удовольствием обоссу адептов зеленки.
>>711959
Дык они всю жизнь в десна жахаются. И вся эта возня с битвами поколений видеокарточек - не более чем шоу для хомячков, чтобы сарафанное радио лучше работало и продажи пёрли.
Но ведь туда шиш что отправишь
>кристалл огромный же и особо цену не снизишь.
А по итогу выйдет недо радеон 7. Амд не то, что по железу безнадежно отстала от хуанга, так еще и по софту слишком сильно отстает. Пусть даже "пигнави" будет как 3080 или лучше, но нормальный софт где? Хуанг в очередной раз с анонсом архитектуры для ртх карт высыпал из кармана, "горку" фишечек, для стримеров/котлет/разработчиков/простых игроков..
Подтверждаю что курвак жерт энергию пиздец. Тот же асасин который графонистее в разы кушает гораздо меньше. Че там поляки на мудрили хз.
По твоей логике все кто покупал видюху дороже 400 баксов в 2020 являются долбаебами, ведь 3070 втаптывает в говно вообще все существующие видеокарты.
Ебанутейшая логика ждунов. Я например пеперходил с 580-й, мощности которой мне тупо стало не хватать для киберкатлетных 144фпс. Я не настолько нищий, что-бы год сидеть и страдать без требуемого мне количества кадров.
но я не ждун. а вот ты долбоеб.
Это снова я. Что-то меня эта хуита со снижением оборотов вентиляторов при повышении температуры беспокоит. Такая хуйня началась после установки Вин10 2004. Пробовал ставить драйвера 20.4.2. - результат тот же. Может там какой-то датчик наебнулся и её стоит сдать по гарантии? Помню когда то такое уже было, но только на определённой версии драйверов.
Хоспаде, откуда вы берётесь?
>А по итогу выйдет недо радеон 7
RX 5700 XT конкурирует в играх с Radeon 7 имея на 3 млрд транзисторов меньше на чипе. Ты хочешь сказать, что удвоив чип RX 5700 XT мы только достигнем уровня Radeon 7? Да ничего подобного, мы её обгоним как стоячую.
>Амд не то, что по железу безнадежно отстала от хуанга
Текущая RDNA находится на уровне Pascal и Turing, проигрывая последней исключительно в отсутствии тензорных и RT-ядер. В универсальных задачах местами она даже более гибкая. В отличие от Turing, RDNA действительно умеет производить вычисления с целыми и дробными числами параллельно и одновременно. AMD отстаёт в добавлении аналога RT-ядер и в массовом производстве старшего чипа (Big Navi), это не безнадёжное отставание, а отставание на шаг (никогда такого не было и вот опять).
Что до Ampere, то будем посмотреть, что-то они подозрительное с CUDA-ядрами замутили уровня ядер AMD FX. В отличие от AMD, Кожанкин не любит сыпать техническими подробностями.
Попка слипнется
Тютюрю порвало?
чел, если ты не понял, то тут имелось ввиду другое... карта выйдет дороже чем условная 3080, но без лучей и софта, но с памятью которую гпу чип не сможет реализовать и отыквится раньше, чем она потребуется.
это или слабое место еще или не максималки.
в лес на велене зайди при закате и охуеешь.
вот мой скрин, тут жора нет потому что у меня 1660ти , но фпс сам видишь какой. там нагружет по полной.
чекни там жор и нагруз
>но без лучей и софта
Откуда вы лезете блять, в новых картах амд будет ретрейсинг + все показанные нвидией фичи и аналог rtx io, который реализован в новых приставках.
Вполне может быть, что у нвидии для рабочих задач будет лучше ретрейс работать, но вам по для игрушек нужно.
Сыглы, надо было в прошлом месяце 2080ти брать или 2060, или любую другую карту на тютюре.
Там же не кукрузный рейтрейсинг, верно? А длсс картинку не мылит, да. И длсс софтвеерно никак не прикрутить, тут сыглы.
Какой же ты умный, может быть ты ремонтяш?
Жижа 578. Но она тоже проблемная, например режим Fan Stop говно и работает как говно.
Шрек купил тютюрю-тыкву и пришел к амудешникам, чтобы самоутвердиться, что он не конченный лох проссавший деньги.
Но в итоге амуде-мужи-разумисты великодушно провели шреку >>716480 залупой по губам и теперь он начинает сыпать боевыми картинками, хех.
Оно и в драйвере отключается нормально. Но я же драйвера часто меняю, из интереса. Вот например выкатили новую 2004 винду, и в ней якобы есть GPU low latency фича, но никто нигде никогда не упоминал что она есть только в драйвере 20.5.1 и ТОЛЬКО на 5700 и 5700XT, а остальные бибу сосут.
Мне кажется АМД забили хуй уже на полярисы и новые дрова не приносят им абсолютно нихуя уже примерно год так точно. Может я ошибаюсь, хз.
>Лол, получается я в яблочко попал.
хуесос ты тупой. и аналитика твоя от хуесоса тупого. три года с лишним езжу на пикриле. сейчас 3070 воткну и дальше поеду. а ты, как был хуесосом тупым, так и останешься.
о , еще один ебанутый.
а что ты купил, доходяга ?
Я так не думаю, ощутимый прогресс есть. Из самого очевидного помимо технологий и дополнительных фич улучается производительность минимального фпс и общая стабильность фреймрейта.
Купил моник 75гц подрубил к 5700 настроил герцы и начали регулярные падения дров на ровном месте, вплоть до синего\черного экрана и перезагрузки. Глянул в ватмане, а там стабильная частота 1750 по памяти, как будто майнер работает. Скинул моник до 60 гц и частота сразу упала до номинального и растет только под нагрузкой.
И такая херня с любыми дровами, что у видяхи, что у монитора.
ЧОделатьта?
Сбрось настройки, подумай что такого пердольного делал что могло к этому привести. Накати дрова монитора, да они существуют и даже иногда приносят огромную пользу, например у меня на сосунге было гораздо лучше (и плавнее) с дровами чем без них.
>Смело заявляю
Додик, когда у тебя погорит железо, ты сюда не придешь, ведь яиц не хватит признать, что ты пиздабол малолетний. Брак может быть у всех, сгореть может что угодно даже ебаная оперативка в стоке которая имеет лайф гарантию.
А теперь пошел нахуй отсюда.
Это копия, сохраненная 16 сентября 2020 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.