Вернуться   TiVi форум > Дневники > slonka

Оценить эту запись

Новый конфиг ПК. Мотивация, впечатления и тесты. В том числе Port Royal!

Запись от slonka размещена 10.01.2019 в 00:19
Обновил(-а) slonka 12.01.2019 в 11:32



"Диванная аналитика", которой наполнен этот большой материал, на самом деле, использует новую конфигурацию моего компьютера как базу, стержень, для того, чтобы поразмышлять над современным состоянием компьютерного железа для игр, в особенности над процессорами и видеокартами. То есть, здесь есть не только демонстрация работы конфигурации, но и рассуждения о тенденциях в современных игровых ПК.

Сначала напомню конфигурацию.
CPU - AMD Ryzen 5 2600, 6 cores 12 threads, 3400-3900 MHz.
MB - MSI B350M Pro-VDH.
RAM - 16 GB, 2 x Crucial Ballistix Sport 8GB DDR4-2400 DDR4 SDRAM.
VC - Palit GeForce RTX 2070 Dual 8GB GDDR6 (DVI version, reference PCB) - 1410/1620 MHz, 2304 sp.
Capture Card - Avermedia AVer3D CaptureHD.
Monitor - ViewSonic VX2268wm, 22" LCD, 1680x1050, 120Hz/3D.
Stereo 3D - nVIDIA 3D Vision.
SSD 1 - TOSHIBA THNSNH128GBST 128GB, SATA-III.
SSD 2 - Samsung 860 EVO 500GB, SATA-III.
Power Supply - Chieftec A-80 CTG-750C, 750W, Modular.
CPU Cooler - Thermaltake Water 3.0 Riing Red 140.
Case - Thermaltake Core P3 Snow Edition.
Keyboard - Cooler Master NovaTouch TKL, Topre switches.
Mouse - Xiaomi Mi Portable Mouse, Radio + Bluetooth.
Speakers - Edifier R1900TII.[/B]

Как известно, начинать апгрейд или сборку игрового ПК следует с подбора видеокарты. Это потому что даже для упора в предел производительности GeForce GTX 1080 Ti 11GB, потребуется процессор не сильнее Intel Core i5 8600K, а самые мощные Intel Core i7 8700K, Intel Core i7 9700K, Intel Core i9 9900K и AMD Ryzen Threadripper нужны только для SLI решений или новенькой GeForce RTX 2080 Ti 11GB. Удивительно, но факт - под "народные" GeForce GTX 1060 6GB и Radeon RX 580 8GB можно смело брать AMD Ryzen 3 2200G или Intel Core i3 8100, или даже оставлять AMD FX-8350, а может и (только тссс...) AMD FX-6300, и все игры 2018 года у вас заработают в 1920х1080 на "высоких", а то и "максимальных" или "ультра" настройках, с FPS не ниже 50 к/с.

В одном из моих доморощенных аналитических материалов я писал о пяти революциях в игровом 3D. Появление RTX видеокарт, с гибридным рендерингом и операциями глубокого обучения - шестая революция. Это бесспорно и однозначно. И революция эта нарушила строй в рядах видеокарт. Со всех сторон поступает информация, что эффекты, основанные на аппаратно ускоренной трассировке лучей реально работают, пусть даже и уменьшая FPS в полтора-два раза. Но на данный момент, такое умеют всего три видеопроцессора - GeForce RTX 2080 Ti 11GB, GeForce RTX 2080 8GB и GeForce RTX 2070 8GB. На днях выходят видеокарты на четвертом - GeForce RTX 2060 6GB, за $350 (за бугром). И всё. Выпуск GeForce GTX 1060 прекращен. Ему на смену идут GeForce GTX 1160 и GeForce GTX 1160 Ti, построенные на архитектуре Turing, но без RTX фич. Что будет с GeForce GTX 1050 и GeForce GTX 1050 Ti неизвестно. Возможно от них вообще откажутся или передвинут в сверхбюджетный сегмент. NVidia сделала свой шаг вперед, а у конкурентов пока без революций. AMD остается только демпинг. Они уже прибрали к рукам средний ценовой сегмент, с помощью Radeon RX 580 4GB, Radeon RX 580 8GB и Radeon RX 590 8GB. Первые две продаются дешевле, чем почти равнозначные ей GeForce GTX 1060 3GB и GeForce GTX 1060 6GB. Последняя - дешевле GeForce GTX 1070 8GB, ближайшей по производительности. Мало того, ходят слухи, что скоро AMD подложит nVidia свинью в виде карточки равной GeForce GTX 1070 8GB, но за $200, и карточки равной GeForce GTX 1080 8GB, но за $250.

Короче, если вы не решили твердо - "обязательно шагну в будущее и не менее, чем при 60 к/с" и не нацелились на один из трех "верхних" GPU от nVidia, то лучше подождать с апгрейдом месяц-другой, пока ситуация не стабилизируется и игроки не сделают свои ходы.

Что касается меня, то я хотел в первую очередь заставить современные игры работать в стерео 3D режиме, как минимум при 30 к/с. В этом режиме, мои 1680х1050 нужно умножать на два, что в сумме дает почти 2560x1440. Кроме того, системе неоходимо просчитывать геометрию двух ракурсов - для разных глаз. В результате, мощности требуется как для 4K. NVidia 3D Vision работает только на GPU от nVidia. Поэтому мне нужна была видеокарта с видеопроцессором nVidia, способная выдать не менее 30 к/с, при 3840x2160, в любой из современных игр. Такое возможно начиная от GTX 1080 или равной ей RTX 2070. Но на высоких разрешениях, RTX 2070 даже чуть быстрее GTX 1080. Плюс у нее есть революционные фичи. Вот вам и критерии моего выбора видеокарты.

Предыдущий процессор - AMD Ryzen 5 1400 не раскрывал всех возможностей GeForce RTX 2070 8GB, поэтому был подобран минимальный из подходящих по сокету, способный это сделать. Им оказался AMD Ryzen 5 2600. Шесть ядер вместо четырех и более высокие частоты пригодились также и в приложениях для работы.

HDD из системы я выбросил и оставил только два SSD, дающие в сумме 600 "настоящих" гигабайт. Этого достаточно для всего, кроме функций хранения, для которых лучше использовать внешние решения.

RAM трогать не стал. И по объему, и по скорости, её мне вполне достаточно для игр. Есть план увеличения до 32 Гб, для работы, но не раньше второй половины года.

Что касается корпуса, то я давно хотел себе Open Frame и засматривался именно на варианты от Thermaltake. Меня много лет мучила паранойя закрытого корпуса. Это примерно как невозможность залезть себе в штаны. Теперь я от нее избавился.

Лохматый проводами 600-ваттный не покрашенный блок питания из старого корпуса был не так уж плох, но в Open Frame смотрелся бы архаизмом, поэтому был оставлен на своем месте, а новый корпус получил новый БП. С выбором сильно не парился. Наплевал на "платиновые", "золотые", "серябряные" и "бронзовые". Взял без всей этой лабуды, но модульный, тихий и исключительно "пятизвездочный" по отзывам. Такой, о котором никто не пожалел.

Никогда не разгоняю железо. Поэтому не ожидал от себя, что поставлю жидкостное охлаждение. Но начитавшись, что комплектный кулер AMD Wraith Stealth, который Ryzen 5 1400 охлаждал прекрасно и с запасом, работает с Ryzen 5 2600 на пределе возможностей, решил купить что-нибудь посерьезней. Сначала думал о какой-нибудь недорогой и эффективной "башне" типа DeepCool GAMMAXX 400, но в конце концов выбрал необслуживаемую жидкостную систему "всё в одном", от Thermaltake, чтобы сочеталась с корпусом. С одним вентилятором, но большим - 140 мм. О выборе ни разу не пожалел, потому что теперь о температуре процессора можно напрочь забыть. В играх она редко поднимается выше 40 градусов. В стресс-тесте AIDA64, температура ни разу не подскочила выше 57 градусов при скорости вентилятора 750 об/мин. На максимальных 1500 оборотах, температура в стресс-тесте падает до 53 градусов. И это всё учитывая, что максимальными для Ryzen 5 2600 являются 95 градусов.

Жидкостный кулер Thermaltake Water 3.0 Riing Red 140, установленный в новую конфигурацию ПК, построен на OEM платформе датской компании Asetek Gen4, то есть 4 поколения, с помпой, совмещенной с медным микроканальным водоблоком. Не секрет, что большинство продающихся в сборе необслуживаемых систем жидкостного охлаждения - это Asetek. Датчане поставляют под заказ насосы необходимых храктеристик в сборе с трубками и радиаторами нужного размера, оснащенными плоскими каналами для жидкости и гофролентой между ними.



"Производители" лепят на водоблок с помпой свой логотип или же крепят какую-нибудь надстройку с подсветкой и укладывают в комплект фирменные вентиляторы. На этом всё их производство заканчивается. Если вы посмотрите внимательно на большинство систем "всё в одном" от Cooler Master, DeepCool, Arctic, Thermaltake, ID-Cooling, NZXT и Corsair, то увидите, что всё это - Asetek.

Интересно, что встроенный в материнскую плату датчик неправильно отображает скорость вращения крыльчатки насоса. Он показывает в два раза меньшую скорость, чем реальная. Тупые обзорщики считают наоборот и пишут что-то типа "производитель наврал про скорость, а вот мы померили и убедились, что она меньше". Компании даже не пытаются оправдываться, а вот Asetek четко пишет в FAQ, что в их насосах двухполюсные моторы, но датчики материнских плат рассчитаны на четырехполюсные моторы вентиляторов, поэтому показывают в два раза меньшую скорость. У меня датчики показывают около 1000 оборотов. На самом деле, это почти 2000. Thermaltake для Water 3.0 Riing Red 140 вообще не пишет в спецификациях скорость помпы. Зато для некоторых других кулеров на Asetek платформе Thermaltake указывает 2900+-150 RPM. Это явно другая скорость. Значит там стоит или другой насос, или, что более вероятно, другой контроллер. Кстати, они бывают разных типов. В мою СЖО установлен простой - три провода в материнскую и всё.



Бывают и посложнее. Такие подключаются также ко внутреннему USB разъему материнской платы. С помощью специального приложения можно управлять скоростью помпы, которая, кстати, в этом случае отображается правильно.



Моторы, похоже, все-таки одинаковые. Всё дело в электронике. Более простая на максимальных 12 вольтах быстрее 2000 оборотов не дает. Но у меня материнская плата умеет управлять скоростью вентиляторов через уменьшение питания. Поэтому замедлить помпу я могу. Но на практике убедился, что этого не надо. Насос начинает тарахтеть, а охлаждение ухудшается. Лучше всего регулировать его через скорость вентилятора, а насос включить на полную. Возможно есть смысл увеличивать скорость, но вот этого я как раз сделать не могу. 12 вольт - 2000 оборотов, и точка.

Ни один из источников света не был установлен в корпус специально. Все наличествующие "светилки" попадались по случаю вместе с комплектующими. На материнской есть несколько светодиодов сзади, создающие интересный эффект, направленный в корпус и похожий на подсветку зданий. На видеокарте установлена подсветка надписи "GEFORCE RTX", которая на самом деле нифига ее не подсвечивает. Вентилятор кулера светится красным кольцом. Никакого управления всем этим делом нет.

Главный минус конструкции - установленный непосредственно под видеокартой ТВ-тюнер с видеозахватом. Видюха занимает два слота и закрывает собой один из установленных на системной плате PCI-E X1 слотов. Второй доступен, но тюнер становится впритык к видеокарте. Зазор - миллиметры.

Корпус допускает установку видеокарты поперек. В комплекте есть райзер и другое крепление.




Однако, в этом случае, ТВ-тюнер вообще установить не получится. Ради видеозахвата мне также пришлось установить крепление на восемь слотов. В комплекте есть и на два слота, только для видюхи, но тогда тюнер тоже не поставишь. При покупке видеокарты пришлось также смотреть, чтобы она не была толще чем на два слота, ведь сейчас большинство занимают два с половиной. Короче, тюнер все-таки встал, но ради него в корпусе висят пять лишних слотов на крепеже. Ну и черт с ними. В будущем планирую купить удлинитель PCI-E X1, перевернуть другой стороной БП и подвесить видеозахват ниже материнской платы. Это чтобы отодвинуть его от видюхи. Впрочем, я и сейчас проблем не испытываю. Работе охлаждения тюнер, вроде бы, не мешает, так как он низкопрофильный и закрывает только половину одного из вентиляторов.

Посмотрим тесты.

AIDA64 Extreme.

CPU:






FPU:





Memory:





Cache & Memory Benchmark:



GPGPU Benchmark:



Disk Benchmark:



Сравнивая свои значения с референсными нужно понимать, что результат будет показан для рабочей в данный момент частоты процессора. Референсные же значения указаны для базовой частоты. Поэтому пользоваться таблицами для сравнения можно лишь приблизительно. Мои результаты я помещаю в первую очередь для того, чтобы кто-нибудь из читающих мог измерить свои и сравнить.

Однако даже по этим таблицам, сочетая их с информацией из других источников, можно сделать определенные выводы. Что касается соревнования вообще, в процессорах для настольных систем, всех крошит в капусту AMD Ryzen Threadripper 2990WX, c 32 ядрами и 64 потоками. Amd Ryzen 1000 серии (Summit Ridge), на момент появления, тряхнули Intel Core 7000 серии (Kaby Lake) так, что пыль пошла. Зато Intel Core 8000 серия (Coffee Lake) номинально вернула превосходство Intel. Выход Amd Ryzen 2000 серии (Pinnacle Ridge) принес с собой "работу над ошибками", подравнявшую AMD к Intel, а также то, что AMD умеет делать лучше всего - демпинг. То есть, если мы возьмем примерно равные по производительности Intel Core i7-8700K и AMD Ryzen 7 2700X (первый немного быстрее в играх, второй - в профессиональных приложениях), то Intel будет на $100 дороже. AMD Ryzen 5 2600 проигрывает Intel Core i5-8600K на 20% в играх и обгоняет на 20% в профессиональных приложениях, но стоит при этом в полтора раза (!) дешевле. И даже если подобрать примерно равный в играх, но полностью сдающий позиции при профессиональном применении, Intel Core i5-8400, то AMD Ryzen 5 2600 всё равно будет дешевле на $50. При цене $190, AMD Ryzen 5 2600 не раскрывает в играх только 3 видеокарты - GeForce RTX 2080 Ti 11GB, GeForce RTX 2080 8GB и GeForce RTX 1080 Ti 11GB. Плюс он еще и гонится, если надо, до 4.2 ГГц. По продажам, это сейчас процессор №1 в мире.

Недавно появились Intel Core i9-9900K, Intel Core i7-9700K и Intel Core i5-9600K, опять же на Coffee Lake. Но погоды они не сделали. Это тоже "работа над ошибками". Зато AMD готовит Ryzen Zen 2 3000 серии (Matisse) на 7 нм техпроцессе. Обещают AMD Ryzen 9 3800X, с 16 ядрами, 32 потоками (!) и частотами 3.9/4.7 ГГц. А также AMD Ryzen 7 3700X (12-24 и 4.2/5), AMD Ryzen 7 3700 (12-24 и 3.8/4.6), AMD Ryzen 5 3600X (8-16 и 4/4.8) и AMD Ryzen 5 3600 (8-16 и 3.6/4.4). И сокет тот же - AM4. То есть, скоро будет очень интересно.

И еще одно замечание. По причине долгого отставания AMD, у нее более стройная линейка. Понятно, где что и на каком месте по производительности. У Intel в процессорах чёрт ногу сломает. Вполне вероятно, что вы можете оставить у себя какой-нибудь старый Core i7 или Xeon, может быть даже под старый сокет, или купить его недорого, а он возьмёт и обгонит какой-нибудь современный и более дорогой Core i5.

Взгляните также на бенчмарк GPGPU. Некоторые расчеты выполняются на ГП в 100 раз (!) быстрее, чем на ЦП. Помните, я когда-то писал про Wii U, что эта приставка обладала не самым мощным процессором, но впервые представила на консолях неграфические вычисления силами видеоадаптера. Это были карты в руки разработчикам, которые, однако, крутанули мордами и благополучно их бросили. Зато когда появились PS4 и Xbox One, с ЦП, тоже оставлявшими желать лучшего, но с ГП, поддерживающими GPGPU расчеты, разработчики были просто вынуждены использовать такие расчеты, потому что ничего другого не оставалось делать.

В 2014 году, Ubisoft провела тест по симуляции на игровых приставках физики движения ткани. Это было важнейшее исследование, потому что очень редко нам в руки попадают такие данные. Посмотрим на выдержки из презентации Ubisoft внимательней.



За 5 мс процессорного времени, Xbox 360 просчитывает движение ткани на 34 танцорах, а PS3 на 105 танцорах. Это совершенно закономерно, потому что ЦП Playstation 3, с его SPU, на момент своего появления в 2006 году (!), был по-настоящему революционной разработкой.

А теперь посмотрим на текущее поколение консолей.



Ubisoft, а вместе с ней и мы, восклицаем: "Какого хрена?". Процессор PS4 облажался перед процессором PS3 и просчитал ткань только на 98 танцорах. Увы и ах. Далее объясняется почему так случилось.



5 SPU, работающие на частоте 3.2 ГГц, само собой разумеется, уделают 6 ядер, работающих на 1.6 ГГц. По крайней мере, в задачах рассматриваемого типа.

А что же Xbox One?



У Xbox One ЦП немного помощнее, поэтому она, хоть и незначительно, но всё-таки обгоняет PS3.



Ну конечно же, не секси. Оно до сих пор не секси, если не задействовать силы видеокарты.



Мощность ГП Xbox One в 15 раз превышает мощность её ЦП. В случае PS4, эта разница увеличивается до 23 раз.

Далее Ubisoft шаманит с шейдерами и переносит расчеты физики движения тканей на ГП консолей. Вот финальный результат!



Вывод Ubisoft - современные консоли начинают выглядеть секси, только при использовании GPGPU расчетов. На ГП, Xbox One за 5 мс просчитывает 830 танцоров, а PS4 - аж 1600. Это потому что у консоли от Sony ГП мощнее.

Еще раз поплачем над Wii U, которая принесла нововведение слишком рано и в гордом одиночестве, чего хватило, чтобы на него не обратили внимание.

Я не просто так поднял здесь тему консолей. Описанная ситуация хорошо объясняет почему вполне себе мощной и обеспечивающей высокую скорость современных игр как минимум в Full HD, nVidia GeForce GTX 1060 6GB, для раскрытия достаточно всего лишь AMD FX-6300. Нам удружили консоли, слабые процессоры которых заставили разработчиков игр переносить с ЦП на ГП все расчеты, которые позволяют с собой такое сделать. А игры-то мультиплатформенные, поэтому и на ПК они попадают с теми же оптимизациями. Впрочем, в самых современных играх, требования к ЦП уже подросли. Это потому что появились PS4 Pro и Xbox One X. И дело не только в том, что они мощнее (хотя и в этом тоже), но в первую очередь в том, что разработчики перестали пытаться "натягивать" 60 FPS на базовые версии приставок. Соответственно и технологический уровень игр вырос. Так уж вышло, что ПК в играх теперь повязаны с консолями одной ниточкой. Графоний на компьютере однозначно будет круче, чем на консолях. Хотя бы потому, что производители видеоадаптеров улучшат его своими новыми фичами. Иначе зачем бы кому-то покупать их монструозные видюхи? Но прыгать технологически очень далеко от приставок ПК игры не будут. Из-за того, что без мультиплатформенного подхода разработчики мало заработают. ПК ведь давно не игровая платформа номер один, и вряд ли когда-нибудь таковой снова станет.

Тестирование дисков ничем не удивило. Средние SSD показали свои способности. Бывают диски и в 4 раза быстрей. Вот только стоят они дорого.

PCMark10.



Оценка типичная для этой связки ЦП+ГП без разгона.

Ради интереса можно сравнить с чьим-то результатом на Intel Core i5 8600 и том же GPU, что у меня - RTX 2070. Это единственный зарегистрированный в Futuremark результат такой связки, поэтому и приводится он один.



Понятно, да? Не скажу, что Ryzen 5 2600 прям таки сильно обгоняет Core i5 8600 в этом тесте. Разница не такая уж значительная. Но вспомним, насколько Ryzen 5 2600 дешевле.

Для того, чтобы устроить сравнение с Intel Core i5-8600K, который, как и AMD Ryzen 5 2600 умеет разгоняться, нужно смотреть не на одиночные результаты, но на диапазоны результатов. Дело в том, что Futuremark регистрирует результаты как в номинале, так и в разгоне. Поэтому диапазоны покажут весь потенциал связки, в том числе и разгонный.

AMD Ryzen 5 2600 + NVIDIA GeForce RTX 2070 - от 4735 до 6442. Всего 21 зарегистрированный результат.

Intel Core i5-8600K + NVIDIA GeForce RTX 2070 - от 4813 до 6886. Всего 14 результатов.

Максимальные результаты - это связка ЦП+ГП в хорошем разгоне.

Ryzen 5 2600 в разгоне держит до 4.2 ГГц.

Core i5-8600K - до 4.9 ГГц.

Собственно говоря, это сравнение не совсем правильное. Core i5-8600K - птица совсем другого полета. Её бы надо сравнивать с Ryzen 5 2600X, но я боюсь, что мы совсем запутаемся. Надо просто понимать, что разгон - важный фактор, в том числе и маркетинговый.


3DMark.

Time Spy.




До выхода Port Royal, с трассировкой лучей, который вышел только что - 8 января, и до которого мы еще доберемся, Time Spy - был самым навороченным тестом в линейке 3DMark. DirectX 12.



Слева - Graphics Score. Слегка подрезал, чтобы были видны результаты. То, что у меня монитор 1680х1050, значения не имеет, так как тест всегда считается во внутреннем разрешении 2560 × 1440. Хорошо видно, что моя связка прошла этот тест на играбельных FPS.

Чтобы сравнивать, здесь тоже надо смотреть на диапазоны результатов.

AMD Ryzen 5 2600 + NVIDIA GeForce RTX 2070 - от 7897 до 9515. Всего 952 зарегистрированных результата.

Разумеется, мой результат попадает в диапазон.

Intel Core i5-8600 + NVIDIA GeForce RTX 2070 - от 7019 до 8896. Всего 84 результата.

Intel Core i5-8600K + NVIDIA GeForce RTX 2070 - от 8270 до 9613. Всего 966 результатов.

Процессор i5-8600 не разгоняется. Потому и отстает от Ryzen 5 2600. А вот i5-8600K разгоняется прекрасно.

Fire Strike.



DirectX 11. Внутреннее разрешение 1920 х 1080.



Сравним с зарегистрированными результатами.

AMD Ryzen 5 2600 + NVIDIA GeForce RTX 2070 - 15640 - 19667. Всего 500 результатов.

Intel Core i5-8600 + NVIDIA GeForce RTX 2070 - 16433 - 18943. Всего 24 результата.


Intel Core i5-8600K + NVIDIA GeForce RTX 2070 - 15590 - 21669. Всего 537 результатов.

Выводы примерно те же, что и в предыдущем тесте. Однако здесь есть тест физики (Physics Score), по которому Futuremark стандартно измеряет производительность процессоров в играх. Поэтому мы можем посмотреть место AMD Ryzen 5 2600 среди результатов теста физики.



Мой результат - 16847. Даже выше, чем референсный.

У самой производительной из связок Intel Core i5-8600 + NVIDIA GeForce RTX 2070, физика - 13254.

У производительной из Intel Core i5-8600K + NVIDIA GeForce RTX 2070, физика - 16461.

Здесь никаких сюрпризов. Всё укладывается в описанную выше картину. Сейчас процессоры AMD, как минимум, не хуже Intel. Но стоят дешевле.

Port Royal.



Долгожданный, только что вышедший, тест, предназначенный для тестирования DirectX Raytracing на видеокартах GeForce RTX. На теперешний момент - это единственный бенчмарк, позволяющий проверить производительность в революционном гибридном рендеринге.

Как известно, видеочипы серии nVidia GeForce RTX включают в себя RT ядра, предназначенные специально для операций рендеринга методом трассировки лучей, а также тензорные ядра, предназначенные для решения задач глубокого обучения, в том числе и для шумопонижения результатов трассировки.

Аппаратная трассировка лучей - это несомненно прорыв в графических технологиях для ПК. Рендеринг методом трассировки способен принести на порядок более реалистичное изображение.

Аппаратно ускоренные операции инференса на обученной нейросети могут не только помочь трассировке, но и вообще сотворить чудеса. Но об этом позже.

Однако, о всеобъемлющей замене традиционной визуализации на трассировку лучей речь пока не идет. Возможности "первых ласточек" - RTX видеокарт ограничены и рассчитаны на так называемый гибридный рендеринг. Это когда большинство задач визуализации выполняются стандартным методом, и лишь часть - с помощью трассировки. Но как правило, даже этой части хватает, чтобы вывести картинку на существенно более высокий визуальный уровень. Даже самый топовый из современных видеопроцессоров - nVidia GeForce RTX 2080 Ti несет "на борту" только 72 RT ядра. GeForce RTX 2080 - 46 RT ядер. GeForce RTX 2070 - 36 RT ядер. То есть, моя видюха оборудована половиной от 72 RT ядер RTX 2080 Ti.

В бенчмарке Port Royal, на трассировку лучей возложены задачи просчета отражений и отбрасывания теней. В большинстве уже вышедших и грядущих игр, с поддержкой DirectX Raytracing, эта технология будет применяться именно для этих двух задач. Их вполне достаточно для того, чтобы дать просраться топовому железу.

Итак тестирование. Мне пришлось купить Port Royal за $2.99, чтобы испытать этот бенчмарк, не дожидаясь пиратов. Удивительно, но купленный за копейки ключ разблокировал мне весь 3DMark Advanced Edition, который стоит $29.99.

Стандартное внутреннее разрешение этого теста - 2560 × 1440. DirectX 12, разумеется.



Попугая попугаями, Но смотрим в правый нижний угол картинки. 21.13 к/с. Получите и распишитесь. Такую FPS сложно назвать играбельной. Вспомним, однако, что, во-первых, бенчмарк совершенно необязательно должен показывать играбельную частоту. На то он и бенчмарк, чтобы на полную нагружать железо. Во-вторых я не собираюсь играть в 2560 × 1440. Посмотрим как поведет себя этот тест в моем разрешении - 1680х1050. Остальные настройки оставлены стандартными.



Прекрасно. Вполне играбельная частота. Даже при такой серьезной нагрузке.

А теперь давайте взглянем на 1920х1080.



Приемлемо. Вывод - ближайшие по выходу игры с трассировкой лучей будут нормально работать в 1920х1080 на GeForce RTX 2070. А учитывая, что бенчмарк обычно грузит оборудование сильнее настоящих игр, скорее всего, и GeForce RTX 2060 будет достаточно.

Unigine Superposition.



DirectX 11. Совершенно дикий по нагрузке тест. Максимальное количество полигонов в кадре - более 10 млн.



До апгрейда, я всегда видел в этом тесте слайдшоу. Приятно, что сейчас он проходится на играбельном уровне.

Сравним результаты с зарегистрированными.



Хорошо, что у кого-то оказалась такая же связка. Правда, если посмотреть в детали, у него память быстрее и видюха имеет заводской разгон. Вот и причина разницы с моими результатами. Как видите, если бы я остался на старой видеокарте - GTX 1060 3GB, то результат был бы почти в три раза хуже. Также отлично видно, что GTX 1080 Ti для Ryzen 5 2600 уже многовато.

А что там с Core i5?



Ого! В результатах есть Intel Core i5-9600K. Можно считать, что они на одном уровне. Там в деталях видно, что ZOTAG работает на чуть более высоких частотах, чем MSI.

Если кому-то непонятно почему я сравниваю процессоры, но почти не трогаю видеокарты, то я объясню. Сравнивать видеочипы от nVidia между собой нет никакого смысла. В их линейке всё прозрачно и всё на своих местах. А видюхи AMD еще не доросли до NVIDIA GeForce RTX 2070, поэтому их вообще можно не учитывать.

С процессорами тоже надо понимать одну простую истину. В связке с NVIDIA GeForce RTX 2070, Intel Core i5-8600, Intel Core i5-8600K и AMD Ryzen 5 2600 в играх покажут одинаковый результат, потому что игровая производительность упрется в видеокарту. Зато в профессиональных приложениях AMD Ryzen 5 2600, как я уже писал, обойдет Intel Core i5-8600K на 20%, потому что видеокарта там вообще не при чем. Если же мы соединим Intel Core i5-8600K + GeForce RTX 2080 Ti и AMD Ryzen 5 2600 + GeForce RTX 2080 Ti и сравним связки снова, то производительность процессора Intel как раз и подпрыгнет в играх на те самые 20%, на которые он обходит процессор AMD. Но перевес AMD в профессиональных приложениях тоже никуда не денется. Получатся, что отрыв Intel Core i5-8600K в играх мало полезен, ведь для его реализации требуются топовые видеокарты. NVIDIA GeForce RTX 2070 для прироста будет мало. Под эту видеокарту максимум, что надо от Intel - это Core i5-8400. Но кроме игр, он во всём серьезно проигрывает Ryzen 5 2600.

Закончим с синтетическими тестами и переместимся во встроенные бенчмарки реальных игр. Я не буду больше пытаться сравнивать процессоры или видеокарты. Дам только собственные результаты и комментарии.

World of Tanks enCore



Бенчмарк на движке популярной во всём мире белорусской игры. Настройки - "Ультра". Разрешение 1680х1050.



А вот и результат.



Тут даже комментировать нечего.

Shadow of the Tomb Raider.



Одна из самых технологически совершенных, требовательных и при этом хорошо оптимизированных игр современности. Встроенный бенчмарк.

Разрешение 1680х1050. Сглаживание SMAAT2X. DirectX 12.



Качество графики назовем "Ультра". Такого в предустановках нет. Это "Макс" плюс всё, что еще возможно, еще выше. Только SCR. SPACE CONTACT SHADOWS на одну позицию меньше, потому что максимальные настройки этой фичи - глючные.



Если кто-то не умеет правильно читать результат, приведу его.

Минимальный FPS - 76 к/с.

Средний - 95 к/с.

Максимальный - 151 к/с.

95% времени теста - 80 к/с и выше.


Прекрасный, более чем играбельный результат в такой продвинутой игре. Но смотрим нижний график. В первой половине теста (51%), процессор желает более производительную видеокарту. Если бы мы спарили AMD Ryzen 5 2600 + NVIDIA GeForce GTX 1080 Ti или + GeForce RTX 2080, то средний FPS поднялся бы до 109 к/с. Да и фиг с ним, и так достаточно.

Forza Horizon 4 Demo.



Вероятно, это самая технологически навороченная гоночная игра из существующих. Встроенный бенчмарк.

1680x1050. DirectX 12.



Все регуляторы на максимум. Даже сглаживание выбрано самое тяжелое из присутствующих в настройках.



Минимальный FPS - 78 к/с.

Средний - 90 к/с.

Максимальный - 117 к/с.


С таким качеством графики, просто отлично. Но видеокарта загружена на полную. Процессор и здесь просит более мощную.

Что касается самой игры, то демо сначала забрасывает нас в очень динамичное попурри на разных транспортных средствах в разные времена года. И на этом этапе я уже был готов купить полную версию игры. Но после эффектной презентации, то же самое демо показало свою задницу сюжетную ипостась. И это опять водитель-неофит на серийной машине или же на старом рыдване, который выполняет какие-то задания каких-то организаторов гонок, куда то едет по дорогам, чтобы найти какие-то соревнования, до которых еще надо добраться, и т. д., и т. п. Короче, и сюда киношку пихают. Плюнул я в сердцах и решил в это не играть. Хочу нормальные гонки, без всей этой сюжетной херни. В который раз убеждаюсь, что серию Mario Kart еще не ни одна другая аркадная гонка не переплюнула.

Deus Ex Mankind Divided.



Игра 2016 года. Думаете это мешает ей быть до предела навороченной и просаживать FPS даже на мощных конфигурациях? Совершенно не мешает. Встроенный бенчмарк.

1680х1050. Качество графики - "Ультра". Все регуляторы на максимуме.

Включив MSSA на 8х, мы наблюдаем очень интересную картину.



Разработчик оснастил свою игру сглаживанием-убийцей видеокарт. Но самое интересное впереди. Вот вам фрагмент картинки со сглаживанием MSSA 8х.



А вот с вообще отключенным MSSA.



Разницу видите? Я нет. Какое-то сглаживание, при отключенном MSSA, все равно задействовано. Возможно, это драйвер nVidia шутки шутит. Но MSSA нужно обязательно отключать. И тогда всё будет в норме.

DirectX 11. "Ультра". MSSA нет:



Совсем другое дело. Красота.

DirectX 12. "Ультра". MSSA нет:



В 2016 году еще не умели грамотно использовать DirectX 12. Производительности упала, хоть и осталась на хорошем уровне.

Final Fantasy XV Windows Edition Benchmark.



Свежая версия Final Fantasy XV, и соответственно свежая версия бенчмарка на её движке, поддерживают новейшую технологию сглаживания от nVidia - DLSS (Deep Learning Super Sampling), доступную только на RTX видеокартах. Технология использует тензорные ядра и на самом деле представляет собой не сглаживание, а гораздо более интересную реализацию улучшения изображения. На суперкомпьютере NVIDIA SATURN V, помощью суперсемплинга 64x (64xAA), предварительно рассчитываются тысячи идеальных игровых кадров. Разумеется, они не могут быть подставлены вместо бесконечного числа вариантов, отображаемых во время реальной игры. Для этого их слишком мало. Но на этих идеальных кадрах тренируется нейросеть, которая изучает и запоминает закономерности в кадрах, и на основе закономерностей создаёт набор правил. Видеокарта берет каждый игровой кадр, с помощью нейросети находит в нем похожие закономерности и, действуя по правилам, улучшает изображение. Операции "общения" с нейросетью - так называемый "инференс", RTX видеокарты обсчитывают аппаратно, на тензорных ядрах.

Существует два вида DLSS.

DLSS 2x - берется картинка в конечном разрешении и с помощью обученной нейросети производится её антиалиасинг и прочие улучшения.

DLSS 1x - берется картинка в меньшем разрешении и с помощью обученной нейросети производится её масштабирование до конечного разрешения, вместе с антиалисингом и прочими улучшениями.

На первый взгляд может показаться, что DLSS 1x должен быть более требовательным, чем DLSS 2x. На самом деле, это не так. Нейросети всё равно в каком разрешении в нее поступает изображение. Возможно, для работы с масштабированием, её нужно обучить чуть по иному. Но работа с обученной сетью, в этом случае будет требовать меньше ресурсов, потому что меньший размер изображения означает и меньшее количество входных данных. Главный нюанс - качество итогового изображения при DLSS 1x будет иметь больше артефактов, чем при DLSS 2x.

Ближе к делу. Рендеринг в 3860x2160 требует серьезного количества ресурсов. Плюс стандартный антиалиасинг TAA на таком разрешении берет еще немало дополнительных ресурсов. При включенном DLSS, реализованном в Final Fantasy XV, рендеринг осуществляется в 2560x1440, затем в дело включается DLSS 1x, который одновременно масштабирует картинку до 3860x2160 и улучшает её описанным выше методом.

Обычные сглаженные 3860x2160 = 3860x2160+TAA.

DLSS 3860x2160 = 2560x1440+DLSS 1x

По задумке, второй вариант должен выглядеть не хуже первого, и работать, при этом, быстрее. Вот мы сейчас и проверим, так ли это. Благо бенчмарк не требует, чтобы реальное разрешение монитора было 3860x2160. Он умеет работать в любом необходимом внутреннем разрешении.

Всё на максимуме, DLSS отключен. TAA включен:



Результат:



Так и написано - "Низковато".

А что там с картинкой?



Теперь включаем DLSS.



Результат:



Сейчас уже "Стандарт" и по цифрам на треть быстрее.

А вот картинка:



Что тут можно сказать? Большое зеркало выглядело получше при TAA. Здесь оно более ступенчатое. Всё остальное примерно одинаковое. И никаких намеков на то, что когда-то это было 2560x1440. DLSS действительно работает.

Даже навскидку, сильно не придумывая, эта технология вызывает восхищение. Например, можно обучить нейросеть на множестве фотографий реальных машин в сверхвысоком разрешении, а затем "натравить" ее на приближенные к реальности модели, такие какие сейчас используют в гоночных играх. В результате мы получим внешне неотличимые от настоящих виртуальные автомобили. Чтобы было еще понятней, технология напоминает нашумевшие и существующие сейчас веб-сервисы, где тренированные на работах великих художников нейросети превращают ваши фотографии в шедевры кисти мастеров. Аппаратно ускоренные операции с нейросетями, в теории, могут хоть всю игру в реальном времени превращать в ожившие работы Ван-Гога.

Battlefield V.



Это уже не бенчмарк, а полноценная (и очень неплохая) игра, с возможностью включения гибридного рендеринга. Трассировку лучей здесь можно использовать для просчета отражений. Казалось бы, да ладно, одна единственная фича, что она дает? А вот что:



Всего лишь только отражения, а уровень реализма вырастает на порядок.

Осталось проверить, насколько включение трассированных отражений влияет на производительность nVidia GeForce RTX 2070 в Battlefield V.

DXR Off:



DXR On:



Обратите внимание, что в потертом прикладе винтовки теперь видны отражения нависающих деревьев. Частоту кадров можно увидеть в правом верхнем углу. Трассированные отражения рубят FPS надвое. Но 67 к/с - это весьма неплохо. Battlefield V очень красивая и при этом прекрасно оптимизированная игра. Она и без DXR выглядит сногсшибательно, а с ней местами даже создает эффект присутствия. Аж дух захватывает. Да здравствует трассировка лучей!

На этом можно заканчивать. В качестве вывода, должен написать, что у современных игр и, что самое главное, у современных технологий, такие аппетиты, что скоро в "рекомендованные системные требования" будут попадать исключительно топовые железки, а на "минимальных" не увидишь и половины красот. Всей моей модернизации (а это верхний средний уровень), при включении в играх современных революционных фич, хватает на комфортно играбельный уровень только до 1920х1080. Далее начинаются компромиссы. Если же не учитывать трассировку лучей, то полноценная игра возможна и при 2560x1440. А вот для 3860x2160, в современных играх, графические настройки придется чуть прикрутить.

То, что сделала nVidia - это начало революции и просто атомная бомба по конкурентам. Разработчики подхватили новые возможности, как голодные собаки кусок мяса. Для аппаратных T&L и шейдеров когда-то была нужна серьезная раскачка, за время которой ATI успевала не только догнать, но и сделать лучше. Сейчас времени нет. Будущие игры, с поддержкой прорывных технологий nVidia, заявлены десятками. AMD остается бить демпингом, количеством FPS в традиционных режимах и объемом видеопамяти. nVidia решила не то чтобы наплевать, но не зацикливаться на одном 4K. И это очень хорошо, потому что всем уже надоел этот перекос приоритетов. AMD же ничего не остается, как только дальше двигаться в сторону высоких разрешений. Как раз сегодня она анонсировала видеокарту Radeon VII с 16 гигабайтами видеопамяти.

Что касается процессоров, то линейка AMD гораздо более сбалансирована, чем линейка Intel. У AMD каждый процессор на своем месте. У Intel же, если у вас не одна из двух топовых видеокарт на ГП от nVidia, мощней чем Core i5-8400 брать для игр вообще не стоит. Но выше него находится еще приличное число разных процессоров. Не надо их столько.
Размещено в Без категории
Просмотров 667 Комментарии 6
Всего комментариев 6

Комментарии

  1. Старый комментарий
    Аватар для slonka
    Почитываю сейчас аналитику по игровому железу, с подведением итогов прошедшего года, на топовых профильных сайтах. И всё больше уверяюсь, что эти мои пользовательские рассуждения, основанные на собственном опыте, во многом повторяют выводы "серьезных" материалов.

    Дополнил также начало материала его анонсом, чтобы было понятно, что здесь можно найти.
    Запись от slonka размещена 12.01.2019 в 11:39 slonka вне форума
    Обновил(-а) slonka 12.01.2019 в 11:42
  2. Старый комментарий
    Аватар для Leonis
    Какие интересные исследования. Сколько примерно стоит такое оборудование?
    Запись от Leonis размещена 14.01.2019 в 11:13 Leonis вне форума
  3. Старый комментарий
    Амд без разницы, она в шоколаде. У нее на носу поставка миллионов процов для пс5 и хбох 2. И ее умение делать проц с встроенным гпу является решающим.
    Мне больше интересно что за видюхи интел выкатит. Когдато ее 740 были просто вери бест в бюджете. Турок2 и квак2 летали!
    Запись от Infinity размещена 14.01.2019 в 11:26 Infinity вне форума
  4. Старый комментарий
    Аватар для slonka
    Leonis

    Цитата:
    Сколько примерно стоит такое оборудование?
    Всё вместе, даже не скажу. Я ведь модернизирую, а не полностью меняю. Но последний апгрейд потянул $1000, из которых больше половины стоит видеокарта.

    Infinity

    Цитата:
    Амд без разницы, она в шоколаде
    Не без разницы. ПК разных видов в мире продается в десятки раз больше, чем игровых приставок. На них ведь не только играют. Это и рабочие станции, и офисные компьютеры, которые в нормальных компаниях принято менять раз в несколько лет, и оборудование для дата центров, и всяческие встроенные решения. Один только рынок ноутбуков в разы превышает рынок консолей.

    Да, согласен, AMD очень помогают заказы железа для приставок. Но при этом она очень жестко борется за рынок процессоров для настольных систем. И несмотря на все её последние успехи и провалы Intel, всё равно у AMD сейчас 15% рынка, а у Intel - 85%.

    Цитата:
    Мне больше интересно что за видюхи интел выкатит. Когдато ее 740 были просто вери бест в бюджете. Турок2 и квак2 летали!
    Где-то читал, что просят не раскатывать губу, потому что грядущие видюхи Intel, скорей всего, будут направлены на профессиональный сегмент. Впрочем, это не точно. В любом случае, конкуренция - это очень хорошо для пользователей.
    Запись от slonka размещена 14.01.2019 в 15:55 slonka вне форума
  5. Старый комментарий
    Аватар для slonka
    Вчера я погонял в порт Quake II, с переписанным под трассировку движком. Новость об этом порте облетела интернет, но не все поняли его значение, потому что читали рерайт. А читать надо было или оригинальный сайт или перевод его информации на "Хабре". Выглядит это дело вот так:



    На вид ничего особенного. Видели мы уже модифицированную Quake II, с улучшенной картинкой. И не один вариант. Причем, без всяких там трассировок. Правда в динамике этот Q2VKPT порт выглядит интересней, чем в статике. Можно также обратить внимание на настоящие отражения в воде. Они тоже лучше выглядят в динамике, когда вода шевелится.



    Но есть три нюанса, которые заставляют посмотреть на этот порт круглыми глазами.

    Первый - это не гибридный рендеринг. Забудьте о стандартном конвейере. Здесь - настоящая полная трассировка. Не без хитростей, конечно, но игра теперь визуализируется только отслеживанием лучей.

    Второй - в этом порте, при полной трассировке, самая мощная видеокарта современности, Nvidia GeForce RTX 2080 Ti, в разрешении 2560х1440 держит примерно 60 FPS. Моя GeForce RTX 2070 держит 70 FPS в разрешении 1680х1050. Что значит, что в 1920х1080 будет не меньше 60 FPS на RTX 2070. При полной трассировке, это очень круто.

    Третий - кто-то скажет: "Да это только потому, что мы имеем дело всего лишь с Quake II.", и будет совсем неправ. Разработчики пишут, что выбрали Quake II исключительно из-за известности, удобства, и открытых кодов. Они же говорят, что скорость работы их метода визуализации, организованного, кстати, на API Vulkan, почти не зависит от геометрии и от качества текстур. "Лучам" пофигу на что натыкаться, будь то сцена из миллиона полигонов или из тысячи. Главное - количество источников освещения и лучей, а не полигонов. А в Quake II источников освещения как раз много. То есть, метод создателей этого порта может быть применен и к гораздо более навороченным современным играм. При той же частоте кадров.

    Вывод - уже сейчас можно создавать современные игры с полной трассировкой, для нормальной работы которых достаточно уже выпущенных "первых RTX ласточек".
    Запись от slonka размещена 26.01.2019 в 22:51 slonka вне форума
    Обновил(-а) slonka 26.01.2019 в 23:07
  6. Старый комментарий
    Аватар для slonka
    NVIDIA DLSS feature test



    UL сегодня выпустила новую версию 3DMark, с тестированием в бенчмарке Port Royal технологии DLSS от Nvidia, доступной на RTX видеокартах. А Nvidia, в свою очередь, сегодня же, выпустила Game Ready драйвер под Port Royal c DLSS.

    Это отдельный тест в списке тестов 3DMark, основанный на Port Royal. Сначала он прогоняется с TAA сглаживанием, а затем без TAA, но с DLSS апскейлом. В конце сравнивается FPS. Тест проходит в разрешении 2560х1440. С TAA всё понятно. А вот DLSS, вероятно, апскейлит с 1920х1080. Таков принцип технологии. Иначе никакого ускорения не происходило бы. Итоговая 1440р картинка визуально мало отличима, что при TAA, что при DLSS. Но DLSS увеличивает скорость рендеринга сцен с трассировкой натурально в полтора раза. Вот результат на моем конфиге:



    О DLSS я уже здесь писал. Кто не понял, что это такое, почитайте в заглавном посте.
    Запись от slonka размещена 05.02.2019 в 01:02 slonka вне форума
    Обновил(-а) slonka 05.02.2019 в 01:05
 
Текущее время: 17:11. Часовой пояс GMT +3.
Рейтинг@Mail.ru
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2019, vBulletin Solutions, Inc. Перевод: zCarot