Resident Evil Village
Закончить топ хотелось бы игрой которую наверняка ждут многие любители хорроров. Resident Evil Village, представленная в июне прошлого года на презентации PlayStation 5, наделала немало шума. Показанный тогда трейлер не оставил равнодушным даже самого придирчивого фаната. Village продолжит историю Итана Уинтерса, главного героя RE7. Парень уже несколько лет живёт со своей девушкой, вылечившейся от заразы из предыдущей части, и горя не знает. Но судьба, как это часто бывает подготовила ему мрачный сюрприз… А сама игра может стать очень горячим сюрпризом для вашего компьютера, не готового к нагрузкам.
Минимальные системные требования:
- OC: Windows 7, 8, 8.1, 10
- CPU: Intel Core i5-6400 / AMD FX-6350
- RAM: 8 ГБ
- GPU: NVIDIA GeForce GTX 770 / AMD Radeon R7 265 с 2 Гб Video RAM
- HDD: 40 ГБ
Рекомендованные системные требования:
- OC: Windows 7, 8, 8.1, 10
- CPU: Intel Core i5-4670K / AMD FX-8370
- RAM: 8 ГБ
- GPU: AMD Radeon RX 580 / NVIDIA GeForce GTX 1060
- HDD: 40 ГБ
Результаты тестирования
Ноутбук потянет игру на .
Что касается OMEN15-ek0039ur (2020), то он потянет новый ужастик от Capcom на высоких настройках графики.
***
С ноутбуком OMEN Laptop 15-ek0039ur (2020) можно перестать смотреть на системные требования и начать просто наслаждаться играми. А разве не этого мы все хотим?
- Они унизили ваш ПК: самые требовательные, неоптимизированные и просто тормозящие игры
- Crysis 3, Kingdom Come: Deliverance, Quantum Break и другие требовательные игры протестировали на Nvidia RTX 2080Ti
- 10 самых требовательных игр на ПК — видео
Процессор Amlogic S905X3 + видеоускоритель Mali-G31.
На 2020 и 2021 годы, конечно же, это самые популярные у покупателей модели. Смарт ТВ приставки на данной начинке отличаются относительной дешевизной и при этом обладают внушительными характеристиками. Поддерживают просмотр 4K видео в 60 fps, тянут тяжелые торрент фильмы и современные андроид игры. У многих моделей имеется поддержка качественного звука Dolby Digital Plus, DTS и др.
Обладание такими возможностями предопределило и некоторые усовершенствования в железе. Например, в отличии от моделей прошлых лет, современные тв приставки в обязательном порядке снабжаются быстрыми портами USB 3.0 и скоростными модулями WiFi с поддержкой диапазона 5Ghz. Всё для удобного просмотра 4K контента по сети и с внешних носителей.
Количество ядер: | 4 |
Разрядность: | 64 бит |
Ядро: | ARM Cortex A55 |
Популярные модели на данной начинке:
- Ugoos X3 Pro, X3 Plus, X3 Cube
- A95X F3
- X96 MAX Plus
- Mecool KM1
- Mecool K5
- Tanix TX3
- Magicsee N5 Max
- Tox1
Лучшие видеоускорители
На основе тестов бенчмарка AnTuTu, тройка лучших ускорителей на Андроид сейчас выглядит так:
- Qualcomm Snapdragon. Этот чип был представлен ещё в прошлом году и безоговорочно занял первую позицию по производительности. Он пришёл на смену процессору с индексом 810. Поставляется самый мощный видеоускоритель в такие модели, как Xiaomi Mi5, Sony Experia X, LG G5, так что если хотите получить высокую производительность в играх — выбирайте эти модели.
- Сразу же после него (если не упоминать чип от Apple, который устанавливается только в продукции этой марки) разместился Exynos 8890 с ускорителем Mali-T880MP. Сегодня он присутствует только в Samsung Galaxy S7.
- Тройку лучших чипов закрывает процессор от той же компании Qualcomm Snapdragon 810, уже упоминавшийся в списке — он вытеснил нашумевший Kirin 950, который сначала был в топе, но сейчас показывает куда более скромные результаты в тестах.
Дальнейший рейтинг мобильных видеоускорителей для Андроид выглядит таким образом:
- Exynos 7420.
- Qualcomm Snapdragon 805.
- Kirin 950.
- Qualcomm Snapdragon 808 и Snapdragon 652 — из всех моделей, где поставляется второй видеоускоритель, самой востребованной стала Samsung Galaxy A
Кстати, последние два представителя рейтинга процессоров не слишком отстают от чипа Kirin 950, и это притом, что они считаются оптимальными решениями для средних, а не топовых устройств.
- Qualcomm Snapdragon 650 — новый чип, выпущенный в 2016 году. Увидеть его можно в новинке от Xiaomi — в модели Redmi Note 3 Pro.
- И напоследок можно упомянуть о Intel Atom Z3795 — он занимает уверенное 10-е место рейтинга, но, как уже писалось ранее, детали этого бренда пока не так востребованы в мобильных устройствах.
Теперь вы знаете, какой или какие видеоускорители являются самыми мощными на устройствах Андроид. Подводя итоги, можно уверенно сказать, что лидирующие позиции в сфере графических процессоров занимает компания Qualcomm, поэтому именно на её продукты стоит смело ориентироваться при выборе смартфона или планшета.
Что такое judder эффект и как его увидеть
Одной из неприятных особенностей данной ситуации является так называемый judder-эффект. Если картинка в видео выше понравилась, и вы не заметили ничего необычного, то быстрее закройте данную статью и забудьте про Auto Frame Rate навсегда.
Если же за тестовые 20 секунд глаза сильно напряглись и начали уставать – продолжаем изучать тему.
С judder-эффектом сталкивается любой покупатель нового телевизора или Smart-TV бокса. В рекламном ролике или магазине на тестовых стендах транслируются специальные ролики, который сняты с поддерживаемой для каждой модели частотой кадров и разрешением. Все выглядит максимально плавно, эффектно и реалистично.
Но когда счастливый обладатель нового “телека” приносит его домой и начинает воспроизводить свой контент, его ждёт небольшое разочарование.
У поставщика кабельного телевидения или T2 используется одна частота кадров, вещающие в цифровом формате IPTV-каналы имеют другую частоту, контент в стриминговых видеосервисах настроен на третью частоту. Загруженные вами видео могут как совпадать по частоте с любым из перечисленных вариантов, так и иметь свой уникальный показатель.
Если количество кадров в секунду у контента совпадёт с настройками ТВ (или будет кратно параметрам), пользователь увидит чёткую картинку без рывков и размытия. В противном случае будет наблюдаться тот самый judder-эффект.
Большинство современных телевизоров поддерживают работу на частоте 60 Гц или 120 Гц. При этом они без проблем справляются с контентом, который снят с частотой 30 или 60 кадров в секунду. Всё это кратные значения и, например, панель с частотой 120 Гц при воспроизведение ролика с частотой 30 кадров в секунду будет отображать каждый кадр по четыре раза.
Так же гладко пройдёт воспроизведение 24-кадрового ролика на экране с частотой 120 Гц (по пять повторений каждого кадра). А вот на экране с максимальной частотой 60 Гц 24-кадровое видео уже будет выглядеть неидеально.
Вот так это выглядит на графике:
Трансляция 24-кадрового контента на частоте 60 Гц
Получается так называемый эффект “телесин” в соотношении два к трём. Один кадр видео телевизор будет отображать 2/60 доли секунды, а следующий кадр видео будет длиться 3/60 доли секунды и так далее. Глаз человека очень чётко заметит такой эффект дрожания или подтормаживания картинки. Не будет общего ощущения плавности, любой голливудский шедевр превратится в любительское видео с дешёвой камеры.
Всевозможные системы сглаживания (или так называемые “уплавнялки”) сейчас есть в арсенале любого крупного производителя телевизоров и матриц. Умные системы способны добавлять недостающие кадры и делать частоту фреймов кратной частоте выводимого сигнала. Так в нужных местах появится лишний кадр, и указанного выше эффекта наблюдаться не будет.
Наглядное сравнение картинки можете увидеть на тестовом видео ниже. Все кадры в правом ролике воспроизводятся с одинаковой частотой, а слева каждый второй кадр длится заметно дольше. Некоторые увидят разницу только при замедлении видео, а некоторые смогут разглядеть эффект и в динамике.
К сожалению, работает данная фишка не всегда правильно. При просмотре динамических роликов или спортивных трансляций judder-эффект максимально заметен. Так футбольный мяч после удара превращается в комету или дыню, либо автомобиль во время ускорения резко меняет свою форму и становится смазанным. В эти моменты встроенная в телевизор система помогает добавить недостающие кадры и сделать картинку более чёткой.
Эта же система способна испортить просмотр динамических сцен в кино. Когда, по задумке режиссёра, кадр должен иметь эффект размытия или быть смазан, телевизор делает его слишком резким и появляется эффект съёмки на любительскую камеру.
Чтобы полностью избавиться от judder-эффекта, частота выходного сигнала должна быть равна или кратна показателю fps воспроизводимого видео. Только такой способ трансляции позволить избежать видимых искажений и смотреть контент в таком виде, как задумали его создатели.
Рейтинг процессоров для смартфонов
На рынке представлены телефоны с разными микрочипами. Выбрать лучший помогает знание влияния их характеристик на функционирование гаджета. Производят элементы на основе архитектуры Cortex, Arm, стандартной или модифицированной. У большинства схожие частоты и количество ядер. Основным критерием выбора выступает производительность процессоров смартфонов, поэтому при покупке нужно учитывать величину объема оперативной памяти и быстродействие. При тестировании девайсов известных брендов, эксперты сайта Vyborexperta.ru учитывали следующие параметры чипсетов:
- Техпроцесс;
- Тактовая частота;
- Объем оперативной памяти;
- Количество ядер;
- Энергопотребление;
- Тип графической подсистемы;
- Дополнительные функции.
В топе представлено описание 7 моделей с хорошей производительностью. На основании анализа отзывов экспертов, владельцев смартфонов с данными микрочипами выделены плюсы и минусы каждого устройства.
Лучшие зарядные устройства для телефона
Что насчёт DLSS 2.0?
DLSS 2.0 была протестирована в игре Watch Dogs: Legion. Традиционное масштабирование разрешения работает неидеально и влияет на качество изображения, поскольку обрабатывается меньше пикселей. Особенно это заметно, когда отображается изображение на большом расстоянии и высокочастотная детализация. Увеличение резкости может помочь, но это не панацея.
Отчасти панацеей является DLSS 2.0. Это показали тесты в Wolfenstein: Youngblood и Control. За счёт использования тензорных ядер RTX алгоритм DLSS AI способен начать с ввода на более низком разрешении и эффективно воссоздать пропущенные пиксели так, что картинка неотличима от нативной обработки. На нижнем уровне качеством приходится жертвовать, зато прирост производительности огромный.
Когда DLSS установлено на значение «Качество», результат в среднем составлял 55 FPS. Этот режим даёт качество изображения, которое чуть лучше по сравнению с нативным разрешением с TAA. Работает это намного лучше. В любом случае, мы находимся на территории ниже 60 FPS и иногда даже ниже 50 FPS.
DLSS Balanced предлагает хороший баланс производительности. Среднее значение составляет 62 FPS, минимальный 1% в районе 50 FPS. Это не идеально, но хорошо сочетается с режимом Adaptive V-Sync.
Когда DLSS работает в режиме производительности, качество изображения слегка ухудшается. Зато средняя частота кадров растёт до 72 FPS, а нижний 1% до 60 FPS. Если вы ищете стабильные 60 FPS, этот режим для вас. В конце попробовали режим DLSS Ultra Performance, но вряд ли можно порекомендовать пользоваться им.
Nvidia что заявляет, что DLSS Ultra Performance нужен только для мониторов 8K, и это не просто маркетинговые слова. Если включить этот режим на разрешении 4К, игра масштабируется всего с 720p. Хотя неподвижные кадры выглядят вполне прилично, задвоение и артефакты влияют на качество картинки при повороте камеры.
Ultra Performance в среднем даёт 86 FPS и 66 FPS на нижнем 1%. Это неплохой прирост по сравнению с режимом производительности, но уменьшение качества изображения делает его использование неоправданным.
Технические характеристики и программное обеспечение
В основе видеокарты лежит уже знакомый намGP102-350-K1-A1.
ВAORUS GeForce GTX 1080 Ti 11G главным изменением технических характеристик видеокарты является изменение базовой частоты до 1569 МГц и частоты буста до 1683 МГц и дополнительное питание в виде двух 8-pin разъемов.
Наименование | Nvidia GeForce GTX 1080 Ti | AORUS GeForce GTX 1080 Ti 11G |
Графический процессор | GP102-350-K1-A1 | GP102-350-K1-A1 |
Техпроцесс | 16 нм | 16 нм |
Размер ядра | 471 мм2 | 471 мм2 |
Базовая тактовая частота | 1480 МГц |
1569 МГц (режим Gaming) 1594 МГц (режим OC) |
Тактовая частота с ускорением |
1582 МГц |
1683 Мгц (режим Gaming) 1708 МГц (режим OC) |
Количество ядер CUDA | 3584 | 3584 |
Количество текстурных блоков | 224 | 224 |
Количество блоков растеризации | 88 | 88 |
Тип памяти | GDDR5X | GDDR5X |
Быстродействие памяти | 11 Гбит/с | 11 Гбит/с |
Объем памяти | 11 Гб | 11 Гб |
Полоса пропускания шины памяти | 352 бит | 352 бит |
Дополнительные разъемы питания | 6 + 8 | 8 + 8 |
Потребляемая мощность | 250 Вт | 250 Вт |
Размеры (ДхВхШ) | 267х111х40 мм | 293х142х55 мм |
Видеовыходы | DP 1.4 (3 шт),HDMI 2.0b (1 шт) | DVI-D (1 шт), DP1.4(3 шт), HDMI 2.0b (2 шт) |
Максимальное потребление видеокарты было увеличено до 375 Вт.
С помощью программы AORUS GRAPHICS ENGINE мы можем переключить режимы работы видеокарты из Gaming (установлен по умолчанию)…
в режимы OC…
и Silent,…
… которые отличаются только базовыми и бустовыми частотами графического ядра.
Также в программе существует возможность ручного разгона видеокарты и сохранение настроек в профиль:
Также мы имеем возможность отключения бездействия вентиляторов системы охлаждения WINDFORCE при невысоких температурах и широкую настройку подсветки видеокарты:
Подсветка видеокарты имеет, как большие возможности регулировки режимов работы, так и огромный спектр цветовой гаммы (16,8 миллиона цветов):
На видео запечатлен один из режимов работы подсветки, который называется CIRCLING:
Когда вентиляторы видеокарты остановлены, на кожухе видеокарты появляется соответствующая надпись:
Gigabyte GeForce GTX 1080 G1 Gaming
Для производства GIGABYTE GeForce GTX 1080 G1 GAMING использована оригинальная печатная плата черного цвета со стандартным принципом компоновки набортных элементов. Применяемая элементная база соответствует фирменной концепции Ultra Durable VGA, то есть она набрана исключительно из высококачественных комплектующих: японских твердотельных конденсаторов, дросселей с ферритовым сердечником и полевых транзисторов с низким сопротивлением открытого канала (RDS(on)). Дополнительно некоторые медные дорожки в определенных слоях печатной платы имеют удвоенную толщину, что позволяет снизить общее электрическое сопротивление и обеспечить более эффективный отвод тепла. Новый черный корпус с оранжевыми вставками делает внешний вид G1 GAMING по-настоящему геймерским и динамичным. Металлическая бекплейт делает конструкцию прочной и защищает ее от повреждений, одновременно добавляя гладкость и лаконичность внешнему виду. На кожухе GTX 1080 G1 GAMING размещен RGB LED-логотип GIGABYTE с полным спектром цветов. С 16,5мл цветов и множеством режимов сияния, геймер получает максимум свободы выбора схемы работы подсветки, используя утилиту XTREME Engine. Печатная плата GIGABYTE GeForce GTX 1080 G1 GAMING имеет длину 280 мм, сама видеокарта из-за кулера оказалась немного длиннее. Кулер превосходит по размерам печатную плату. Толщина видеокарты составляет два слота, здесь никаких проблем нет. Дополнительное питание на видеокарту подается через один 8-контактный разъем PCI Express. Он обеспечивает мощность до 150 Вт. Также 75 Вт могут подаваться через слот PCI Express, в результате чего видеокарта может потреблять до 225 Вт мощности. Для подключения дисплеев есть по одному интерфейсу Dual-link DVI-D и HDMI 2.0b, а также три порта DisplayPort 1.4. GeForce GTX 1080 G1 GAMING базируется на 16-нанометровом чипе NVIDIA GP104 с архитектурой Pascal. Изделие насчитывает 2560 потоковых процессоров, 160 текстурных модулей и 64 блока работы с растровыми операциями. NVIDIA GeForce GTX 1080 работает с базовой частотой 1607 МГц. Под нагрузкой благодаря технологии GPU Boost частота увеличивается, как минимум, до 1733 МГц. Но Gigabyte не стала довольствоваться эталонными частотами. Базовая частота видеокарты выставлена на 1685 МГц, а в режиме Boost минимальный уровень составляет 1860 МГц. То есть мы получаем разгон примерно на 20%. Впрочем, Gigabyte не одна на рынке, другие производители тоже представили немало видеокарт с заводским разгоном. Видеокарта GeForce GTX 1080 G1 GAMING может работать в двух режимах OC mode и Gaming mode при этом на разных частотах.
-Boost: 1860 МГц / Base: 1721 МГц режим OC mode
-Boost: 1835 МГц / Base: 1695 МГц режим Gaming mode
Что касается памяти тестируемой видеокарты, общим объемом 8 ГБ, набрана с помощью чипов Micron GDDR5X емкостью 1000 МБ каждый. Согласно документации, их номинальная эффективная частота составляет 10108 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 320 ГБ информации за секунду. Так же отметим, что при помощи утилиты XTREME Engine которая входит в комплект, видеокарта имеет возможность разгона в один клик. Всего одним кликом мыши геймер может настроить видеокарту для различных игровых требований, не имея познаний в разгоне и избежав хлопот с ручной регулировкой. Карта оснащена системой охлаждения WindForce 3X, конструкция которой включает три медные тепловые трубки, непосредственно контактирующие с GPU, и три вентилятора. Как утверждается, форма лопастей позволяет обеспечить высокую эффективность при низком уровне шума. Более того, функция 3D Active Fan включает вентиляторы только при необходимости, так что под небольшой нагрузкой изделие работает практически бесшумно. Светодиодные индикаторы позволяют сразу увидеть, вращаются ли вентиляторы в данный момент. Композитные медные трубки сочетают в себе два важных аспекта теплопереноса и способности забирать тепло из зоны прямого контакта. Таким образом повышается эффективность охлаждения на 29%. Медные трубки имеют прямую зону соприкосновения с графическим процессором. Благодаря запатентованной технологии «Triangle Cool”, которая состоит из пластинок радиатора и специальный алюминиевых вставок, удается достичь высокого уровня эффективного рассеивания тепла.
Драйвера
Для обработки графики пользовательского интерфейса, игр, видео и т.д., производители закладывают ряд драйверов, инструментов и библиотек: OpenGL ES, OpenCL, Vulkan и DirectX. Чем новее SoC, тем современнее драйвера, а устройство демонстрирует лучшие показатели производительности или возможностей, при выполнении привычных задач.
Традиционно лучшие наработки получают мобильные платформы топового и флагманского сегмента. Жизненный цикл, поддержка и обновление таких чипов в приоритете. Тогда как средний или бюджетный сегмент обновляется в последнюю очередь, либо не получает обновы вообще. Поддержка Qualcomm в среднем 2-3 года; MediaTek 1-1.5 года, нижний сегмент обновляется только с выходом новых чипов.
Учитывать версии драйверов стоит в том случае, если смартфон или планшет покупается с запасом на будущее. Тогда лучший выбор – свежий SoC, топового или флагманского сегмента.
Лучшие видеокарты для майнинга 2020 года
В этом разделе рейтинга собраны адаптеры, которые отлично зарекомендовали себя в добыче криптовалют в недавно прошедшем 2020 году. Процедура эта довольно сильно нагружает оборудование, поэтому для решения соответствующих задач требуется выбирать, прежде всего, надежные, износостойкие модели.
Radeon RX 590 8GB
Radeon RX 590 8GB
Мне нравитсяНе нравится
Видеокарта стоит примерно 14 100 руб., при этом справляется с майнингом намного лучше, чем ее конкуренты от Nvidia, которые продаются в пределах той же суммы. Самым главным «зеленым» аналогом устройства является GeForce GTX 1660, который обходится чуть дороже, а при этом имеет меньше видеопамяти (всего 6 Гб против 8 Гб у Radeon). Опытные владельцы ферм не считают, что есть смысл платить больше лишь за популярность торговой марки. При этом данная модификация RX 580 работает на тактовой частоте 1545 МГц, что обеспечивает ей большую производительность, чем у предыдущих моделей, на 15 процентов.
Добиться столь выдающихся результатов удалось благодаря техпроцессу «12 нм». Сама архитектура адаптера осталась практически неизменной. При этом цена этой новой карты от AMD выше на 20 процентов, но эта переплата стоит своих денег, ведь каждый майнер знает, что для добычи монет можно брать оборудование чуть дороже и быстрее, если у него есть больший запас производительности на будущее, когда майнинг станет сложнее. Перед покупкой этой карты убедитесь, что в вашем ПК имеется блок питания на 8-pin.
GeForce RTX 2080 Ti
GeForce RTX 2080 Ti
Мне нравится1Не нравится
Этот продукт от Nvidia вполне подойдет для майнинга в наступившем 2021 году, поскольку и в прошлом он был одним из лучших. Чип базируется на архитектуре Turing TU102, в нем на 55 процентов больше транзисторов, чем, например, на Pascal GP102 в моделях предыдущего поколения. В новинке появилось еще больше ядер CUDA. На плате используются тензорные ядра (Tensor) для ускорения алгоритмов типа DLSS и RT ядра для ускорения трассировки лучей.
Найти видеокарту RTX 2080 Ti дешевле, чем за 75 000 руб., вряд ли возможно. Большинство магазинов продает эти устройства за 80 000 руб. или дороже. Существует также модификация Titan RTX, которая стоит в 2 раза больше этой суммы, но ее не выйдет использовать для майнинга, только для игр. Увы, по соотношению между ценой и качеством это не самый лучший вариант. Стоит данная карта дорого, поэтому окупит себя нескоро. Но зато это одна из самых производительных моделей на рынке. Особенно если использовать высокоскоростной интерфейс NVLink, позволяющий синхронизировать работу нескольких карт для майнинга одновременно.
AMD Radeon VII
AMD Radeon VII новая модель
Мне нравитсяНе нравится
RX 6800 — новая модель в линейке Vega II, которая была придумана специалистами AMD специально для того, чтобы вернуть часть рынка графических карт. И действительно, новинке удалось во многом обыграть лучшие сборки Nvidia, нацеленные на обработку графики. AMD показывает великолепные результаты в играх, запускаемых в разрешении 4K. Но лучше всего они работают именно при решении задач по майнингу, созданию видеоконтента в профессиональном программном обеспечении. RX 6800 имеет 16 ГБ памяти HBM2 и на сегодняшний день является по соотношению цены и качества одной из лучших видеокарт, отлично справляясь с добычей Bitcoin и Ethereum, то есть криптовалют, являющихся основными игроками на современном рынке.
Обладая 3840 ядрами и максимальной тактовой частотой в 1800 МГц, она почти на 20% быстрее, чем Vega 64. В конструкции предусмотрен вход PCIe 3.0, но само устройство уже поддерживает технологию следующего поколения под названием PCIe 4.0. Она делает пропускную способность при обмене данными с другими деталями вдвое более высокой. Если вам не нужна трассировка лучей от Nvidia и при этом вы желаете получить невероятно производительный майнинговый адаптер, то обязательно отдайте предпочтение именно этому продукту, занимающему третье место в данном разделе рейтинга.
Разрешение
Как вы, вероятно, знаете, разрешение описывает количество пикселей на экране по горизонтали и вертикали. Таким образом, чем больше пикселей, тем резче и детальнее будет изображение.
В настоящее время в игровом мире есть три наиболее популярных типа разрешений:
- Full HD (1080p)
- Quad HD (1440p)
- Ultra HD (2160p или 4K)
Как вы можете видеть на изображении выше, разрешение может значительно варьироваться в зависимости от соотношения сторон — 16:9, 16:10, 21:9, 32:9 и так далее. Тем не менее три указанных выше типа являются наиболее популярными. Итак, каковы же преимущества и недостатки каждого из них?
Чего ожидать в играх?
Игры — это динамика, потому ровные линии вы там будете видеть не так часто, они в постоянном движении. Красота проявится в более детальной картинке. Всё вокруг станет более чётким и детализированным за счёт отображения хорошо прорисованных текстур.
К примеру, если раньше вы бегали по подземелью и видели стоящий серый сундук, сейчас окажется, что дизайнеры и художники над ним долго работали, потому что при разрешении 3840×2160 монитору хватает количества пикселей, чтобы отрисовать заклёпки. Если раньше меч был просто куском заточенной стали, сейчас окажется, что кромка имеет зазубрины и щербатости. А свеча, которая горела на столе, оказывается, испускает тонкую полоску дыма, которую ранее было не видно. Трава под ногами стала более нарядной, броня на герое вся в потёртостях и царапинах, а на камне у ворот выгравированы какие-то руны.
Но это большая дополнительная нагрузка на ваш видеочип. Однако её можно значительно снизить, отключив сглаживание, потому что теперь «лесенок» не будет. Они возникали как раз из-за того, что плотность пикселей у старого монитора значительно ниже, и точек не хватало, чтобы изобразить изгиб совсем плавно. Сейчас точки стали меньше, а их количество выросло, потому всё смотрится значительно лучше.
Ultra HD
Ultra HD или, как его обычно называют, 4K – новейший стандарт, на переход к которому стремится буквально вся индустрия. 4K-телевизоры начали появляться на рынке еще несколько лет назад, и сейчас есть множество 4K-мониторов, многие из которых, на удивление, недорогие.
Как вы могли догадаться, 4K предлагает превосходную четкость и качество изображения. Тем не менее, учитывая огромное количество пикселей, разрешение требует наличия очень мощного оборудования.
Действительно, только мощные высокопроизводительные видеокарты, такие как новейшие модели RTX от Nvidia, смогут справиться с этим разрешением, когда дело доходит до запуска требовательных AAA игр.
Вместе с тем, даже некоторые более старые и слабые модели — например, RX Vega 56, RX Vega 64, GTX 1080 Ti, GTX 1070 Ti – способны запускать игры в 4K, хотя частота кадров будет ниже и менее стабильной без каких-либо уступок в отношении других настроек графики.
В целом, UHD — то, что нужно, если вы цените визуальные эффекты за производительность и можете позволить себе высококачественный графический процессор и надлежащий 4K монитор. Для большинства людей, однако, что-то более рентабельное будет, вероятно, лучшим вариантом.
Проверка на практике
Мы даже провели эксперимент и опросили некоторых друзей на примере Diablo III и даже Hearthstone, где казалось бы совсем мало эффектов.
Ранее Diablo III Запускалась на максимальных настройках графики при разрешении 1920×1080 пикселей, выдавая стабильные 60 fps. Затем мы показали эту же игры при разрешении 2560×1440 пикселей, при этом снизив настройки графики до средних, потому что при более высоких терялась плавность, получалось менее 60 fps. Но те, кто принял участие в эксперименте единодушно сошлись во мнении, что графика стала лучше. Даже несмотря на то, что в настройках игры мы её понизили.
Затем совершили ещё один переход с 2560×1440 на 3840×2560 пикселей, при этом понизив настройки графики Diablo III до минимально возможных, а также отключив сглаживание. Таким образом удалось получит максимальное разрешение и всё ещё стабильные 60 fps. Принявшие участие в эксперименте снова сошлись во мнении, что графика стала лучше во второй раз. Даже несмотря что теперь настройки в игре минимальны.