Nvidia geforce gtx 760 обзор видеокарты. бенчмарки и характеристики

CS:GO

И лишь в киберспортивной дисциплине Counter-Strike: Global Offensive расстановка сил меняется гораздо сильнее: минимальный фреймрейт полученный на видеокарте GTX 760 довольно ощутимо отстает от показателей GTX 670. А при учете того, что сам минимально-снятый результат находится на отметке неиграбельных 21-26FPS, 5 дополнительных кадров явно не будут лишними.

Вероятнее всего, здесь на руку GTX 670 сыграло большее количество аппаратно задействованных текстурных блоков

Однако на практике это не особо важно, ведь если вы читали материал о GTX 670, то знаете, что в реальном геймплее таких просадок банально нет и FPS держится на приемлемых отметках

Nvidia GeForce GT 740

Ранее компанией NVIDIA выпускалось несколько видеокарт на базе графического процессора GK107. В сегменте настольных решений он стал основой для GeForce GTX 650 и GeForce GT 640. Последний работал на более низких частотах и оснащался только медленной памятью DDR3. Свежий GeForce GT 740 может заменить сразу две эти модели, поскольку выпускается разных модификациях — с памятью GDDR5 и DDR3. А сердцем его по-прежнему является GK107, в активе которого 384 потоковых процессора и 32 текстурных блока при 16 ROP. Для всех версий GeForce GT 740 частота ядра установлена на отметке в 993 МГц, что как раз посередине между частотами GeForce GT 640 и GeForce GTX 650. В случае использования GDDR5 ее эффективная частота обмена данными соответствует 5000 МГц, что идентично параметрам GeForce GTX 650. Микросхемы DDR3 работают на частоте 1800 МГц, что соответствует параметрам GeForce GT 640. Но тут еще нужно отметить, что для бюджетного старичка привычным было использование и более слабых микросхем, особенно если речь шла о видеоадаптерах с 4 ГБ и т.п. В случае же GeForce GT 740 DDR3 производители пока строго придерживаются рекомендаций о 1800 МГц. Для младшей версии с DDR3 стандартным является объем буфера в 2 ГБ, старшая версия ограничивается 1 ГБ в референсном исполнении.

Две видеокарты на одном компьютере как настроить

Установка двух или более видеокарт, работающих совместно, обеспечивает улучшенную производительность видео, 3D и игр по сравнению с одной видеокартой. Как AMD, так и Nvidia предлагают решения для работы с двумя или более видеокартами, но чтобы решить, стоит ли принимать это решение, нужно рассмотреть требования и преимущества.

Требования к системе с двумя видеокартами

Чтобы использовать две видеокарты, вам необходимо базовое оборудование, AMD или Nvidia для запуска их графических технологий. Графическое решение AMD — фирменный CrossFire, а решение Nvidia — SLI. Есть способы использовать два разных бренда вместе. Для каждого из этих решений вам нужна совместимая материнская плата с необходимыми графическими слотами PCI Express. Без одной из этих слотов в материнской плате, использование технологии двух карт невозможно.

Преимущества

Есть два реальных преимущества запуска нескольких видеокарт. Основная причина — повышенная производительность в играх. При наличии двух или более графических карт, которые совместно используют функции для рендеринга 3D-изображений, компьютерные игры могут работать с более высоким ФПС и более высоким разрешением и с дополнительными фильтрами.

Эта дополнительная емкость может значительно улучшить качество графики в играх. Конечно, многие современные видеокарты могут воспроизводить игру с разрешением до 1080p.

Настоящим преимуществом является возможность управлять играми с более высоким разрешением, например на дисплеях 4K, которые имеют разрешение в четыре раза, или управлять несколькими мониторами.

Другое преимущество — для людей, которые хотят обновиться позже, не заменяя свою видеокарту. Купив видеокарту и материнскую плату, способную работать с двумя картами, вы можете добавить вторую графическую карту позже, чтобы повысить производительность без необходимости извлекать существующую видеокарту. Единственная проблема с этим планом состоит в том, что циклы видеокарты выполняются примерно каждые 18 месяцев, а это значит, что совместимую карту может быть трудно найти, если вы не собираетесь приобретать ее в течение двух лет.

Недостатки

Большим недостатком двух видеокарт в одном компьютере является стоимость. Поскольку топовые видеокарты уже стоят 500 долларов и более, многим потребителям трудно позволить себе вторую. Хотя ATI и Nvidia предлагают более дешевые карты с поддержкой двух карт, зачастую лучше потратить одинаковое количество денег на одну карту с одинаковой или иногда лучшей производительностью, чем на две недорогие.

Другая проблема заключается в том, что не все игры выигрывают от нескольких видеокарт. Эта ситуация значительно улучшилась с тех пор, как были представлены первые настройки с двумя картами, но некоторые графические движки по-прежнему плохо справляются с двумя видеокартами. Фактически, некоторые игры могут показывать небольшое снижение производительности по сравнению с одной видеокартой. В некоторых случаях происходит поддергивание, из-за которого изображение видео выглядит прерывистым.

Две видеокарты AMD Radeon подключеные через кабель DVI

Современные видеокарты очень энергоемки. Наличие двух из них в системе может почти удвоить количество потраченой эллектроэнергии, необходимое для их запуска в тандеме. Например, для правильной работы одной видеокарты высокого класса может потребоваться блок питания на 500 Вт. Наличие двух таких же карт может потребовать около 850 Вт. Большинство настольных компьютеров не оснащены такими мощными блоками питания. Обратитесь к мощности вашего компьютера и требованиям, прежде чем покупать более мощное оборудование.

Преимущества производительности в среде с двумя картами зависят от других компонентов компьютерной системы. Даже с двумя графическими картами самого высокого класса процессор нижнего уровня может регулировать объем данных, которые система может предоставить графическим картам. В результате двойные видеокарты обычно рекомендуются только в высокопроизводительных системах.

Кто должен установить две видеокарты?

Для среднего потребителя запуск двух видеокарт не имеет особого смысла. Общие затраты на материнскую плату и видеокарты, не говоря уже о других основных аппаратных средствах, которые необходимы для обеспечения достаточной скорости графики, являются непомерно высокими. Однако это решение имеет смысл, если вы хотите запускать игры на нескольких дисплеях или в экстремальных разрешениях.

Тестирование в бенчмарках и играх

Тестирование в 3D Mark 11 было проведено при трех различных профилях бенчмарка — Easy, Perfomance и Extreme. В тестовом пакете 3D Mark 13 же пришлось отказаться от первого теста Ice Storm ввиду его сильной зависимости от процессора, нежели от видеокарты. Результаты в 3D Mark 11 и 3D Mark 13 служат для относительной оценки уровня производительности видеокарты ASUS GeForce GTX760 DirectCU Mini.

Тестовый пакет игр пополнился сразу двумя новичками в лице онлайн-шутера Battlefield 4 и стеллс-игры Thief (2014). Тестирование в Balltefield 4 проходило на карте «Дорога Голмуд» с 64 игроками, в Thief (2014) использовался встроенный бенчмарк производительности. Остальной список игр остался прежним, за исключением Aliens & Predator, от которого было решено отказаться в силу потери актуальности этой игры.

Тестирование ASUS GeForce GTX760 DirectCU Mini показало, что видеокарте под силу практически все современные игры на ультра-настройках графики. На грани комфорта отметились всего лишь две игры — это Metro Last Light и Hitman Absolution.

Игры и настройки графики:

Все представленные игры в тестировании видеокарты GTX 670 были обновлены до последней версии.

  • Assassin’s Creed Odyssey — разрешение 1920×1080 (рендер 1920×1080), низкие настройки качества графики;
  • Control Ultimate Edition — разрешение 1920×1080 (рендер 1366×768), низкие настройки качества графики;
  • Counter-Strike: Global Offensive — разрешение 1920×1080 (рендер 1920×1080), высокие настройки качества графики;
  • Destiny 2 — разрешение 1920×1080 (рендер 1920×1080), средние настройки качества графики;
  • For Honor — разрешение 1920×1080 (рендер 1920×1080), высокие настройки качества графики;
  • Fortnite — разрешение 1920×1080 (рендер 1920×1080), высокие настройки качества графики;
  • Horizon Zero Dawn ( тестирование проводилось на патче 1.03) — разрешение 1920×1080 (рендер (70%) ~1280×720), ультра низкие настройки качества графики;
  • Red Dead Redemption 2 — разрешение 1600×900 (рендер 1600×900), ультра низкие настройки качества графики;
  • Remnant: From the Ashes — разрешение 1920×1080 (рендер 1920×1080), средние настройки качества графики;
  • Outer Worlds — разрешение 1920×1080 (рендер 1920×1080), низкие настройки качества графики;
  • Tom Clancy’s The Division — разрешение 1920×1080 (рендер 1920×1080), средние настройки качества графики;
  • Tom Clancy’s The Division 2 — разрешение 1920×1080 рендер 1920×1080), низкие настройки качества графики;
  • Watch_Dogs 2 — разрешение 1920×1080 (рендер 1920×1080), высокие настройки качества графики;

Тестирование производительности в играх производилось с помощью бенчмарка встроенного в программу MSI Afterburner. В итоговый результат записывался средний показатель кадровой частоты полученный за пять прогонов бенчмарка.

С методикой тестирования мы разобрались, давайте теперь приступим к обзору полученных данных.

Дальнейшее развитие параллельного соединения GPU

С выходом нового поколения видеокарт GeForce RTX, NVIDIA анонсировала и новый интерфейс (мост) NVLink для соединения двух графических процессоров для совместной работы. Соединяются они при помощи NVLink Bridge. Скорость передачи данных по новому интерфейсу по сравнению со SLI выросла в 10 раз. С 10 Гбайт/с до 100 Гбайт/с. NVLink поддерживают только GeForce RTX 2080 и RTX 2080 Ti, модели 2070 и 2060 его лишены.

Судя по моему анализу различных игровых тестов, проведенных с двумя видеокартами последних поколений (2080Ti), новый интерфейс практически во всех современных играх в разрешении 8k (7680 × 4320 точек) дает минимум 40% прирост производительности по сравнению с работай SLI режима на двух 1080Ti. Ниже на изображении я привел результаты одного из таких тестов.

Мониторы 8k сейчас еще очень дороги и практическая польза такого теста минимальна, но он хорошо показывает перспективы возможного увеличения применения двух видеокарт в недалеком будущем.

Стоит обратить внимание на результаты тестирования двух RTX 2080. Они значительно хуже его старшего собрата

В игре Rise of the Tomb Raider две 2080Ti в 8k выдают 50fps, а 2080 только 37fps. Это сильное падение производительности. Не думаю, что это связано с недостатком видеопамяти.

Скорее всего, драйвера для распараллеливания графических данных лучше оптимизированы под 2080Ti, так как по своим характеристикам она близка к профессиональным решениям NVIDIA для параллельных вычислений, под которые изначально и разрабатывался новый интерфейс. Более поздние версии драйверов я надеюсь доведут до ума и они будут оптимизированы значительно лучше.

В будущем нам придется очень грамотно планировать покупку компьютера. Если разница в потреблении энергии между 2-мя и 4-мя планками оперативной памяти не значительна, то при установке 2 видеокарт или более нам необходимо будет учитывать их суммарную потребляемую мощность.

На материнской плате должны быть слоты для установки двух видеокарт и с обязательной поддержкой их совместной работы. Чтобы узнать, поддерживает ли материнская плата две видеокарты, перейдите на официальную страницу производителя системной платы и проверьте спецификации. Так же это можно определить по наличию на коробке логотипа Crossfire, SLI или NVLink.

Блок питания также должен обладать достаточной мощностью, чтобы тянуть все железо компа+2 видеокарты. Сейчас для этого необходимо около 900 Вт.

При использовании двух видеокарт, игры становятся процессорозависимыми. Чем выше разрешение вы используете и чем больше даете нагрузку на видеокарту(ы), тем меньше это проявляется. При уменьшении разрешения монитора и уменьшении нагрузки на видеокарт(у)ы, этот эффект уменьшается до его полного исчезновения, так как узким местом становиться видяха, а не центральный процессор.

Для работы с двумя топовыми видеокартами, вам придется раскошелиться и на максимально мощный процессор, иначе все это не имеет смысла.

Должно быть организовано качественное охлаждение всех ваших комплектующих системного блока, так как тепловыделение очень высокое.

Связывайте NVLink только видеокарты выполненные на однотипном графическом процессоре. Производитель не важен, но важна частота работы GPU, так как при объединении обе видяхи будут работать на меньшей частоте. Например у нас одна карточка, которая имеет рабочую частоту 1695 Мгц, а другая 1770 Mгц, то в совместном режиме они обе будут работать на 1695 Мгц.  Блин, все точно как у оперативной памяти.

Пара графических карт требует компьютерного корпуса, вместимости которого будет достаточно для установки их и дополнительного оборудования.

В панели управления драйвером графического процессора, должна быть включена функция NVLink, SLI или Crossfire.

Технические показатели

Кристалл отличается заводским разгоном, хотя разогнанным чип назвать можно с большой натяжкой.

Базовая рабочая частота видеопроцессора в трехмерном режиме составляет 1030 МГц, а в режиме разгона Boost частота поднимается до 1100 МГц, однако мы смогли выжать из устройства максимум, доведя этот показатель до 1163 МГц.

В двухмерном режиме частота падала до всего-то 135 МГц, а напряжение опускалось с почти 1,19 до 0,86 В.

GeForce GTX 760 оснащена парой гигабайт оперативной памяти стандарта GDDR5, разработанными SK Hynix. В теории их эффективная частота равняется 6 ГГц, на них GRAM и работает. Стандартная шина памяти шириной в 256 бит для обмена информацией между памятью и графическим ядром позволяет им обмениваться данными со скоростью 192 Гб/с, и GPU-Z это подтверждает.

Производительность

Прежде, чем оценивать результаты производительности, отметим, что графический чип протестированной ранее референсной GeForce GTX 760разгонялся до 1150 МГц, тогда как GPU рассматриваемой видеокарты под нагрузкой динамически ускорялась до 1137 МГц. При этом видеокарта от ASUS практически всегда работает на предельной частоте, тогда как адаптер NVIDIA своего предела достигает эпизодически, сбрасывая частоту после того, как GPU прогревается до 80 С. Именно этим объясняется определенный разброс результатов, который зависит от характера нагрузки. Тестовый семпл референсной модели имеет очень агрессивный алгоритм работы GPU Boost 2.0, протестированные уже оригинальные видеокарты GeForce GTX 760 ускоряются не так активно.

Дополнительный разгон все расставляет на свои места. Форсаж позволяет новинке стать на одну ступеньку с более дорогостоящей GeForce GTX 670.

Тестовый стенд

Тестирование, как уже говорилось, было проведено в закрытом системном блоке следующей конфигурации:

  • материнская плата Intel Siler DX79SR (Intel X79 Express);
  • центральный процессор Core i7-3970X EE 3,5/4 ГГц;
  • охлаждение процессора Phateks PH-TC14PЕ;
  • ОЗУ: 4 планки по 8 ГБ DDR3 G.SKILL TridentX;
  • SSD: Crucial m4 объемом 256 ГБ;
  • HDD: WD VelociRaptor (300 ГБ);
  • Блок питания: Corsair AX1200i (1,2 кВт).

Дабы сравнить Gigabyte GeForce GTX 760 с иными устройствами, в тестирование были включены:

  • GTX 770 Superclocked ACX с двумя ГБ оперативной памяти;
  • Radeon R9 280X Gaming с 3 ГБ видеопамяти на борту;
  • GTX 760 OC с более продвинутой системой охлаждения WindForce версии 3X и целыми 4 ГБ RAM;
  • игровая видеокарта R9 270X Gaming также 4 ГБ;
  • Radeon R9 285 ITX Compact 2048 МБ.

С целью снизить влияние производительности от технических особенностей платформы в центральный процессор с шестью ядрами, множителем 48x, частотой в 100 МГц и активированной функцией Load-Line Calibration работал при 4800 МГц и повышенном напряжении питания 1,3 В. Функция Технология Hyper-Threading также активировалась. ОЗУ работала на частоте 2,13 ГГц.

Работала система под управлением классической ОС Windows 7 x64 со всеми обновлениями, установленными на тот момент и последними версиями драйверов для чипсета и графических устройств.

Возможности девайсов проверялись при разрешении 1920х1080, затем при его повышении до 2560х1440 px.

Качество текстур в параметрах драйверов не изменялось, анизотропная фильтрация была установлена на уровне 16x + AF16x.

Активировано полноэкранное сглаживание на уровне 4x и 8x.

Первое значение использовалось, когда значение в 8 крат не позволяло выдавать требуемое для нормального восприятия количество кадров в секунду. Вертикальная синхронизация не была активной.

Рис. 7 – Технические характеристики

ASUS GeForce GT 730 Silent

Что же касается непосредственно ASUS GeForce GT 730 Silent (GT730-SL-2GD3-BRK),  то она выполнена на основе NVIDIA GK208 и оснащена двумя гигабайтами видеопамяти стандарта DDR3, а также пассивной системой охлаждения. Модификация GeForce GT 730 от Asus  полностью соответствует всем выдвигаемым рекомендациям компании NVIDIA, то есть характеристики видеокарты полностью соответствуют эталонной версии. Рабочие частоты видеокарты составляют 902 Мгц  память объемом 2 ГБ стандарта DDR3  подключена по 64-битной шине. В основе GeForce GT 730 от Asus лежит графический чип NVIDIA GK208 (Kepler), изготовленный по 28-нм техпроцессу. Он включает в себя 384 универсальных шейдерных конвейера (CUDA-ядер согласно терминологии компании NVIDIA), 8 блоков растеризации и 32 текстурных блока.  ASUS GeForce GT 730 Silent (GT730-SL-2GD3-BRK) выполнена на печатной плате низкопрофильного формата, высота текстолита не превышает 70 мм, что делает модель совместимой даже с небольшими корпусами для сборки HTPC. Модуль стабилизации питания выполнен по двухфазной схеме, где одна фаза применяется для питания графического ядра, а вторая − для видеопамяти. При этом используется высококачественная фирменная элементная база Super Alloy Power, включающая в себя твердотельные конденсаторы и дроссели с ферритовым сердечником.

Это позволяет повысить стабильность и надежность работы графического адаптера, а также продлить срок его службы

 Обратная сторона видеокарты привлекает внимание разве что наличием нескольких элементов подсистемы питания, а также крепежными винтами системы охлаждения, один из которых накрыт гарантийной наклейкой. Модель ASUS GT730-SL-2GD3-BRK не оборудована разъемами для подключения дополнительных кабелей PCIe, поскольку ее максимальное энергопотребление не превышает 23 Вт, а стандартный слот PCI Express x16 может обеспечивать до 75 Вт. Также нет и коннектора для мостика NVIDIA SLI, что связано с отсутствием поддержки данной технологии. Для вывода изображения на графическом адаптере предусмотрен следующий набор видеовыходов:1 х DVI-D; 1 х HDMI и 1 х D-Sub. Система охлаждения этого адаптера  представляет собой один радиатор пассивного охлаждения, причем  О.С  достаточно простая и компактная, что вполне логично, учитывая низкий уровень энергопотребления и тепловыделения

Для отвода излишков тепла от графического ядра используется цельнометаллический радиатор с ребрами, которые увеличивают эффективность рассеивания тепла. 

Nvidia GeForce GT 730

Если зайти на сайт производителя, то можно заметить, что там имеется три версии видеоадаптера GeForce GT 730. Первый из  построен на  40 н.м архитектуре Fermi и имеет в своем распоряжении 96 ядер CUDA и 2 либо 4 ГБ памяти DDR3, подключенной к 128-разрядной шине. Тактовая частота данного видеоадаптера составляет 700 МГц, эффективная частота памяти равна 1,8 ГГц. Второй и третий вариант построены на 28 н. м. архитектуре Kepler, они  включают в себя 384 ядер CUDA, 32 текстурных блока и 8 блоков растеризации. В номинальном режиме GPU у обеих видеокарт работает на частоте 902 МГц.  Разница  между двумя последними видеокартами заключается лишь в типе установленной памяти памяти первая имеет стандарт DDR 3, а вторая GDDR 5 причем обе имеют 64 битный интерфейс. Как обычно, можно рассчитывать на то, что производители партнеры Nvidia выпустят разогнанные варианты GeForce GT 730 и оснащенные увеличенным объемом памяти. Также легко спрогнозировать выпуск низкопрофильных моделей и моделей с пассивным охлаждением.

Система охлаждения

Система охлаждения весьма хорошо продумана и при этом не выходит за стандартные размеры. Нестандартный подход к охлаждению, использование многолетних наработок, вот что выгодно отличает продукцию серии ASUS ROG.

Первым делом необходимо снять бэкплейт, который надежно фиксирует весь «бутерброд».

Сама пластина выполнена из тонкого металла, но несмотря на это надежно фиксирует радиатор вместе с кожухом.

Верхняя часть СО состоит из пластины для элементов, радиатора для каждого процессора, кожуха и вентиляторов.

При разборе все интуитивно понятно и удобно, но рекомендую аккуратно обращаться с многочисленными шурупами, их легко потерять.

Два вентилятора FirstD FDC10H12S9-С типоразмера 92 мм, надежно закреплены при помощи трех шурупов на внешнем кожухе.

Для подсветки используется специальная плата, с обратной стороны которой расположено множество светодиодов.

Каждому чипу предусмотрен свой миниатюрный радиатор с четырьмя тепловыми трубками, отвод тепла реализован по принципу прямого контакта.

Данная пластина является связующим звеном между радиаторами, кожухом и бэкплейтом, по сути, все крепится на нее. С обратной стороны нанесены теплопроводящие прокладки, покрывающие силовые элементы и часть модулей памяти, а оставшаяся память соприкасается с тепловыми трубками.

Заключение

Видеокартам стоимостью от четырех до шести с половиной тысяч рублей хоть какое-то внимание уделяется редко, а зря. Несмотря на ежегодный прогресс графического сегмента, начальный уровень всегда остается не у дел, и часто даже профессионалы путаются в том ассортименте бюджетных ускорителей, присутствующих на рынке

Происходит это по одной простой причине – великое множество моделей разных годов выпуска стоят практически одинаково, да и характеристики их схожи. Производительность таких видеокарт конечно значительно отстает от среднеценового сегмента стоимостью от 9500 руб, но тем не мене, видеокарты начального уровня неплохо справляются даже с высокотехнологичными играми правда только на низких настройках качества графики. На последок отметим, что выбирая игровую видеокарту начального уровня не стоит вестись на большой объем видеопамяти, даже если эта память стандарта GDDR5. В большинстве случаев, такие решения демонстрируют абсолютно идентичный уровень производительности, что и их базовые версии. Свободные $10–20 будет выгоднее инвестировать в покупку модели с изначально более продвинутым GPU, что позитивно отразится на количестве fps в играх.

Итоги

ASUS GTX 760 DirectCU II OC – интересный представитель серии видеокарт GeForce GTX 760, с помощью которых NVIDIA стремится перекроить сложившиеся уклады в сегменте дискретных видеокарт среднего уровня. Устройство на GK104 демонстрирует очень хорошую производительность для своей заявленной цены. При этом розничная стоимость видеокарт после стартового ажиотажу уже приблизилась к рекомендуемой, потому покупка GTX 760 сейчас выглядит вполне рациональным выбором. Модель от ASUS порадовала небольшим заводским разгоном, эффективным охладителем и возможностью дополнительного форсирования, которое приносит вполне ощутимый прирост производительности

Особое внимание на ASUS GTX 760 DirectCU II OC стоит обратить владельцам небольших корпусов, скромные габариты – важная особенность рассмотренной модели

ASUS GTX760-DC2OC-2GD5
Видеокарты на

Уведомить о появлении в продаже

+ Хорошее соотношение цена/производительность

+ Эффективная система охлаждения

+ Минимальный заводской разгон GPU

+ Компактные габариты

— Потенциал для разгона памяти

Итоги

Спасибо товарищу AMD за то, что двигает прогресс в недорогих видеокартах даже без реальных продаж своих новых моделей! Потому что «щас придёт порядок наведёт» Radeon RX 5500 угрожал только младшей GeForce GTX 1650, а RX 5500 XT и вовсе пока остаётся мифической моделью, которая выйдет в светлом будущем, но этого оказалось достаточно, чтобы NVIDIA занервничала и немного улучшила свои недорогие видеокарты.

До сих пор самой «крутой» видеокартой NVIDIA без технологии RTX была GeForce GTX 1660 Ti. Теперь вышла изначально более дешёвая (а после первоначального ажиотажа цены станут ещё приятнее) GTX 1660 SUPER с таким же уровнем производительности. Или, если так понятнее, уровнем производительности GeForce GTX 1070, за которую на момент выхода просили 30 тысяч рублей. И даже 8 Гбайт памяти не помогают старой доброй «семидесятке» вырваться вперёд.

И уж тем более они не помогают ещё более устаревшему Radeon RX 590, который был крутым на момент выхода, но теперь доживает свой век в роли «так себе, зато дёшево» и не может компенсировать собой пропасть между радикально более крутой моделью, RX 5700 (к которой без 20 тысяч не подходи, а лучше хотя бы с 22 000) и совсем уж вариантами «на тоненького» в виде GeForce GTX 1650 или RX 570/580.

Любое «а зато у него 8 Гбайт памяти!» разбивается о реальность, когда даже в разрешении 4K (а только в нём пока есть прок от такого объёма памяти) RX 590 стабильно проигрывает GeForce GTX 1660 SUPER 15-20%. Это если «по науке» и в теории. А на практике с такими настройками, при которых играм не хватает 6 Гбайт видеопамяти при 4K, обе видеокарты выдают менее 40 fps, а иногда и менее 30, поэтому такой футбол нам не нужен.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Онлайн
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: