AMD и видеокарты
AMD в сравнении с Intel и Nvidia – относительно новый игрок на рынке видеоускорителей. Компания была основана в 1969 г. и недавно отметила свой полувековой юбилей, а производством видеокарт она занялась лишь в 2006 г.
Для запуска нового направления бизнеса AMD в июле 2006 г. купила основанную в 1985 г. компанию ATI, изначально работавшую в сегменте графических карт. Сделка была закрыта в октябре 2006 г., после чего ATI стала частью подразделения AMD Graphics Product Group. Сумма сделки составила $5,6 млрд. Торговую марку Radeon, под которой ATI выпускала свои видеочипы, было решено сохранить, и она существует до сих пор.
Доля AMD в сегменте ускорителей графики превысила 17 %
AMD не выпускает видеокарты под своим брендом – вместо этого она продает графические процессоры Radeon сторонним производителям, в число которых входят компании MSI, Gibabyte, Asus и другие крупные бренды. Под перечисленными марками также выпускаются карты на чипах Nvidia, тогда как Sapphire Technology предпочитает сотрудничать исключительно с AMD.
Система охлаждения
Одной из главных особенностей GTX 1650 Gaming X 4G является ее фирменная система охлаждения TwinFrozr 7. На данной модели видеокарты эта СО имеет несколько упрощенную конструкцию.
Радиатор небольшой толщины состоит из множества алюминиевых пластин и одной 6-мм медной тепловой трубки с никелированным покрытием.
Тепловая трубка в конструкции охлаждения GTX 1650 Gaming X 4G контактирует с графическим процессором посредством прямого контакта. Также предусмотрен отвод тепла с помощью термопрокладок и от чипов памяти GDDR5.
Для обдува радиатора используются два вентилятора Torx 3.0, закрепленные к пластиковому кожуху видеокарты.
Эти фирменные вертушки интересны комбинацией традиционных и дисперсионных лопастей. Со слов производителя: более продуманная аэродинамика радиатора системы охлаждения и ускоренный воздушный поток за счет увеличенного угла изгиба лопастей вентиляторов позволяют достичь лучших температурных показателей.
Производителем данных вентиляторов является компания PowerLogic. В модели GTX 1650 Gaming X 4G использованы 90-мм вертушки с маркировкой PLD09210S12HH.
Как разогнать видеокарту NVidia GeForce
Перед тем как приступать к разгону видеокарты потребуется установить на компьютер две программы: CPU-Z и NVIDIA Inspector. Первая из них предназначена для мониторинга производительности видеокарты, а вторая выступает инструментом разгона в случае с картой NVidia GeForce.
Для наглядности разгона рекомендуется перед его началом запустить программу CPU-Z. Она отобразит параметры видеокарты, среди которых нужно запомнить (или записать) показатели в графах:
- Memory – частота памяти видеокарты;
- Shader – частота шейдеров;
- GPU Clock – частота графического чипа;
- TextureFillrate — скорость отрисовки текстур;
- Bandwidth – пропускная способность;
- PixelFillrate – скорость пиксельной зарисовки.
После разгона видеокарты информация в этих графах изменится наиболее наглядно.
Сам разгон видеокарты NVidia GeForce при помощи программы NVIDIA Inspector выполняется следующим образом:
Запустите программу NVIDIA Inspector;
В правом нижнем углу нажмите на кнопку «Show Overclocking», чтобы открыть дополнительные параметры;
Далее в правой части окна приложения отобразятся инструменты разгона видеокарты. Передвиньте ползунок «Shader Clock» на 5-10% от имеющейся частоты вправо. Можно заметить, что вместе с ним увеличится и значение GPU Clock. Подтвердите внесенные изменения нажатием кнопки «Apply Clocks & Voltage»;
После этого необходимо протестировать внесенные изменения. Запустите производительную игру и проведите в ней некоторое время (около получаса)
При этом необходимо обращать внимание на температуру видеокарты. Если она не выходит за пределы 90 градусов по Цельсию, можно продолжать разгон;
Вновь откройте в приложении NVIDIA Inspector колонку с инструментами для оверлокинга и сдвиньте ползунок MemoryClock на тот же процент, что ранее двигался параметр Shader Clock
После этого вновь нажмите «Apply Clocks & Voltage» и протестируйте видеокарту в игре.
Обратите внимание: Если блок питания компьютера имеет достаточный запас мощности, рекомендуется при повышении MemoryClock немного повысить Voltage (примерно на 0,05-0,07 Вольт).
В приложении CPU-Z можно наглядно по параметрам, которые были выписаны до начала тестирования, увидеть, насколько повысилась производительность. Если в результате тестов видеокарта показывает хорошие результаты в плане охлаждения, можно еще раз повысить ее производительность способом, описанным выше.
Загрузка c официального сайта
Название афтербёрнер переводится как «форсажная камера». С ее помощью вы можете выжать со своих видеокарт максимум продуктивности. Чтобы не подхватить какую-нибудь напасть на свой ПК, нужно скачать мси афтербурнер с официального сайта разработчиков https://ru.msi.com/page/afterburner.
Присутствуют три версии программы:
- Msi afterburner для Windows
- Android-версия для настройки видеокарты с помощью смартфона.
- MSI Afterburner Remote Server.
Если у вас ферма из нескольких графических адаптеров то msi afterburner настройка будет выполнятся на компьютере. Скачайте архив, распакуйте в удобную для вас папку, и приступайте к инсталляции программы.
MSI Afterburner не работает, неактивные кнопки, нет вкладки «Кулер»
Некоторые пользователи при попытке настроить кулер видеокарты сталкиваютс с проблемами. Например, может не нажиматься кнопка «Auto» или не отображаться вкладка «Кулер» в настройках MSI Afterburner. Причины возникновения таких проблем могут быть разные:
- Устаревшие драйверы для видеокарты. Для работы всех функций видеокарты на компьютере должны быть установлены самые свежие драйверы с официального сайта производителя (AMD или NVIDIA)
- Устаревшая версия MSI Afterburner. Для поддержки самых новых видеокарт требуется свежая версия MSI Afterburner. В некоторых случаях может понадобиться установка beta-версии программы, которую можно скачать на сайте www.guru3d.com.
- Видеокарта не поддерживает регулировку кулера. Также в некоторых случаях видеокарта просто не поддерживает настройку кулера. Это характерно для мобильных (ноутбук) и старых моделей видеокарт.
-
Конфликт с другими программами. Как подсказали в комментариях, иногда настройка кулера через MSI Afterburner не срабатывает из-за конфлика с другими программами, которые также пытаются управлять кулерами. Для решения этой проблемы нужно удалить конфиликтующие программы, после чего все должно заработать. Например, такими программами могут быть:
- MSI SDK
- MSI Gaming APP
Конфигурация тестового стенда
Процессор |
Intel Core i7-4770k 3,5GHz LGA1150 (HyperThreading On, TurboBoost On) |
Материнская плата |
Asus Z87-Plus LGA1150 (bios ver.1405) |
Кулер |
Thermalright HR-02 Macho Black |
Твердотельный накопитель |
Transcend SSD720 128GB |
Блок питания |
Thermaltake ToughPower XT 775W |
Жесткий диск |
SATA-3 1Tb Seagate 7200 Barracuda (ST1000DM003) |
Монитор |
Samsung BX2335 23″ (1920×1080) |
Корпус |
Open Stand |
Термоинтерфейс |
Gelid GC-Extreme |
Операционная система |
Windows 7 x64 SP1 |
Прочее ПО |
CPU-Z ROG 1.68, GPU-Z 0.7.5, MSI Afterburner 3.0.0 beta 18, MSI Kombustor 2.5, driver Catalyst 13.12 |
В своих тестированиях мы всегда стараемся использовать самые мощные процессоры. Именно поэтому в состав тестовой конфигурации вошел топовый процессор Intel Core i7-4770k.
Материнская плата ASUS Z87-PLUS, которая с недавнего времени является нашим штатным девайсом для платформы Haswell, также была задействована в тестировании.
Оперативная память Kingston HyperX Beast, состоящая из двух модулей по 8Gb исправно работала с XMP профилем DDR3-2133.
Тестирование видеокарты проводилось при комнатной температуре 25 градусов Цельсия.
Дизайн и особенности
Видеокарта GTX 1650 Gaming X 4G, хоть и является графическим ускорителем бюджетного уровня, вовсе не стеснена в размерах. Габариты составляют 39 х 245 х 127 мм в толщину, длину и высоту соответственно. Настолько длинной видеокарта получилась по причине использования системы охлаждения TwinFrozr 7 с двумя 90-мм вентиляторами. За счет матового серого кожуха с рублеными формами GTX 1650 Gaming X 4G смотрится брутально и агрессивно.
На верхней грани корпуса видеокарты присутствует надпись «GeForce GTX»для обозначения адаптера в установленной системе.
С другой стороны пластиковый кожух видеокарты почти не закрывает радиатор охлаждения, позволяя увидеть использование тепловой трубки в конструкции СО.
Ориентированность на бюджетный сегмент не лишает GTX 1650 Gaming X 4G права выделиться в системе. Для этого на верхнем торце реализован модуль подсветки с названием системы охлаждения и наименованием производителя.
Решетка для панели разъемов также выполнена в духе MSI Gaming. Здесь пользователь обнаружит пару DisplayPort 1.4 и один HDMI 2.0b. С их помощью можно вывести изображение на три монитора одновременно.
Эффективность охлаждения и разгон
Информация программы GPU-Z объясняет, зачем графическому ускорителю GTX 1650 Gaming X 4G потребовался дополнительный разъем питания 6-пин PCIe. Производитель установил штатный лимит энергопотребления этой видеокарты на значении 85 Вт. Программно же увеличить данный лимит пользователь сможет до 100 Вт.
Система охлаждения TwinFrozr 7 на видеокарте GTX 1650 Gaming X 4G поддерживает пассивный режим работы. В отсутствии нагрузки на ускоритель вентиляторы останавливаются, благодаря чему достигается полностью бесшумная работа видеокарты. В этих условиях графический процессор нагревается до 47 градусов Цельсия, охлаждаясь лишь за счет радиатора охлаждения.
Наши эксперименты с полной нагрузкой видеокарты показали, что графический процессор GTX 1650 Gaming X 4G можно разогреть до 67 градусов Цельсия. Для удержания этой температуры GPU видеокарта задействует вентиляторы на 48% или 1534 об/мин. При этом Boost-частота графического процессора уверенно держится на уровне 1905 МГц, что даже несколько выше заявленных производителем значений.
Мы смогли разогнать видеокарту GTX 1650 Gaming X 4G на +160 МГц по графическому процессору и на +1500 МГц по памяти GDDR5. После разгона температурные показатели GPU не изменились во время нагрузки, и лишь вентиляторы СО чуть ускорили свою работу до 49% потенциала или 1562 об/мин.
Проверку на стабильность после разгона GTX 1650 Gaming X 4G мы проводили в стресс-тесте 3D Mark TimeSpy Extreme, где используется 20 прогонов этого бенчмарка.
Заодно измерили и уровень шума, который наша тестовая система с GTX 1650 Gaming X 4G могла генерировать на расстоянии 15 см от измерительного прибора. Тестируемую видеокарту GTX 1650 Gaming X 4G можно отнести к разряду тихих графических адаптеров.
Установка MSI Afterburner
Откройте папку с последней версией утилиты, на момент составления обзора это 4.6.2, и щелкните по иконке Setup.exe, чтобы запустить установочный файл. Вам будет предложено выбрать компоненты программы установки. Настройка msi afterburner для майнинга не зависит от RivaTuner Statistics Server.
Это дополнительная утилита, которая обеспечивает поддержку мониторинга частоты кадров, захвата видео в режиме реального времени и статистику использования 3D-ускорения. Она нужна только для геймеров и может негативно повлиять на производительность рига. Снимите флажок напротив RivaTuner и нажмите «Далее». Дождитесь завершения установки и запустите msi af.
Intel наступает
Компания Intel планирует прекратить ограничивать себя выпуском лишь интегрированных видеокарт и повторно открыть для себя рынок дискретных решений. Свою первую дискретную видеокарту Intel выпустила в 1998 г. и назвала ее i740, но с течением времени она полностью переключилась на развитие встроенных видеоподсистем своих процессоров. В декабре 2018 г. она заявила о своем скором возвращении с дискретной графикой Intel Xe (общее название для полноценной серии карт) и назвала приблизительную дату выхода первой модели – 2020 г. В апреле 2019 г. стали известны более точные сроки выхода первой Intel Xe – 31 июля 2020 г.
Intel тщательно скрывает внешность своих видеокарт Xe
Интересно отметить, что первыми массовыми чипами архитектуры Xe станут двухъядерные решения X2. Именно их компания планирует представить летом 2020 г. Таким образом, «одноядерная» стадия графики Intel будет «с ходу» пропущена.
На ИБ-отрасль неизбежно окажет влияние развитие роботизации
Безопасность
Intel Xe 2, как и современные графические чипы AMD и Nvidia, будут выпускаться по 7-нанометровой технологии. Добавим, что в производстве процессоров Intel использует менее современные 10 нанометров, на которые она с большим трудом перешла лишь в августе 2019 г.
Разгон видеокарты NVIDIA GeForce
Для того, чтобы разогнать видеокарту NVIDIA GeForce придерживайтесь нашей пошаговой инструкции и у вас все получится. Ведь разгон видеокарты может принести вам огромное удовольствие в итоге, если вы все сделаете правильно.
Определяемся с программами для разгона видеокарты и его мониторинга. В нашем руководстве это будет MSI Afterburner (сайт) и GPU-Z (сайт). Они полностью бесплатны и доступны для скачивания на официальных сайтах.
Узнаём частоту памяти и графического ядра. Имейте в виду, что потенциальный разгон для стабильной работы видеокарты производится на показатель, который превышает стоковые на 5-15%.
Запускаем тест производительности на стоковых (заводских) параметрах. Для этого можете использовать MSI Kombuster, 3DMark или любой бенчмарк. Также, довольно достоверно демонстрируют возможности видеокарты последние игры от известных разработчиков, особенно на максимальных параметрах графики
Во время теста обращаете пристальное внимание на температуру, производительность и стабильность работы. Записываем или запоминаем показатели.
Проводим первоначальную настройку MSI Afterburner
Для этого запускаем приложение и переходим в настройки (Settings). Затем в вкладке «Основные» выбираем графический процессор, для которого необходимо провести разгон (если у вас их несколько). После этого в свойствах совместимости выставляем все возможные галочки (управление и форсирование напряжения для опытных пользователей), напротив «Разрешить доступ к ГП» выставляем пользовательский. Если же Вы решили поиграть с напряжением для более серьёзного разгона — выберите напротив управления напряжением «расширенное MSI«. Нажимаем «ОК» и возвращаемся в приложение.
Начинаем постепенно двигать 3й ползунок — Core Clock (частота ядра). Для начала добавляем 30-50 MHz и проверяем стабильность работы, используя тест. Во время теста ищем на экране появление «артефактов» (чёрных квадратов), которые при превышении максимальной мощности видеокарты будут регулярно появляться в разных частях монитора. Если артефактов нету — накидываем ещё пару десятков MHz , проводя за каждым разом тестирование. Когда артефакты начнут проявляться — возвращаетесь к отметке стабильной работы и снимаете еще 5-10 MHz на всякий случай (возможны очень редкие появления чёрных квадратов, которые на глаз не заметны, однако могут сократить срок службы видеокарты в несколько раз).
После нахождения оптимального значения запускаем тестирование на 1-2 часа и следим за температурой. Если она не превышает 85-90 градусов (зависит от производителя) — можем приступать к разгону Memory Clock (частота видеопамяти).
Передвигаем ползунок частоты видеопамяти на 50-60 Mhz и проводим тест. Заметьте, что частота памяти имеет более широкий диапазон для разгона и может быть увеличена на значение, которое превышает разгон частоты ядра в 2 раза. Находим оптимальное значение, скидываем 20 MHz для более стабильной работы и сохраняем изменения нажатием «Apply«. После этого проводим в тесте или игре 2-3 часа. Если результат и температура устраивает — сохраняете применённые значения в профиль (выбираете от 1 до 5 и нажимаете «Save«) или ставите галочку под профилями в строке «Apply ovecloking at system startup«, после чего разгон будет автоматически применяться после запуска системы.
Для окончательного убеждения в стабильности разгона можете произвести перезапуск ПК и проверить всё ещё раз. Кстати, новые модели видеокарт NVIDIA GeForce имеют больший потенциал для разгона, однако и напряжение с температурой подымается к более высоким показателям.
Как ускорить видеокарту на ноутбуке
Принцип разгона видеокарты на ноутбуке ничем не отличается от разгона на стационарном ПК
Единственное, на что следует обратить внимание, является система охлаждения ноутбука
Если система охлаждения не будет справляться с нагревом GPU, то это приведет к нестабильной работе ноутбука. Для примера возьмем ноутбук Acer V3-571G. В этом ноутбуке установлен процессор Intel Core i5-3210m и видеоадаптер GF GT 630M. Видеокарта GFGT 630M является аналогом видеокарты Geforce GT 630 для стационарных ПК. Для разгона Geforce GT 630M запустим Afterburner и в блоках Core Clock и Memory Clock поставим значения +100 и +55.
Поставив эти значения, мы повысим частоту ядра видеокарты Geforce GT 630M на 100 МГц и частоту ее памяти на 55 МГц.
Проделав такие манипуляции над GF GT 630M в Afterburner, мы получим такие значения в GPU-Z.
Из рисунка видно, что частота ядра Geforce GT 630M стала 760 МГц. Такой разгон GF GT 630M позволит поиграть в новые игры на средних настройках. Также стоит отметить, что версия Geforce GT 630 для стационарных компьютеров также имеет хороший потенциал для разгона. Поэтому если у вас видеоадаптер Geforce GT 630 в стационарном ПК, то смело разгоняйте его.
Выбираем утилиту для разгона видеокарт от AMD и NVIDIA
Для разгона видеокарт производители используют свои фирменные утилиты. Покупая видеокарту в комплекте с ней, вы можете обнаружить диск с драйверами и утилитой для разгона. Лучше всего использовать новые драйвера и утилиты для разгона своей видеокарты, которые вы можете найти на сайте производителя. Используя новые утилиты для разгона и драйвер, вы сможете добиться лучшего результата разгона и оптимальной производительности в играх. На данный момент основными производителями видеокарт AMD и NVIDIA используются такие утилиты для разгона:
- ASUS — Утилита GPU Tweak;
- GIGABYTE — Утилита OC GURU II;
- MSI — Утилита MSI Afterburner;
- Palit — Утилита ThunderMaster;
- Sapphire — Утилита TriXX.
Особенно интересной утилитой из списка выше является Afterburner от компании MSI. С помощью Afterburner можно легко разогнать видеокарты как от MSI, так и от других производителей, а также узнать их характеристики. Столь высокая совместимость утилиты с различными видеоадаптерами объясняется тем, что она создана на базе программы для разгона RivaTuner. Исходя из такого функционала MSI Afterburner, в следующей главе мы опишем процесс разгона для видеокарт начального, среднего и верхнего уровня.
Внешний вид и система охлаждения
Длина видеокарты вместе с системой охлаждения Direct CUII составляет 216 мм, что позволит установить ее даже в компактные корпуса формата miniATX и microATX.
Принципиально ASUS Radeon HD7790 построена на открытой системе охлаждения. То есть видеокарта не имеет никакого кожуха, благодаря чему воздух, нагнетаемый системой охлаждения, соударяясь о плату, выходит с разных сторон. Данный метод охлаждения хорош тем, что на самой плате не создается эффект печки, наоборот, вместе с радиатором охлаждения обдуваются и остальные элементы платы. Длина самой печатной платы видеокарты составляет 177 мм.
На задней части видеокарты присутствуют два разъема DVI, один из которых DVI-I поддерживает подключение VGA-мониторов через переходник. Также помимо разъемов DVI здесь присутствует разъем HDMI, способный выводить изображение вместе со звуком. Такая реализация одновременного вывода видео и звука через HDMI обязаны присутствию звукового кодека на самой видеокарте. Разъем DisplayPort также имеется на данной видеокарте, и благодаря технологии AMD Eyefinity, он способен выводить изображение сразу на три монитора одновременно.
Для обеспечения качественного питания видеокарта оснащена одним разъемом 6-Pin дополнительного питания. Общее потребление видеокарты составляет 102 Вт.
Видеокарта является двухслотовой, для современных систем охлаждения это скорее норма, нежели редкость. Для объединения двух таких видеокарт в связку Crossfire на плате предусмотрен соответствующий разъем для мостика Crossfire.
ASUS Radeon HD7790 выполнена на печатной плате черного цвета.
Несмотря на принадлежность видеокарты к бюджетному классу питание графического ускорителя реализовано по схеме 5+1.
Так, 5 фаз питания отвечают за GPU, и одна фаза за память. Внимательно изучив пространство вблизи фаз питания GPU видно, что печатная плата была сделана с учетом установки радиатора охлаждения на схему питания GPU. Впрочем, в случае ASUS Radeon HD7790 никакого радиатора здесь не наблюдается.
Графический процессор Bonaire, выполненный по 28 нм техпроцессу, смещен чуть вправо от центра печатной платы. Кристалл процессора ничем не защищен, поэтому при съеме и монтаже системы охлаждения следует быть осторожным.
Вокруг GPU размещены микросхемы памяти с маркировкой H5GQ2H24AFR производства Hynix. Общий объем памяти в 1Gb набран четырьмя микросхемами объемом по 256Mb каждая.
Разъем питания системы охлаждения 4pin, что дает возможность не только отслеживать показания вращения вентиляторов, но и также управлять их оборотами через специальные утилиты.
Сама система охлаждения Direct CUII представляет собой радиатор, состоящий из алюминиевого основания, двух медных никелированных тепловых трубок и 38 алюминиевых пластин.
Тепловые трубки толщиной 8 мм напрямую контактируют с кристаллом графического процессора.
Сверху радиатор системы охлаждения накрывает пластиковая рамка, на которой закреплены два 75 мм вентилятора, которая крепится к радиатору с помощью защелок.
11-лепестковые вертушки обдувают как сам радиатор, так и навесные элементы печатной платы видеокарты.
Благодаря такой конструкции, которая является фирменной разработкой компании ASUS, достигается высокая эффективность охлаждения при весьма умеренном шуме.
Итоги
Если бы мы готовили материл о Radeon HD 7790 в день его анонса (22 марта), итоговые выводы о данном продукте были бы вполне прогнозируемы. Устройство на Bonaire в целом прекрасно справилось со своей задачей. Radeon HD 7790 удачно дополняет линейку дискретных адаптеров AMD, имея хорошее оснащение и экономичность, в большинстве случаев достаточно уверенно обходит своего основного соперника – GeForce GTX 650 Ti.
Однако спустя всего несколько дней после презентации Radeon HD 7790 (26 марта), ситуация на рынке видеокарт среднего уровня перевернулась с ног на голову. NVIDIA не только предложила GeForce GTX 650 Ti Boost, поставив в достаточно неудобное положение Radeon HD 7850, но и значительно снизила стоимость на GeForce GTX 650 Ti и GeForce GTX 660. И если Boost-модификации адаптеров пока еще не попали в продажу, то цены присутствующих на рынке моделей с чипом GK106, как по команде, заметно снизились. Согласно данным hotline.ua, основной соперник Radeon HD 7790 – видеокарты GTX 650 Ti c 1 ГБ памяти – в среднем подешевели со $150–160 до $130–140.
Заключение
Если говорить в целом о Bonaire, то чип хорошо вписался между Radeon HD 7770 и Radeon HD 7850. Его действительно не хватало с момента анонса семейства Southern Islands. Но, тем не менее, есть ряд замечаний: небольшая для такого акселератора пропускная способность памяти и не совсем удачное противопоставление NVidia GeForce GTX 650Ti BOOST — всё-таки по производительности 7790 ближе к простому GeForce 650-Ti, а не к BOOST-версии. И если MSI Radeon HD 7790 OC в целом дешевле GTX 650-Ti BOOST, что хоть как-то оправдывает его производительность, то ASUS Radeon HD 7790 DirectCU II OC оказывается дороже, чем GTX 650Ti BOOST большинства производителей. Если же сравнивать реализации 7790 в вариантах, предложенных ASUS и MSI, то у каждой оказались свои преимущества. Устройство MSI дешевле и разогналась чуть лучше, при этом система охлаждения оказалась шумнее. Продукт ASUS тише и дороже, но штатные частоты этой видеокарты выше, так что в целом получился своеобразный паритет. Что объединяет обе реализации 7790, так это небольшой объем памяти. В пару к новому графическому процессору просится полтора или два гигабайта памяти. Полтора гигабайта даже было бы более предпочтительно — такой объем как раз вписался бы под 192-битную шину памяти, и не был бы так дорог, как 2 Гб быстрой памяти.
Вообще, такое впечатление, что чип Bonaire мог бы показать себя лучше, будь у него либо более шустрая память, либо более широкий интерфейс ее шины, о чем и свидетельствует середина между моделями Radeon HD 7770 и Radeon HD 7850. Как итог, можно сказать, что Bonaire как раз и не хватило тех самых 70 миллионов транзисторов или 8 квадратных миллиметров для реального соперничества с GTX650Ti BOOST. А жаль.