Как включить поддержку NVIDIA G-SYNC и полностью раскрыть ее потенциал. Проекторы и мониторы Какие мониторы поддерживают g sync

В те старые добрые времена, когда владельцы персональных компьютеров активно использовали громадные ЭЛТ-мониторы, зарабатывая себе астигматизм, о плавности изображения никакой речи идти не могло. Тогдашние технологии не очень поддерживали и 3D. Поэтому бедным юзерам приходилось довольствоваться тем, что было. Но время идет, технологии развиваются, и многих уже не устраивает разрыв кадра (тиринг) при динамической игре. Особенно это касается так называемых кибер-спортсменов. В их случае доли секунды решают все. Как быть?

Прогресс на месте не стоит. Поэтому то, что раньше казалось невозможным, сейчас может восприниматься как должное. Та же ситуация и с качеством изображения на компьютере. Производители видеокарт и других комплектующих к ПК сейчас вовсю трудятся над проблемой некачественного вывода изображения на мониторы. И, надо сказать, что они уже довольно далеко продвинулись. Остается самая малость, и изображение на мониторе станет идеальным. Но это все - лирическое отступление. Вернемся к нашей основной теме.

Немного истории

Многие и мониторов активно пытались побороть тиринг и улучшить изображение. Что только они не изобретали: повышали «герцовость» монитора, включали V-Sync. Ничего не помогало. И в один прекрасный день известный производитель видеокарт NVIDIA презентует технологию G-Sync, с помощью которой можно добиться «нереальной» плавности изображения без всяких артефактов. Вроде бы и хорошо, но имеется одно маленькое, но очень серьезное «но». Для пользования этой опцией нужны мониторы с поддержкой G-Sync. Пришлось поднапрячься производителям мониторов и «выбросить» на рынок пару десятков моделей. А что дальше? Давайте рассмотрим технологию и попробуем разобраться, так ли она хороша.

Что собой представляет G-Sync?

G-Sync - технология вывода на экран от компании NVIDIA. Характеризуется плавностью смены кадров без всяческих артефактов. Нет ни разрывов изображения, ни подтормаживаний. Для адекватной работы сей технологии требуется довольно мощный компьютер, поскольку для обработки цифрового сигнала нужны немаленькие мощности процессора. Именно поэтому технологией снабжаются только новые модели видеокарт от NVIDIA. Кроме того, G-Sync - фирменная фишка NVIDIA, поэтому владельцам видеокарт от других производителей ничего не светит.

Кроме требуется G-Sync-монитор. Дело в том, оснащены платой с преобразователем цифрового сигнала. Владельцы обычных мониторов не смогут воспользоваться этой восхитительной опцией. Несправедливо, конечно, но такова политика современных производителей - выкачать как можно больше денег из бедного пользователя. Если конфигурация вашего ПК позволяет использовать G-Sync, и монитор чудом поддерживает эту опцию, то вы вполне можете оценить все прелести данной технологии.

Принцип работы G-Sync

Попробуем упрощенно объяснить принцип работы G-Sync. Дело в том, что обычный GPU (видеокарта) просто посылает цифровой сигнал на монитор, но не считается с его частотой. Именно поэтому сигнал при выводе на экран получается «рваным». Сигнал, идущий от GPU, прерывается частотой монитора и выглядит неказисто в конечном варианте. Даже с включенной опцией V-Sync.

При использовании G-Sync GPU сам регулирует частоту монитора. Именно поэтому сигналы доходят до матрицы тогда, когда это действительно нужно. Благодаря этому появляется возможность избежать разрывов изображения и повысить плавность картинки в целом. Поскольку обычные мониторы не позволяют GPU управлять собой, был придуман G-Sync-монитор, в который внедрена плата от NVIDIA, регулирующая частоту. Поэтому использование обычных мониторов невозможно.

Мониторы с поддержкой этой технологии

Ушли в прошлое те времена, когда пользователи убивали свое зрение, часами глядя в древние ЭЛТ-мониторы. Теперешние модели отличаются элегантностью и безвредностью. Так почему бы не добавить им немного новых технологий? Первый монитор с поддержкой NVIDIA G-Sync и разрешением 4К был выпущен компанией Acer. Новинка произвела изрядный фурор.

Пока еще качественные мониторы с G-Sync довольно редки. Но в планах у производителей имеется задумка сделать эти устройства стандартными. Скорее всего, через пять лет мониторы с поддержкой данной технологии станут стандартным решением даже для офисного ПК. Ну а пока остается только поглядывать на эти новинки и ждать их повсеместного распространения. Именно тогда они подешевеют.

После этого мониторы с поддержкой G-Sync начали клепать все, кому не лень. Появились даже бюджетные модели с этой технологией. Хотя что толку от этой технологии на бюджетном экране с плохой матрицей? Но, как бы то ни было, такие модели имеют место. Оптимальным вариантом для данной опции является (G-Sync на нем работать будет в полную силу).

Лучшие мониторы с G-Sync

Мониторы с технологией G-Sync выделяются в особую линейку устройств. Они должны обладать характеристиками, нужными для полноценной работы данной опции. Понятно, что далеко не все экраны справятся с такой задачей. Уже сейчас определились несколько лидеров по производству таких мониторов. Их модели получились очень удачными.

К примеру, монитор G-Sync относится к ярким представителям данной линейки. Это устройство относится к премиум-классу. Почему? Судите сами. Диагональ экрана составляет 34 дюйма, разрешение - 4К, контрастность - 1:1000, 100 Гц, время отклика матрицы - 5 мс. К тому же Многие хотели бы заполучить себе этого «монстра». Понятно, что он будет на ура справляться с технологией G-Sync. Ему пока нет аналогов. Можно спокойно назвать его лучшим в своем классе и не ошибиться.

Вообще, G-Sync мониторы ASUS сейчас находятся на вершине "Олимпа". Еще ни один производитель не смог переплюнуть эту компанию. И вряд ли когда-нибудь это получится. ASUS можно назвать первопроходцем в этом плане. Их мониторы, поддерживающие G-Sync, разлетаются, как горячие пирожки.

Будущее G-Sync

Сейчас технологию G-Sync активно пытаются внедрить в ноутбуки. Некоторые производители даже выпустили пару таких моделей. Причем они могут работать без платы G-Sync в мониторе. Что и понятно. Все-таки у ноутбука несколько другие конструктивные особенности. Там вполне достаточно видеокарты с поддержкой данной технологии.

Вероятно, вскоре изрядное место в компьютерной промышленности займет именно NVIDIA G-Sync. Мониторы с этой технологией должны подешеветь. В конце концов эта опция должна стать повсеместно доступна. Иначе какой смысл в ее разработке? В любом случае пока все не так радужно. Есть некоторые проблемы по внедрению G-Sync.

В будущем технология G-Sync станет такой же обыденной вещью, которой был для нас когда-то VGA-порт для подключения монитора. А вот всяческие «вертикальные синхронизации» на фоне этой технологии выглядят вопиющим анахронизмом. Мало того что эти устаревшие технологии не могут обеспечить удовлетворительное качество картинки, так они еще и «кушают» немалое количество системных ресурсов. Определенно, с появлением G-Sync их место на помойке истории.

Мы уже давно привыкли к тому, что мониторы имеют фиксированную частоту развертки изображения - обычно 60 Гц. Фиксированная частота пошла еще с ЭЛТ-телевизоров, когда видеоряд имел четко заданное количество кадров в секунду - обычно 24. Но вот в играх частота кадров не является постоянной - она может изменяться в очень широких пределах, и из-за того, что частота развертки не совпадает с частотой рендеринга кадров видеокартой, в итоге и появляются разрывы изображения, что мешает комфортному игровому процессу. Это происходит из-за того, что изображение выводится на дисплей даже в том случае, если вывод части предыдущего кадра ещё не закончен полностью - оставшаяся часть буфера приходится на текущее обновление экрана. Именно поэтому каждый выведенный на монитор кадр при несовпадении частот, указанных выше, будет по сути состоять из двух кадров, отрендеренных видеокартой.

Вертикальная синхронизация

Самый простой метод решения проблемы - включение вертикальной синхронизации. Что она делает? Она выводит изображение на монитор только тогда, когда кадр полностью готов. Соответственно, если у вас монитор с 60 Гц, и видеокарта выдает больше 60 fps - вы получаете плавную картинку без единого разрыва и артефакта (при этом видеокарта не будет нагружена на 100%). Но тут уже появляется другая проблема - задержка при выводе изображения. Если монитор обновляется 60 раз в секунду, то на один кадр тратится 16.7 мс, и даже если видеокарта подготовила кадр за 5 мс - монитор все равно будет ждать оставшиеся 11 мс:

Поэтому управление становится «вязким» - при движении мышью отклик на мониторе происходит с небольшой задержкой, поэтому становится труднее позиционировать прицел в шутерах и прочих динамических играх. Еще хуже, если видеокарта не способна выдать в игре 60 fps - к примеру, если fps 50, и включена вертикальная синхронизация, то каждую секунду будет 10 кадров, в которые на экран не будет выведена новая информация, то есть каждую секунду будет 50 кадров с задержкой до 16.7 мс, и 10 кадров с задержкой в 33.4 мс - в итоге картинка будет дерганной, и играть будет невозможно.

Поэтому до недавнего времени у игроков было три варианта - или включать вертикальную синхронизацию (если fps выше 60) и мириться с не самым удобным управлением, или отключать синхронизацию, и терпеть артефакты изображения.

AMD FreeSync и Nvidia G-Sync

Разумеется, крупные компании нашли решение проблемы - они придумали принудительную синхронизацию частоты развертки и рендеринга кадра видеокартой. То есть если видеокарта сделала кадр за 5 мс - монитор выведет предыдущий кадр на 5 мс, ничего не ожидая. Если следующий кадр был отрендерен за 20 мс - монитор опять же будет держать предыдущий кадр на экране 20 мс:


Что это дает? Во-первых, так как монитор выводит полностью готовые кадры и они синхронизированы с частотой развертки, нет никаких артефактов. Во-вторых, так как монитор выводит кадр сразу же, как он был готов, ничего не ожидая, нет никакой «вязкости» управления - изображение на мониторе меняется сразу же, как только вы пошевелили мышью.

Различия между FreeSync и G-Sync

Каждый из вендоров пошел своим путем: у AMD частота развертки контролируется самой видеокартой, а монитор должен быть подключен через DisplayPort. С одной стороны, это плохо - если видеокарта не имеет аппаратной поддержки FreeSync, то вы не сможете им воспользоваться. С учетом того, что эту технологию поддерживают только чипы линейки R7 и R9 начиная с 200ых, а также линейки Fury и RX - за бортом остаются чипы линеек HD 7000, некоторые из которых вообще говоря ничем не отличаются от чипов 200ой линейки (да, банальное переименование). Мобильные версии видеокарт AMD FreeSync вообще не поддерживают, даже если они мощнее десктопных карт, в которых есть его поддержка. С другой стороны, так как по сути весь контроль идет со стороны видеокарты, монитор для FreeSync оказывается дешевле такового с G-Sync на 80-100 долларов, что вполне ощутимо.

Nvidia пошла другим путем - контроль за частотой развертки выполняет сам монитор, в который встроен специальный чип. С одной стороны, это хорошо - поддерживаются видеокарты начиная с GTX 650 Ti, а так же мобильные решения начиная с 965М. С другой стороны - чип стоит денег, поэтому мониторы с G-Sync дороже.

Так же различается и допустимые частоты развертки. У AMD это 9-240 Гц, у Nvidia - 30-144 Гц. Цифра в 9 Гц скорее вызывает улыбку (ибо это слайд-шоу), и 30 у Nvidia в принципе можно считать допустимым минимумом. А вот то, что у Nvidia ограничение на 144 Гц, уже может быть мало, так как топовые игровые мониторы имеют частоту вплоть до 240 Гц. Но, увы, пока что у AMD нет таких видеокарт, которые могут выдать в киберспортивных играх больше 200 fps, так что 240 Гц на данный момент - просто хороший запас на будущее. С другой стороны, если частота кадров в игре опускается ниже минимальной частоты развертки монитора, у AMD просто принудительно выставляется эта частота, то есть мы получаем те же проблемы, что и с вертикальной синхронизацией. Nvidia же сделали хитрее - чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет:

Еще один плюс в сторону AMD - отсутствие небольших задержек при передаче данных на монитор, так как FreeSync использует технологию Adaptive-Sync стандарта DisplayPort для того, чтобы заранее узнать минимальную и максимальную частоту обновления монитора, поэтому передача данных не прерывается на координацию работы видеокарты с модулем G-Sync в мониторе, как у Nvidia. Однако на практике разница оказывается не больше 1-2%, так что этим можно пренебречь.

Разумеется, возникает вопрос - влияют ли технологии синхронизации кадров на производительность в играх? Ответ - нет, не влияют: разница с выключенной синхронизаций и FreeSync или G-Sync оказывается нулевой, и это понятно - по сути эти технологии не заставляют видеокарту обсчитывать больше данных - они просто выводят уже готовые данные быстрее.

В итоге - что же лучше? Как бы смешно это не звучало, но у пользователей нет выбора: те, кто пользуются продукцией «красных», вынуждены использовать FreeSync. Те, кто пользуются продукцией «зеленых», аналогично могут использовать только G-Sync. Но, в принципе, на текущий момент технологии выдают схожий результат, так что выбор действительно заключается только в производителе и мощности видеокарты.

Обзор технологии G-Sync | Краткая история фиксированной частоты обновления

Давным-давно мониторы были громоздкими и содержали электронно-лучевые трубки и электронные пушки. Электронные пушки бомбардируют экран фотонами для освещения цветных люминофорных точек, которые мы зовём пикселями. Они прорисовывают слева направо каждую "сканирующую" строку от верхней до нижней. Регулировка скорости электронной пушки от одного полного обновления до следующего не очень практиковалась ранее, да и особой нужды до появления трёхмерных игр в этом не было. Поэтому ЭЛТ и связанные с ними аналоговые стандарты видео были разработаны с фиксированной частотой обновления.

ЖК-мониторы постепенно заменили ЭЛТ, а цифровые разъёмы (DVI, HDMI и DisplayPort) заменили аналоговые (VGA). Но ассоциации, отвечающие за стандартизацию видеосигналов (во главе с VESA), не перешли с фиксированной частоты обновления. Кино и телевидение по-прежнему опираются на входящий сигнал с постоянной частотой кадров. И снова переход на регулируемую частоту обновления не кажется столь необходимым.

Регулируемые частоты кадров и фиксированные частоты обновления не совпадают

До появления современной 3D-графики фиксированная частота обновления проблемой для дисплеев не являлась. Но она возникла, когда мы впервые столкнулись с мощными графическими процессорами: частота, на которой GPU визуализировал отдельные кадры (что мы называем частотой кадров, обычно выражающейся в FPS или кадрах в секунду), непостоянна. Она меняется с течением времени. В тяжёлых графических сценах карта может обеспечивать 30 FPS, а если смотреть на пустое небо - 60 FPS.

Отключение синхронизации приводит к разрывам

Выходит, что переменная частота кадров графического процессора и фиксированная частота обновления ЖК-панели вместе работают не очень хорошо. В такой конфигурации мы сталкиваемся с графическим артефактом под названием "разрыв". Он появляется, когда два и более неполных кадра визуализируются вместе в течение одного цикла обновления монитора. Обычно они смещаются, что даёт очень неприятный эффект во время движения.

На изображении выше показаны два хорошо известных артефакта, которые часто встречаются, но их трудно зафиксировать. Поскольку это артефакты дисплея, на обычных игровых скриншотах вы такого не увидите, однако наши снимки показывают, что вы на самом деле видите во время игры. Чтобы их снять, нужна камера с высокоскоростным режимом съёмки. Или если у вас есть карта с поддержкой видеозахвата, вы можете записать несжатый поток видео с порта DVI и чётко увидеть переход от одного кадра к другому; именно этот способ мы используем для тестов FCAT. Однако лучше всего наблюдать описанный эффект собственными глазами.

Эффект разрыва виден на обоих изображениях. Верхнее сделано с помощью камеры, нижнее - через функцию видеозахвата. Нижняя картинка "разрезана" по горизонтали и выглядит смещённой. На верхних двух изображениях левый снимок сделан на экране Sharp с частотой обновления 60 Гц, правый – на дисплее Asus с частотой 120 Гц. Разрыв на 120-герцевом дисплее выражен не так сильно, поскольку частота обновления вдвое выше. Тем не менее, эффект виден, и проявляется так же, как и на левом изображении. Артефакт такого типа – явный признак того, что изображения были сделаны при отключённой вертикальной синхронизации (V-sync).

Battlefield 4 на GeForce GTX 770 с отключённой V-sync

Второй эффект, который виден на снимках BioShock: Infinite, называется двоение (ghosting). Он особенно хорошо виден в нижней части левого снимка и связан с задержкой обновления экрана. Если коротко, то отдельные пиксели не достаточно быстро меняют цвет, что приводит к свечению такого типа. Отдельно взятый кадр не может передать, какой эффект двоение оказывает на саму игру. Панель со временем отклика от серого к серому 8 мс, такая как Sharp, будет в результате давать размытое изображение при любом движении на экране. Вот почему эти дисплеи, как правило, не рекомендуют для шутеров от перового лица.

V-sync: "шило на мыло"

Вертикальная синхронизация, или V-sync – это очень старое решение проблемы разрывов. При активации этой функции видеокарта пытается соответствовать частоте обновления экрана, полностью удаляя разрывы. Проблема в том, что если ваша видеокарта не сможет удержать частоту кадров выше 60 FPS (на дисплее с частотой обновления 60 Гц), эффективная частота кадров будет скакать между значениями, кратными частоте обновления экрана (60, 30, 20, 15 FPS и т.д.), что в свою очередь приведёт к ощутимым притормаживаниям.

Когда частота кадров падает ниже частоты обновления при активной V-sync, вы ощутите притормаживания

Более того, поскольку вертикальная синхронизация заставляет видеокарту ждать и иногда полагается на буфер невидимых поверхностей, V-sync может добавлять в цепочку визуализации дополнительную задержку ввода. Таким образом, V-sync может быть как спасением, так и проклятием, решая одни проблемы, но при этом провоцируя другие недостатки. Неофициальный опрос наших сотрудников показал, что геймеры, как правило, отключают вертикальную синхронизацию, и включают лишь тогда, когда разрывы становятся невыносимыми.

Креативный подход: Nvidia представляет G-Sync

При запуске новой видеокарты GeForce GTX 680 компания Nvidia включила режим драйвера под названием Adaptive V-sync (адаптивная вертикальная синхронизация), который пытается нивелировать проблемы при включении V-sync, когда частота кадров выше частоты обновления монитора и быстро отключая её, когда происходит резкое падение производительности ниже частоты обновления. Хотя технология добросовестно выполняла свои функции, это был лишь обход проблемы, который не позволял избавиться от разрывов, если частота кадров была ниже частоты обновления монитора.

Реализация G-Sync гораздо интереснее. Если говорить в общем, Nvidia показывает, что вместо того, чтобы заставлять видеокарты работать на фиксированной частоте дисплея, мы можем заставить новые мониторы работать на непостоянной частоте.

Частота кадров GPU определяет частоту обновления монитора, убирая артефакты, связанные с включением и отключением V-sync

Пакетный механизм передачи данных разъёма DisplayPort открыл новые возможности. Используя переменные интервалы гашения в видеосигнале DisplayPort и заменяя устройство масштабирования монитора на модуль, работающий с переменными сигналами гашения, ЖК-панель может работать на переменной частоте обновления, связанной с частотой кадров, которую выводит видеокарта (в пределах частоты обновления монитора). На практике Nvidia креативно подошла к использованию особых возможностей интерфейса DisplayPort и попыталась поймать двух зайцев одновременно.

Ещё перед началом тестов хочется отдать должное за творческий подход к решению реальной проблемы, влияющей на игры на ПК. Это инновации во всей красе. Но каковы результаты G-Sync на практике? Давайте выяснять.

Nvidia прислала нам инженерный образец монитора Asus VG248QE , в котором устройство масштабирования заменено на модуль G-Sync . С этим дисплеем мы уже знакомы. Ему посвящена статья "Обзор Asus VG248QE: 24-дюймовый игровой монитор с частотой обновления 144 Гц за $400" , в которой монитор заработал награду Tom"s Hardware Smart Buy. Теперь пришло время узнать, как новая технология Nvidia повлияет на самые популярные игры.

Обзор технологии G-Sync | 3D LightBoost, встроенная память, стандарты и 4K

Просматривая материалы для прессы от Nvidia, мы задавали себе немало вопросов, как о месте технологии в настоящем, так и её роли в будущем. Во время недавней поездки в головной офис компании в Санта-Клара наши коллеги из США получили некоторые ответы.

G-Sync и 3D LightBoost

Первое, что мы заметили, - это то, что Nvidia прислала монитор Asus VG248QE , модифицированный для поддержки G-Sync . Этот монитор также поддерживает технологию Nvidia 3D LightBoost, которая изначально была разработана для повышения яркости 3D-дисплеев, но долгое время неофициально использовалась в 2D-режиме, применяя пульсирующую фоновую подсветку панели для уменьшения эффекта двоения (или размытия движений). Естественно, стало интересно, используется ли данная технология в G-Sync .

Nvidia дала отрицательный ответ. Хотя использование обеих технологий одновременно было бы идеальным решением, сегодня стробирование фоновой подсветки на переменной частоте обновления приводит к проблемам с мерцанием и яркостью. Решить их невероятно сложно, поскольку необходимо настроить яркость и отслеживать импульсы. Как результат, сейчас приходится выбирать между двумя технологиями, хотя компания пытается найти способ использовать их одновременно в будущем.

Встроенная память модуля G-Sync

Как мы уже знаем, G-Sync устраняет пошаговую задержку ввода, связанную с V-sync, поскольку больше нет необходимости ожидать завершения сканирования панели. Тем не менее, мы заметили, что модуль G-Sync имеет встроенную память. Модуль может буферизировать кадры самостоятельно? Если так, сколько времени потребуется кадру, чтобы пройди через новый канал?

По данным Nvidia, кадры не буферизуются в памяти модуля. По мере поступления данных они отображаются на экране, а память выполняет некоторые другие функции. Тем не менее, время обработки для G-Sync заметно меньше одной миллисекунды. Фактически почти с такой же задержкой мы сталкиваемся при выключённой V-sync, и она связана с особенностями игры, видеодрайвера, мышки и т.д.

Будет ли G-Sync стандартизирована?

Такой вопрос задавался в последнем интервью с AMD, когда читатель хотел узнать реакцию компании на технологию G-Sync . Однако нам захотелось спросить это непосредственно у разработчика и узнать, планирует ли Nvidia вывести технологию на промышленный стандарт. В теории компания может предлагать G-Sync как апгрейд для стандарта DisplayPort, обеспечивающего переменные частоты обновления. В конце концов, Nvidia является членом ассоциации VESA.

Однако новые спецификации для DisplayPort, HDMI или DVI не планируются. G-Sync и так поддерживает DisplayPort 1.2, то есть стандарт менять не нужно.

Как уже отмечалось, Nvidia работает над совместимостью G-Sync с технологией, которая сейчас называется 3D LightBoost (но скоро будет носить другое имя). Кроме того, компания ищет способ снизить себестоимость модулей G-Sync и сделать их более доступными.

G-Sync на разрешениях Ultra HD

Nvidia обещает появление мониторов с поддержкой G-Sync и разрешениями до 3840x2160 пикселей. Однако модель от Asus, которую мы сегодня рассмотрим, поддерживает только 1920x1080 точек. На данный момент мониторы Ultra HD используют контроллер STMicro Athena, имеющий два устройства масштабирования для создания поделённого на плитки дисплея. Нам интересно, будет ли модуль G-Sync поддерживать конфигурацию MST?

По правде говоря, дисплеев 4K с переменой частотой кадров ещё придётся подождать. Ещё не существует отдельного устройства масштабирования, поддерживающего разрешение 4K, ближайшее должно появиться в первой четверти 2014 года, а мониторы, ими оснащённые, - только во второй четверти. Поскольку модуль G-Sync заменяет устройство масштабирования, совместимые панели начнут появляться после этого момента. К счастью, модуль изначально поддерживает Ultra HD.

Герой нашего обзора, ASUS ROG SWIFT PG278Q, — один из первых мониторов, в которых реализована новая технология G-Sync, созданная компанией NVIDIA. Кроме того, это первый и пока единственный монитор c разрешением WQHD (2560х1440), поддерживающий частоту обновления 144 Гц, а следовательно, способный выводить стереоскопическое изображение при помощи затворных очков.

ЭЛТ-мониторы лишены такого недостатка. Поскольку изображение формируется построчно сканирующим лучом, и люминофор отдельных пикселов быстро угасает, отдельно взятый участок экрана предъявляется наблюдателю на краткое время. Движение объекта представлено отдельными, разнесёнными во времени импульсами, между которыми изображение залито чёрным. Перемещаясь по чёрному полю вслед за воспринимаемой линией движения, взгляд не вызывает размытия ретинального образа.

Иллюстрация из обзора EIZO Foris FG2421 применима к ULMB с поправкой на то, что в ASUS ROG SWIFT PG278Q подсветка не мерцает на частоте 120 Гц

Благодаря мерцанию подсветки синхронно с обновлением экрана предъявляемые кадры превращаются в отделённые моментами черноты импульсы — аналогично ЭЛТ, в конечном счете избавляя зрителя от размытия движущихся объектов. С функцией G-Sync в текущем варианте ULMB не совместим.

Лучшие мониторы для игр | Модели с поддержкой технологий Nvidia G-Sync

Технология переменной или адаптивной частоты обновления экрана представлена двумя разновидностями: AMD FreeSync и Nvidia G-Sync. Они выполняют одну и ту же функцию – сводят частоту обновления источника (видеокарты) и дисплея, чтобы предотвратить раздражающие разрывы кадров во время быстрых движений в игре. FreeSync является частью спецификации DisplayPort, а G-Sync требует дополнительных аппаратных средств, под лицензией Nvidia. Реализация G-Sync добавляет к цене монитора порядка $200. Если у вас уже есть современная видеокарта GeForce, выбор очевиден. Если вы пока не определились, вам следует знать, что у G- Sync есть одно преимущество. Когда частота кадров опускается ниже порога G-Sync, то есть 40 кадров/с, кадры дублируются для предотвращения разрывов изображения. У FreeSync такой функции нет.


Сводная таблица


Модель AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Категория FHD FHD QHD QHD
Лучшая цена в РФ, руб. 24300 28990 31000 58100
Тип панели/фоновой подсветки TN / W-LED TN / W-LED edge array TN / W-LED edge array AHVA / W-LED edge array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Радиус закругления нет нет нет нет
1920x1080 @ 144 Гц 1920x1080 @ 144 Гц, 180 Гц с разгоном 2560x1440 @ 144 Гц, 165 Гц с разгоном 2560x1440 @ 165 Гц
Диапазон работы FreeSync нет нет нет нет
Глубина цвета/цветовой охват 8-бит (6-бит с FRC) / sRGB 8-бит / sRGB 8-бит / sRGB 8-бит / sRGB
Время отклика (GTG), мс 1 1 1 4
Яркость, кд/м2 350 350 350 350
Динамики нет нет нет (2) 2 Вт
Видео входы (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудио разъёмы нет (1) 3.5 мм выход на наушники (1) 3.5 мм Stereo in, (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники
USB v3.0: (1) вход, (2) выхода; v2.0: (2) выхода v3.0: (1) вход, (2) выхода v3.0: (1) вход, (4) выхода v3.0: (1) вход, (2) выхода
Энергопотребление, Вт 40 типичн. 65 макс. 33 типичн. 90 макс., 0.5 ожид.
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Толщина панели, мм 50 70 52 66
Ширина рамки, мм 16-26 11 сверху/сбоку: 6, снизу: 15 8-12
Вес, кг 6,5 6,6 5,8 7
Гарантия 3 года 3 года 3 года 3 года

Модель Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Категория UHD UHD WQHD QHD
Лучшая цена в РФ, руб. 43900 62000 102000 58000
Тип панели/фоновой подсветки AHVA / W-LED edge array IPS / W-LED edge array AH-IPS / W-LED edge array AMVA / W-LED, edge array
Диагональ экрана/соотношение сторон 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Радиус закругления нет нет 3800 мм 1800 мм
Максимальное разрешение/част. обновления 3840x2160 @ 60 Гц 3840x2160 @ 60 Гц 3440x1440 @ 75 Гц, 100 Гц с разгоном 2560x1080 @ 144 Гц, 200 Гц с разгоном
Диапазон работы FreeSync нет нет нет 8-бит / sRGB
Глубина цвета/цветовой охват 10-бит / sRGB 10-бит / sRGB 10-бит / sRGB 10-бит / sRGB
Время отклика (GTG), мс 4 4 5 4
Яркость, кд/м2 300 350 300 300
Динамики (2) 2 Вт, DTS (2) 2 Вт, DTS (2) 2 Вт (2) 3 Вт, DTS
Видео входы (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудио разъёмы (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники
USB v3.0: (1) вход, (4) выхода v3.0: (1) вход, (4) выхода v3.0: (1) вход, (4) выхода v3.0: (1) ввход, (3) выхода
Энергопотребление, Вт 71.5 типичн. 56 типичн. 100 макс. 34 Вт при 200 нит
Габариты ДхВхШ (с основанием), мм 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Толщина панели, мм 63 62 73 118
Ширина рамки, мм сверху/сбоку: 8, снизу: 22 сверху/сбоку: 13, снизу: 20 сверху/сбоку: 12, снизу: 24 сверху/сбоку: 12, снизу: 20
Вес, кг 7 11,5 11,2 9,7
Гарантия 3 года 3 года 3 года 3 года

AOC G2460PG – FHD 24 дюйма


  • Лучшая цена в России: 24300 руб.

ДОСТОИНСТВА

  • Отличная реализация G-Sync
  • Частота обновления экрана 144 Гц
  • Подавление размытия движения ULMB
  • Высокое качество сборки
  • Очень высокое качество цветопередачи и оттенков серого

НЕДОСТАТКИ

  • Нестандартная гамма
  • Недостаточно яркости для оптимальной работы ULMB
  • Не IPS

ВЕРДИКТ

Несмотря на то, что G-Sync остаётся премиальной и дорогой опцией, AOC G2460PG является первым монитором в это сегменте, который ориентирован на покупателя с относительно небольшим бюджетом. Он стоит примерно вдвое дешевле Asus ROG Swift, поэтому вы можете немного сэкономить, либо установить на своём столе сразу два монитора.

Asus RoG PG248Q – FHD 24 дюйма


  • Лучшая цена в России: 28990 руб.

ДОСТОИНСТВА

  • G-Sync
  • 180 Гц
  • Низкая задержка
  • Отзывчивость
  • Точность цветопередачи с калибровкой
  • Изящный внешний вид
  • Качество сборки

НЕДОСТАТКИ

  • Чтобы добиться лучшей картинки, требуется регулировка
  • Контрастность
  • Дорогой

ВЕРДИКТ

PG248Q похож на экзотический спорткар – дорогой и непрактичный в эксплуатации. Но если во время установки выставить верные настройки, то вы получите превосходный игровой опыт. По плавности и скорости отклика этот монитор – пожалуй, лучший из того, что мы протестировали на сегодняшний день. Он стоит потраченных денег и времени. Настоятельно рекомендуем.

Dell S2417DG


  • Лучшая цена в России: 31000 руб.

    ДОСТОИНСТВА

    • Превосходное качество обработки движений
    • Точность цветопередачи на заводских настройках
    • Разрешение QHD
    • Частота обновления165 Гц
    • Игровые функции
    • Рамка 6 мм

    НЕДОСТАТКИ

    • Контрастность
    • Точность гамма-кривой
    • ULMB снижает светоотдачу и контрастность
    • Углы обзора

    ВЕРДИКТ

    Если бы Dell исправила проблемы с гаммой, с которыми мы столкнулись в ходе тестирования, то S2417DG заслужил бы нашу награду Editor’s Choice. Монитор невероятно плавно передаёт движения, совершенно без ореолов, дрожания и разрывов – глаз не оторвать. Польза от функции ULMB незначительная, тем не менее, она присутствует. Это не самый дешёвый игровой монитор с диагональю экрана 24 дюйма, но он превосходит более дорогих конкурентов и заслуживает место в списке.

    Asus RoG Swift PG279Q – QHD 27 дюймов


    • Лучшая цена в России: 58100 руб.

    ДОСТОИНСТВА

    • Стабильная работа при 165 Гц
    • G-Sync
    • Яркое и резкое изображение
    • Насыщенный цвет
    • GamePlus
    • Джойстик для экранного меню
    • Стильный внешний вид
    • Высокое качество сборки

    НЕДОСТАТКИ

    • Значительное снижение светового потока в режиме ULMB
    • Для достижения наилучшего качества изображения необходима калибровка
    • Дорогой

    ВЕРДИКТ

    Новое пополнение Asus в линейке ROG не идеально, но определённо заслуживает внимания. У PG279Q есть всё, что нужно энтузиасту, включая чёткую и яркую панель IPS, частоту обновления 165 Гц и G-Sync. Этот монитор недёшев, но мы пока не слышали о пользователях, сожалеющих о покупке. Нам понравилось играть на этом мониторе, и вам тоже наверняка понравится.

    Acer Predator XB271HK – UHD 27 дюймов


    • Лучшая цена в России: 43900 руб.

    ДОСТОИНСТВА

    • Насыщенные цвета
    • Точность изображения на заводских настройках
    • G-Sync
    • Разрешение Ultra HD
    • Углы обзора
    • Качество сборки

    НЕДОСТАТКИ

    • Дорогой