что такое g sync и freesync

Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Связь видеокарты с монитором и её проблемы

В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.

И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.

Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Обратный вариант: видеокарта рендерит больше кадров в секунду, чем способен показать монитор. Это приводит к тому, что на мониторе может появиться сразу несколько кадров.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Подобные разрывы бросаются в глаза, и их частое появление может вызвать тошноту, боль в глазах или головокружение. В таком случае речь идёт не просто о плавной игре, но и о здоровье человека, потому борьбе с подобным уделено большое внимание. Ниже рассмотрены методы синхронизации видеокарты и монитора, которые позволяют избавиться от подобных проблем.

Вертикальная синхронизация — дёшево и сердито

Тем не менее, не решается проблема и с кадрами, которые рендерятся дольше и из-за которых видеокарта выдаёт в секунду меньше, чем может показать монитор. Потому что V-Sync в таком случае сокращает число выводимых кадров до кратного частоте монитора. Например, если у вас монитор с 60 Гц, а видеокарта выводит 55 кадров в секунду, то V-Sync срежет выводимое число кадров до 30, чтобы картинка шла плавнее. В результате FPS падает и ощущения становятся ещё хуже.

Адаптивная синхронизация — старший брат V-Sync

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Однако на практике подобный метод помогает не всегда и проблемы вертикальной синхронизации всё ещё могут встречаться.

G-Sync — дорого, но эффективно

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Убирая все минусы вертикальной синхронизации (статтеринг, разрыв изображения, задержку управления), G-Sync является очень хорошим вариантом. Но, вместе с этим, очень дорогим, так как G-Sync работает только на мониторах с предустановленным чипом от Nvidia и требует повышенной мощности.

FreeSync — упрощённая G-Sync

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Однако свои отличия есть. Если G-Sync продолжает работать по этому принципу на низких FPS, мониторы с FreeSync начинают использовать «традиционные» методы синхронизации, возвращая старые помехи — и статтер, и разрыв изображения, и задержку управления.

Но если G-Sync использует свой собственный чип, FreeSync работает на DisplayPort — уже разработанной до этого технологии. Говоря кратко: для FreeSync тоже нужен специальный монитор, но FreeSync-монитор будет дешевле монитора с G-Sync.

VRR и совместимость FreeSync с G-Sync

Это значительно расширяет список подходящих мониторов, а также даёт шанс, что любой монитор сможет работать с G-Sync.

Источник

Играем по-новому. G-sync и FreeSync – особенности и отличия

Геймеры знают, что если не найти баланс между производительностью графической карты и возможностями монитора, то в играх могут появиться визуальные артефакты (разрывы изображения). Причина их появления — не совпадение частоты кадров видеокарты и частоты обновления дисплея. Единственным выходом было включение функции Vsync, чтобы синхронизировать частоты между собой, правда, это не решало проблему на 100%. Поэтому в 2014 году NVIDIA и AMD представили свои решения адаптивной частоты обновления экрана, которые мы рассмотрим в этом материале.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Большинство мониторов работает при фиксированной частоте обновления – 60, 120 или 144 Гц, к примеру. При запуске 3D игры частота кадров (Frames per Second, FPS) будет «плавать» в определенном диапазоне в зависимости от того насколько ПК справляется с нагрузкой. По умолчанию графическая карта отправляет монитору кадры, как только они были обработаны, независимо от того, готов ли дисплей отобразить следующий кадр. Поэтому при частоте кадров, которая превышает частоту обновления экрана, могут появляться «разрывы» изображения, связанные с отсутствием синхронизации частот и спецификой обновления изображения у ЖК дисплеев – сверху вниз. Если ПК не обеспечивает стабильно высокий FPS, иногда новый кадр накладывается на старый, прежде чем тот исчезает с экрана. Появляется едва заметный эффект «разрыва» изображения на две части (его называют screen tearing от англ. слова to tear — рвать). Проблема особенно заметна при движениях в горизонтальной плоскости (например, при резких поворотах вправо и влево в шутерах). При этом, разрывы могут появляться даже на геймерских мониторах с частотой 120 или даже 144 Гц — просто они менее заметны.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync
Наглядный пример эффекта screen tearing

Многие годы проблему можно было частично решить включением вертикальной синхронизации (Vsync), которая заставляет графический адаптер «придержать» кадр, пока монитор не будет готов его отобразить. При этом максимальное количество кадров ограничивается частотой обновления экрана. Так что при устранении разрывов увеличивается задержка вывода изображения, которую можно ощутить, когда частота падает ниже поддерживаемой частоты обновления. К тому же, некоторые кадры будут обрабатываться графическим адаптером медленнее, так что монитору даже приходится ждать новые кадры, поэтому отображаются старые кадры, создается ощущение, что дисплей «заикается». Мало того, в тяжелых игровых сценах, когда видеокарте нужно работать более усердно, заметны проседания частоты кадров, что также может испортить впечатления от игрового процесса.

G-Sync и FreeSync – отличия и особенности

Чтобы избавиться от ограничений, вызванных вертикальной синхронизацией, главные производители графических адаптеров NVIDIA и AMD представили свои решения в этой области – G-Sync и FreeSync соответственно. Первая появилась в середине 2014 года, а вторая – весной 2015. Обе технологии работают с интерфейсом DisplayPort 1.2, как со стороны видеокарты, так и со стороны монитора. Компания AMD уже работает над возможностью интеграции технологии в интерфейс HDMI. Вне зависимости от производителя и особенностей реализации G-Sync и FreeSync, в основе обеих технологий лежит принцип изменения частоты обновления экрана. Причем выполняется он таким образом, что монитор может динамически подстраивать частоту обновления своего экрана под частоту кадров видеокарты. При этом частоты идеально синхронизированы, так что пользователь избавлен от разрывов изображения и визуальных багов, связанных с Vsync или видимых без ее использования.

Несмотря на то, что в основе этих технологий лежит одна идея, реализация отличается. Так, для работы G-Sync требуется отдельный проприетарный модуль, который устанавливается в монитор. Поскольку он стоит дорого, цена мониторов с G-Sync на несколько сотен долларов выше. Кроме этого, модули G-Sync поддерживают режим уменьшения размытия движения, который именуется Ultra Low Motion Blur (ULMB). Это позволяет пользователю выбрать режим работы подсветки дисплея для снижения до минимума «смазывания» картинки в движении (свойство ЖК-дисплеев). По отзывам, польза наиболее ощущается в стратегиях. Правда, две технологии пока что не работают одновременно, так как ULMB требуется постоянная частота обновления экрана. Ну и, конечно же, G-Sync совместима только с определенными видеокартами NVIDIA. Вот их список (по состоянию на лето 2015 года): TITAN Black и X, GeForce GTX 980, 970, 780 Ti, 780, 770, 760, 750 Ti, 750, 660, 680, 670, 690, 660 Ti и 650 Ti BOOST.

AMD FreeSync условно бесплатна для производителей мониторов, так как, благодаря компании VESA в интерфейс DisplayPort уже имплементирована спецификация Adaptive-Sync, которую и использует AMD. Большинство производителей мониторов уже имели нужные компоненты, но им не хватало правильного программного обеспечения для раскрытия всего потенциала технологии. Все обошлось без лицензирования, проприетарных компонентов и повышения цены. Все ради потребителей? Почти. Ведь без покупки современной видеокарты AMD не обойтись: Radeon R9 Fury X, R9 300 серии, R9 295X2, 290X, R9 290, R9 285, R7 260X или R7 260. У старых серий карт Radeon HD 7000, HD 8000 и других моделей R7 и R9, а также у части гибридных процессоров (APU) поддержка технологии не полная — в видео, но не играх. То есть на практике геймеры не ощутят пользы.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync
Модуль, который устанавливается в мониторы с поддержкой G-Sync

Поэтому особенности этой технологии немного другие. Благодаря отсутствию отдельного модуля производители мониторов не ограничены только разъемом DisplayPort, можно также установить HDMI, DVI, D-Sub для разнообразных подключений, даже несмотря на то, что FreeSync работает только с DisplayPort. С другой стороны, отсутствует функция уменьшения размытия, так что производители мониторов будут сами решать, добавлять ее или нет. Кроме этого, FreeSync совместима с небольшим количеством видеокарт AMD и не работает с графикой NVIDIA и Intel.

Первые мониторы с G-Sync: Acer XB270HU, XB280HK, XB270HA, XB240HAbpr, Asus PG278Q, BenQ XL2420G, AOC G2460PG.

Первые мониторы с FreeSync: Acer XG270HU и XR341CK, AOC G2460PF и G2770PF, Asus MG279Q и MG278Q, BenQ XL2730Z, LG 29UM67.

Системные требования касаются не только «железа». Надо установить на ПК Windows 7 или более новую версию, а также свежую версию драйверов для графического адаптера. Также для работы этих технологий нужно активировать функцию в NVIDIA Control Panel или AMD Catalyst Control Center. Собственно, насчет игр ограничений нет — в большинстве проектов с 3D графикой польза будет заметна.

Первые впечатления

Что касается реальных условий эксплуатации, то обе технологии зарекомендовали себя только с положительной стороны. Такое впечатление складывается по обзорам первых мониторов, совместимых с G-Sync или FreeSync. Возможно, польза заметна не всегда (не во всех играх, не на всех настройках графики и т. д.), однако, в целом обозреватели положительно оценивают эффект от G-Sync и FreeSync в шутерах, ролевых играх, автосимуляторах и играх других жанров.

G-Sync показывает наилучшие результаты при FPS в пределах 45-60 кадров/с, а для FreeSync этот показатель составляет 40-75 кадров/с. То есть в тех условиях, при которых играют обычные люди, а не киберспортсмены. При этом для технологии FreeSync даже можно включить Vsync, если система достаточно производительна, чтобы выйти за рамки возможностей поддерживаемого монитора. Тем не менее, при приближении к частоте 144 Гц, польза технологий не так ощутима, хотя все-равно заметна. Тесты показывают, что производительность системы с включенной FreeSync на доли процента выше, чем без нее. С другой стороны, G-Sync уменьшает количество FPS на пару кадров, что едва-ли заметно в играх. Так что не стоит волноваться, что дополнительная нагрузка на систему при активизации этих технологий сильно повлияет на ее производительность в играх.

Резюме

Простого ответа на вопрос «Что лучше – G-Sync или FreeSync?» нет. Все сводится к выбору производителя – NVIDIA или AMD. Учитывая, что единого стандарта нет, то нужно подстраиваться под существующую систему или собирать новую. Технология AMD существенно дешевле и намного удобнее для реализации со стороны производителей мониторов, хотя это и не значит, что дисплеи с поддержкой FreeSync заполнят рынок. Все дело в том, что примерно 3 из 4 проданных дискретных видеокарт (без учета графики, встроенной в процессоры) имеют процессор NVIDIA. Так что производители мониторов точно не обойдут стороной G-Sync, даже несмотря на повышение стоимости конечного продукта. Не будем забывать о бонусе в виде технологии ULMB, уменьшающей размытие при движении объектов на экране, которая во многих случаях тоже полезна, как и адаптивная частота развертки. Пусть мониторы с G-Sync или FreeSync пока еще дорогие и их мало, однако в скором будущем эти технологии могут стать массовыми и, возможно, на их основе появится универсальная технология — для всех видеокарт и мониторов. А пока самые требовательные геймеры могут увидеть какой эффект дают новые разработки уже сейчас. и возвращаться к играм «по старому», судя по отзывам очевидцев, многие из них уже не захотят.

Источник

FreeSync против G-Sync: что лучше?

G-Sync и FreeSync могут вывести гейминг на новый уровень, но какая из технологий лучше?

Если вы когда-либо наблюдали разрывы экрана при игре на ПК, то знаете, насколько это раздражительно. В таком случае идеально разработанная видеоигра становится испорченной грубыми горизонтальными линиями и заиканием. Вы можете включить V-Sync, однако при отсутствии действительно высокопроизводительной системы, это может сильно повлиять на общую производительность.

И Nvidia, и AMD усилили попытки решить эту проблему, сохранив частоту кадров, и оба производителя обратились к технологии адаптивной синхронизации, чтобы наконец решить столь глобальную проблему. Но давайте разберемся, чтобы выяснить, какой же вариант все-таки лучше.

Производительность

G-Sync и FreeSync предназначены для сглаживания игрового процесса, уменьшения задержки ввода и предотвращения разрывов экрана. Обе технологии используют разные методы для достижения данных целей, но на самом деле их отличает то, что одна из них тщательно охраняется, а вторая — используется в открытую. В то время как G-Sync от Nvidia добавляется путем включения чипа в конструкцию монитора, FreeSync использует функциональность видеокарты для управления частотой обновления монитора, используя стандарт Adaptive Sync, встроенный в стандарт DisplayPort, — в результате имеем разницу в производительности.

Пользователи отмечают, что, хотя разрыв и заикание уменьшаются при включенной FreeSync, некоторые мониторы имеют еще одну проблему: эффект Ghosting. Суть его заключается в том, что, когда объекты движутся по экрану, то оставляют изображения своей последней позиции, и это выглядит как тень. Это баг, которого некоторые люди вообще не замечают, но это действительно раздражает.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

FreeSync и G-Sync также испытывают проблемы, когда частота кадров не синхронизируется постоянно в пределах диапазона обновления монитора. G-Sync имеет проблемы с мерцанием при очень низкой частоте кадров, и, хотя технология обычно компенсирует это, есть исключения. FreeSync, тем временем, имеет проблемы с заиканием, если частота кадров падает ниже заявленной минимальной частоты обновления монитора. Некоторые мониторы с FreeSync имеют чрезвычайно узкий диапазон адаптивной синхронизации, и если ваша видеокарта не может обеспечивать частоту кадров в этом диапазоне, возникают проблемы.

Кажется, что большинство пользователей, сравнивших две технологии, все же предпочитают качество G-Sync, которое не показывает проблем с заиканием при низкой частоте кадров и, таким образом, является более плавной в реальных ситуациях.

Выбор

Одним из первых отличий, о котором вы услышите, когда речь заходит о технологии адаптивной синхронизации, помимо общего соперничества между AMD и Nvidia, является разница между закрытым и открытым стандартом. Хотя G-Sync является запатентованной технологией Nvidia и требует разрешения компании и сотрудничества, FreeSync бесплатна, и её реализация — цель программы, а не способ заработать деньги. Таким образом, с поддержкой FreeSync доступно больше мониторов.

С другой стороны, G-Sync существует дольше, и она управляется Nvidia, нынешним лидером в производстве графических процессоров. Это может помешать расширению лидерства AMD в совместимых мониторах, но сейчас технология все еще имеет преимущество.

В большинстве случаев вы не можете смешивать и сочетать две технологии. Хотя сами мониторы будут работать независимо от марки видеокарты, для функций FreeSync и G-Sync конкретно требуется графический процессор AMD и Nvidia соответственно. Вы должны выбрать Nvidia или AMD, а затем приобрести монитор соответственно.

Если вы предпочтете Nvidia, модуль на мониторе будет выполнять большую часть тяжелой работы, связанной с регулировкой частоты обновления. Это будет отражено на цене за дисплей, поскольку каждый производитель должен платить Nvidia за технологию. Положительным моментом является то, что эта технология была выпущена еще в начале 2014 года, поэтому она доступна даже на мониторах по цене от 28 000 рублей, например, Acer Predator XB241H.

Модуль G-Sync также выполняет большую часть тяжелой работы, поэтому, пока монитор совместим, вы можете использовать карты младшего поколения. Nvidia перечисляет совместимые опции, которые варьируются от Titan X и 1080 Ti до 1050, цены на которых стартуют от 9 500 рублей.

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Вы не будете платить больше за монитор с FreeSync. В отличие от G-Sync, производитель не может увеличивать цену за включение технологии. Таким образом, FreeSync часто поставляется в дисплеях с 1440p и частотой обновления 144 Гц (там, где нет аналогов G-Sync), а мониторы без этих функций могут стоить всего около 10 000 рублей.

Вам также понадобится карта с поддержкой FreeSync, которая традиционно была присуща только видеокартам AMD, а также APU и консолям, таким как Xbox One, которые используют AMD APU. Но это традиционное разделение между G-Sync и FreeSync теперь стало более размытым благодаря видеокартам от Nvidia, способным поддерживать FreeSync.

Все это стало возможным из-за обновления драйвера, которое позволяет графическим картам серии GeForce GTX 10, GeForce GTX 16 и GeForce RTX 20 работать с мониторами на FreeSync. Обычно он работает, но есть одна загвоздка — гарантированно работа обеспечена только на мониторах FreeSync, которые сертифицированы как совместимые с Nvidia G-Sync. Это означает, что карты были тщательно протестированы и одобрены Nvidia для обеспечения бесперебойной работы FreeSync по всему диапазону. Вот текущий список сертифицированных мониторов

Заключение

Без каких-либо других компонентов вы потратите не менее 28 500 рублей на монитор с G-Sync (1080p) и графическую карту GTX 1050; гораздо больше, если вы хотите устройство, которое может обрабатывать 4K-игры. И все же за менее чем 19 000 рублей вы можете достичь базового уровня совместимости FreeSync с Asus VG245H, упомянутым выше, и картой, подобной Radeon RX 550, которая запустит игры в 1080p с достойной производительностью. Хорошей новостью для AMD является то, что вплоть до RX 580 (которая является отличной видеокартой для игр в 1440p), цены вполне сопоставимы с периферией Nvidia. Это означает, что вы сможете получить столь же мощный графический процессор без G-Sync Premium.

Учитывая ценовой разрыв, вы можете задаться вопросом, почему кто-то предпочел бы G-Sync. Ответ прост – она лучше. Технология адаптивной синхронизации от Nvidia обеспечивает более стабильную общую производительность. Стоит также отметить, что, когда речь заходит о высокой производительности и играх в 4K, видеокарты Nvidia в настоящее время являются настоящим королем производительности. Переход на FreeSync и, следовательно, покупка графического процессора AMD Radeon, может означать покупку оборудования, которое обеспечивает меньшую отдачу от затраченных средств.

К счастью, новая совместимая с G-Sync программа предоставляет покупателям множество новых возможностей. Если вы уже обладаете картой Geforce GTX 10-й серии и выше, то можете купить более дешевый монитор с FreeSync, который уже сертифицирован для работы с картой.

В конечном итоге обе технологии в значительной степени достигают своих целей и предоставляют опыт, превосходящий V-Sync. Ваш выбор будет зависеть от того, предпочитаете ли вы общую эффективность, или же первоклассный игровой опыт.

Источник

Что такое AMD FreeSync и Nvidia G-Sync

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Мы уже давно привыкли к тому, что мониторы имеют фиксированную частоту развертки изображения — обычно 60 Гц. Фиксированная частота пошла еще с ЭЛТ-телевизоров, когда видеоряд имел четко заданное количество кадров в секунду — обычно 24. Но вот в играх частота кадров не является постоянной — она может изменяться в очень широких пределах, и из-за того, что частота развертки не совпадает с частотой рендеринга кадров видеокартой, в итоге и появляются разрывы изображения, что мешает комфортному игровому процессу. Это происходит из-за того, что изображение выводится на дисплей даже в том случае, если вывод части предыдущего кадра ещё не закончен полностью — оставшаяся часть буфера приходится на текущее обновление экрана. Именно поэтому каждый выведенный на монитор кадр при несовпадении частот, указанных выше, будет по сути состоять из двух кадров, отрендеренных видеокартой.

Вертикальная синхронизация

Самый простой метод решения проблемы — включение вертикальной синхронизации. Что она делает? Она выводит изображение на монитор только тогда, когда кадр полностью готов. Соответственно, если у вас монитор с 60 Гц, и видеокарта выдает больше 60 fps — вы получаете плавную картинку без единого разрыва и артефакта (при этом видеокарта не будет нагружена на 100%). Но тут уже появляется другая проблема — задержка при выводе изображения. Если монитор обновляется 60 раз в секунду, то на один кадр тратится 16.7 мс, и даже если видеокарта подготовила кадр за 5 мс — монитор все равно будет ждать оставшиеся 11 мс:

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Поэтому управление становится «вязким» — при движении мышью отклик на мониторе происходит с небольшой задержкой, поэтому становится труднее позиционировать прицел в шутерах и прочих динамических играх. Еще хуже, если видеокарта не способна выдать в игре 60 fps — к примеру, если fps 50, и включена вертикальная синхронизация, то каждую секунду будет 10 кадров, в которые на экран не будет выведена новая информация, то есть каждую секунду будет 50 кадров с задержкой до 16.7 мс, и 10 кадров с задержкой в 33.4 мс — в итоге картинка будет дерганной, и играть будет невозможно.

Поэтому до недавнего времени у игроков было три варианта — или включать вертикальную синхронизацию (если fps выше 60) и мириться с не самым удобным управлением, или отключать синхронизацию, и терпеть артефакты изображения.

AMD FreeSync и Nvidia G-Sync

Разумеется, крупные компании нашли решение проблемы — они придумали принудительную синхронизацию частоты развертки и рендеринга кадра видеокартой. То есть если видеокарта сделала кадр за 5 мс — монитор выведет предыдущий кадр на 5 мс, ничего не ожидая. Если следующий кадр был отрендерен за 20 мс — монитор опять же будет держать предыдущий кадр на экране 20 мс:

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Что это дает? Во-первых, так как монитор выводит полностью готовые кадры и они синхронизированы с частотой развертки, нет никаких артефактов. Во-вторых, так как монитор выводит кадр сразу же, как он был готов, ничего не ожидая, нет никакой «вязкости» управления — изображение на мониторе меняется сразу же, как только вы пошевелили мышью.

Различия между FreeSync и G-Sync

Каждый из вендоров пошел своим путем: у AMD частота развертки контролируется самой видеокартой, а монитор должен быть подключен через DisplayPort. С одной стороны, это плохо — если видеокарта не имеет аппаратной поддержки FreeSync, то вы не сможете им воспользоваться. С учетом того, что эту технологию поддерживают только чипы линейки R7 и R9 начиная с 200ых, а также линейки Fury и RX — за бортом остаются чипы линеек HD 7000, некоторые из которых вообще говоря ничем не отличаются от чипов 200ой линейки (да, банальное переименование). Мобильные версии видеокарт AMD FreeSync вообще не поддерживают, даже если они мощнее десктопных карт, в которых есть его поддержка. С другой стороны, так как по сути весь контроль идет со стороны видеокарты, монитор для FreeSync оказывается дешевле такового с G-Sync на 80-100 долларов, что вполне ощутимо.

Nvidia пошла другим путем — контроль за частотой развертки выполняет сам монитор, в который встроен специальный чип. С одной стороны, это хорошо — поддерживаются видеокарты начиная с GTX 650 Ti, а так же мобильные решения начиная с 965М. С другой стороны — чип стоит денег, поэтому мониторы с G-Sync дороже.

Так же различается и допустимые частоты развертки. У AMD это 9-240 Гц, у Nvidia — 30-144 Гц. Цифра в 9 Гц скорее вызывает улыбку (ибо это слайд-шоу), и 30 у Nvidia в принципе можно считать допустимым минимумом. А вот то, что у Nvidia ограничение на 144 Гц, уже может быть мало, так как топовые игровые мониторы имеют частоту вплоть до 240 Гц. Но, увы, пока что у AMD нет таких видеокарт, которые могут выдать в киберспортивных играх больше 200 fps, так что 240 Гц на данный момент — просто хороший запас на будущее. С другой стороны, если частота кадров в игре опускается ниже минимальной частоты развертки монитора, у AMD просто принудительно выставляется эта частота, то есть мы получаем те же проблемы, что и с вертикальной синхронизацией. Nvidia же сделали хитрее — чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет:

что такое g sync и freesync. Смотреть фото что такое g sync и freesync. Смотреть картинку что такое g sync и freesync. Картинка про что такое g sync и freesync. Фото что такое g sync и freesync

Еще один плюс в сторону AMD — отсутствие небольших задержек при передаче данных на монитор, так как FreeSync использует технологию Adaptive-Sync стандарта DisplayPort для того, чтобы заранее узнать минимальную и максимальную частоту обновления монитора, поэтому передача данных не прерывается на координацию работы видеокарты с модулем G-Sync в мониторе, как у Nvidia. Однако на практике разница оказывается не больше 1-2%, так что этим можно пренебречь.

Разумеется, возникает вопрос — влияют ли технологии синхронизации кадров на производительность в играх? Ответ — нет, не влияют: разница с выключенной синхронизаций и FreeSync или G-Sync оказывается нулевой, и это понятно — по сути эти технологии не заставляют видеокарту обсчитывать больше данных — они просто выводят уже готовые данные быстрее.

В итоге — что же лучше? Как бы смешно это не звучало, но у пользователей нет выбора: те, кто пользуются продукцией «красных», вынуждены использовать FreeSync. Те, кто пользуются продукцией «зеленых», аналогично могут использовать только G-Sync. Но, в принципе, на текущий момент технологии выдают схожий результат, так что выбор действительно заключается только в производителе и мощности видеокарты.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *