G-Sync что это такое?

Что такое G-Sync в мониторах и как работает эта технология

Что такое технология G-Sync и как она работает?

В свое время проблемы с синхронизацией были серьезной проблемой. Благодаря G-Sync от Nvidia мы наконец-то уходим от нее, пусть пока и медленными темпами. Конечно, использование G-Sync не обходится без проблем. Что это такое и стоит его использовать? Давайте выяснять.

Зачем нужна технология G-Sync от Nvidia?

Эта проблема возникла где-то в конце 2000-х и достигла точки кипения в начале 2010-х, когда все начали изо всех сил стараться найти наилучшее возможное решение. Причина, по которой разрыв экрана не существовал раньше, заключается в том, что и видеокарты и устройства отображения были идеально оптимизированы и синхронизированы для достижения наилучшей производительности.

Однако, поскольку графика видеоигр стремилась стать более реалистичной, производители графических процессоров хотели сохранить свои карты как лучший инструмент для рендеринга этих реалистичных изображений. Лучшим примером может быть такая игра, как Crysis . Когда она вышла, это было чудо техники и было не так много компьютеров, на которых она могла работать с самым высоким разрешением и уровнем детализации.

Эти высокие требования к оборудованию даже стали мемом в игровом сообществе. Это просто говорит о том, что производители видеокарт имели очень хороший стимул производить графические процессоры с постоянно растущим приростом производительности.

Однако это оставило мониторы позади в том, что касается производительности и им потребовалось время, чтобы наверстать упущенное. Между тем, графические процессоры становились экспоненциально мощнее и могли создавать безумное количество кадров.

Что такое технология G-Sync и как она работает
На фото: Разрыв экрана

Игровые мониторы с частотой обновления 60 Гц уходят в прошлое, когда видеокарты стали более чем способны воспроизводить более 100 кадров в секунду. Неудачный побочный эффект улучшения графических процессоров была неспособностью мониторов на самом деле отображать эти дополнительные кадры, которые привели к таким неприятным моментам, как подвисание и разрывание экрана.

Разрыв экрана происходит, когда монитор пытается вывести более одного кадра одновременно и это прямое следствие того, что графическая карта создает эти дополнительные кадры и отправляет их на монитор.

Это особенно раздражающее явление разрушающе эффект погружение в игру. К счастью, Nvidia представила довольно хорошее решение.

Читайте: Сравнивнение частот обновления 60 Гц и 120 Гц

Читайте: Что выбрать ноутбук или стационарный компьютер?

До выпуска G-Sync основным решением для разрыва экрана была технология VSync. Несмотря на то, что она была далека от совершенства, она выполнила свою задачу и помогла с разработкой более передовых технологий, таких как G-Sync, а также FreeSync.

VSync не позволяет графическому процессору выводить больше кадров, чем может обработать монитор. Например, если частота обновления монитора составляет 60 Гц, VSync установит производительность кадров на максимум 60 кадров в секунду .

Однако это не было полным решением, поскольку не было возможности синхронизировать FPS и частоту обновления монитора, когда графический процессор не может генерировать достаточно кадров, чтобы соответствовать монитору.

Что такое G-Sync?

Эта революционная технология Nvidia была представлена в 2013 году и она выдержала испытание временем. И вероятно, будет продолжать существовать еще долгое время. С G-Sync разрыв экрана, похоже ушел в прошлое и мы даже не будем его обсуждать через несколько лет.

Nvidia в значительной степени позаимствовала идею VSync с точки зрения ограничения FPS, но также расширила ее, превратив в самостоятельную вещь.

Что такое G-Sync в мониторах и как работает эта технология

Причина их огромного успеха в том, что они также выпустили модуль монитора, который продается производителям мониторов, предлагая сертификацию G-Sync. Это необходимо, поскольку модуль взаимодействует с графическим процессором и принимает информацию о создаваемых кадрах, регулируя частоту обновления монитора на лету, чтобы они совпадали.

Точно так же он будет передавать видеокарте максимальное количество кадров, которое может отображать монитор, поэтому графический процессор не будет создавать лишние кадры.

G-Sync — идеальное решение для разрыва экрана. Но (всегда должно быть «но») это отличное решение имеет свою дополнительную стоимость.

Как мы говорили ранее, Nvidia требует чтобы производители мониторов имели сертификацию G-Sync, чтобы убедиться что G-Sync будет работать на их мониторах. И это не бесплатно, как вы уже могли догадаться. Чтобы компенсировать стоимость сертификации G-Sync, производители мониторов вынуждены повышать цены на свои мониторы.



G-Sync Ultimate

Ultimate — это дополнительная опция к G-Sync, которая приносит не только увеличение цены, но и множество действительно интересных функций.

Наверное, самое лучшее в G-Sync Ultimate — это то, что Nvidia удалось заполнить 1152 зоны подсветки. Тот факт что их так много, означает, что панель IPS способна создавать изображения с высоким динамическим разрешением (HDR) с гораздо большей точностью.

Еще одна вещь, которая выделяет G-Sync Ultimate, — это впечатляющие 1400 нит, которые позволяют этим HDR-изображениям быть очень четкими и визуализироваться с гораздо лучшим освещением.

Совместимость  G-Sync

Это другая сторона G-Sync. Хотя вся концепция рекламировалась как эксклюзив Nvidia, с G-Sync Compatible, им удалось изменить стандарты сертификации и включить другие мониторы с переменной частотой обновления (VRR) и даже FreeSync, сертифицированным для запуска G-Sync.

По общему признанию, существует лишь несколько мониторов, сертифицированных с поддержкой G-Sync, но это определенно шаг в правильном направлении.

Хотя кто то может утверждать, что ценность основана на индивидуальном опыте, мир технологий совсем другой. У нас есть четкие и точные цифры, которые могут реально определить, стоит ли данная технология своих денег или нет.

Читайте: Что такое технология NanoCell? И какая лучше OLED и QLED

Читайте: Что такое технология Dolby Vision в телевизоре?

Однако, поскольку числа измеряются в миллисекундах, было бы действительно сложно заметить разницу невооруженным глазом. Мы можем провести сравнение между Nvidia G-Sync и AMD FreeSync.

Здесь нам нужно знать, что оба являются решениями их соответствующих компаний для устранения разрыва экрана и оба требуют специальной сертификации монитора, чтобы можно было в полной мере наслаждаться играми у себя.

Что отличает эти две технологии, так это то что AMD не требует, чтобы производители мониторов платили за сертификацию FreeSync. Таким образом нет никаких дополнительных затрат у конечных покупателей мониторов. Таким образом, определенно дешевле иметь сертифицированный монитор FreeSync .

FreeSync — идеальное решение для видеокарт AMD. Наконец, этот аргумент должен сводиться к производительности. Nvidia легко превосходит AMD почти во многих категориях, поэтому если вы хотите получить плавный игровой процесс с высокой детализацией, вам возможно и следует выбрать G-Sync от Nvidia.

Конечно, если вас устраивает стабильная частота кадров и вы готовы пожертвовать некоторыми деталями ради опыта и если у вас ограниченный бюджет, то FreeSync от AMD  будет отличной альтернативой G-Sync Nvidia.

Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (Пока оценок нет)
Загрузка...
Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

двенадцать − 2 =