Games.ch

Goodbye Tearing: G-Sync und G-Sync Ultimate - Special

NVIDIA öffnet sich dem Adaptive-Sync-Standard

Artikel Video Sponsored Content Steffen Haubner

NVIDIA hat sich dem Adaptive-Sync-Standard geöffnet. Mit kompatiblen Monitoren wie den Modellen von ASUS schont ihr künftig Augen und Nerven.

Screenshot

"ASUS Hero" (ROG Swift PG27UQ)

Bildrate und Bildwiederholungsfrequenz - zwei Begriffe, die Gamern schon eine Menge Kopfzerbrechen bereitet haben. Damit soll nun Schluss sein, zumindest wenn es nach NVIDIA und ASUS geht. Doch der Reihe nach. Die Bildrate der Grafikkarte bestimmt bekanntlich, wie viele Bilder pro Sekunde berechnet werden können. In der Praxis trifft dieser Wert allerdings auf die in Hertz gemessene Bildwiederholungsfrequenz des Monitors. Weichen beide Werte signifikant voneinander ab, kann das zu einem "Zerreissen" der Darstellung führen, da zwei leicht versetzte Bilder angezeigt werden. Man spricht bei diesem Phänomen auch von "Screen Tearing". Die erste Antwort der Hersteller auf das Problem hiess "VSync". Ist ein Bildschirm mit 60 Hertz angeschlossen, liefert die Grafikkarte eben maximal 60 Bilder pro Sekunde.

Screenshot

Es liegt auf der Hand, dass damit die Power, die eigentlich in einem System steckt, zugunsten eines durchgängig stabilen Bildes einschränkt wird. Weiterer Nachteil von VSync ist ein gewisser unvermeidlicher Input-Lag, also eine Verzögerung zwischen dem Zeitpunkt, an dem das Videosignal am Monitor ankommt, und dem Moment, in dem das Bild auf dem Bildschirm erscheint. Gerade Shooter-Spielern müssen wir hier nicht erklären, wie lang Millisekunden sein können, wenn es darum geht, wann der Gegner im Blickfeld auftaucht.

Alles Sync oder was?

Wieder wurden die Hersteller aktiv. Beim sogenannten Adaptive-Sync-Standard trennten sich allerdings die Wege der Unternehmen. AMD setzte auf "FreeSync", NVIDIA startete unter dem Namen "G-Sync" in die neue Ära. In beiden Fällen werden Bildrate und Bildwiederholungsfrequenz variabel gehandhabt. Liefert die Grafikeinheit 70 Bilder pro Sekunde, schaltet der Monitor automatisch auf 70 Hertz. Wird er dagegen mit 144 Bildern pro Sekunde gefüttert, zeigt er die Grafik in 144 Hertz an. Die Sache hatte allerdings bislang einen Haken: G-Sync liess sich nur mit NVIDIA-GeForce-Grafikkarte und einem Monitor mit G-Sync-Modul nutzen. Besass man dagegen einen Adaptive-Sync-Bildschirm, konnte man diese Funktion nur im Zusammenspiel mit einer geeigneten Radeon-Grafikkarte von AMD nutzen. Solche Ausschliesslichkeiten haben noch nie dazu beigetragen, einer Technologie auf dem Massenmarkt zum Durchbruch zu verhelfen.

Darin ist wohl auch der Hauptgrund zu suchen, dass sich NVIDIA dem Adaptive-Sync-Standard öffnete. Konkret heisst das: Besitzer einer GeForce-Grafikkarte können G-Sync grundsätzlich auch auf einem Adaptive-Sync-Monitor nutzen. Nur weil man einen FreeSync-Monitor besitzt, ist man nun also für dieses Feature nicht mehr auf eine AMD-Grafikkarte festgelegt. Umgekehrt braucht man natürlich auch nicht mehr zwangsläufig einen G-Sync-Monitor, um die dynamische Bildwiederholrate einer GeForce zu nutzen. Allerdings gibt es eine ganze Reihe von guten Gründen dafür, denn FreeSync-Displays unterliegen keiner externen Qualitätsprüfung. Gewisse Anforderungen stellt erst der Nachfolgestandard FreeSync 2 HDR. Fachmagazine wie PC Games Hardware kommen daher schon länger zu dem Urteil, dass G-Sync-Komponenten in der Praxis besser harmonieren.

Kommentare