Das Nvidia Gamescom-2024 Triple: G-Sync Pulsar, die ACE-KI und der beste Shooter aller Zeiten
Wenn ich mit meinem Motion-Blur-freien PC darüber reden kann, dass Half-Life 2 das Beste überhaupt ist.
Nvidia zeigte eine ganze Reihe an Neuerungen und Dingen, an denen man als der größte Hersteller der schnellsten GPU-Chips so werkelt und bei denen man mehr und mehr entdeckt, dass sie nicht nur Framerates können.
Drei Dinge überzeugten mich dabei besonders und jetzt, nachdem mein traditionelles Post-Gamescom-Corona langsam nachlässt (yep, still a thing), ist es Zeit davon zu berichten. Beginnen wir mit einer augenscheinlichen Kleinigkeit, dann kommt ein Modethema und schließlich ein echter Gaming-Dauerbrenner.
Nvidia G-Sync Pulsar: Motion Blur ist besiegt!
Manchmal sind es wirklich Kleinigkeiten, aber wenn man sie einmal gesehen hat, fragt man sich schon, warum es das bisher nicht gibt, wann ich es endlich haben kann und wie man jemals ohne leben konnte. Nvidias Erweiterung der G-Sync-Features Pulsar könnte genau so etwas werden.
Vor allem Multiplayer-Spieler kennen den Motion-Blur-Effekt, dass Schrift, die in Bewegung ist, besonders schwer lesbar ist. Der Name eines Spielers über seiner Figur zum Beispiel. Steht der Spieler, kein Problem. Bewegt er sich, dann verschwimmt die Schrift weit mehr, als man es bei einem modernen Display erwarten würde. Aber auch generelles ungewolltes Motion-Blur ist keineswegs verschwunden, nur nicht ganz so direkt sichtbar wie bei der Schrift.
Das hat zwei Gründe. Ein Standard-LCD hat eine kontinuierliche Hintergrundbeleuchtung und auf dieser braucht jeder Pixel eine kurze Zeit, um eine neue Farbe für einen neuen Frame anzunehmen. Das Auge nimmt das wahr. Dazu kommt, dass wir auf einem modernen Bildschirm keine im natürlichen Sinne beweglichen Objekte sehen, sondern eine Serie statischer Bilder, die sehr schnell wechseln. Was unser von der Evolution analog trainiertes Gehirn versucht, ist also ein vermeintlich bewegliches Objekt in einem statischen Frame zu folgen.
Für beides gibt es eine Lösung: Variable und rasante Response-Zeiten mit Werten bis zu 0,02 Millisekunden Grau-zu-Grau sorgen für eine deutliche Verbesserung. Das andere Problem wird über Backlight-Strobing gelöst, bei dem die Hintergrundbeleuchtung nicht kontinuierlich an ist, sondern nur in der kurzen Zeit, in der der Pixel seine akkurate Farbe hat, was die Übergänge für unsere Augen handhabbar macht. Beide Technologien sorgen für weniger Motion Blur, aber keine eliminiert es und sie lassen sich nicht kombinieren, ohne die Bildqualität zu ruinieren. Bis jetzt.
Nvidia und Asus zusammen haben das Problem lösen können. Dazu braucht es ASUS Adaptive Overdrive, der die Pixel-Übergänge dynamisch anpasst, während G-Sync Pulsar diese Technik steuert, um es an die Refresh-Raten anzupassen. Pulsar übernimmt dann auch die Modulation des Backlight-Strobings, um es synchron zu halten. Und ein Blick reicht, um sofort zu sehen, was gemeint ist. Ich habe nie ein Display gesehen, das praktisch kein Motion Blur hat, bei dem selbst kleine Schrift in der Bewegung perfekt lesbar bleibt. Wie auch, es ist schließlich der erste Monitor seiner Art.
Und das ist im Moment auch der Nachteil der Technologie. Sie muss auf jedes Panel speziell abgestimmt werden, da sich jedes Panel ein wenig und manchmal auch dramatisch anders verhält. Aktuell läuft G-Sync Pulsar auf dem ASUS ROG Swift 360Hz PG27AQNR, einem mit ca. 1000 Euro nicht gerade preiswerten High-End-Monitor. Aber das sollte nur eine Frage der Zeit sein, denn auch wenn Pulsar wahrscheinlich eher den höheren Monitorklassen vorbehalten bleiben wird, werden wir es sicher auch in preiswerteren Modellen als diesem hier sehen. Bereits angekündigt sind der Acer Predator XB273U F5 und AOC Agon Pro AG276QSG2. Dazu kommt Nvidias Deal mit Mediatek, die die Scaler-Module weit günstiger herstellen sollen. Damit soll der Preis der G-Sync-Monitore generell merklich sinken.
Also ja, Pulsar klingt erst mal nach nicht so viel, aber wer einmal einen Monitor ohne Motion Blur gesehen hat, der will nicht mehr zurück. Passt also auf, wenn ihr an einem vorbeigeht.
KI: Die Technik ist da, jetzt müssen wir nur noch rausfinden warum
Was mit KI muss ja sein, schließlich ist KI der Treiber für Nvidias außergewöhnliches Wachstum. Statt hier theoretisch zu bleiben und Algorithmus-Modelle zu erklären, dachte man sich bei Nvidia "zeigen" statt "erzählen" und ließ ACE auf die Menschheit los. Oder zumindest einen sehr kleinen Teil.
ACE soll die Art, wie wir mit NPCs interagieren, revolutionieren, dank generativer KI natürlich. Das, was ACE kann, wird sicher über Games hinausgehen und auch virtuelle Assistenten betreffen. Ich kann es nicht erwarten, dass Karl Klammer dank ACE ein Eigenleben entwickelt.
ACE arbeitet nur bedingt Cloud-basiert und ist vor allem ein On-Device Small Language Model, das im Speicher der RTX sein Ding macht. Dieses Sprachmodell ist Nvidias Nemotron-4 4B Instruct, das für besseres Rollenspiel sorgen soll. Mittels Retrieval-Augmented Generation bleibt der Abgleich mit relevanten Themen lokal und die KI bedient sich aus innerhalb des Spiels zertifizierten Quellen, damit die Informationen, die zurückkommen, nicht nur relevant sind, sondern auch fast in Echtzeit von einem NPC ausgesprochen werden.
Es ist sehr beeindruckend, dass man innerhalb des kommenden Spiels Mecha BREAK fragen kann, welcher Mech für was geeignet ist, und mit nur minimalster Verzögerung sehr präzise Antworten bekommt. Nun, es ist beeindruckend, solange man nicht darüber nachdenkt, dass eine Tabelle mit einer Empfehlung und ein paar unterschiedlichen Farben den Job weit schneller und effektiver erledigt hätten. Aber an den Use-Cases für das Ganze wird noch geschraubt, wir sind erst ganz am Anfang. Und die Technik, vor allem, wenn man bedenkt, welchen Level von Verständnis – natürlich kein echtes Verständnis, wir reden von 2024-KI – dieses alternative Menü mitbringt, ist wild. Vor allem, weil es On-Device läuft.
Perfect World demonstrierte einen anderen in der Realität eher zu fürchtenden Use-Case mit dem kommenden Legends. Hier konntet ihr einer Anime-Figur Fragen zur Story stellen, die sie auch recht sinnvoll beantwortet. Spannend wurde es dann bei der Frage, ob man denn etwas hat, das dem Stamm denn helfen würde. Die KI weiß, dass der nächste Boss mit Fernkampf besiegt wird und schaute sich in dem realen Raum um. Der Entwickler zeigte ein kleines Plastikschwert, das die KI aber ablehnte und deutete stattdessen auf Pfeil und Bogen an der Wand hinter dem Entwickler. „Mit einem Bogen kannst Du uns helfen.“ Also greift man sich den Bogen, die KI erkennt es, ist zufrieden und mit der richtigen Waffe geht es gegen den Boss.
Erneut, die Technik, die in der Lage ist, die Umgebung nach Dingen abzusuchen und zu erkennen, was im Spiel gefragt ist, war, gerade angesichts alles anderer als idealer Sichtverhältnisse in der Vorführkammer beeindruckend. Selbst, wenn diese Antworten dieses Mal mit einer gewissen Cloud-Verzögerung kamen, es funktionierte, wie es sollte. Jetzt ist nur noch die Frage, wie es eingesetzt wird, denn das hier, in der Form, will ich in keinem Spiel sehen. Langweilige Dialoge werden durch Antworten einer generativen KI nur bedingt besser, ich will nicht mit dem Spiel reden, wenn klicken reicht und schon gar nicht will ich Plastikwaffen vor eine Kamera halten müssen. Die Technik ist da, die Idee fehlt noch. Aber keine Sorge, da wird sicher was kommen. Aber leider erst, nachdem wir erst einmal Plastikwaffen für irgendein Spiel kaufen sollten.
Half Life 2 RTX Remix - 20 Jahre und immer noch reicht ein einziger Blick auf Nova Prospekt
Das dritte Thema hat nur zum Teil mit der Technik zu tun, die es nun befeuert. Denn dass ein zwanzig Jahre alter Ego-Shooter heute immer noch ohne Einschränkungen Spaß macht, das gibt es eigentlich gar nicht. Außer natürlich, wir reden über Half Life 2.
Sicher, Doom 3 ist irgendwie noch anguckbar, Far Cry kann man noch spielen, gerade so, Chronicles of Riddick: Butcher Bay hätten mehr Leute spielen sollen. Aber über alles, was sonst 2004 erschien, muss man nicht mehr reden. Erst 2005 wieder, als Boiling Point erschien, das Open-World-Spiel, das die Zeit vergaß. Fast ein Level mit Half Life 2. Sagt niemand außer mir. Egal, zurück zum Thema.
Half Life 2 schafft das Wunder, dass man einen Blick auf einen generisch wirkenden Gefängnisraum wirft und sofort weiß, wie dieser Ort heißt (Nova Prospect), wo er im Spiel war (etwas über die Hälfte hinaus, hinter den Sandtraps, bevor es Richtung Citadel geht) und wo man war, als man es spielte (meine damalige Wohnung an der Bernauer Straße, es war Winter, Februar vielleicht, 2006, ich hatte das Spiel nicht gleich gekauft, der PC brauchte Upgrades, draußen lag Schnee, auf dem das Mondlicht spielte und es war spät in der Nacht, ich hatte den nächsten Tag frei, ich spielte mit einer Logitech MX1000 und auf einer… es war eine Nvidia Karte, irgendeine FX5000er…). Mein Punkt ist, es gibt vielleicht fünf Spiele in dem Genre, die dermaßen ungebremst jung blieben und die anderen vier sind nicht annähernd so gut.
Und jetzt Nova Prospekt mit all den RTX-Remix-Effekten zu sehen, das war schlicht fantastisch. Das Design, wie Licht fällt und für Atmosphäre genutzt wurde, war damals schon auf einem anderen Level. Jetzt aber, mit komplett neuen Texturen und all den Lichtspielerein, die modernes Raytracing in letzter Ausgestaltung zu bieten hat, das war wundervoll. Und Nova Prospekt ist der am wenigsten beeindruckende Level im Spiel.
Praktisch alles wurde angefasst, aber auf eine Art, die nichts verändert, was nicht verändert werden durfte. Der Look-and-Feel des Spiels bleibt perfekt erhalten, es ist sofort erkennbar und sieht nicht anderes aus. Nur ungefähr siebzehn Mal besser. Die Effekte der Auto-Cannons, bei denen man immer hoffte, dass sie doch noch biette ein Monster länger halten oder der verdächtige Lichtschein, der um die Ecke kommt, dem man nicht trauen will, das Gefühl, dass man komplett einsam in diesem Komplex ist, aber eben leider doch nicht allein, all das ist ist da. Half-Life 2 war zu einem guten Teil immer wieder ein Horror-Spiel, mehr als mancher Titel, der sich so nannte und da half der einsame Antlion als emotionale Stütze in dem Stage auch nicht immer.
Wenn ich an diesen kurzen Eindrücken zur gründlichen Überarbeitung des vielleicht immer noch besten, ganz sicher wichtigsten Ego-Shooter überhaupt etwas auszusetzen habe, dann dass es kein Release-Datum gab. Aber es wird ganz groß, wenn es dann so weit ist.
Nvidia zeigte noch ein paar andere Sachen wie DLSS 3.5 Wassereffekte in Dragon Age oder den Framerate-Quantensprung, den das neue Star Wars dank dieser Technik macht (von 25 auf fast 90 war schon heftig), aber das waren die drei Sachen, die bei mir wirklich hängen blieben. Auch bei Nvidia, ich ließ keine Zweifel, was ich von der Qualität der Use-Case-Szenarien ihrer eigentlich massive beeindruckenden KI-Software hielt. Aber nicht böse sein, liebes Nvidia, da kommt noch genug von den Entwicklern, was keine traumatischen Erinnerungen an sinnlose Plastik-Items weckt, die nach sechs Monaten die Krabbeltische der Elektromärkte befüllen werden. Wir sind ganz am Anfang bei KI und was sie für das Gamesplay tun kann, bevor sie die Weltherrschaft übernimmt.
Also, Pulsar wird super für die kommende Generation der G-Sync-Monitore und sobald es da ist, würde ich nicht mal drüber nachdenken, einen Monitor ohne diese Option zu kaufen. KI kommt eh, mal gucken, was der erste gute Einsatz in einem Spiel sein wird, sobald die Grundlagenforschung etwas weiter ist. Und Half-Life 2 RTX Remix gibt dem Klassiker die nächsten 20 Jahre, in denen es in keiner Weise veraltet wirken wird. Mal gucken, vielleicht erlebe ich noch die 50-Jahres-Edition im Jahr 2054.