Raytracing mit der Nvidia GeForce RTX 2070/80/80Ti

Der heilige Gral der Computergrafik zum „Schäppchenpreis“

Die Katze ist aus dem Sack. Nvidia hat die neue Grafikkarten-Generation im Rahmen ihrer Pressekonferenz auf der gamescom vorgestellt und mich gleichermaßen begeistert und skeptisch zurückgelassen.

Worum ging es denn eigentlich?

Einerseits fand ich es ziemlich beeindruckend, wie  Nvidia‘s CEO Jen-Hsun „Lederjacke“ Huang das große, neue Feature erklärt hatte. Raytracing im Gaming PC. Das klang alles technisch sehr versiert und war auch spannend. Andererseits habe ich kaum die Hälfte davon verstanden, jedoch sahen die präsentierten Bilder, Trailer und Gameplay Demos verdammt geil aus. 

Man muss aber auch kein Ingenieur sein, um zu verstehen, dass Raytracing wirklich eine große Sache ist. Das Konzept der „Lichtstrahlenverfolgung“ ist aber keine völlig neue Technologie – bereits vor über 30 Jahren wurde damit experimentiert. Damals dauerte die Berechnung eines einzigen Bildes in lächerlich niedriger Auflösung, selbst auf einem Supercomputer, Tage. Eine kleine Animation benötigte bereits Wochen zur Berechnung.

Ich bin eigentlich nicht davon ausgegangen, dass Raytracing in Videospielen noch in diesem Jahrzehnt ein Thema sein würde, dementsprechend beeindruckt hatte mich auch Nvidia's Keynote. Die dazu notwendige Rechenpower war vor 30 Jahren natürlich noch unvorstellbar und bis vor kurzem gab es abseits von Supercomputern eigentlich nichts bezahlbares, was dermaßen performant ist. Eine GTX 1080Ti kann maximal ein lustiges Daumenkino produzieren, wenn man sie mit Raytracing-Algorithmen quält!

in-article
Jen-Hsun Huang präsentiert die RTX 2080 auf Nvidia's Keynote

Durch die Integration spezieller RT-Core's in Kombination mit Tensor Kernen, die durch künstliche Intelligenz sichere Voraussagen machen können, haben es die Ingenieure bei Nvidia jedoch geschafft, dass in Echtzeit berechnetes Raytracing heute schon Realität werden kann. Zu einem „bezahlbaren“ Preis. Ok, natürlich sind 1300 und ein paar zerquetschte Euros eine ganze Menge Geld. Aber weit entfernt von 20000 Euro und mehr, die man bislang investieren musste, um ähnliche Ergebnisse zu bekommen.

Und was bringt jetzt dieses Raytracing?

Jetzt habe ich so viel darüber geschwafelt, dass ich total begeistert bin von diesem Lichtstrahlenverfolgungs-Dingsi, aber was zur Hölle macht das eigentlich? Ok, ich versuche mich kurz zu fassen und nicht gar zu sehr in technische Erklärungen abzuschweifen.

Das menschliche Auge nimmt die Umgebung deshalb so wahr wie sie ist, weil Licht von allen Dingen reflektiert wird und diese Reflexionen schließlich auf unser Auge treffen. Gibt es kein Licht, sehen wir nix. Tagsüber ist die Sonne unsere primäre Lichtquelle, abends behelfen wir uns mit künstlichen Lichtquellen, oder entzünden ein herrliches Feuerchen und braten vielleicht auch noch ein leckeres Stück Fleisch darauf.

Kein Licht ohne Schatten. Schatten sind essentiell wichtig für die Tiefenwahrnehmung. Stellt euch mal vor, dass nichts einen Schatten wirft. Die Umgebung würde automatisch deutlich weniger dreidimensional wirken. Licht und Schatten gehören also zusammen wie Pommes und Ketchup. Oder Mayo, wenn ihr mögt. Das eine funktioniert ohne das andere nicht wirklich gut.

Das Problem bei Videospielen ist, dass man einen dreidimensionalen Raum auf einer zweidimensionalen Mattscheibe darstellen muss. Im besten Fall macht man das so, wie bei einem Foto, oder einem Film. Die vorhandenen Lichtquellen beleuchten die Szene und die abgelichteten Objekte reflektieren das Licht je nach Material und werfen dazu einen Schatten, der wiederum auch andere Objekte beeinflusst. Naja, und das reflektierte Licht beeinflusst auch andere Objekte. Ab hier wird es kompliziert. Genauer gesagt, viel zu kompliziert für aktuelle Grafikkarten das alles zu berechnen. Genau das wäre nämlich Raytracing.

in-article
14 TFLOPS leisten die CUDA's, nur etwa 3 TFLOPS mehr als die GTX 1080Ti. Dazu kommen aber noch die Tensor Kerne und die RT Einheit.

In den vergangenen Jahren wurden aber Techniken entwickelt, um eine möglichst große Annäherung an eine realistische Darstellung dreidimensionaler Szenerien zu verwirklichen. Techniken wie Screen Space Ambient Occlusion (SSAO) sind dabei sehr hilfreich und sorgen für eine bessere Tiefenwahrnehmung. Dennoch ist es auch nicht mit noch so tollen Tricks möglich, eine absolut realitätsgetreue Abbildung einer dreidimensionalen Szene zu verwirklichen, wenn man nicht die Lichtstrahlen verfolgt und dadurch eine korrekte Darstellung der Realität erzielt. 

Eine Sache, die bislang zum Beispiel nur sehr schwer realisierbar war, ist die Darstellung von Reflexionen, deren Quelle sich außerhalb des Screen Spaces befindet. Deshalb sieht man in den allermeisten Spielen aus der Ego-Perspektive kein Spiegelbild. Mit Raytracing jedoch sind perfekte Spiegel realisierbar.

Und wo ist jetzt das Problem?

Ja, die neue Generation von Nvidias Grafikkarten kann Raytracing. In Echtzeit. Allerdings sollten wir nicht davon ausgehen, dass jetzt alle Spiele in 4K mit mindestens 60 FPS und allen möglichen Raytracing-Features gleichzeitig laufen werden. Nein, das wird noch nicht passieren. In Full HD bei 40-50 FPS schönere Schatten? Ja! Vielleicht auch realistische Reflexionen. Echte Spiegelbilder. Materialien, die wesentlich realistischer wirken. Eine bessere Tiefenwahrnehmung. Spiegelungen von Objekten, die nicht im Screen Space sind. Alles das, oder auch nur einiges davon, wird möglich sein. So ganz genau kann ich das zum jetzigen Zeitpunkt natürlich nicht sagen. Die Zeit wird es zeigen, welche Features mit den neuen Grafikkarten (gleichzeitg) realisierbar sind.

Auch ist Raytracing stand jetzt, ein Nvidia-exklusives Feature. AMD hat noch nichts in der Richtung verlauten lassen und die aktuellen Konsolen wären hoffnungslos überfordert mit der Technologie. Auf breiter Front wird Raytracing also auf absehbare Zeit nicht im Mainstream ankommen. Es ist eher ein Feature für Enthusiasten. Menschen, die sich für Cutting-Edge-Tech begeistern und auch darin investieren wollen, damit sie ein paar Spiele so genießen können. Im Grunde ein bisschen wie VR, was auch noch nicht wirklich im Mainstream angekommen ist, aber schon zwei Schritte weiter ist. Die finanzielle Einstiegshürde bei VR ist mittlerweile nicht mehr ganz so hoch, aber auch die neuen Karten mit RT werden im Preis sinken. Ich lehne mich mal aus dem Fenster und behaupte, dass in 10 Jahren RT und VR State-of-the-Art sein werden.

Mich interessiert RT nicht, also was bringen die Karten sonst so?

Zunächst einmal können wir festhalten, dass die RTX 20xx Serie natürlich auch im konventionellen Bereich eine Schippe drauflegt im Vergleich zur GTX 10xx. Die Anzahl der CUDA Cores wurde erhöht, GDDR6 RAM, die Fertigungstechnologie verbessert und so weiter. All diese Verbesserungen befinden sich, laut technischer Spezifikationen, ungefähr im erwartbaren Rahmen. Eine RTX 2080ti wird vermutlich 20-30% stärker performen, als eine GTX 1080Ti. So ganz genau ist das noch nicht klar, da es aktuell noch keine Benchmarks gibt, aber die üblichen verdächtigen Technik-Freaks, wie zum Beispiel Digital Foundry, werden dazu sicherlich sehr bald objektive Erkenntnisse mitzuteilen haben.

in-article
Man beachte, wie sich DLSS positiv(!) auf die Performance auswirkt. Allerdings sollten wir unabhängige Tests abwarten und die Angaben von Nvidia erstmal mit Vorsicht genießen.

Allerdings darf man mittelfristig auch nicht außer Acht lassen, dass Entwickler auch Vorteile aus der Technologie abseits von RT ziehen könnten. Besonders interessant sind da die Tensor Cores. Diese Recheneinheit auf den neuen Chips ist in der Lage 110 TFLOPS zu liefern! Das ist Wahnsinn. Eine Anwendungsmöglichkeit für diese schiere Power ist DLSS. Dabei handelt es sich um einen Kantenglättungsalgorithmus, der in etwa vergleichbar ist mit temporalen AA Implementationen wie TAA. Nur halt physikalisch korrekt und irgendwie besser. Sorry, wenn ich das nicht ganz genau beleuchten kann. An der Stelle habe ich schlicht zu wenig Ahnung von der Technologie. Ist aber eine gute Sache, weil dadurch die CUDA's entlastet werden und so mehr Power für anderes konventionelles Zeug übrig bleibt. Gut, oder?

Auch können diese Tensor Kerne mit Daten gefüttert werden, die zuvor in einem neuronalen Netzwerk errechnet wurden. Das ist dann immer eine spezifische Sache. Will sagen, in diesem neuronalen Netzwerk werden der künstlichen Intelligenz Wege aufgezeigt, wie man zum Beispiel aus einem niedrig aufgelösten Bild ein perfektes hochaufgelöstes Bild bastelt. Diese Informationen finden dann durch Treiber Updates Einzug in die Tensor Cores und sorgen dafür, dass die AI genau weiß, wie man aus relativ wenigen Daten ein tolles Bild zaubert. Das wiederum steigert die Performance im Allgemeinen. Krasser Shit, keine Ahnung wie das funktioniert, aber klingt vielversprechend.

Also ja, die neuen Karten können auch im konventionellen Bereich mehr als die alten. Und dazu werden sie in Einzelfällen noch ein paar mehr Muskeln spielen lassen können, die den 10xx-er Karten und auch den Konsolen komplett fehlen. In Zahlen ausgedrückt heißt das... weiß man noch nicht. Ist auf jeden Fall spannend in den nächsten Monaten zu sehen, wie die Entwickler die Power nutzen und was die Nerds messen. 

Brauche ich jetzt unbedingt so eine RTX 20xx?

Nein! Niemand braucht so ein Monster wirklich. Ich nicht, ihr nicht und überhaupt niemand, der einfach nur zocken will und noch 1-2 Jahre warten kann, bevor wieder Geld ausgegeben werden muss, weil dann irgendwann neue Spiele einfach zu hohe Anforderungen haben. 

Wollt ihr jedoch in 4K mit flüssigen 60+ FPS (ohne Raytracing) und hohen Einstellungen eure Spiele genießen, oder in Full HD mit nie dagewesener Bildqualität eure Augen verwöhnen, dann könntet ihr euch das überlegen. 650 Euro für die „kleine“ RTX 2070 wären an der Stelle für mich die Schmerzgrenze. Die aufgerufenen 1350 Euro für das Spitzenmodell RTX 2080Ti werden wohl höchstens die absoluten Enthusiasten unter euch investieren wollen. Wenn Geld kein Problem ist, dann schlagt zu. Ihr bekommt absolute Spitzentechnologie, die ihre wahren Stärken erst in 1-2 Jahren ausspielen kann. Wir anderen warten einfach solange und kaufen dann zu einem günstigeren Preis.

In meinem PC verrichtet zur Zeit eine GTX 1060 (6 GB) zuverlässig ihren Dienst und das darf sie auch noch eine ganze Weile tun. So sehr ich von der neuen Technologie begeistert bin, so wenig bin ich aktuell dazu bereit, so viel Geld dafür auszugeben. Nächstes Jahr vielleicht, wenn die Preise nicht mehr auf Mond-Niveau sind. Aber natürlich bin ich schon tierisch gespannt, was die neue Generation am Ende des Tages wirklich leistet und ich freue mich auf die vielen Tests und Berichte der Tech-Medien.

Werdet ihr euch eine der neuen Grafikkarten kaufen? Oder wartet ihr noch eine Weile ab? Oder wollt ihr ganz bestimmt kein Geld investieren und überspringt eine Generation? Schreibt gerne in die Kommentare, was ihr denkt.

Über den Author: Timo "Dukuu" Schweda
Dukuu liebt Videospiele und schreibt auch gerne darüber. Auch hängt er gerne mal die krumme Nase in die Kamera und labert dummes Zeug über Videospiele. In seiner Freizeit sollte er lieber mal mehr Sport machen und weniger zocken, damit die fette Wampe ein wenig kleiner wird. Wobei... wen interessiert's?

Kommentare

Haby
Also mich intressiert Raytracing schon; aber 1350 € für eine Grafikkarte lege ich defenitiv nicht hin. Da warte ich lieber noch 2 bis 3 Jahre dann sind sie nicht nur günstiger, sondern es gibt auch bessere Grafikkarten die noch besseres Raytracing geben.
ABC
Als Nintendo Gamer ist es also in 10-15 Jahren relevant.^^
Dukuu
@Haby Jopp. Ich überleg mir sogar eventuell eine 1080Ti für meinen nächsten PC zu kaufen (den ich mir Anfang nächsten Jahres zusammenstellen will). Aber bis dahin ist auch noch was Zeit und mal gucken, wo die neuen Karten dann preislich und performancetechnisch liegen...
Dukuu
@ABC Vorher kommt aber noch Anti-Aliasing in 5-10 Jahren :D
ABC
@dukuu Wie viel Geld kostet dein nächster Tower und wie lange soll das System im Einsatz sein? Ist es ein kompletter Neubau oder rüstest du auf? Und sind die Blechkanten in den heutigen Gehäuse (Tower) immer noch schärfer als jedes Küchenmesser? :D
Dukuu
@ABC Was mein nächster PC kosten wird kann ich noch gar nicht so genau sagen, da ich mich noch nicht auf die exakte Konfiguration festgelegt habe. Ich will auf jeden Fall einen Ryzen Prozessor, 32GB RAM und eine Nvidia Grafikkarte verbauen. Entweder eine 1080Ti, oder eben eine der neuen Karten. Kommt darauf an, wie die Preise im März/April so sind. SSD's und HDD's hab ich genug und auch mein Netzteil werde ich wohl aus meiner alten Mühle retten können. Ein neues Gehäuse muss aber auch sein, der Platzmangel in meinem derzeitigen PC geht mir auf die Nüsse :D Um scharfe Kanten braucht man sich in der Regel heute keinen Kopf mehr machen. Jedenfalls nicht bei "anständigen" Gehäusen ;) Was der ganze Spaß dann kostet ist noch nicht abzusehen, aber mehr als 2000€ werde ich auf keinen Fall ausgeben. Denke ich. Hoffe ich :D
ABC
Viel Spaß beim schrauben! Ich hab meinen letzten PC 2005 gebaut und seit 2008 verwende ich nur noch Laptops und IPads.
Deine Meinung ist gefragt!

Schreib einen Kommentar und lass die Welt wissen, was Du denkst.