Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
DEEP MINDS #12: Künstliche Intelligenz regulieren

Bild: Lambda Labs

Deep-Learning-Benchmarks zeigen, dass die RTX 2080 Ti bei KI-Berechnungen zum Teil deutlich schneller ist als eine GTX 1080 Ti – zu einem stolzen Preis. Ob sich der Kauf für KI-Forscher lohnt, hängt vom konkreten Trainingsszenario ab.

Verglichen mit einer GTX 1080 Ti erreicht die RTX 2080 Ti auch dank der neu verbauten KI-Chips „Tensor Core“ bessere Werte in einschlägigen Deep-Learning-Benchmarks.

Abhängig von der Trainingsmethode für ein neuronales Netzwerk (Convolutional Neural Network auf Basis von Googles Tensor Flow) übertrifft die RTX 2080 Ti eine GTX 1080 Ti um 27 bis zu 65 Prozent. Der durchschnittliche Geschwindigkeitszuwachs liegt bei 36 Prozent. Durchgeführt wurden die Tests vom KI-Unternehmen Lambda Labs.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Die RTX 2080 Ti ist nach diesen Tests die schnellste Grafikkarte für Deep-Learning-Berechnungen für den Endverbraucher-Markt. Dennoch bietet laut Lambda Labs die 1080 Ti im Schnitt das bessere Preis-Leistungs-Verhältnis. Dem durchschnittlichen Leistungszuwachs über 36 Prozent stehe eine Preissteigerung von 71 Prozent gegenüber.

KI-Trainer sollen die Kaufentscheidung vom konkreten Trainingsszenario abhängig machen, da die Mehrleistung einer 2080 Ti je nach Benchmark unterschiedlich ausfällt – entsprechend verschiebt sich das Preis-Leistungs-Verhältnis.

So oder so: Die von Lambda Labs gemessene Leistung liegt deutlich hinter dem Versprechen von Nvidia-Chef Jensen Huang zurück, dass eine RTX 2080 Ti dank Tensor-Kernen dieselbe Deep-Learning-Leistung wird wie zehn 1080-Ti-Karten.

Die vollständigen Testergebnisse sind hier einsehbar.

Was geht in Zukunft mit KI-Grafik?

Nvidia möchte die KI-Kerne zunächst für die schnellere Berechnung einer hochwertigen Kantenglättung einsetzen: Anhand von hochaufgelösten Bildern lernt Nvidias KI-Supercomputer in der Cloud die Spielegrafik kennen und generiert einen spielspezifischen Algorithmus für die Kantenglättung. Der wird dann mit im Vergleich zur Echtzeit-Berechnung geringem Rechenaufwand von den Tensor-Kernen ausgeführt. Nvidia nennt das „Hybrid Rendering“.

Empfehlung

Nvidias Tom Petersen rechnet mit weiteren Innovationen bei KI-Grafik, zum Beispiel für Animationen: „All die Garagen-Computerwissenschaftler haben plötzlich Zugriff auf KI-Hardware quasi auf Supercomputer-Level. Wer weiß, was passiert“, sagt Petersen. Für professionelle Anwender bietet Nvidia eigens KI-optimierte Hardware an.

Auf der Connect 5 nannte Facebooks oberster Mixed-Reality-Forscher Michael Abrash mögliche Anwendungsszenarien für KI-Grafik, beispielsweise um Pixel im peripheren Sichtfeld aufzufüllen oder für eine realistischere Darstellung von menschenähnlichen Avataren. Das Unternehmen Deep Motion stellte ein KI-gestütztes Animationsverfahren für digitale Charaktere vor, das nach einmaligem Trainingsaufwand realistische und abwechslungsreiche Bewegungen ermöglicht.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!