Ampere A100 GPU: KI-Berechnungen 2.000 Prozent schneller

Die neue Nvidia Ampere-Karte A100 ist nichts für zu Hause sondern für Rechenzentren. Was sagt sie uns über die kommende RTX 3000-Serie? MIXED | News zu VR, AR und KI & Benjamin Danneberg

Grafikkarte A100 von Nvidia auf Basis der neuen Ampere-Architektur

Die neue Nvidia Ampere-Karte A100 ist nichts für zu Hause sondern für Rechenzentren. Was sagt sie uns über die kommende RTX 3000-Serie?

Kabetec VR-Brille

Wie bereits vermutet beschränkte sich Nvidia in seiner digitalen Version der Keynote der GTC 2020, die aus einer Reihe gleichzeitig veröffentlichter Youtube-Videos bestand, auf die Vorstellung von Supercomputer-Zubehör. Über eine RTX 3080 Ti wurde nicht gesprochen.

KI-Berechnungen künftig deutlich schneller

Für Fans Künstlicher Intelligenz (Fachbegriffe erklärt) ist die neu vorgestellte A100 GPU hingegen ein feuchter Traum, denn sie verdoppelt die Rechenleistung des 2017er Vorgängermodells V100, das noch auf der Volta-Architektur gründet, nicht bloß. Laut Nvidia kann sich die Leistung für bestimmte KI-Berechnungen verzwanzigfachen.

Das liegt einerseits an der energieeffizienteren, andererseits performancesteigernden neuen Fertigungsweise. Anstelle in 12nm wird Ampere und damit auch die A100 GPU in 7nm beim taiwanesischen Konzern TSMC gefertigt. Das bedeutet, dass erheblich mehr Transistoren auf dem Chip geparkt werden können.

Beeindruckend ist allerdings, wie viel da am Ende reinpasst: Die A100 GPU soll 54 Milliarden Transistoren auf einer Fläche von nur 815 m² beherbergen. Zum Vergleich: Vorgängermodell V100 kommt grade so auf 21,1 Milliarden. 6.912 FP32-Kerne für Berechnungen mit einfacher Genauigkeit (die V100 hatte im Vergleich 5.120 FP32-Kerne), 3.456 FP64-Kerne für Berechnungen mit doppelter Genauigkeit und 422 Tensor Cores sorgen für die eigentliche Rechenpower. Der HBM2-Speicher kommt zudem mit 40 GB und einer Transferrate von satten 1,6 TB pro Sekunde.

Weniger Tensor Cores als V100 (640), aber bis zu zwanzigfach erhöhte Leistung bei der KI-Rechenleistung? Die 3. Generation der Tensor Cores wurde offenbar im Funktionsumfang erweitert und unterstützt nun auch Berechnungen mit doppelter Genauigkeit (FP64). Außerdem führt Nvida das neue Gleitkommaformat Tensor Float 32 (TF32) ein, dass die Vorteile von FP32 und FP16 kombiniert. Das ist insbesondere für Deep Learning und andere KI-Trainings-Szenarien interessant und wichtig, die keine so hohe Genauigkeit verlangen, wie etwa die Voraussage von Erdbebenwahrscheinlichkeiten.

RTX 3080 Ti: Sicher nicht doppelt so schnell wie RTX 2080 Ti

Was sagt uns das über die möglichen Grafikkarten der RTX 3000-Serie, die für Ende des Jahres erwartet werden? Sie werden sich deutlich von einer Hochleistungsrechenkarte wie dem A100 unterscheiden. Schließlich ist höhere Mathematik kaum ein Anwendungsbereich fürs Wohnzimmer.

Das Konsumentenmodell RTX 2080 Ti weist auf einer Fläche von 754m² ordentliche 18,6 Milliarden Transistoren auf. Nehmen wir die Größe des A100-Chips als Richtlinie, könnte eine RTX 3080 Ti gut doppelt so viele Transistoren verbaut haben wie die 2080 Ti, was in etwa einer Verdopplung der Leistungsfähigkeit gleichkäme.

Allerdings wären die Kosten enorm. Dementsprechend wird die 3080 Ti wahrscheinlich deutlich kleiner und sich trotzdem noch bei rund 30 – 50 Prozent mehr Leistung einpendeln. Der Preis für den Endverbraucher dürfte dann auch in der Nähe der aktuellen Preise für die 2080 Ti (rund 1.200 €) liegen. Die Spekulationen der letzten Tage würden damit weitgehend Recht behalten.  

Letzte Aktualisierung am 14.05.2020 / Affiliate Links / Bilder von der Amazon Product Advertising API / Preis inkl. MwSt., zzgl. Versandkosten

Weiterlesen zum Thema Grafikkarten

steady2