Die Sache mit der Grafikkarten-Leistungsaufnahme

Montag, 23. März 2009
 / von Leonidas
 

Der Stromhunger aktueller Grafikkarten ist bekannterweise Thema unzähliger Diskussionen über die Wahrhaftigkeit vorliegender Daten und den Zweck derart hoher Leistungsaufnahmen. Schließlich haben HighEnd-Modelle selbst die stromschluckendesten CPUs bei der Leistunsgaufnahme längst überholt – und dies eingerechnet die inzwischen ausgelaufenden Pentium 4 Modelle, bei welchen Intel seinerzeit das Thema auf CPU-Seite auf die Spitze getrieben hatte.

Doch welche Werte zur Leistungsaufnahme sind nun die "richtigen"? Die Grafikchip-Entwickler geben nur eine Thermal Design Power (TDP) an, welche aber eher nur einen zwischen den Herstellerfirmen relevanten Wert darstellt, der angibt, auf was für eine Belastung Kühlsystem und Spannungsversorgung eines Grafikboards maximal vorbereitet sein muß. Deswegen sollte und liegt normalerweise in den TDP-Angaben einiger Spielraum: Mittels TDP-Angaben sichert man sich bewußt nach oben hin ab, womit diese Angaben auch nur einen indirekten Hinweis auf die reale Leistungsaufnahme von Grafikkarten liefern können.

Damit bleiben dann nur noch entsprechende Messungen übrig, welche es in Form der Messungen des Gesamtsystems zur Genüge gibt – nur das sich daraus dann die Grafikkarte allein schwer herausrechnen läßt bzw. im Fall der Fälle diese Rechung dann wieder eine zusätzliche Ungenauigkeit mit sich bringen würde. Messungen allein der Grafikkarte sind dagegen rar, weil das entsprechende Meßprozedere dafür nicht gerade einfach ist und derzeit nur von wenigen Webseiten realisiert wird.

Als erstes wären hier die X-bit Labs zu nennen, welche Stromverbrauchsmessungen von Grafikkarten allein nun schon seit Jahren liefern. Eben dieser lange Zeitraum der Messungen wird den X-bit Labs nun aber ein wenig zum Verhängnis, denn aus Vergleichsbarkeitsgründen basieren selbst die jüngeren Messungen dieser Webseite immer noch auf dem 3DMark06 – welcher heutzutage nun kein anspruchsvoller Benchmark mehr ist. Demzufolge haben sich in letzter Zeit auch einige Zweifel breitgemacht, ob diese Messungen der X-bit Labs wirklich noch realitätsgetreu sind.

So gab es zuerst seitens HT4U einen breites Aufsehen erregenden Artikel, wo nicht mehr mittels 3DMark06, sondern über den Belastungstest FurMark gemessen wurde. Dabei erzielte man gerade im Performance- und HighEnd-Bereich allerdings Stromverbrauchswerte, welche teilweise klar überhalb der TDP-Grenzen lagen – eigentlich sollte dies ein Ding der Unmöglichkeit sein. Daß die Messungen von HT4U prinzipiell korrekt sind, wurde inzwischen aber mehrfach nachgewiesen, so daß damit die neue Erkenntnis zu Tage trat, daß unter den extremen Bedingungen eines expliziten Belastungsbenchmarks der Stromverbrauch deutlich höher sein kann als unter regulären Anwendungen – und vor allem älteren Benchmarks wie dem 3DMark06.

Gleiches hat dann auch die PC Games Hardware herausgefunden, auch hier wurden mittels FurMark teilweise klar überhalb der TDP liegende Stromverbrauchswerte erzielt. Gleichfalls wirft die PCGH mittels Messungen unter Crysis Warhead eine neue Note in die Diskussion: Hierbei handelt es sich um Messungen unter dem derzeit wohl Grafikkarten-forderndsten Spiel, welches eventuell der Frage nach dem Verbrauch im Spiele-Alltagseinsatz am nächsten kommt.

Doch schauen wir uns erst einmal an, worüber wir im einzelnen reden. Es sind zwar nicht für alle aktuellen Grafikkarten entsprechende Leistungsaufnahme-Werte zu Crysis Warhead und FurMark vorhanden, aber auch so läßt sich schon ein gewisses Bild aufzeigen:

Idle
(X-Bit Labs)
3DMark06
(X-Bit Labs)
Crysis Warhead
(PCGH)
FurMark
(HT4U)
TDP
Radeon HD 2900 XT 512MB 71,7W 161,1W 173,1W - 215W
Radeon HD 3850 256MB 13,5W 63,1W - - 106W
Radeon HD 3870 512MB 18,7W 81,1W 92,6W 123,9W 126W
Radeon HD 3870 X2 2x512MB 58,0W 171,0W - - ?
Radeon HD 4670 512MB 8,7W 47,1W - 64,2W 59W
Radeon HD 4830 512MB 32,6W 85,0W - 93,2W 80W
Radeon HD 4850 512MB 40,7W 109,9W 111,4W 148,2W 114W
Radeon HD 4870 1024MB 65,2W 130,0W 144,3W 187,2W 157W
Radeon HD 4850 X2 2x1024MB 59,1W 225,1W - - 226W
Radeon HD 4870 X2 2x1024MB 78,9W 263,9W 207,1W 373,1W 286W
GeForce 7900 GTX 512MB 31,2W 84,2W 89,8W 105,6W 120W
GeForce 9600 GT 512MB 27,2W 60,8W - 68,5W 96W
GeForce 9800 GT 512MB 35,4W 83,2W - 111,7W 115W
GeForce 9800 GTX 512MB 45,3W 108,1W 133,0W 186,4W 156W
GeForce 9800 GTX+ 512MB 29,8W 80,2W - 128,4W 141W
GeForce GTS 250 1024MB 26,2W 80,9W - - 150W
GeForce 9800 GX2 2x512MB 69,1W 181,8W - 268,1W 197W
GeForce GTX 260 (192SP) 896MB 44,8W 136,1W - - 182W
GeForce GTX 260 (216SP/65nm) 896MB 45,0W 139,0W 131,7W 166,2W 182W
GeForce GTX 260 (216SP/55nm) 896MB 44,7W 104,9W - - 182W
GeForce GTX 280 1024MB 50,2W 178,0W - 226,0W 236W
GeForce GTX 285 1024MB 59,9W 149,8W - 214,1W 183W
GeForce GTX 295 2x896MB 76,3W 214,1W 221,2W 316,5W 289W

Es ist hier klar ersichtlich, daß nahezu alle Performance- und HighEnd-Grafikkarten ihre TDP-Grenzen unter FurMark teils weit durchbrechen (die diesbezüglichen Messungen von HT4U werden im übrigen durch die FurMark-Messungen der PCGH bestätigt und damit klar untermauert). Dies fällt insbesondere bei den DualChip-Grafikkarten auf – und bei nahezu allen ATI-Grafikkarten. Womit wahrscheinlich auch schon der Grund für diese Phänomen gefunden ist.

Denn zum einen werden DualChip-Grafikkarten in aller Regel in heutigen Spielen nirgendwo perfekt ausgelastet, womit diese eben nur unter dem FurMark an ihrer theoretischen Leistungsgrenze arbeiten müssen. Dies erklärt auch, wieso gerade bei den DualChip-Grafikkarten ein so großer Unterschied zwischen den Werten unter 3DMark06 und Crysis Warhead sowie den FurMark-Ergebnissen existiert: Auch in der Spielerealität sind die zwei Grafikchips nicht wirklich vollständig auslastbar, während dies für ein bewußt als Lasttool entwickeltes Programm wie den FurMark natürlich anders aussieht.

Zum anderen wiederum sind die Werte der ATI-Grafikkarten hier generell so abweichend, weil deren aktuelle Architektur besonders viele Shader-Einheiten mit einer sehr hohen Shaderpower beinhaltet. Als Beispiel hierfür mag die Radeon HD 4850 gelten, welche bei der Shaderpower 1000 GFlops auf die Waage bringt, deren in der Performance in etwa gleichwertige GeForce GTS 250 dagegen "nur" mit 705 GFlops antritt. Je nach Spiel nutzten die ATI-Karten diese hohen Shaderpower natürlich nicht vollständig aus – in einem Lasttest wie dem FurMark dagegen sehr wohl.

So gesehen ist es wenig verwunderlich, wenn gerade die ATI- sowie die DualChip-Grafikkarten so hohe Stromaufnahmewerte unter dem FurMark zeigen – bei diesen liegen einfach die meisten im normalen Spielealltag nicht genutzten Reserven an Rechenkraft, welche der FurMark dann herauskitzelt. Somit kann man sicherlich sagen, daß die FurMark-Werte in Bezug auf den Spielealltag nicht gerade real sind – die 3DMark06-Werte mögen nicht perfekt sein, aber sie werden wenigstens grob durch die Werte von Crysis Warhead bestätigt, während die FurMark-Werte gerade bei den schnelleren Karten noch einmal ein ganzes Stück drüber liegen.

Keine Relevanz für den Spielealltag bedeutet jedoch nicht dasselbe in Bezug auf die TDP-Werte, welche mittels der FurMark-Messungen wie zu sehen teilweise deutlich überboten werden. Erstens einmal sollte eine TDP generell den maximalen Zustand zuzüglich Reserve wiederspiegeln – und zweitens gibt es ja auch Anwendungszwecke, die ähnliche Resultate wie der FurMark in der Praxis vermuten lassen: Denn wenn man die heutigen Grafikkarten als GPGPU-Beschleuniger einsetzt, kann es ganz schnell dazu kommen, daß diese nahezu perfekt ausgelastet werden und damit ähnliche Resultate wie der FurMark produzieren.

Zudem wäre generell auch an die Spielezukunft zu denken, wo heutige HighEnd-Grafikkarten ihre Hardware-Kapazitäten wohl viel stärker ausnutzen müssen, weil kommende Spieleengines viel fordernder und auch angepasster an die aktuellen Grafikkarten sein werden. Dies ist eine Erfahrung aus früheren Grafikkarten-Generationen, wo ehemalige HighEnd-Modelle unter aktuellen Spielen teilweise schwer zu schuften haben, hier ist eine höhere Hardware-Auslastung als zu den Glanzzeiten dieser alten Hardware sicherlich zu vermuten. Gleiches kann nun aber auch für aktuelle HighEnd-Hardware zutreffen, wenn da ein wenig Zeit vergangen ist – auch dort dürfte es in Richtung einer höheren Ausnutzung der vorhandenen Hardware respektive eines höheren Stromverbrauchs gehen.

Insofern kann sich unserer Meinung nach keiner der beiden Grafikchip-Entwickler damit herausreden, daß der FurMark reine Therorie wäre (was sind dann die von beiden Entwicklern breit genutzten 3DMarks in Bezug auf die Performance?), ganz besonders nicht, wo beide das Thema GPGPU als gewichtige Zukunftsoption promoten – nVidia derzeit mehr, aber ATI wird hierbei sicherlich noch nachziehen. Insbesondere wenn es – wie bei ATI festgestellt – zu grenzwertigen Temperaturen auf dem gesamten Grafikboard unter dem FurMark kommt bzw. ATI dieses Programm mittlerweile mittels des Treibers erkennt und dann den Grafikchip heruntertaktet, ist jegliche Toleranzgrenze weit überschritten und sind die Grafikchip-Entwickler dazu aufgerufen, ihre Grafikboards zukünftig nicht so deutlich auf Kante zu bauen.

Denn schließlich ist die TDP nicht nur eine Spaßangabe, sondern drückt wie gesagt aus, was Kühlkonstruktion und Stromversorgung des Grafikboards maximal aushalten müssen – zusätzlich noch vorhandene Spielräume sind hier eigentlich nicht mehr vorgesehen und ergeben sich nur aus der Klasse der verwendeten Bauteile, welche aus Sicherheitsgründen (Stichwort Qualitätsstreuung in der Produktion) die sich aus der TDP ergebenden Bauteilanforderungen immer etwas übererfüllen. Aber eigentlich sollte Hardware im unübertakteten Zustand niemals auf der allerletzten Reserve laufen – was aber bei einer Radeon HD 4870 X2 mit einer TDP von 286 Watt und einer FurMark-Stromaufnahme von satten 373 Watt zweifellos der Fall ist.

Gerade ATI ist hier also aufgerufen, bei zukünftigen Grafikboards durchauch auch an solche Fälle wie den FurMark zu denken – dieses Lasttool wie derzeit künstlich auszubremsen, kann keine langfristige Lösung sein. Gerade wenn ATI zukünftig verstärkt mit im GPGPU-Bereich mitmischen will, müssen die Grafikboards einen den GPGPU-Anwendungen nahekommenden FurMark einfach aushalten. An beide Grafikchip-Entwickler geht zudem die Aufforderung, bei der TDP zukünftig ehrlich zu sein und nicht mehr aus Marketing-Überlegungen heraus die TDP der leistungsfähigsten Grafikkarten möglichst niedrig anzusetzen, um besser gegenüber der Konkurrenz bzw. eigenen älteren Produkten dazustehen.

Davon abgesehen verdient noch die Frage Beachtung, ob der 3DMark06 nun wirklich als Verlustleistungs-Benchmark ausgedient haben sollte, wie die deutlich abweichenden FurMark-Messungen erst einmal nahelegen. Und in der Tat ergeben sich teilweise auch zu den Verlustleistungs-Messungen unter Crysis Warhead gewisse Unterschiede – welche allerdings bei weitem nicht so bedeutend sind wie die Unterschiede gegenüber dem FurMark. Im Schnitt liegen die Werte zwischen 3DMark06 und Crysis Warhead nur 8 Prozent auseinander, eingerechnet die diesbezüglich deutlich nach unten hin abweichende Radeon HD 4870 X2 sind es gar nur 4 Prozent Differenz.

Sicherlich gibt es hier und da erhebliche Ausreißer (GeForce 9800 GTX von 108,1W beim 3DMark06 auf 133,0W bei Crysis Warhead), aber ansonsten bewegen sich die Unterschiede zwischen beiden Benchmarks meist im Bereich von nur wenigen Watt. Eine besondere Präferenz pro des einen oder anderen Grafikchip-Entwickler sowie für oder gegen ein bestimmtes Grafikkarten-Segment ist auch nicht festzustellen, so daß beide Benchmarks somit in etwa dasselbe Bild wiedergeben – Crysis Warhead einfach nur mit etwas höheren Werten, aber prinzipiell das identische Gesamtbild.

Man kann demzufolge auch weiterhin den 3DMark06 als Verlustleistungs-Benchmark einsetzen, die damit erzeugten Zahlen sind nicht deutlich abweichend von der Realität im normalen Spielealltag. Sicherlich mögen die 3DMark06-Zahlen etwas niedriger als die Crysis-Warhead-Zahlen sein, allerdings betrifft dies ja auch nur den Benchmark-Zustand. In der Realität kommen dann auch noch der die maximale Framerate begrenzende Vsync sowie CPU-limitierte Spielszenen hinzu, was die Leistungsaufnahme in der Spielepraxis wiederum etwas senken sollte.

Geht es also um einen Stromaufnahme-Wert, welcher eine durchschnittliche Spielebelastung darstellen soll, dann ist der 3DMark06 ein absolut vernünftiger Benchmark, so lange unter den aktuellen Spielen nichts gefunden ist, welches durchgängig deutlich höhere Stromverbrauchswerte aufzeigt. Als Mindestanforderung für das Netzteil kann man diese 3DMark06-Messungen auch verwenden, allerdings sollte bei der Wahl des Netzteils besser die TDP zu Rate gezogen werden, um auch für Leistungsspitzen gerüstet zu sein. Und bei HighEnd-Modellen sind hier sogar noch Reserven oben drauf zu legen, weil die TDP der HighEnd-Grafikkarten durch Benchmarks wie den FurMark auch übertroffen werden kann.

Nachtrag vom 26. März 2009

In einem Artikel seitens HT4U wurden neue Stromverbrauchsmessungen durchgeführt, welche das interessante Ergebnis zu tage brachten, daß die Stromverbrauchswerte des Gesamtsystems unter BioShock durchgängig fast genauso hoch ausfielen wie unter dem FurMark – welcher wie bekannt die TDP einiger HighEnd-Grafikkarten deutlich sprengt. Natürlich wäre hier immer der Effekt des Gesamtsystems zu beachten: So dürfte unter BiosShock auch die CPU gut belastet sein, während dies unter dem FurMark eventuell gänzlich anders ist. Allerdings deuten einige interne Messungen bei HT4U, welche derzeit noch nicht veröffentlich sind, in diese Richtung, daß man sowohl unter BioShock wie auch Unreal Tournament III klar höhere Stromverbrauchswerte nur für die Grafikkarte erzielen kann als unter Crysis Warhead und damit auch dem 3DMark06.

Auch seitens der PCGH gab es eine Wortmeldung, nach welcher inzwischen Tests gefunden wurden, welche über den Stromverbrauch von Crysis Warhead hinausgehen. Insofern könnte sich demnächst auch eine neue Betrachtungsweise in Bezug auf die Leistungsaufnahme von Grafikkarten bzw. den dafür am besten passenden Benchmark ergeben. Dann könnte es für die Grafikchip-Entwickler unter Umständen tatsächlich noch einmal eng werden mit deren TDP-Angaben: Zwar ist derzeit noch nicht sicher, daß diese auch unter Spielen übertroffen werden können, aber es geht mit neueren Benchmarks und Meßmethoden wohl schon ziemlich nahe an die Grenze dieser von den Grafikchip-Entwicklern immerhin als das "unter Praxisbedingungen maximal Mögliche" definierten Angabe.

Nachtrag vom 30. April 2009

Zum Launch der Radeon HD 4770 wäre noch der Punkt nachzutragen, daß nun doch die Verlustleistungsmessungen der X-bit Labs mit dem 3DMark06 anzuzweifeln sind. Wir hatten seinerzeit noch die Aussage getroffen, daß die 3DMark06-Werte mitnichten perfekt sind, aber wahrscheinlich näher an der Spiele-Realität liegen als die FurMark-Messungen beispielsweise von HT4U oder der PCGH. Allerdings hatten wir auch versprochen, die Sache im Auge zu behalten, falls sich daran etwas ändern sollte – was nun durchaus der Fall ist: Denn laut den X-bit Labs verbraucht eine Radeon HD 4770 unter dem 3DMark06 gerade einmal 49,5 Watt, während eine Radeon HD 4670 bei 47,1 Watt rangiert. Und dieser absolut geringfügige Unterschied ist definitiv unglaubwürdig, gemäß den Differenzen bei der TDP (80W zu 59W) und unter FurMark (83W zu 64W) muß die Radeon HD 4770 unter dem 3DMark06 einfach klar mehr Strom ziehen als eine Radeon HD 4670.

Gewisse Schwächen der 3DMark06-Messungen waren ja schon vorher zu sehen: So wurden DualChip-Grafikkarten regelmäßig sehr weit unter ihren jeweiligen FurMark-Werten vermessen – weil dieser inzwischen auch nicht mehr taufrische Benchmark diese Karten offensichtlich nicht wirklich gut auslasten kann. Aber mit diesem Wert der Radeon HD 4770 machen sich Verlustleistungsmessungen unter dem 3DMark06 leider selbst unmöglich, hier muß nun langsam doch der Schritt zu neuen Benchmarks unternommen werden. Ob dies der FurMark sein soll, darf heftig diskutiert werden – unsere Stimme hat dieser Test nicht unbedingt, weil es sich doch eher um ein Extrem-Szenario handelt. Dieses ist gut, um die TDP-Grenzen der Grafikchip-Entwickler auszutesten, aber für den Spielealltag dann wohl doch etwas zu hoch angesetzt.

Nachtrag vom 7. Mai 2009

HT4U sind der Sache der Verlustleistung von Grafikkarten unter Spielen nun aber wirklich tiefgehend auf den Grund gegangen und haben 15 Spiele mit jeweils zwei Grafikkarten von ATI und nVidia vermessen – wobei natürlich immer nur die Leistungsaufnahme der Grafikkarte selber gemessen wurde, nicht die des Gesamtsystems. Damit läßt sich nunmehr ziemlich gut überblicken, wie beispielsweise die langjährig genutzten Verlustleistungsangaben der X-bit Labs auf Basis von 3DMark06 einzuordnen sind – oder auch ob diverse Spiele wirklich in die Nähe der (enormen) Verlustleistungswerte eines FurMarks kommen.

TDP 3DMark06
(X-bit Labs)
3DMark06
(HT4U)
FurMark Spiele
Radeon HD 4850 512MB 114W 110W 113W 151W 103-126W
(ø 114W)
Radeon HD 4890 1024MB 190W 120W 136W 211W 127-154W
(ø 142W)
GeForce GTS 250 1024MB 150W 81W 96W 141W 81-122W
(ø 102W)
GeForce GTX 285 1024MB 183W 150W 167W 211W 139-186W
(ø 166W)

Eigentlich ist damit schon des Rätsels Lösung gefunden: So ist der 3DMark06 als Meßinstrument für die Verlustleistung generell benutzbar, dieser Benchmark liegt im Mittel nur 3 Prozent neben dem Durchschnittswert aller 15 Test-Spiele. Allerdings bezieht sich dies nur auf die 3DMark06-Messungen seitens HT4U – nicht auf diese der X-bit Labs, welche durchgehend klar niedriger ausfallen als diejenigen von HT4U. Entweder verwenden die beiden Webseiten hier eine differierende Testsequenz oder aber eine andere Meßmethodik – in jedem Fall erscheinen uns die Meßwerte seitens HT4U als deutlich plausibler, während zu den 3DMark06-Werten der X-bit Labs nicht erst seit obigem Vergleich einige Fragen gestellt werden müssen.

Gleichzeitig wird mit den umfangreichen Messungen seitens HT4U auch deutlich, daß derzeit kein Spiel wirklich in die Nähe der Werte eines FurMarks kommt, dieser Benchmark also schwerlich als Maßstab für den Spieleverbrauch herangezogen werden kann (zur Kontrolle der Herstellerangabe bei der TDP aber schon). Selbst das (mehr oder weniger) durchgehend an der Spitze beim Verbrauch der Spieletitel liegende BioShock liegt im Schnitt aller Messungen immer noch um 17,5 Prozent hinter dem Verbrauch des FurMark zurück – im Schnitt aller Spiele sind es im übrigen 26,6 Prozent Differenz, ein mehr als klarer Unterschied zwischen dem Spiele- und dem FurMark-Verbrauch.

Als Benchmarks für Verlustleistungsmessungen bieten sich demzufolge unserer Meinung nach zwei Titel besonders an: Erstens weiterhin der 3DMark06, wenn man unkompliziert einen Durchschnitts-Spieleverbrauch ermitteln will und zweitens BioShock, wenn man einen gewissen Maximalwert ermitteln will, welcher derzeit im Spielebereich bei der Verlustleistung möglich ist (ohne daß dieser Maximalwert jedoch deutlich von anderen Spielen abweichend wäre). Der FurMark eignet sich weiterhin "nur" dazu, um die TDP-Angaben der Grafikchip-Entwickler gegenzuprüfen, derzeit scheint aber kein Spiel auch nur in die Nähe dessen Stromaufnahme zu kommen.