Grafikkarten

Überblick über die Direct3D10-Generation von ATI und nVidia

Freitag, 16. März 2007
 / von Leonidas
 

Mit den News-Meldungen der letzten Tage verdichtet sich immer mehr das Bild über die im April/Mai zu erwartenden Direct3D10-Grafikkarten von ATI und nVidia. Mittels dieser Produktoffensive in nur recht wenigen Wochen wird dann von beiden Grafikchip-Entwicklern ein komplettes Programm an Direct3D10-Grafikkarten für alle drei Marktsegmente zur Verfügung stehen. Dieser Artikel soll als aktueller Überblick über das bisher bekannte Wissen zu diesen neuen Karten dienen und wird zu diesem Zweck auch beim Auftauchen neuer Informationen entsprechend ergänzt werden.

Damit wollen wir uns ohne weitere große Vorrede in die Präsentation der entsprechend bekannten Daten zu den HighEnd-Grafikkarten stürzen. nVidia hat ja schon den Anfang in Form der Veröffentlichung des G80-Chips gemacht, während ATIs R600-Chip mehrfache Verspätungen hinnehmen musste. Auch macht es die letzte Verspätung möglich, daß ATI nochmals etwas an den R600-Grafikboards herumbastelt, die entsprechenden Daten gerade zum R600-Chip und dessen Grafikboards sind also weiterhin mit Vorsicht zu genießen.

HighEnd Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI R600
ca. 720 Mill. Tranistoren in 80nm, 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface
Radeon HD 2900 XTX
wie R600-Chip, Chiptakt angeblich 800 MHz, Speichertakt angeblich 1100 MHz, Speichergröße 1 GB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai, Verfügbarkeit allerdings erst im Juni (oder gar erst im dritten Quartal), Listenpreis angeblich 499 Dollar
Radeon HD 2900 XT
wie R600-Chip, Chiptakt 745 MHz, Speichertakt 800 MHz, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 399 Dollar
Radeon HD 2900 XL
die Unterschiede zu den XT/XTX-Versionen sind unklar – höchstwahrscheinlich deutlich niedrigere Taktraten, mit einer geringen Chance sind aber auch deaktivierte Hardware-Einheiten möglich, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar komplett unbekannt
nVidia G80
681 Mill. Transistoren in 90nm, 128 Shader-Einheiten (16 Vec8-ALUs), 32 TMUs (acht Quad-TMUs), 24 ROPs, 384 Bit DDR Speicherinterface (6x 64 Bit)
GeForce 8800 Ultra
wie G80-Chip, Chiptakt 612 MHz, Shadertakt 1512 MHz, Speichertakt 1080 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design
ca. 140-145 Watt realer Verbrauch Launch am 2. Mai, Verfügbarkeit ab 15. Mai zu einem europäischen Listenpreis von 699 Euro
GeForce 8800 GTX
wie G80-Chip, Chiptakt 575 MHz, Shadertakt 1350 MHz, Speichertakt 900 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design
132 Watt realer Verbrauch, nVidia empfiehlt ein Netzteil von mindestens 450 Watt Gesamtleistung mit 30A auf der 12V-Leitung erhältlich für derzeit um die 490 Euro
GeForce 8800 GTS
wie G80-Chip, jedoch: nur 96 Shader-Einheiten, nur 24 TMUs, nur 20 ROPs, nur 320 Bit Speicherinterface, Chiptakt 500 MHz, Shadertakt 1200 MHz, Speichertakt 800 MHz, Speichergrößen 320 und 640 MB, vollständig HDCP-kompatibel, DualSlot-Design
106 Watt realer Verbrauch (640-MB-Version), nVidia empfiehlt ein Netzteil von mindestens 400 Watt Gesamtleistung mit 26A auf der 12V-Leitung erhältlich für derzeit um die 260 (320 MB) bzw. 350 (640 MB) Euro

Deutlich besser ist hingegen die Informationslage bei den kommenden Mainstream-Grafikkarten um die beiden Grafikchips ATI RV630 und nVidia G84. Beide werden wohl plangemäß im April/Mai vorgestellt werden, auch mit der Verfügbarkeit entsprechender Grafikkarten ist für diesen Zeitraum zu rechnen. Bei den RV630-Abkömmlingen sind derzeit die jeweiligen Namenssuffixe noch nicht bekannt, sondern bislang nur die Codenamen der entsprechenden Referenzboards von ATI:

Mainstream Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI RV630
65nm, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface
Radeon HD 2600 XT
wie RV630-Chip, Chiptakt 800 MHz, Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 199 Dollar
Radeon HD 2600 Pro
Unterschiede zur XT-Version sind unklar – allerdings vermutlich nur geringere Taktfrequenzen, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 179 Dollar
Radeon HD 2600
Unterschiede zur XT-Version sind unklar – in diesem Fall sind allerdings neben geringeren Taktfrequenzen auch deaktivierte Hardware-Einheiten möglich (das 128 Bit DDR Speicherinterface bleibt allerdings), Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt
nVidia G84
289 Mill. Transistoren in 80nm, 32 Shader-Einheiten (vier Vec8-ALUs), 16 TMUs (zwei Octo-TMUs), 8 ROPs, 128 Bit DDR Speicherinterface
GeForce 8600 GTS
wie G84-Chip, Chiptakt 675 MHz, Shadertakt 1450 MHz, Speichertakt 1000 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
49 Watt realer Verbrauch (Karten haben extra Power-Anschluß) erhältlich für derzeit um die 190 Euro
GeForce 8600 GT
wie G84-Chip, Chiptakt 540 MHz, Shadertakt 1190 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design
geschätzt 40 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) erhältlich für derzeit um die 130 Euro

Und letztlich werden ATI und nVidia mit den Grafikchips RV610 und G86 auch noch neue LowCost-Modelle für Direct3D10 an den Start bringen. Einschränkenderweise gilt hier dazuzusagen, daß meistens nur die Top-Modelle der jeweiligen LowCost-Grafikkarten empfehlenswert sind, die niedrigeren Modelle sind in ihrer Leistung gewöhnlich zu beschnitten, um als sinnvolle 3D-Beschleuniger durchgehen zu können. Gänzlich herausgelassen haben wir nachfolgend im übrigen die LowProfile-Lösungen von ATI, da diese in aller Regel nur im OEM-Markt vertrieben werden:

LowCost Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI RV610
65nm, 40 Shader-Einheiten, 4 TMUs, 128 Bit DDR Speicherinterface
Radeon HD 2400 XT
wie RV610-Chip, Chiptakt 700 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
um die 35 Watt TDP Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 99 Dollar
Radeon HD 2400
Unterschiede zur XT-Version sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, Speichertakt 400 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design, passiv gekühlte Designs zu erwarten, keine Hardware-Unterstützung für CrossFire
unter 25 Watt TDP Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt
nVidia G86
210 Mill. Transistoren in 80nm, 16 Shader-Einheiten (zwei Vec8-ALUs), 8 TMUs (eine Octo-TMU), 128 Bit DDR Speicherinterface
GeForce 8500 GT
wie G86-Chip, Chiptakt 450 MHz, Shadertakt 900 MHz, Speichertakt 400 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design
unbekannt erhältlich für derzeit um die 80 Euro
GeForce 8400 GS
Unterschiede zur GeForce 8500 GT sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, SingleSlot-Design
unbekannt Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt
GeForce 8300 GS
Unterschiede zur GeForce 8500 GT sind unklar – in diesem Fall sind neben geringeren Taktfrequenzen aber auch deaktivierte Hardware-Einheiten anzunehmen (mit sicherlich nur 64 Bit Speicherinterface), SingleSlot-Design
unbekannt Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt

Wie an den großen Lücken bei einzelnen Grafikkarten zu sehen, sind derzeit die Angaben insgesamt noch zu dürftig, um bereits größere Marktprognosen abgeben zu können. Auffallend ist allerdings, daß sowohl ATI wie auch nVidia bei den Mainstream-Grafiklösungen es mit Grafikkarten mit nur 128bittigem Speicherinterface probieren wollen. Man wird dies zwar wohl durch hohe Speichertakte etwas ausgleichen wollen, nichts desto trotz könnte es zu einer Situation kommen, wo die derzeit vertriebenen Karten des Mainstream-Segments aufgrund ihrer 256bittigen Speicherinterfaces eine vergleichbare oder gar bessere Leistung bieten werden können.

Ganz allgemein sind die aktuellen Mainstream- und niedrigeren HighEnd-Lösungen auch weiterhin noch gute Marktchancen einzuräumen, da ATI und nVidia derzeit im Preisbereich von 170 bis 240 Euro wirklich sehr viel Hardware für doch recht moderate Preise verkaufen. Zu nennen wären hier insbesondere Radeon X1950 Pro, Radeon X1950 XT und GeForce 7950 GT, wobei sich zumindestens hinter den beiden letztgenannten Karten einwandfreie HighEnd-Lösungen verbergen, die jetzt einfach nur dermaßen günstig geworden sind, daß sie ins Mainstream-Segment hinabrutschen.

Davon abgesehen gilt es weitere Informationen zu den neuen Direct3D10-Karten abzuwarten, ehe man weitere Einschätzungen dieser vornehmen kann. Wie schon vorstehend angemerkt, wird dieser Artikel mit dem Auftauchen neuer Details entsprechend aktualisiert werden.

nVidia stellt die ersten Mainstream Direct3D10-Grafikkarten vor

Dienstag, 17. April 2007
 / von Leonidas
 

Mit dem heutigen Tag kommen nun endlich auch erste Mainstream-Grafikkarten aus der Direct3D10-Generation in den Markt. Wie schon beim HighEnd-Chip G80 ist auch hier wieder nVidia der Vorreiter, wenngleich natürlich auch von ATI demnächst ähnliches zu erwarten ist. Die primäre Aufgabe der neu in den Markt kommenden Karten ist dabei natürlich die Ablösung der "alten" Mainstream-Generation um die Chips G73 (GeForce 7600 Serie) und G71 (GeForce 7900/7950 Serie). Gleichzeitig setzt man damit aber auch den Grundstein für die Durchsetzung von Direct3D10-Grafikkarten im Markt, schließlich sind die bisherigen Verkäufe der HighEnd-Lösungen GeForce 8800 GTS und GTX natürlich bei weitem nicht ausreichend, um von einem beachtbaren Marktanteil an verkauften Direct3D10-Lösungen zu sprechen.

Für den interessierten User dürfte aber in erster Linie interessant sein, daß sich nun Direct3D10-Hardware auch in der Preisspanne von 100 bis 200 Euro erwerben läßt. Hierzu wirft nVidia zwei neue Grafikchips in die Waagschale: Die LowCost-Lösung G86 und die Mainstream-Lösung G84. Über beide wurde in letzter Zeit an dieser Stelle schon viel berichtet und auch wurden schon viele (letztlich passende) Informationen zusammengetragen – beim entscheidenden Punkt der Anzahl der Shader-Einheiten irrte die Vorab-Berichterstattung allerdings: So spendierte nVidia dem G84-Chip nur vier Vec8-ALUs und damit ganze 32 Shader-Einheiten.

Die Funktionsblöcke wurden allerdings dahingehend verändert, das die beim G80-Chip noch doppelt ausgelegten Textureneinheiten, welche jedoch nur eine einfach ausgelegte Addressierungseinheit besitzen, nunmehr zwei Adressierungseinheiten spendiert bekamen und daher als zwei extra Textureneinheiten gewertet werden können. Demzufolge hat der G84-Chip nicht zwei Quad-TMUs, sondern gleich zwei Octo-TMUs, insgesamt also 16 Textureneinheiten. Gegenüber dem G80-Chip ist das natürlich trotzdem eine herbe Abspeckung, dieser besitzt glatt das Vierfache an reiner Rechenleistung, nämlich immerhin 128 Shader-Einheiten (16 Vec8-ALUs).

Beim Speicherinterface wird es wie schon vorab berichtet nicht mehr als ein 128 Bit DDR-Interface mit 8 ROPs geben (nVidia bindet die ROPs ans Speicherinterface) – auch hier hat der G80-Chip deutlich mehr zu bieten: Dessen 384 Bit breites DDR-Interface samt 24 ROPs ergeben das Dreifache des G84-Chips. Insofern erscheint der neue Mainstream-Grafikchip G84 doch arg beschnitten gegenüber der GeForce 8800 Serie zu sein – mit auch der Auswirkung, das sich die GeForce 8600 Serie wohl ziemlich abstrampeln wird müssen, um überhaupt gegenüber den bisherigen Mainstream-Grafikkarten bestehen zu können.

Daneben wurde noch der LowCost-Grafikchip G86 vorgestellt, dessen größte Ausführung GeForce 8500 GT das untere Ende des Mainstream-Marktes darstellen wird. Beim G86-Chip gibt es dann nur noch zwei Vec8-ALUs (16 Shader-Einheiten) mit einer Octo-TMU (8 Textureneinheiten), allerdings blieb das Speicherinterface wenigstens bei 128 Bit DDR. Allerdings sind in Form von GeForce 8300 GS und 8400 GS noch weitere G86-Ausführungen in Planung, welche dann nur noch mit 64 Bit breitem DDR-Interface antreten werden. Diese beiden letztgenannten Karten hat nVidia heute aber noch nicht vorgestellt, erst einmal kommen GeForce 8500 GT, 8600 GT und 8600 GTS in den Markt:

  GeForce 8500 GT GeForce 8600 GT GeForce 8600 GTS
Chip-Basis nVidia G86
210 Millionen Transistoren in 80nm bei TSMC
nVidia G84
289 Millionen Transistoren in 80nm bei TSMC
Technologie-Klasse Direct3D10, Shader 4, unified Shader-Architektur
Shader-Einheiten zwei Vec8-ALUs (insgesamt 16 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten)
Texturen-Einheiten eine Octo-TMU (ingesamt 8 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten)
Raster Operation Units (ROPs) ? 8 8
Speicherinterface 128 Bit DDR 128 Bit DDR 128 Bit DDR
Speicherbestückung 256 MB 256 MB 256 MB
allgemeiner Chiptakt 450 MHz 540 MHz 675 MHz
Shader-Takt 900 MHz 1190 MHz 1450 MHz
Speichertakt 400 MHz 700 MHz 1000 MHz
Bauform PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, alle Varianten sind vollständig HDCP-kompatibel
Leistungsaufnahme unbekannt (Karten haben keinen extra Power-Anschluß) 43 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) 71 Watt realer Verbrauch (Karten haben extra Power-Anschluß)
Listenpreis 89 – 129 Dollar 149 – 159 Dollar 199 – 229 Dollar
Bild Referenzmodell nVidia GeForce 8500 GT (Referenzmodell) nVidia GeForce 8600 GT (Referenzmodell) nVidia GeForce 8600 GTS (Referenzmodell)

Wie gut zu sehen, liegt zwischen den beiden G84-Vertretern damit "nur" ein Taktunterschied von zwischen 20 und 40 Prozent, was sich aber recht gut mit dem Listenpreis-Unterschied von 33 Prozent deckt. Die GeForce 8500 GT hat hingegen nur die Hälfte der Render-Einheiten einer GeForce 8600 GT und dazu auch noch klar niedrigere Taktraten – hier dürfte wohl ein deutlicherer Performanceunterschied zu erwarten sein, als es die 50 Prozent Listenpreis-Unterschied vermuten lassen.

Leider gibt es derzeit kaum Benchmarks zur GeForce 8500 GT, primär haben sich die bisherigen Artikel zu den neuen Mainstream-Grafikkarten von nVidia mit den Modellen GeForce 8600 GT und GTS beschäftigt. Nachfolgend die Liste der derzeit im Netz diesbezüglich zu findenden Artikel:

Dabei kommen GeForce 8600 GT und GTS in den meisten dieser Tests zumindestens bezüglich der reinen Performance erstaunlich mittelmäßig weg. Viele Tests berichten von einer Performance der GeForce 8600 GT nur 20 Prozent überhalb der GeForce 7600 GT, währenddessen die GeForce 8600 GTS oftmals nur auf dem Niveau von Radeon X1950 Pro und GeForce 7900 GS rangiert. Dabei haben GeForce 8600 GT und GTS insbesondere ihre Probleme in Auflösungen oberhalb von 1280x1024 – auf der anderen Seite muß man sich aber auch eingestehen, das Mainstream-Grafikkarten im gewöhnlichen nicht für Auflösungen von 1600x1200 und mehr gebaut werden.

Das eigentliche Problem der GeForce 8600 GT und GTS ist dabei jedoch nicht der Abstand zur vorhergehenden Mainstream-Generation in Form von Radeon X1600/X1650 und GeForce 7600 Serie, diese Karten können die neuen Direct3D10-Beschleuniger sicherlich ausstechen. Das Problem der GeForce 8600 GT und GTS sind vielmehr die aktuell im Preisbereich von 150 bis 200 Euro angebotenen Mainstream-Beschleuniger der DirectX9-Klasse, welche unter der Haube sämtlich aus dem HighEnd-Bereich stammende Grafikchips besitzen. Gegen die technische Überlegenheit dieser Karten könnten GeForce 8600 GT und GTS allerhöchstens mit einem besseren Preis punkten, allerdings sieht die aktuelle Preislage derzeit eher umgedreht aus:

ATIs "alte" Mainstream Grafikkarten nVidias neue Mainstream Serie nVidias "alte" Mainstream Grafikkarten
- - GeForce 7950 GT
256 MB ca. 220 Euro
512 MB ca. 220 Euro
Radeon X1950 XT
256 MB ca. 200 Euro
512 MB ca. 220 Euro
GeForce 8600 GTS
256 MB ca. 200 Euro
-
- - GeForce 7900 GT
256 MB ca. 180 Euro
Radeon X1950 Pro
256 MB ca. 150 Euro
512 MB ca. 180 Euro
- GeForce 7900 GS
256 MB ca. 150 Euro
512 MB ca. 170 Euro
Radeon X1900 GT
256 MB ca. 130 Euro
GeForce 8600 GT
256 MB ca. 130 Euro
-
- - GeForce 7600 GT
256 MB ca. 110 Euro
Radeon X1650 XT
256 MB ca. 80 Euro
512 MB ca. 90 Euro
GeForce 8500 GT
256 MB ca. 90 Euro
GeForce 7600 GS
256 MB ca. 80 Euro
512 MB ca. 100 Euro

Nach der jüngsten Preisentwicklung (die GeForce 8600 GT fiel innerhalb der ersten drei Stunden nach dem Launchtermin um 15 Uhr von 150 auf 130 Euro) scheint sich die GeForce 8600 GT zumindestens nVidia-intern passabel einordnen zu können: Dem Mehrpreis gegenüber der GeForce 7600 GT steht wohl auch eine halbwegs gleiche Mehrperformance gegenüber – auch wenn man sich diese durchaus größer vorstellen könnte. Gegenüber der (allerdings nur noch selten angebotenen) Radeon X1900 GT wird es dagegen schon kritischer, da diese Karte nur geringfügig hinter einer Radeon X1950 Pro zurückliegt und schon die deutlich schneller getaktete GeForce 8600 GTS so ihre Schwierigkeiten hat, sich gegenüber dieser zu behaupten.

Die GeForce 8600 GTS hingegen erscheint zum derzeitigen Preis (welcher innerhalb der ersten Stunden nach dem Launch stabil blieb) nicht konkurrenzfähig – schließlich gibt es dafür schon eine Radeon X1950 XT, welche eigentlich durchgehend erheblich mehr Performance in die Waagschale werfen kann. Da die GeForce 8600 GTS derzeit von der Performance her ungefähr auf dem Niveau von GeForce 7900 GS/GT und Radeon X1950 Pro rangiert, müsste der Preis dieser Karte demzufolge wenigstens in die Nähe von 150 Euro absinken, um die GeForce 8600 GTS attraktiv zu halten.

Ob dies passiert, kann derzeit sicherlich trefflich spekuliert werden – schließlich gab es in der Vergangenheit mehr als ausreichend Hardware-Launches, wo sich die zum Launch angesetzten Startpreise nur wenige Wochen hielten und dann auf ein statthaftes Niveau heruntergingen. Auf der anderen Seite kann man auch genauso gut einwerfen, daß eine neue Hardware, welche schon zum Start weg kein überzeugendes Preis/Leistungsverhältnis bietet, auch mit einigen Preissenkungen niemals ein wirklich gutes Preis/Leistungsverhältnis erreichen wird können.

Insofern erscheint es ganz so, als hätte nVidia mit dem Mainstream-Direct3D-Grafikchip G84 ein gutes Stück zu kurz gegriffen bzw. den Rotstift bei den Abspeckungen zum G80-Chip zu heftig angesetzt. Dies mag womöglich auch damit zusammenhängen, daß zu Zeiten der G84-Entwicklung noch niemand ahnen konnte, das ATI und nVidia derzeit ehemalige HighEnd-Grafikchips mittels Grafikkarten für teilweise klar unter 200 Euro geradezu verschleudern. Dies wird den Markterfolg von GeForce 8600 GT und GTS gerade im OEM-Bereich natürlich kaum verhindern können, schließlich zieht dort primär Direct3D10 als Verkaufsargument. Ob sich die GeForce 8600 GT und GTS Karten allerdings im Retailmarkt gut verkaufen können, wäre vorerst zu bezweifeln – dafür sind die Leistungen der gleichpreisigen DirectX9-Konkurrenz derzeit einfach zu überzeugend.

nVidia GeForce 8800 GTX Review

Montag, 30. April 2007
 / von Leonidas & Madkiller
 

Mit dem G80-Chip hat nVidia im November wie bekannt den ersten Direct3D10-Grafikchip vorgestellt, welcher auch – wie seinerzeit nicht zu erwarten war – bis jetzt der einzige entsprechende Grafikchip im HighEnd-Segment ist. Zwar hat nVidia inzwischen entsprechende Modelle für das Mainstream-Segment nachgelegt, ATI hat sein G80-Konkurrenzprojekt bis jetzt nicht offiziell vorgestellt bzw. ausgeliefert. Damit ergibt sich die ungewöhnliche Situation, daß der G80-Chip nunmehr nach runden sechs Monaten im Markt immer noch völlig allein an der Leistungspitze steht.

Zwar biegt die ATI-Konkurrenz nun langsam wirklich auf die Zielgerade ein, steht aber für diesen Artikel noch nicht zur Verfügung, welcher sich primär also damit beschäftigen wird, wie sich die GeForce 8800 GTX als Top-Modell der G80-Varianten gegenüber den vorherigen HighEnd-Lösungen positionieren kann. Daß die GeForce 8800 GTX dabei gegenüber Radeon X1950 XTX und GeForce 7900 GTX mehr oder weniger problemlos überall vorn liegen sollte, wurde natürlich auch schon mit den allerersten Artikel zu dieser Karte schnell klar.

Allerdings basieren diese Erkenntnisse im Prinzip ausschließlich auf Messungen mittels Timedemos, welche aus mehreren Gründen als reichlich ungenau bezeichnet werden können. Genauere Hintergründe hierzu liefern entsprechende Artikel hierzu, an dieser Stelle sei nur folgendes kurz ausgeführt: Bei Timedemo-Messungen fehlen im gewöhnlichen wichtige CPU-basierende Berechnungen wie die K.I. oder dynamische Physik- und Soundberechnungen. Dies ist nicht nur bei Prozessoren-Leistungstests störend, sondern betrifft auch Grafikkarten-Benchmarks, weil diese durch die abgesenkte CPU-Last teilweise deutlich höhere Frameraten als im realen Spiel auswerfen und damit auch eher in CPU-Limits laufen.

Hauptnachteil der Timedemo-Messungen ist aber, daß hiermit nur Durchschnittswerte von zumeist längeren Benchmark-Durchläufen ausgegeben werden (oder aber Minimalwerte von einzelnen Zehntelsekunden, was genauso nichtssagend ist). Damit läßt sich sicherlich ermitteln, welche Grafikkarte prinzipiell schneller ist – eine Aussage zur Spielbarkeit kann damit jedoch nicht getroffen werden. Man nimmt gewöhnlich an, daß ein Durchschnittswert von 40 fps ausreichend ist und damit auch die langsamen Szenen noch überhalb von 25 fps liegen sollten. Dies bleibt jedoch immer nur eine Annahme: Denn um zu einem Durchschnittswert von 40 fps zu kommen, kann das eine Spiel in der Tat zwischen 25 und 60 fps schwanken – ein anderes aber auch zwischen 10 und 100 fps.

Das Prinzip der Durchschnittsframeraten-Messungen wird diesem also selber zum Verhängnis, da bei einer solchen Messung eben nie festgestellt werden kann, wie die einzelnen Grafikkarten die wirklich Performance-kritischen Stellen bewältigen. Wenn man wirklich wissen will, wie es ausschaut, wenn die Frameraten nach unten gehen und die Hardware wirklich gefordert wird, muß auch auch nur genau das ausmessen – mittels kurzen Savegames von besonders performance-kritischen Stellen im Spiel. Erst mit diesen Messwerten in der Hand läßt sich dann auch sagen, welche Settings eine Grafikkarten noch verträgt – und welche nicht mehr.

Solcherart Benchmarks entsprechen damit auch dem, was der Spieler letztlich im Alltagseinsatz selber so macht: Die Orientierung der Spielsetting nicht an der (meist problemlosen) Durchschnittsperformance, sondern bewußt an den langsamen Stellen im Spiel. Kaum jemand stellt sein Spiel auf solcherart Settings, welche dem Spieler zwar gewöhnlich 40 garantieren, in bestimmten Szenen jedoch auf unter 15 fps einbrechen – in einer solchen Situation wird man wohl meistens seine Settings überdenken. Genau diesem Verhalten aus der Praxis sind auch unsere nachfolgenden Benchmarks geschuldet: Vermessen werden soll nicht eine Durchschnittsperformance, sondern das, was übrig bleibt wenn die Grafikkarten wirklich gefordert sind.

Dazu wurde wie gesagt auf Timedemo-Messungen verzichtet und komplett auf Savegames gesetzt. Jedes einzelne Savegame enthält dabei nur eine kurz Sequenz von drei bis fünf Sekunden mit einer wirklich Hardware-fordernden Spielszene, deren Durchschnittswerte mittels Fraps (in jeweils drei Messungen) ermittelt wurden. Da zudem eine einzelne kurze Spielszene nur eine äußerst beschränkte Aussage zu den wirklichen Performance-Tiefstpunkten im Spiel geben kann, wurden für jedes Benchmark-Spiel gleich ganze vier Savegames angesetzt. Dieses Testverfahren ist insgesamt betrachtet äußerst aufwendig, erscheint uns aber derzeit als beste bekannte Möglichkeit, Grafikkarten nicht nur nach der Frage von "schneller oder langsamer", sondern auch nach der Frage "spielbar oder nicht spielbar" austesten zu können.

Vorab sei an dieser Stelle den Firmen Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel ermöglicht wurde. Ausdrücklicher Dank gilt zudem der Firma Asus für die Teststellung der titelgebenden GeForce 8800 GTX.

                           

Die neuen Desktop-Lineups von ATI und nVidia

Donnerstag, 24. Mai 2007
 / von Leonidas
 

Im Zuge des Launches der Radeon HD 2900 XT kündigte ATI auch das Erscheinen der Radeon HD 2400 und 2600 Serien im Juni an, selbst wenn die Daten zu diesen Karten tief in den Launch-Präsentationen vergraben waren und daher kaum beachtet wurden. In der Tat hatte man natürlich von ATI einen vollständigen Launch aller dieser Grafikkarten erwartet – und als dieser ausblieb, konzentrierte man sich eben vollständig auf die Radeon HD 2900 XT bzw. den R600-Chip.

Nichts desto trotz liegen die Daten zu den Radeon HD 2400 und 2600 Karten seitens ATI vor, womit nun beide Grafikchip-Entwickler ein vollständiges Direct3D10-Produktprogramm am Markt bzw. zumindestens sicher angekündigt haben. Die Aufgabe der kommenden Zeilen und Gegenüberstellungen wird nunmehr sein, das jeweilige Direct3D10-Programm der beiden Hersteller vollständig in Zahlen und Worte zu fassen, wie aber auch preislich eventuell interessante Überschneidungen zum noch im Markt befindlichen DirectX9-Angebot aufzuzeigen.

Anmerkungen: Alle genannten Straßenpreise basieren auf dem Stand 23. Mai 2007 frühmorgens und dürften sich im Laufe der folgenden Tage und Wochen natürlich immer weiter nach unten verschieben. Alle Bandbreitenangaben wurden zudem nach der 1024er Regel errechnet, als Maßeinheit hierfür wurde allerdings das altherkömmliche Gigabyte/Sekunde benutzt, nicht das neuere, in der Industrie jedoch nach wie vor unübliche Gibibyte/Sekunde.

Die neuen Mobile-Lineups von ATI und nVidia

Mittwoch, 6. Juni 2007
 / von Leonidas
 

Nach dem entsprechenden Artikel zu den neuen Desktop-Lineups von ATI und nVidia wollen wir uns nunmehr auch den neuen Mobile-Grafikchips der beiden Grafikchip-Entwickler widmen. Im Zuge dessen, daß Notebooks inzwischen fast für die Hälfte der insgesamten PC-Verkäufe stehen und es auch leistungsfähige Notebooks zum vollständigen Ersatz von Desktop-Computern gibt, steigt schließlich die Bedeutung der Mobile-Grafikchips immer mehr an – ein Umstand, welchem wir mittels dieses Artikels erstmalig wirklich Rechnung tragen wollen. Zudem bietet sich die Betrachtung der Angebote beider Grafikchip-Entwickler gerade bei den sehr unübersichtlichen Angebotspaletten im Notebook-Markt besonders an.

Für diesen haben ATI und nVidia kürzlich ihre ersten Direct3D10-Lösungen vorgestellt, welche im Juni/Juli dann auch in ersten Notebooks verbaut werden sollen. Beachtenswert ist hierbei allerdings, daß beide Grafikchip-Entwickler bislang nur für das LowCost- und das Mainstream-Segment Direct3D10-Lösungen vorsehen, nicht aber für das HighEnd-Segment. Dort werden weiterhin DirectX9-Lösungen angeboten – was wohl primär damit zusammenhängen dürfte, daß die derzeitigen Direct3D10 HighEnd-Grafikchips bezüglich der Stromaufnahme kaum auf für Notebooks gangbare Werte herunterzudrücken sind. Aus diesem Grund sowie aus dem Gedanken, daß gerade im Notebook-Markt oftmals noch recht lange "ältere" Grafikchips verbaut werden, wurde nachfolgend nicht nur das Direct3D10-Produktprogramm beider Hersteller, sondern auch deren aktuelle DirectX9-Beschleuniger für den Mobile-Einsatz komplettaufgeführt.

Um im Namens- und Taktraten-Dschungel einen besseren Überblick zu behalten, haben wir zudem nachfolgend immer eine Einschätzung des Leistungsniveaus anhand bekannter Desktop-Beschleuniger notiert. Diese Einschätzungen beziehen sich natürlich immer nur auf die genannten maximalen Taktraten sowie das größmögliche Speicherinterfaces der jeweiligen Mobile-Lösung. Es sei hierbei aber immer mit zu bedenken, daß in der Realität die Notebook-Hersteller diese maximalen Taktraten oftmals nicht erreichen, sondern viele Mobile-Grafiklösungen mit bis zu 30 Prozent niedrigeren Taktraten verbaut werden.

Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung

Dienstag, 25. September 2007
 

Genug Zeit ist mittlerweile seit dem Launch der Direct3D10 HighEnd-Grafikchips G80 (GeForce 8800 Serie) und R600 (Radeon HD 2900 Serie) vergangen – was den großen Rahmen angeht, ist die Bestandsaufnahme bezüglich Leistungsfähigkeit, Bildqualität und Kompatibilität wohl abgeschlossen. Auch DualCore-Prozessoren haben sich bei der Zielgruppe dieses Artikels inzwischen weitestgehend durchgesetzt, ihre Auswirkungen auf die Leistungsfähigkeit in Spielen wurden bis zum jetzigen Zeitpunkt ebenfalls hinreichend untersucht und insgesamt kann man für den folgenden Test davon ausgehen, dass Spiele umso mehr von DualCore, teils in erheblichem Maße, profitieren, je neuer sie sind.

Die Erkenntnisse, die aus den vorgenannten Testberichten gewonnen wurden, gilt es jetzt zu verdichten und zusammenzuführen. Schließlich sind beide neuen Technologien wie beschrieben ausreichend lange im Markt, sollten sich die Grafikchip-Entwickler und die jeweiligen Treiberteams inzwischen darauf eingestellt haben können. Es gibt also zwei Fragen, die dieser Testbericht beantworten soll:

  • Welcher Grafikchip-Entwickler und welche Grafikkarten-Generation skaliert besser mit der Erweiterung von SingleCore auf DualCore?
  • Welcher Treiber verursacht die höhere CPU-Last?

Wobei die erste Frage des Testberichts zwangsläufig zu einer weiteren – hier und heute jedoch kaum beantwortbaren – Frage führen wird: Liegt die bessere DualCore-Skalierung von Hersteller A an einem besseren Treiber – oder an der zu hohen Komplexität des Designs von Hersteller B?

Für die hierfür angestellten Benchmarks gelten folgende Rahmenbedingungen:

  • Es werden vier Grafikkarten von zwei Herstellern getestet – je zwei aus der aktuellen Generation, zwei Karten aus der Vorgängergeneration: Es sind die (Club3D) GeForce 8800 GTS 640MB und die (Sapphire) Radeon HD 2900 XT sowie die (nVidia) GeForce 7950 GT und die (Sapphire) Radeon X1900 XT.
  • Die Testplattform ist ein Core 2 Duo 6400 mit 4GB RAM, genauere Daten zum System sind hier zu finden.
  • Als Treiber kamen seitens ATI der Catalyst 7.7 und seitens nVidia die ForceWare-Versionen 94.24 (GeForce 7950 GT) sowie 158.22 und 162.18 (GeForce 8800 GTS) zum Einsatz.
  • Jede Karte wird einem Testdurchlauf mit einer SingleCore-CPU und einem Testdurchlauf mit einer DualCore-CPU unterzogen. Die SingleCore-CPU wird hierbei künstlich über den Parameter "/numproc 1" in der "boot.ini" von Windows erzeugt.
  • Um die Ergebnisse und ihre Aussagen besser erkennbar zu machen, wird durch niedrige Auflösungen sichergestellt, daß ein möglichst einwandfreies CPU-limitiertes Szenario vorliegt.
  • Es werden ausschließlich Savegames zum testen verwendet.
  • Jedes Spiel wird in vier verschiedenen Szenarien getestet, um eine möglichst große Allgemeingültigkeit der Ergebnisse für das jeweilige Spiel zu erreichen.

Vorab sei an dieser Stelle den Firmen Club3D, Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel wieder ermöglicht wurde.

                           

Die kommenden Grafikchips von ATI, nVidia und S3

Dienstag, 9. Oktober 2007
 / von Leonidas
 

Rein technisch haben wir mittlerweile fast ein volles Jahr herum, nachdem die allerersten Direct3D10-Beschleuniger in Form der GeForce 8800 GTS/GTX Karten im November 2006 vorgestellt wurden. Und selbst wenn ATI seinen Konter in Form der Radeon HD 2900 XT erst mit einigen Monaten Verspätung in den Markt bringen konnte, sind nach gängigen Rechnungen, wonach aller sechs bis neun Monate eine neue Grafikkarten-Generation in den Markt kommt (was nicht bedeutet, daß es sich dabei um grundlegend neue Architekturen handeln muß), die nächsten Grafikkarten eigentlich schon leicht überfällig.

ATI und nVidia werden diesem Zustand über die nächsten Wochen allerdings abhelfen, welche aus Grafikkarten-Sicht durchaus interessant werden dürften. So kommen derzeit zunächst die R600-Abwandlungen Radeon HD 2900 GT und Pro für das Performance-Segment in den Markt. Im November läutet nVidia dann mit dem G92-Chip für das Performance-Segment die eigentliche Refresh-Generation ein, hier werden der G98-Chip für das LowCost-Segment und der G90-Chip für das HighEnd-Segment in Kürze folgen, nächstes Frühjahr soll dann noch ein G96-Chip für das Mainstream-Segment kommen.

Bei ATI hingegen lauten die Refreshchips RV620 (LowCost), RV635 (Mainstream), RV670 (Performance/HighEnd), zeitmäßig sind diese ebenfalls um das Jahresende einzuordnen. Und letztlich will nun auch noch S3 Graphics wieder einmal mit neuen Grafikchips antreten, geplant sind hierbei für den Jahresanfang die Chips Chrome 430 (LowCost) und Chrome 460 (Mainstream). Wenn das alles klappen sollte, wird es in der Tat ein interessanter Grafikchip-Herbst – in der Praxis dürfte dann aber wohl doch Murphy's Law greifen, womit sich einige der vorgenanten Grafikchips ins nächste Jahr verspäten werden oder zumindestens erst im nächsten Jahr käuflich erhältlich sein werden.

Doch der Reihe nach. Zuerst einmal werden wir die derzeit auf dem Markt befindlichen Direct3D-Grafikchips kurz skizzieren, damit die Ausgangslage klar ist. Danach wenden wir uns dann den einzelnen kommenden neuen Grafikchips zu. Dies kann natürlich nur auf Basis der derzeit vorhandenen Informationen erfolgen – welche, gemischt mit eigenen Überlegungen, jederzeit fehlbar sein können. Es ist also bitte nicht davon auszugehen, daß alles, was dieser Artikel nachfolgend vorhersagt, auch so eintreffen wird. Es handelt sich hier um eine Bestandsaufnahme des aktuell verfügbaren Wissens, um eben dieses in eine gewisse Form zu bringen. Nichts desto trotz werden sich in den News der kommenden Wochen sicherlich noch einige Anmerkungen und Korrekturen zu diesem Artikel ergeben.

Vorab sei noch klargestellt, daß dieser Artikel wie auch unsere zukünftige Berichterstattung generell von der Einteilung des Grafikkarten-Marktes in vier Teilsegmente ausgeht: LowCost (Value), Mainstream, Performance und HighEnd (Enthusiast). Diese Einteilung wurde seitens der Grafikchip-Entwickler schon seit einiger Zeit vorgenommen, bislang allerdings regelmäßig mit nur drei verschiedenen Grafikchips einer Generation zu bedienen versucht. Spätestens mit der kommenden Refresh-Generation wird zumindestens nVidia aber mit jeweils vier Grafikchips pro Generation arbeiten, womit sich die generelle Markt-Unterteilung in vier Teilsegmente nunmehr geradezu aufdrängt.

Preislich lassen sich diese Teilsegmente im übrigen grob folgendermaßen abtrennen: LowCost bis 100 Dollar, Mainstream von 80 bis 200 Dollar, Performance von 150 bis 300 Dollar und HighEnd von 250 Dollar an aufwärts. Wie den genannten Geldbeträgen schon zu entnehmen, sind die Grenzen jedoch eher fließend bzw. sehen verschiedene Mitspieler am Markt die Grenzen jeweils ein wenig anders. Betrachtet man die alten und neuen Grafikchips allerdings nachfolgend etwas genauer, lassen sich diese dann doch jeweils recht eindeutig einem Marktsegment zuordnen.

Doch zuerst zu der Übersicht der aktuell am Markt befindlichen Grafikchips und daraus resultierenden Grafikkarten:

  ATI nVidia
HighEnd (Enthusiast) R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 XT 1GB
742/1000 MHz, 1024 MB GDDR4, ca. 180W, ca. 430 Euro
• Radeon HD 2900 XT
742/825 MHz, 512 MB GDDR3, 161W, ca. 330 Euro
G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 Ultra
612/1512/800 MHz, 768 MB GDDR3, ca. 145W, ca. 550 Euro
• GeForce 8800 GTX
575/1350/900 MHz, 640 MB GDDR3, 132W, ca. 450 Euro
• GeForce 8800 GTS 640MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 640 MB GDDR3, 106W, ca. 310 Euro
Performance R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 Pro
600/800 MHz, 512 oder 1024 MB GDDR3, ca. 150 bzw. 160W, ca. 220 bzw. 260 Euro
• Radeon HD 2900 GT
600/800 MHz, nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface, 256 MB GDDR3, ca. 120W, ca. 175 Euro

Dual RV630
2x 120 Shader-Einheiten, 2x 8 TMUs, 2x 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT X2
800/700 MHz, 2x 256 MB GDDR3, ca. 90W, ca. 220 Euro

G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 GTS 320MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W, ca. 240 Euro
Mainstream RV630
120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT GDDR4
800/1100 MHz, 256 oder 512 MB GDDR4, 49W, ca. 120 bzw. 170 Euro
• Radeon HD 2600 XT GDDR3
800/700 MHz, 256 oder 512 MB GDDR3, ca. 45W, ca. 90 bzw. 105 Euro
• Radeon HD 2600 Pro
600/400 MHz, 256 oder 512 MB GDDR2/GDDR3, ca. 35W, ca. 70 bzw. 75 Euro
G84
32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8600 GTS
675/1450/1000 MHz, 256 oder 512 MB GDDR3, 47W, ca. 140 bzw. 170 Euro
• GeForce 8600 GT
540/1190/700 MHz, 256 oder 512 MB GDDR3, ca. 40W, ca. 90 bzw. 100 Euro
LowCost (Value) RV610
40 Shader-Einheiten, 4 TMUs, 64 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2400 XT
700/800 MHz, 256 MB GDDR3, 19W, ca. 55 Euro
• Radeon HD 2400 Pro
525/400 MHz, 128 oder 256 oder 512 MB GDDR2, ca. 15W, ca. 40 bzw. 40 bzw. 65 Euro
G86
16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8500 GT
450/900/400 MHz, 256 oder 512 MB GDDR2/GDDR3, 27W, ca. 65 bzw. 75 Euro
• GeForce 8400 GS
nur 64 Bit DDR Speicherinterface, 450/900/400 MHz, 256 oder 512 MB GDDR2, ca. 25W, ca. 40 bzw. 60 Euro
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen.

Diese Lineups werden in den kommenden Wochen jedoch gehörig durchgeschüttelt werden, in einem halben Jahr dürften die derzeit am Markt befindlichen Grafikkarten wohl komplett durch die kommende Refresh-Generation ersetzt werden. Nachfolgend wollen wir nun betrachten, was die einzelnen Grafikchip-Entwickler an Neuheiten planen.

ATI RV670 & nVidia G92: Die neue Marktsituation

Sonntag, 18. November 2007
 / von Leonidas
 

Nachdem ATI und nVidia die ersten Grafikchips ihrer jeweiligen Refresh-Generation in den Handel entlassen haben, lohnt der Blick auf die dadurch neu entstandene Marktsituation. Dies gilt ganz besonders, da ATI und nVidia beiderseits erstmals eine neue Generation nicht mit den entsprechenden HighEnd-Lösungen gestartet haben, sondern mit den Beschleunigern für das Performance-Segment zwischen Mainstream- und HighEnd-Segment in Form von Radeon HD 3850 und 3870 auf Basis des RV670-Chips von ATI und der GeForce 8800 GT auf Basis des G92-Chips von nVidia. Damit wird zwar zum einen eine lange bestehende Lücke im Produkt-Portfolio beider Hersteller geschlossen, auf der anderen Seite ist es aber auch sehr interessant, wie sich die neuen Performance-Beschleuniger gegenüber den bisherigen HighEnd- und Mainstream-Grafikkarten positionieren.

Dabei haben sich beide Grafikchip-Entwickler mit Neuerungen bei den neuen Grafikchips RV670 und G92 zweifelsfrei nicht überschlagen: Beide Grafikchips stellen prinzipiell sogar nur kleinere Varianten der Vorgänger-Grafikchips R600 und G80 dar, in beiden Fällen wurde das Speicherinterface auf nun wieder einheitlich 256 Bit DDR limitiert. Am Rest der Hardware hat sich weitestgehend und bis auf kleinere Verbesserungen nichts geändert. Allenfalls wäre zu erwähnen, daß ATIs RV670 nunmehr gleich schon Direct3D 10.1 unterstützt, ein praktischer Nutzen aus diesem Support der neueren 3D-Schnittstelle dürfte sich aber erst in noch einige Zeit entfernter Zukunft ergeben.

Allerdings ist damit die neue Performance-Riege auch schon gut charakterisiert: Faktisch bekommt man die dieselbe Hardware-Power wie bisher bei den HighEnd-Boliden nur mit etwas geringerer Speicherbandbreite. Was sich jetzt schon reichlich gut anhört, wird noch besser durch die Preisgestaltung, welche die Grafikchip-Entwickler gewählt haben: ATI bietet die Radeon HD 3870 um die 40 Prozent günstiger als die nur runde 5 Prozent langsamere Radeon HD 2900 XT an, während nVidia die GeForce 8800 GT 512MB um die 30 Prozent günstiger als die zwischen 5 und 20 Prozent langsamere GeForce 8800 GTS 640MB ansetzt.

Und während ATI und nVidia am oberen Ende der neuen Performance-Riege die "alten" HighEnd-Beschleuniger somit faktisch entwerten, gibt es am unteren Ende der neuen Beschleuniger-Klasse endlich wieder einmal ordentlich viel Leistung für vergleichsweise wenig Geld. Die Radeon HD 3850 sowie die GeForce 8800 GT 256MB gehen in den Preisbereich von 150 bis 200 Euro, in welchem bislang die GeForce 8600 GTS zur finden war. Diese regierte diesen Preisbereich bislang einsam – so daß nicht wirklich auffiel, daß diese Karte eigentlich etwas zu teuer war gemessen am Preis/Leistungsverhältnis. Die neuen Performance-Beschleuniger bieten nun aber auch in diesem Preisbereich wirklich angemessene Leistung fürs Geld.

Damit ergibt sich die nachfolgend vorgestellte neue Marktsituation. Zu beachten wäre an der nachfolgenden Aufstellung, daß die technischen Daten zwischen den beiden Grafikchip-Entwicklern aufgrund deren unterschiedlicher Architekturen natürlich kaum vergleichbar sind, sondern nur als Anhaltspunkt zur Unterscheidung der Karten desselben Grafikchip-Entwicklers dienen.

ATI Preislage nVidia
  540-560
Euro
GeForce 8800 Ultra 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 612/1512/1080 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 145W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  420-440
Euro
GeForce 8800 GTX 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 575/1350/900 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, 132W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  370-390
Euro
neue GeForce 8800 GTS 640MB
nVidia G80, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 320 Bit DDR Speicherinterface, 500/1200/800 MHz *, 640 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 120W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
* es werden derzeit (zu dieser Preislage) fast ausschließlich ab Werk übertaktete Karten mit Taktraten zwischen 540/1242/850 MHz und 576/1350/900 MHz angeboten
 
  210-230
Euro
GeForce 8800 GT 512MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 80W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3870 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 775/1125 MHz, 512 MB GDDR4, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, ca. 85W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
190-210
Euro
 
Radeon HD 3850 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 70W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
170-190
Euro
GeForce 8800 GT 256MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 75W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 256MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 65W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
150-160
Euro
 
Radeon HD 2900 GT
ATI R600, Direct3D10, 240 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 600/800 MHz, 256 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 100W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
140-150
Euro
GeForce 8600 GTS 512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  120-130
Euro
GeForce 8600 GTS 256MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR4
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/1100 MHz, 256 MB GDDR4, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
100-110
Euro
 
Radeon HD 2600 XT 512MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
90-100
Euro
 
  80-90
Euro
GeForce 8600 GT 256/512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 540/1190/700 MHz, 256/512 MB GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 40W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
70-90
Euro
 
Radeon HD 2600 Pro 256/512MB
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 600/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 35W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
60-70
Euro
GeForce 8500 GT 256/512MB
nVidia G86, Direct3D10, 16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 450/900/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 25W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
     
Nicht mehr in dieser Aufstellung gelistet sind die folgenden Karten aus den nachfolgend genannten Gründen:
  • Radeon HD 2400 Pro/XT, GeForce 8400 GS – aus Performance-Sicht klar zu langsam für eine zum Spielen zu benutzende Grafikkarte
  • Radeon HD 2600 XT 512MB GDDR4 – mit 512 MB kaum noch lieferbar und dann deutlich überteuert im Vergleich zur 256-MB-Version
  • Radeon HD 2600 X2 (DualChip-Lösung) – faktisch nicht erhältlich, durch die Radeon HD 3850/3870 auch vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 Pro – ausgelaufen, neue Karten werden nicht mehr geliefert
  • GeForce 8800 GTS – durch die GeForce 8800 GT vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen
  • Radeon HD 2900 XT – durch die Radeon HD 3870 vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen

Sehr gut zu sehen in obiger Aufstellung ist, wie die neue Performance-Riege in ihrem Marktsegment endlich ein breit gefächertes Angebot aufbaut – ganz im Gegensatz zu der Marktsituations-Aufstellung vom Mai, wo zwischen GeForce 8600 GTS und GeForce 8800 GTS eine riesige Leistungslücke klaffte. Ähnlich zu der Aufstellung vom Mai ist hingegen, daß ATI weiterhin keine echten HighEnd-Beschleuniger anbietet. Hier hat sich die Situation sogar noch verschärft: Während ATI im Mai noch Angebote bis zu einem Preisbereich von 360 Euro hatte, kostet die teuerste aktuelle ATI-Karte gerade einmal 210 Euro. Ob es allerdings auf längere Sicht gut gehen kann, ohne jegliche HighEnd-Lösung anzutreten bzw. im HighEnd-Segment nur auf CrossFire-Lösungen zu vertrauen, wird sich erst noch zeigen müssen.

Davon abgesehen findet eine deutliche Kannibalisierung der HighEnd- und LowCost-Karten zugunsten der neuen Performance-Riege statt. In obiger Aufstellung ist dies aufgrund der fehlenden Performance-Angaben nur eher zu erahnen, deutlich wird es dann, wenn man die Preislage zur Performance in Relation bringt. Dazu haben wir uns der Benchmarks seitens der FiringSquad bedient, da diese unter den zur Verfügung stehenden Artikeln die breiteste Auswahl an Grafikkarten zur Verfügung hatten.

Infos zu Radeon HD 3x00 & GeForce9

Montag, 28. Januar 2008
 / von Leonidas
 

Den ersten Teil der aktuellen Refresh-Generation haben wir ja bereits im alten Jahr gesehen: ATI und nVidia haben hier mit Radeon HD 3850/3870 und den GeForce 8800 GT/GTS Karten den Performance-Markt vollkommen neu aufgestellt, hinzu kommen seit Mitte Januar noch die GeForce 8800 GS sowie die Radeon HD 3450/3470/3650 Karten. Allerdings war dies erst der erste Schwung der Refresh-Generation von ATI und nVidia, es folgen nun in der Winter-Saison weitere Grafikkarten für alle Marktsegmente, um welche es nachfolgend gehen soll.

Erste Hinweise zu diesen Karten lagen natürlich schon im alten Jahr vor, aber inzwischen ist die Informationslage doch wesentlich besser, lassen sich die meisten der kommenden Grafikkarten schon ziemlich gut beschreiben. Womit wir uns ohne weitere Umschweife in die Beschreibung der kommenden Grafikkarten stürzen wollen – für einen Quervergleich zur bisherigen Situation am Grafikkarten-Markt wäre dieser Artikel zu konsultieren.

nVidias HybridPower

Montag, 21. Januar 2008
 / von Leonidas
 

HybridPower logo Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit – und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, dass die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch dass die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind. Zudem würde man natürlich mit einer kürzeren Laufzeit auch die Investition in die zumeist teure Grafikkarte besser schützen bzw. im Mobile-Bereich die Akkulaufzeit verlängern.

Einem solchen Vorhaben stehen allerdings einige Hürden entgegen. So ist zuerst einmal eine Umschaltung zwischen Grafikchips verschiedener Hersteller für die primäre Bildausgabe im laufenden Betrieb nicht möglich, dies unterstützen die bisherigen Windows-Versionen nicht (erst Windows 7 soll eine solche Funktionalität enthalten). Damit wird man entweder zu einem vollkommen unkomfortablen Reboot gezwungen – oder aber es müssen auf dem Mainboard und auf der Grafikkarte Grafikchips desselben Herstellers werkeln, welche zudem mit ein und demselben Treiber betrieben werden können.

Desweiteren ist eine vollständige Abschaltung der extra Grafikkarte aus Stromspargründen bislang nicht möglich, diese kann maximal in den Idle-Modus geschickt werden. Dies kann vernünftig funktionierten, wie das Beispiel der Radeon HD 3870 zeigt, welche trotz ihrer 81 Watt unter 3D im Idle-Betrieb nur noch 19 Watt zieht. Das Gegenbeispiel hierzu ist dann allerdings die GeForce 8800 GT, welche unter 3D ziemlich ähnliche 86 Watt verbraucht, unter Idle mit 36 Watt dagegen deutlich zu viel Strom zieht (Quelle). Wegen dieses Negativbeispiels und weil man natürlich auch die 19 Watt der Radeon HD 3870 noch einsparen kann, wäre eine Abschaltung der extra Grafikkarte sicherlich sinnvoller, wenn die Bildausgabe sowie von einem integrierten Grafikchip berechnet wird.

Und letztlich ergibt sich noch das große Problem, dass bei zwei Grafikchips im System diese normalerweise beide Zugang zum Ausgabegerät in Form des Monitors haben sollten. Dies wäre zum einen mechanisch in Form eines Monitorumschalters zu lösen – deutlich eleganter wäre natürlich eine Lösung, wo beide Grafikchips zusammenarbeiten und in der Lage sind, das Bild – egal von welchem der beiden Grafikchips erzeugt – generell nur auf einen Monitorausgang zu lenken. Dies würde allerdings eine durchaus intelligente Software voraussetzen, vorstellbar ist dieses Modell auch eher nur dann, wenn beide eingesetzten Grafikchips vom selben Hersteller stammen und mit demselben Treiber arbeiten.

Bei den vorgenannten speziellen Notebooks mit zwei Grafiklösungen hat man das ganze im übrigen dadurch gelöst, dass man die jeweils zu benutzende Grafiklösung über einen Umschalter festlegt und zur Laufzeit des Systems diese Entscheidung nicht mehr geändert werden kann – ein Wechsel zur jeweils anderen Grafiklösung also einen Reboot notwendig macht. Zum Ausgabegerät in Form des Notebook-TFTs dürften sich beide Grafiklösungen wahrscheinlich über einen automatischen Monitorumschalter verbinden, in einem Notebook als feststehendem System ist so etwas auch einfacher zu realisieren als bei einem Desktop-PC.

Wirklich schön oder komfortabel ist diese Lösung aber natürlich nicht – aber wie vorstehend beschrieben, sind die zu lösenden technischen Hürden auch nicht gerade klein. Um so positiver ist nun aber, dass nVidia diese mittels der HybridPower-Technologie in den neuen Hybrid-SLI Mainboard-Chipsätzen des Herstellers gelöst haben will.

Dabei können die neuen nVidia-Chipsätze nForce 730a (unterstützt als einziger kein HybridPower), 750a und 780a (allesamt für AMD-Prozessoren) mehr: Neben einer integrierten GeForce 8200 Grafiklösung ist auch die Unterstützung für PCI Express 2.0 mit an Board, zudem wird in Zusammenhang mit der integrierten Grafiklösung auch ein Feature namens "GeForce Boost" geboten. Dabei arbeiten eine extra Grafikkarte (natürlich von nVidia) und die ins Mainboard integrierte Grafiklösung unter SLI zusammen. Dies bringt natürlich nichts bei verbauten HighEnd-Grafiklösungen, sondern ist nur zur Unterstützung von LowCost-Grafikchips wie der GeForce 8400 GS sinnvoll.

Das spannendste Feature der neuen Mainboard-Chipsätze ist aber in der Tat HybridPower. Auch dieses setzt wieder auf die integrierte GeForce 8200 Grafiklösung und definiert diese als primäre Grafikkarte für den Windows-Betrieb, der extra verbaute 3D-Beschleuniger springt dann nur für Spiele ein. Das wirklich besondere daran ist aber:

  1. Die extra Grafikkarte wird im Windows-Betrieb regelrecht ausgeschaltet und verbraucht damit (fast) überhaupt keinen Strom mehr (natürlich mit der Ausnahme des Controllerchips, welcher die Grafikkarte wieder anschalten kann). Damit werden nicht nur je nach Grafikkarte zwischen 20 und 40 Watt ansonsten sinnlos verbrauchter Energie eingespart, zudem steigt auch die Lebenserwartung der extra Grafikkarte, weil diese ja nun wirklich nur noch zum Spielen angeschaltet wird.
  2. Es sind keinerlei Umsteckereien (oder extra Monitorumschalter) vonnöten, wechselt man von dem Windows- in den Spiele-Modus und zurück. Der Monitor hängt bei HybridPower immer an dem Ausgang der integrierten Grafiklösung. Im Spiele-Betrieb wird dabei das in der extra Grafikkarte erzeugte Bildsignal über die PCI-Express-Anbindung an die integrierte Grafiklösung weitergereicht.
  3. Es ist selbstverständlich ein Wechsel der benutzten Grafiklösung im laufenden Betrieb möglich – genau dafür ist das System ja vorgesehen. Es wird also kein Reboot notwendig, wenn man zur extra Grafikkarte wechseln will – dass System schaltet selbstätig und ohne Verzug zwischen integrierter Grafiklösung und extra Grafikkarte um, je nachdem welche Aufgabe gerade ansteht.

Im Prinzip werden damit eigentlich alle der vorstehend genannten technischen Hürden übersprungen, dass System ist in dieser Form absolut rund. Aber natürlich gibt es doch noch gewisse Einschränkungen – welche allerdings nVidia als Hersteller des Systems sogar durchaus gefallen könnten: Denn es wird natürlich ein nVidia-Modell bei der extra Grafikkarte benötigt – schon allein deswegen, weil der benutzte Grafikkarten-Treiber derselbe sein muß, weil wie gesagt die bisherigen Windows-Versionen im laufenden Betrieb keinen Grafikkarten-Treiber für die primäre Bildausgabe wechseln können. Gleichzeitig muß es aber auch eine neue nVidia-Grafikkarte sein, die bisher verkauften Modelle sind allesamt leider nicht für HybridPower geeignet.

Dies hängt mit der Ein- und Ausschaltfunktionalität zusammen, welche nVidia über den SM-Bus löst – dafür muß auf den Grafikplatinen jedoch ein entsprechender kleiner Chip verlötet sein, welcher die Steuerungsbefehle zum An- und Abschalten entgegennehmen kann. Vermutlich werden schlicht alle der kommenden GeForce9-Grafikkarten HybridPower-fähig sein, aber keine der aktuellen GeForce8-Grafikkarten oder ältere nVidia-Modelle. Keine Probleme dürfte hingegen die Nutzung von PCI Express für die Datenübermittlung machen, denn da hier nur der Rückkanal von PCI Express genutzt wird (im übrigen die erste sinnvolle Anwendung des Rückkanals im Spiele-Bereich), dürfte sich keinerlei Performance-Einfluß ergeben.

Und natürlich setzt die Ausgabe auch des von der extra Grafikkarte für Spiele berechneten Bildsignals über den Monitoranschluß der integrierten Grafiklösung voraus, dass dieser konsequent als DVI-Lösung ausgeführt wird. Dies sollte zwar eigentlich schon längst Standard auch bei integrierten Grafiklösungen sein, wird aber doch noch hier und da bei einigen Mainboards des LowCost- und OEM-Bereichs eingespart. Für HybridPower wird DVI dann aber auch bei günstigen Lösungen Pflicht werden, da kann man nicht mehr mit VGA-Ausgängen kommen. Womöglich auch deswegen unterstützt der kleinste der neuen Mainboard-Chipsätze – nForce 730a – als einziger kein HybridPower, dieser Chipsatz dürfte wohl eher nur in den OEM-Bereich gehen, wo sowieso keine extra Grafikkarte verbaut wird.

Wie gesagt dürften allerdings all diese Hardware-Einschränkungen letztlich nur nVidia bzw. deren Absatz an Grafikkarten zu gute kommen – insofern ist hierbei auch nicht zu erwarten, dass das System nachträglich noch für ältere Lösungen fit gemacht wird. nVidia wird durch diese Limitierung auf GeForce9-Karten somit kein Mainboard-Geschäft mit "Altnutzern" von GeForce8-Modellen machen, aber dafür sicherlich ein um so besseres Geschäft mit Nutzern, welche sich die volle nVidia-Dröhnung in Form von HybridPower-fähigem Mainboard-Chipsatz samt GeForce9-Grafikkarte geben.

Einen kleinen echten Haken gibt es dann aber doch noch: Nach wenigstens einer Quelle ist HybridPower nur unter Windows Vista SP1 möglich, der technische Hintergrund hierzu bleibt bislang im Verborgenen. Dies wäre für einen gewissen Teil der Nutzer eine echte Spaßbremse, da Windows Vista nun einmal nicht auf durchgehende Begeisterung gestoßen ist (um es vorsichtig auszudrücken). Da allerdings alle andere Quellen durchgehend keine Bedingung bezüglich des verwendeten Betriebssystems nennen, ist dieser Punkt bislang noch unter Vorbehalt zu sehen.

In der Summe bringt nVidia mit HybridPower ein System an den Start, mit welchem sich integrierte Grafiklösung und echte Grafikkarte zusammen jeweils so nutzen lassen, wie sie am effektivsten sind: Die integrierte Grafiklösung des Mainboard-Chipsatzes für den normalen Windows-Alltag mit natürlich entsprechend geringerem Energieeinsatz – und wenn für 3D-Spiele benötigt, wird einfach automatisch zur extra Grafikkarte umgeschaltet. Die dabei anstehenden technischen Probleme scheinen gut gelöst worden zu sein, für die gröbste Einschränkung in Form der alleinige Unterstützung von nVidia-Grafikkarten kann der Hersteller nichts. In der Theorie sieht das System also erst einmal sehr gut aus, wir sind dementsprechend auf erste Praxistests gespannt. Die genannten Mainboard-Chipsätze für AMD-Prozessoren sollen demnächst in den Markt kommen, Pendants für Intel-Prozessoren sind für das zweite Quartal angekündigt.

Nicht unterschlagen werden soll an dieser Stelle, dass auch ATIs kommenden Hybrid-CrossFire Mainboard-Chipsätze über eine ähnliche Funktionalität verfügen sollen, auch wenn derzeit noch nicht genau bekannt ist, ob diese ähnlich ausgefeilt ist. Bislang wurde in Bezug auf Hybrid-CrossFire in erster Linie über die (auch bei nVidia mittels "GeForceBoost" verfügbare) Möglichkeit geredet, integrierte Grafiklösung und extra Grafikkarte unter 3D zusammenarbeiten zu lassen, nach weiteren Informationen soll Hybrid-CrossFire aber auch die Möglichkeit mit sich bringen, die extra Grafikkarte abzuschalten und unter Windows dann nur die integrierte Grafiklösung zu benutzen.

Hier deutet sich also an, dass ATI im Endeffekt über kurz oder lang dieselbe Funktionalität wie nVidias HybridPower bieten können wird. Auch bei ATI dürfte diese Funktion dann aber auf ATI-Grafikkarten beschränkt sein – da wie gesagt für beide Grafiklösungen unter Windows derselbe Treiber verwendet werden muß. Dieser Zustand soll sich erst mit Windows 7 ändern – welches dann auch den Weg dafür frei machen dürfte, eine solche Funktion auch auf Mainboard-Chipsätzen von Intel, VIA und SiS vorzufinden, gleich welche extra Grafikkarte man dafür einsetzt. nVidias HybridPower könnte also durchaus nur der Anfang einer Entwicklung sein, nach deren Abschluß es ganz normal sein wird, für den Windows-Alltag die integrierte Mainboard-Grafiklösung zu benutzen und nur im Fall eines Spiels die extra Grafikkarte zu bemühen.

Nachtrag vom 29. Januar 2008:

Ein Artikel bei Bit-Tech beschäftigt sich mit einigen Einschränkungen, welche nVidias Hybrid-SLI derzeit noch hat. So muß man erst einmal in Korrektur zu unserem entsprechenden Artikel sagen, dass es mit den derzeitigen Treibern keine automatische Umschaltung zwischen den beiden HypridPower-Modi gibt, diese Funktionalität soll aber in einem späteren Treiber-Release geboten werden. Wirklich störend ist hingegen der Umstand, dass die integrierte Grafikeinheit der Hybrid-SLI Mainboard-Chipsätze im HybridPower-Modus weder MultiMonitoring unterstützt noch größere Displays als 1920x1200 – schlicht, weil nur ein Single-DVI-Ausgang zur Verfügung steht.

Außerhalb des HybridPower-Modus sind höhere Auflösungen und MultiMonitoring natürlich möglich, dann allerdings erzeugt über die extra Grafikkarte und wie gesagt unter Abschaltung der HybridPower-Funktionalität. Dies lässt sich auch durch ein Treiber-Update nicht mehr ändern, nVidia scheint diese Problematik allerdings mit zukünftigen Hybrid-SLI Chipsätzen angehen zu wollen. Generell sieht nVidia die derzeitigen Hybrid-SLI Mainboard-Chipsätze nForce 730a, 750a und 780a wohl nur als den "ersten Versuch" an und gibt sich selber zwei Jahre Zeit, innerhalb welcher die gesamte Technologie dann zur vollständigen Reife gebracht werden soll.

Der Heise Newsticker bringt hingegen einige Klarheit zu den Möglichkeiten von ATIs Hybrid-CrossFire. So wird erst einmal (erneut) betont, dass man damit eine extra Grafikkarte sowie die integrierte Grafiklösung des Mainboard-Chipsatzes im CrossFire-Verbund zusammenarbeiten lassen kann – was aber bekannterweise außerhalb von totalen LowCost-Grafikkarten keine wirklichen Performancegewinne verheißt. Möglich ist zudem wie bei nVidia, dass die integriere Grafiklösung das Windows-Bild erstellt und die extra Grafikkarte nur im Spiele-Fall die Bildberechnung übernimmt – wobei bislang noch unbekannt ist, ob bei dieser Zusammenschaltung es ein Zwangs-CrossFire gibt oder aber die extra Grafikkarte auch ganz alleine die 3D-Berechnungen übernehmen kann.

Wichtig ist aber, dass ganz wie bei nVidia keinerlei Monitorumsteckerei notwendig ist: Steckt das Monitorkabel in der extra Grafikkarte, ist jene der primäre Grafikadapter und berechnet sowohl unter Windows als auch unter Spielen das Bild komplett alleine. Steckt das Monitorkabel dagegen in der integrierten Grafiklösung, kommt es zu vorgenannter Aufgabenteilung, im 3D-Fall wird somit ähnlich wie bei nVidia das Bildsignal von der extra Grafikkarte auch über den Monitorausgang der integrierten Grafiklösung ausgegeben. Ob es hierbei ähnliche Einschränkungen gibt wie vorbeschrieben im nVidia-Fall, ist dagegen noch nicht heraus.

Nicht möglich ist es aber, in diesem Modus im Windows-Betrieb die extra Grafikkarte komplett auszuschalten, diese Funktion scheint derzeit nur nVidias HybridPower zu bieten. Technisch scheint dies aber trotzdem nicht unmöglich zu sein, denn im Notebook-Bereich will ATI eine solche Funktion in Zusammenarbeit mit den Notebook-Hersteller durchaus realisieren. Insofern wäre es theoretisch möglich, dass ATI eine solche Funktionalität auch im Desktop-Bereich später noch anbieten wird. Nachwievor steht hierzu jedoch im Raum, dass ATI nach der offiziellen Vorstellung von HybridPower in diesem Punkt durchaus etwas freigiebiger mit entsprechenden Informationen sein könnte.

Inhalt abgleichen