nVidia-Grafik

29

Schneller 4K Performance-Überblick der 28nm-Grafikkarten

Update: Dieser Artikel wurde inzwischen durch eine aktualisierte Version ersetzt.

Neben dem allgemeinen 3DCenter Performance-Index, welcher sich zuletzt zu einem reinen FullHD Performance-Index entwickelt hat, hatten wir in letzter Zeit auch noch einen dedizierten "4K Performance-Index" im Aufbau. Jener setzte ursprünglich die GeForce GTX Titan X auf 100%, dies wurde aber kürzlich geändert zur GeForce GTX 980 Ti auf 100%, da jene Titan X aufgrund ihres abgehobenen Preispunkts als "Referenz" eher ungeeignet erscheint (für den FullHD Performance-Index Stand wurde beispielsweise seinerzeit das Mainstream-Modell Radeon HD 5750 auf 100% festgesetzt). Selbst jene GeForce GTX 980 Ti bietet in der Praxis schießlich nicht immer eine ausreichende Performnance für die UltraHD-Auflösung (unter der bestmöglichen Bildqualität) – aber besseres ist derzeit schlicht und ergreifend nicht verfügbar, hier wird erst die kommende 14/16nm-Generation einen echten Performanceschub auslösen können.

26

Neue Benchmarks zu Ashes of the Singularity mit erneut großen AMD-Vorteilen

Eine Reihe an Webseiten hat sich den neuen Benchmark 2.0 zu Ashes of the Singularity angesehen, welcher auf der Beta 0.85 des Spiels basiert. Im Gegensatz zu den ersten Benchmarks zu diesem Titel vom Herbst letzten Jahres hat sich inzwischen einiges getan – die vorher regelrecht darniederliegende DirectX-11-Performance ist (bei AMD) deutlich besser geworden, gleichzeitig konnten AMD und nVidia natürlich einiges per Treiberverbesserungen herausholen. Im neuen Benchmark sind demzufolge die Zugewinne zwischen DirectX 11 und 12 für AMD-Grafikkarten nicht mehr so drastisch wie einstmals, aber dennoch noch vorhanden, Zugewinne bei nVidia gibt es hingegen gar keine mehr zu sehen. Weiterhin existent ist das Problem, daß AMD unter Zuschaltung des DirectX-12-Features "Asynchronous Compute" deutlich hinzugewinnt, während dieses Feature bei nVidia keine Auswirkungen oder gar eine leicht geringere Performance zur Folge hat. Dies ist eine bekannte Auswirkung der unterschiedlich realisierten Grafikchip-Architekturen von AMD und nVidia – aber auch des Punkts, daß AMD unter DirectX 11 eben noch Reserven beim stärker CPU-limitierten Treiber hat, welche bei nVidia einfach nicht mehr vorhanden sind.

23

Die Grafikkarten-Performance unter XCOM 2

Mittels einiger Hardware-Tests des neuen Strategie-Hits "XCOM 2" bewaffnet, wollen wir an dieser Stelle wieder einen Performance-Überblick zu diesem Titel bieten. Das Spiel basiert auf der Unreal Engine 3.5 und bietet für einen Strategie-Titel eine herausragende Grafikqualität zu allerdings genauso heftigen Hardware-Anforderungen – welche regelrecht kräftig über die offiziellen Systemanforderungen hinausgehen. Entsprechende Performance-Messungen gibt es bei der PC Games Hardware (sehr in die verschiedenen Details gehend), der ComputerBase (mit umfangreicher Grafikkarten-Auswahl), der c't (Vergleiche auch auf MacOS & Linux) sowie Notebookcheck (auf Mobile-Lösungen bezogen).

18

nVidia legt seinen HighEnd-Lösungen "The Division" bei

Grafikchip-Entwickler nVidia hat nach dem Auslaufen des "Rise of the Tomb Raider" Spielebundle ein neues Spielebundle für seine HighEnd-Lösungen aufgelegt, welches zu gleichen Bedingungen das am 8. März 2016 erscheinende "The Division" enthält. Die Aktion gilt wiederum für die Desktop-Lösungen GeForce GTX 970, 980 & 980 Ti (nicht die GeForce GTX Titan X) sowie die Mobile-Lösungen GeForce GTX 970M, 980M & 980/Notebook und geht mit dem 21. März allerdings auch schon recht zeitnah wieder zu Ende.

17

nVidia bringt im März mit der "GeForce GTX 950 SE" wohl eine dritte GM206-Variante

Laut dem chinesischen Expreview (maschinelle Übersetzung ins Deutsche) soll nVidia an einer "GeForce GTX 950 SE" arbeiten, welche im März 2016 erscheinen soll. Als Basis hierfür benutzt man den schon von GeForce GTX 950 & 960 bekannten GM206-Chip, dürfted jenen allerdings vermutlich nochmals abspecken, um eine weitere etwas leistungsschwächere Grafikkarte zu erhalten – die gerade einmal vor einem halben Jahr in den Markt gekommene GeForce GTX 950 regelrecht zu ersetzen, macht schließlich kaum einen Sinn. Insofern haben all die von Videocardz ausgehenden Spezifikations-Spekulationen zur GeForce GTX 950 SE sogar ihre Berechtigung – es muß allerdings auch klar gesagt werden, daß die Originalquelle in Form von Expreview keinerlei Kartenspezifikationen nennt und noch nichtmal die weiteren Abspeckungen als "sicher" klassifizieren kann.

16

nVidias GP100-Chip mit 4 TFlops DP- und 12 TFlops SP-Rechenleistung geplant?

Eine in unserem Forum aufgetauchte Grafik aus einer im Juni 2015 abgehaltenen Präsentation eines CUDA-Fellows (PDF) spricht dem kommenden Pascal-Topchip GP100 immerhin 4 TeraFlops DoublePrecision- sowie 12 TeraFlops SinglePrecision-Rechenleistung bei 1024 GB/sec Speicherbandbreite zu. Da das zugrundeliegende Dokument zumindest halboffiziellen Charakter hat sowie der "CUDA-Fellow" in Form von Manuel Ujaldon ein spanischer Universitätsprofessor mit eigenem Profil auf der nVidia-Webseite ist, dürfte es sich hiermit um Daten handeln, welche nVidia intern selber so kommuniziert haben wird – zumindest zum Stand vom Juni 2015. Mit der Zeit kann sich daran noch einiges ändern – gerade bei den finalen Taktraten – aber der grundsätzliche Aufbau des GP100-Chip muß seinerzeit schon festgestanden haben, schließlich war der Tape-Out des GP100-Chips um diesen Zeitpunkt herum.

14

nVidias GP104-Chip womöglich schon in Form kompletter Grafikkarten vorhanden?

WCCF Tech machen auf neue, umfangreiche Lieferungen von chinesischen Fertigern zu nVidias indischen Testlaboren aufmerksam – wobei es sich hierbei im Gegensatz zur letzten nVidia zuzuordnenden Meldung bereits um kompletter Grafikkarten handelt. Sicher ist an diesem Fall natürlich noch gar nichts, da nVidia aktiv versucht, selbst die Informations-Möglichkeiten der Zauba Import/Export-Datenbank zu sabotieren, indem kaum noch exakte Informationen zum Lieferinhalt mitgegeben werden. Allerdings kann man derzeit gut und gerne alles, was unter "Computer Graphics Card" läuft, nVidia zuordnen – da AMD klar abweichende Bezeichnungen nutzt und zudem wenigstens ein paar reale Codenamen hinterläßt. Um Boards von irgendwelchen Grafikkarten-Herstellern kann es sich auch kaum handeln, jene benutzen üblicherweise den vollständigen Hersteller- und Modellnamen – bei schon releasten Grafikkarten macht es auch kaum Sinn, dies noch extra zu maskieren.

11

GDDR5X: Nicht mit höheren Taktraten, sondern mit QDR-Datenübertragung

Unsere bisherige Berichterstattung zum GDDR5X-Speicher in Konkurrenz zum HBM-Speicher hat (leider) noch einen Fehler aufzuweisen. Wie bekannt, steigt bei GDDR5X als hauptsächliche Änderung zum regulären GDDR5 der sogenannte Prefetch von 8 auf 16 – was bedeutet, das pro Takt der reinen Speicherzellen entsprechend viele Datenpakete über das Interface nach außen übertragen werden. Dabei gibt es zwei grundsätzlich Wege, diese leistungsfähigere Datenübertragung nach außen zu realisieren: Höhere Taktraten oder aber Datenprotokolle, welche mehr Daten pro Takt übertragen. Üblich ist an dieser Stelle das Double Data Rate (DDR) Protokoll, welches schon dem Namen nach zwei Datenpakete pro Takt überträgt.

8

Umfrage-Auswertung: Auf die 14/16nm-Grafikkarten warten?

Die Umfrage der letzten Woche bat zu einer persönlichen Empfehlung, ob nun auf die 14/16nm-Grafikkarten gewartet werden soll – oder nicht, sprich ob man ganz normal jetzt noch kaufen sollte. Die Empfehlung der Umfrage-Teilnehmer ist dabei recht eindeutig: 45,3% sind generell für das Warten, 37,8% würden sich je nach konkreter Bedarfssituation entscheiden und nur 16,9% sind generell für den Kauf auch noch zum jetzigen Zeitpunkt. Dies bedeutet wohl, daß es bis zum Erscheinen der ersten 14/16nm-Beschleuniger unter Enthusiasten-Usern keine großartigen Grafikkarten-Umsätze mehr zu machen gibt – im Massenmarkt dagegen sehr wohl, jener weist eine üblicherweise deutlich abweichende Käuferpsychologie auf.

2

Umfrage-Auswertung: G-Sync vs. FreeSync - was ist bereits im Einsatz, was zieht mehr Interesse an?

Die Umfrage der letzten Woche ging mal wieder der Frage nach, ob es nVidias G-Sync oder AMDs FreeSync sein soll. Eine ähnliche Umfrage gab es schon einmal im Mai 2014 – und damit noch kurz vor dem Marktstart beider Technologien. Seinerzeit plädierten die Umfrage-Teilnehmer ziemlich eindeutig dafür, auf AMDs FreeSync zu warten, weil dies (im Gegensatz zu nVidias G-Sync) einen allgemeinen Standard darstellt. Heuer nun sind Monitore gemäß beider Technologien breit im Markt vertreten, womit sich auch schon eine gewisse Nutzerschar herausgebildet hat – unter den Umfrage-Teilnehmern sind dies immerhin schon 12,6%. Dabei hat nVidia einen leichten Vorteil von 7,1% zu AMD mit 5,5% – sicherlich auch resultierend im früheren Marktstart von G-Sync und der größeren Verbreitung von nVidia-Grafikkarten selber, aber eben dennoch etwas abweichend vom Ergebnis der 2014er Umfrage.

Inhalt abgleichen