Positiv überrascht wurden wir bei Ageia. Im Voraus hatten wir bereits eine Einladung für ein Treffen bekommen, uns ging es dabei primär um den PhysX-Chip und dessen Zukunft. Wer sich erinnert, im März letzten Jahres stellte Ageia den ersten richtigen externen Physikprozessor für Spiele vor. Der Start ging aber ordentlich daneben, und so gab es viel Kritik und wenig Lob. Zu wenig Nutzen, zu wenig Spiele und zu teuer, das waren die wichtigsten Kritikpunkte. Selbst ein Jahr später gibt es noch immer viel zu wenig Software, die auch wirklich Nutzen aus dem Chip ziehen könnte. Ageia gibt auch offen zu, dass der Start etwas zu früh und der Support nicht ausreichend war.
Hinter den Kulissen hat sich jedoch laut Ageia einiges getan: Uns begrüßte eine Firma, die den Rückschlag anscheinend gut verkraftet hat und uns gegenüber voller Optimismus in die Zukunft blickt. Primär steht die bessere Zusammenarbeit mit der Presse, den Herstellern und den Kunden im Vordergrund. Seit einiger Zeit schon wird die Physik-API, also das grundlegende Softwaregerüst, für Hersteller kostenlos angeboten. Nach Angaben von Ageia ist die Reaktion und das Interesse der Hersteller dann auch durchweg groß und positiv.
Allerdings ist es für eine noch recht kleine Firma nicht möglich, jeden Hersteller zu betreuen, und all zu simpel soll die Einbindung des Beschleunigers auch nicht sein. Will man den Chip dann auch noch benutzen, um spielrelevante Physik zu berechnen, muss der Chip bereits in der Anfangsphase in die Planungen mit einbezogen werden. Das reicht wohl, um die geringe Anzahl an Titeln und teils etwas oberflächlich wirkende Unterstützung in anderen Spielen zu erklären.
Geht es nach Ageia, soll sich das nun ändern. Als erster neuer Titel wird gegen Ende April Cellfactor: Revolution erscheinen. Wer das Video/Demo der Cellfactor-Demonstration im letzten Jahr gesehen hat, konnte sich bereits ein Bild machen. In der nun kommenden Version legt man weiterhin Wert auf viele Objekte, Fluideffekte und Simulation von Gebilden mit stoffähnlichen Eigenschaften (Flaggen, Spinnennetze). Gegenüber letztem Jahr wurde die Objektdichte allerdings etwas verringert (nicht jedes Objekt zerbricht nun seinerseits wieder in viele einzelne Objekte), Optimierungen vorgenommen und neue Levels eingefügt. Neben der fehlenden Spielsubstanz bekommt Cellfactor damit wohl auch die bisher eher schlechte Performance in den Griff.
Ein weiterer Titel läuft unter dem Namen "Warmonger". Basierend auf der Unreal Engine 3, soll man in diesem Shooter nahezu alles zerstören können, was das Level zur Verfügung stellt. Interessanterweise sollen beide Spiele mit jeweils 4-5 Levels wohl komplett kostenlos erscheinen – ein willkommenes Geschenk für bisherige PhysX-Besitzer. Inwiefern es danach Vollpreis-Versionen mit umfangreicherem Content gibt, ist noch unklar.
Der wirklich große Titel mit PhysX-Support ist natürlich Unreal-Tournament 3. Allerdings ist noch unklar, wie genau die Unterstützung hier ausfallen wird. Für komplexere Effekte lässt sich der Chip natürlich einsetzen, inwiefern aber auch Levels erscheinen (und wie viele), deren gesamte Physik von PhysX berechnet wird, ist noch offen.
Im Zuge des Gesprächs ging es nicht nur um zukünftige Titel, sondern auch die berechtige Kritik am Produkt und dessen Support. Aber auch daran will man arbeiten. Bisher war der Benutzer nicht in der Lage, ohne Umwege zu erkennen, ob der Beschleuniger auch genutzt wird. Ein Symbol im Tray-Icon soll hier nun Abhilfe schaffen. Zusätzlich könnte es bald eine Möglichkeit geben, die Karte ohne den Gerätemanager zu deaktivieren, zudem fahren aktuelle Karten den Lüfter herunter, wenn sie nicht in Gebrauch sind. Die fehlenden Einstellungen zur Verringerung der Objektdichte oder Komplexität von Explosionen sind zwar eigentlich Aufgabe der Spiel-Programmierer – aber auch hier will Ageia in Zukunft mehr Einfluss nehmen.
In den USA sind PhysX-Beschleuniger bereits in PCs von Dell und Alienware erhältlich. Auf der CeBIT zeigte man uns Systeme von Acer, welche ebenfalls die Option auf den Beschleuniger bieten. Einige davon werden sogar fest vorinstalliert ausgeliefert. Ageia ist also weiterhin bestrebt, den Markt für sich zu gewinnen. Laut Aussage von Ageia ist sogar die Konkurrenz durch AMD, Intel und nVidia eine teils willkommene Entwicklung – ohne deren Druck würde sich der Markt für konkrete Physikbeschleunigung viel schleppender entwickeln. So erklärte man uns, dass 2007 der Durchbruch und 2008 dann der Einzug in den Mainstream-Markt erfolgen soll. Ageia scheint nach den ersten Rückschlägen das Engagement um die eigene Physik-API und den Physikbeschleuniger nun erst recht zu verstärken.
Zum Schluss kam von Ageia noch die Idee, den Lesern von 3DCenter.org die Möglichkeit zu geben, ihre Fragen/Anliegen an Ageia vorzutragen. In diesem Forums-Thread [4] sammeln wir daher eure Fragen für ein bevorstehendes Interview mit Ageia.
Diese CeBIT war die erste, seitdem ATI von AMD übernommen [6] wurde. Man plant bei ATI/AMD Ende April den weltweiten Launch einer kompletten Grafik-Produktpalette. Dazu gehört eine R600-basierende Grafikkarten-Serie mit dessen kleinen Brüdern RV630 (Mainstream) und RV610 (LowCost). Die Server-CPU Barcelona soll, als erstes K10-Derivat, dann ebenfalls der Öffentlichkeit präsentiert werden. AMD bestätigte uns, dass die K10-Prozessoren kompatibel zu bisherigen AM2-Boards sein werden. Dies ist allerdings mit gewissen Einschränkungen verbunden: Beim Einsetzen in ein AM2-Board entfallen die K10-Features HyperTransport 3.0 und die voneinander unabhängige Einstellung der Kernspannung. Zur Performance gab AMD vor dem Launch natürlich noch keine genauen Daten heraus.
![]() |
![]() |
Mit dem Grafikkarten-Treiber Catalyst 7.x sollen die Ladezeiten vom Catalyst Control Center (CCC) deutlich verkürzt werden. Ein neues Feature bringt der Catalyst 7.5: Dieser erlaubt den Einsatz einer Multisampling-Variante des Transparenz Anti-Aliasings (nVidia unterstützt dies allerdings bereits seit der Einführung des G70-Chips). In einer nicht finalen Version ist dieses Feature per Registryhack bereits seit dem Catalyst 6.9 verfügbar. Das von vielen unserer Lesern geforderte Vollbild-Supersampling Anti-Aliasing auf Einzelgrafikkarten wird AMD wohl auch weiterhin nicht freigeben. Mittel- bis langfristig will AMD hardwarebeschleunigtes Videoencoding auch unabhängig vom AVIVO Encoding-Tool anbieten.
Zum R600 selbst erfuhren wir aufgrund einer sehr engen NDA-Politik seitens AMD leider nicht viel. Dieser und seine kleinen Brüder bekommen (wie bei nVidia seit der NV4x Serie) nun einen Videoprozessor spendiert, der "UVD" genannt wird und beim Videodecoding die CPU deutlich mehr entlasten soll als die Vorgänger-Grafikchips.
In Zukunft ist auch GPGPU ein großes Thema. AMD unterstützt so weit wie möglich diese Firmen, die Berechnungen auf AMD-Hardware betreiben wollen. Ein Beispiel ist der BOINC-Client der Universität Stanford.
Mit dem "Fusion"-Projekt (zur Verschmelzung von CPU und GPU in einem Chip) verspricht sich AMD eine große Skalierbarkeit bei zukünftigen Produkten. Dabei soll problemlos eine Anpassung zwischen Ultramobile- und HighEnd-Gerät in Zukunft möglich sein. Auch Physikbeschleunigung sei eine Möglichkeit für den Einsatz einer GPGPU. Derzeit arbeite man mit Havok an einer Engine für Beschleunigung von Effekt-Physik zusammen. In Zukunft wolle man ebenfalls mit Microsoft bei einer Kreation einer generellen Physik-API zusammenarbeiten.
![]() |
|
![]() |
![]() |
Uns interessierte, ob die Physikberechnung zusätzlich zur Grafikbeschleunigung auf einer einzigen GPU machbar wäre. AMD bejahte dies, wies jedoch auf mögliche Performanceengpässe hin und empfahl für diesen Zweck ein CrossFire-System.
Auch dieses Jahr trafen wir Steffen Bruch, den Channelmanager von Club3D. Zu unserem Bedauern mussten wir erfahren, dass es zu S3 Graphics nach dem kommerziellen Scheitern der DeltaChrome-Serie kaum noch Kontakt gibt. Das Sortiment von Club3D wurde in den letzten Jahren stark verbreitert. Inzwischen bietet man neben Grafikkarten eine breite Produktpalette für den Wohnzimmerbereich an. Neben Soundkarten mit exzellenten D/A-Wandlern bietet Club3D jetzt auch TV-Karten für DVB-T und HDTV an.
![]() |
![]() |
Beim Packungsdesign setzt Club3D auf schlichte und klare Aufmachungen: Auf den Kartons der Multimediaprodukten ist das Produkt in Benutzung auf einem Bild zu sehen, der Produktname und eine klar zu erkennende Produktbezeichung. Wenn die persönliche Meinung erlaubt ist: Uns gefällt dies mehr, als wenn irgendwelche Monster oder 3D-Renderfrauen die Packung zieren.
![]() |
![]() |
Das relativ kleine Unternehmen besitzt keine eigene Fertigung oder eigenes Engineering. Der Produkt-Manager wählt aus dem Markt das Produkt aus, welches den Auswahlkriterien am meisten entspricht, lässt dieses eventuell anpassen. Verkauft wird dieses dann unter dem Label Club3D.
![]() |
![]() |
Nachdem wir eVGA, Sapphire und Club3D nach Vorteilen des Exklusivangebots nur eines GPU-Herstellers gefragt haben, ergab sich ein differenziertes Bild. Exklusivanbieter wie Sapphire und eVGA profitieren nach eigener Aussage von besseren Exklusivkonditionen. Andere Hersteller legen Wert auf eine breitere Produktpalette.
![]() |
![]() |
Vor nicht allzu langer Zeit wechselte der in der Branche bekannte PR-Manager Wolfram Tismer samt seines Kernstabes zu eVGA. Mit ihm wechselten auch die Übertakterambitionen zu eVGA. Das Unternehmen bietet neben werksseitiger Übertaktung auch spezielle wassergekühlte Grafikkarten an. Das aktuelle Flagschiff ist eine GeForce 8800 GTX mit 625 MHz Kerntakt. Um diesen Takt zu gewährleisten, ist natürlich eine Produktionsselektion unumgänglich: Nur in etwa zwanzig Prozent der Karten eignen sich für diesen Zweck.
![]() |
![]() |
![]() |
![]() |
Bei GeIL gab es "QuadChannel"-Speicher zu sehen. In einem Schaufenster konnte man den 8 GB großen "BlackDragon" bewundern. Insgesamt 4 Module à 2 GB werden dabei im Bundle verkauft. Wir waren etwas überrascht, da es unseres Wissens nach noch keine Desktop-Boards mit vier separaten Speicherkanälen auf dem Markt gibt. Auf Nachfrage hin bestätigte man uns das auch, die Module sind weiterhin für DualChannel gedacht. Kreative Namensgebung eben ;).
Aber auch DDR-Speicher wurde noch ausgestellt. Immerhin knapp 20 Prozent des Umsatzvolumens soll die letzte Generation bei GeIL noch ausmachen. DDR2 will man derweil bis 1500 MT/s (DDR2/1500) treiben und dann auf DDR3 umsteigen. Hier schätzt man, dass bis zu 2000 MT/s (DDR3/2000) möglich sind, bevor eine erneute Ablösung bevorsteht. Bis es so weit ist, soll aber noch einige Zeit vergehen. Erst gegen Ende 2008 rechnet man mit einem größeren Umstieg auf DDR3, für den Mainstream-Markt plant man DDR3-Speicher gar erst 2009 ein.
Am Stand von Gigabyte schließlich stellten wir einige weniger alltägliche Fragen. Allerdings war man dort auch so freundlich (und auch in der Lage), uns mit einem versierten Techniker bekannt zu machen. Speziell wollten wir einige Details zum Signal-Routing auf den Mainboards wissen. Denn wie unterscheiden sich die Chipsätze/CPUs verschiedener Hersteller bei der Komplexität beim Verbinden der verschiedenen Komponenten?
Zuerst wollten wir wissen, was die momentan schwierigste Stelle auf dem Mainboard ist. Und laut Gigabyte ist dies eindeutig die Integration von HDMI. Manche Hersteller realisieren dies über AddOn-Karten auf Extension-Slots. Gigabyte will den Chip direkt auf das Mainboard setzen, wozu hier erst einmal Platz geschaffen werden muss. Desweiteren sind gerade die HDMI-Signale sehr fordernd und benötigen sorgsame Führsorge.
Die unterschiedlichen Chipsätze von AMD, Intel und nVidia machen laut Gigabyte derweil untereinander weniger Probleme als man denken mag. Jeder hat zwar so seine gezielten Schwierigkeiten, vor denen ein Ingenieur und seine Software stehen, allerdings heben sie sich in der Summe gegenüber den anderen Chipsätzen weitestgehend auf.
Am Ende konnte uns Gigabyte im übrigen nicht unbedingt einen "Gewinner" nennen: Allerdings sollen die Chipsätze von Intel hier etwas komplexer zu verdrahten sein. Das wäre allerdings auch nicht verwunderlich bei immerhin 266 MHz Takt am Frontsidebus (FSB1333). Für den nachfolgenden FSB1600 müssen laut Gigabyte schon erhebliche Anstrengungen aufgewendet werden.
Ob der Chipsatz dann aber aus zwei Teilen besteht oder eine integrierte Southbridge besitzt, spielt weniger eine Rolle. Die Signalleitungen, die man sich einspart, müssen umso komplexer rund um die Northbridge gelegt werden, da diese nun mehr Anschlusspins aufweist. Gleiches gilt für Chipsätze mit integrierter Grafiklösung. Besonders nett sind dann natürlich Chipsätze sowohl mit integrierter Grafikeinheit als auch Southbridge. Nicht nur aufgrund der Wärmeentwicklung führt der Weg also ab und an zurück zur getrennten Lösung mit zwei Chips.
Interessanterweise besitzt auch der integrierte Speichercontroller der K8-Architektur so seine Tücken für das Signal-Routing. Die Speicherkanäle sind zwar direkt und ohne Umwege angebunden, allerdings müssen Signale auch hier gleichzeitig am Speicher ankommen. Komplexes Routing auf kleinstem Raum ist die Folge. Wer sich schon immer überlegt hat, warum wir nicht schon auf QuadChannel umgestiegen sind, findet hier eines der wichtigsten Gegenargumente – anders als bei FB-DIMMs, welche weniger Pins besitzen und somit eine höhere Anzahl an Modulen und Kanälen leichter realisierbar machen.
Als letztes Detail haben wir dann noch erfahren, dass man möglichst versucht, die Boards in vier Lagen zu fertigen. Allerdings kommt es bereits bei zwei PCI Express x16 Slots zu Schwierigkeiten, welche dann oftmals ein Design mit sechs Lagen nötig machen. Ein zusätzlicher Kostenfaktor für den Hersteller, den der Kunde dann im Preis zu spüren bekommt.
Daneben wies man uns noch auf ein paar Neuerungen im Design selbst hin. So nutzt man jetzt Spulen mit Ferrit zum Filtern der Signale, statt den bisherigen Spulen mit Eisenpulver als Kernmaterial. Insgesamt spart man so ca. 5 Watt Leistungsaufnahme ein. Nicht viel, aber zusammen mit anderen Verbesserungen trägt auch dies seinen Teil bei.
Bei den Kondensatoren hat man sich ebenfalls etwas neues einfallen lassen. Wer kennt sie nicht, die aufgelöteten Zylinder mit den zwei biegbaren Beinchen? Ist man im Falle einer zu langen Grafikkarte manchmal sogar froh darüber, ärgert man sich doch häufiger über verbogene und abgebrochene Kondensatoren. Auf der Rückseite des Mainboards sind deren Lötstellen derweil ideale Kandidaten für einen ungewollten Kurzschluss.
Nun aber werden vermehrt Kondensatoren mit einem SMT-Package verwendet. Das heißt nichts anderes, als dass ihre Anschlüsse verpackt und von einer Maschine auf das Board gesteckt werden können. Kein aufwändiges Löten auf der Rückseite, kein Verbiegen mehr – und als Bonus bessere elektrische Signaleigenschaften.
Zum Schluss bekamen wir noch die 12-Phasen-Energieversorgung auf einem der neuen Gigabyte-Mainboards zu sehen – natürlich für QuadCore-Systeme mit SLI ausgelegt. Höhere Stabilität und niedrigere Temperaturen sind das Ziel des Ganzen. Bei Mainboards für DualCore-Prozessoren sind es dann immerhin noch 6 Phasen. Die großen Kühler für die Spannungsversorgung, die man stellenweise trotzdem noch sehen kann, sind dann für erfolgreiches Übertakten zwingend notwendig.
Das alles lässt eines klar werden: Wo immer man beim Design und der Fertigung des Mainboards auch Einsparungen findet, in aller Regel müssen diese gleich wieder zur Lösung anderer Probleme aufgewandt werden. Eine richtige Obergrenze für Taktraten und Stromversorgung konnte man uns bei Gigabyte jedoch nicht nennen. Mit QuadCore, FSB1600 und zwei PCI Express x16 Slots sind wir also noch lange nicht am Ende.
Intel hatte auf der CeBIT zwar keine Neuheiten zu zeigen, lieferte im Interview allerdings ein paar interessante Fakten. Uns wurde bestätigt, dass die G965 IGP hardwarebedingt auch mit Treiberupdates nicht dazu im Stande sein wird, Geometrie zu beschleunigen oder Direct3D10 zu supporten. Als Ursache der Komplikationen nannte man den gleichzeitigen Wechsel von Architektur und Prozess. Erst der IGP des G35-Chipsatzes wird Direct3D10 unterstützen.
Interessant aus Sicht der Fertigung ist weiterhin, dass Intel mittelfristig auf SOI verzichtet (SOI ist eine Technik, die die Leckströme und die Gatekapazität verringert und somit hoehere Taktraten erlaubt; AMD und IBM setzen diese bereits seit dem 130nm Prozess erfolgreich ein). Als wir das Thema PowerVR und diskrete Grafik ansprachen, erklärte man uns, dass so etwas nicht geplant sei.
Das in letzter Zeit auch auf 3DCenter vieldiskutierte Projekt "Polaris", ein Prozessor mit 80 Kernen, sieht Intel als Forschungsobjekt, um zukünftige Möglichkeiten auszuloten. Auf den Markt kommt diese Machbarkeitsstudie also nicht.
Am Stand von Listan trafen wir Dorothee Renger, die PR-Managerin von Listan. Unter den Listan-eigenen Marken Revoltec und beQuiet fanden sich auch dieses Jahr einige interessante Produkte.
![]() |
![]() |
Neben Gamermäusen bietet Revoltec nun auch Gamertastaturen mit einem interessanten Feature: Windowskey-Lock. Dieses Feature schaltet die Windows-Taste einfach ab. Dies kommt sowohl Shooter-Anhängern als auch Strategie-Freunden entgegen, die bislang entweder höllisch aufpassten mussten, nicht versehentlich mit der Windows-Taste aus dem Spiel heraus zum Desktop zu gehen – oder dafür auf eine Zusatzsoftware angewiesen waren.
![]() |
![]() |
![]() |
![]() |
Es gibt jetzt auch für LAN-Gänger eine Tragetasche, mit der sich das PC-Gehäuse bequem transportieren lässt. Bei solchen Produkten fragt man sich natürlich, warum die nicht schon längst auf dem Markt sind – gebrauchen könnte man sowas schon lange.
![]() |
![]() |
![]() |
![]() |
Das Kerngeschäft von beQuiet wird nach wie vor von den Netzteilen dominiert. Das HighEnd-Segment bildet die Darkpower-Pro-Serie mit modularen PCI-Express-Steckern und bis zu 850 Watt Nennleistung. Etwas günstiger sind die Netzteile der Straight-Power-Serie mit bis zu 700 Watt Nennleistung und Quad-Rail (also vier unabhängige 12-Volt-Schienen). Das Einstiegsmodell mit 350 Watt zeigt, dass die Bedürfnisse des Normal-Users nicht vernachlässigt werden.
![]() |
![]() |
Einige Neuerung im Bereich der DDR3-Module waren bei Nanya deutlich auffällig zu sehen. So zierte ein großer Vergleich zwischen DDR2 und DDR3 eine Wand des Standes. Demnach startet DDR3 ebenfalls an dem Punkt, an dem der Vorgänger aufhört, also mit 800 MT/s. (Millionen Übertragungen/s). Das offizielle Ende soll bei DDR3/1600 erreicht werden, was einem Speicherbustakt von 800 MHz entspricht. Erreicht werden die höheren Taktraten durch eine erneute Steigerung des Prefetchs auf nunmehr 8 Datenworte (konkret: die Speicherzellen takten mit einem viertel des Taktes der I/O-Einheiten des Speicherchips, mittels der DDR-Verdopplung erreicht man dann den Prefetch von 8). Indem man pro Zugriff mehr Daten ausliest, können die Speicherzellen weiterhin auf sehr niedrigem Takt gehalten werden. So bleibt auch DDR3 bei der inzwischen magischen Grenze von maximal 200 MHz für die Speicherzellen.
![]() |
![]() |
Die Absenkung der Spannung auf 1.5 Volt verschafft den Herstellern wieder etwas Luft nach oben und für Notebooks eine geringfügig längere Akkulaufzeit. Bei höheren Taktraten gegenüber DDR2 wird der Vorteil aber schnell wieder verpuffen. Bei außerhalb der Spezifikationen übertakteten Modulen werden auch weiterhin zusätzliche Kühlmethoden boomen. Durch verbesserte On-Die-Termination gegenüber DDR2 wird die Signalqualität verbessert, was essentiell für den höheren Speicherbus ist. Andernfalls würden reflektierte Signale den Bus mit Geistersignalen überschütten.
Eine weitere Verbesserung sind zwei Modi für den Refresh der Speicherchips. Wie vielleicht bekannt ist, verlieren DRAM-Chips ihre Ladung mit der Zeit. Daher müssen sie ständig aufgefrischt werden, in dieser Zeit ist kein Zugriff möglich. DDR3 erlaubt nun das Auffrischen von der Temperatur abhängig zu machen, gemäß der Regel, dass niedrigere Temperaturen die Ladung länger erhalten.
Diese Funktion steht im direkten Zusammenhang mit einem Temperatursensor, der sich nun auf den Modulen befindet. Musste die Temperatur bisher über den Verbrauch des Moduls geschätzt werden, kann diese nun viel genauer angegeben werden. Mechanismen, die von der Temperatur abhängig sind, wären der eben erwähnte Refresh-Zyklus oder das Ausbremsen der Speicherzugriffe bei Erreichen einer gewissen Temperaturgrenze. Für größere Systeme mit vielen Modulen und hohen Temperaturen lässt sich in diesem Fall sogar eine bessere Speicherperformance durch weniger "Throttling" erreichen.
Nanya selbst fertigt Speicherchips in direkter Konkurrenz zu Samsung. Momentan ist die 90/80nm-Fertigung Standard, man will jedoch bald mit Samsung gleichziehen und auf 60nm umsteigen. Dazu besitzt Nanya im Moment zwei Fabs für 200mm Wafer und will im Juni dieses Jahres eine dritte Anlage für 300mm Wafer fertigstellen.
DDR3 selbst ist laut Nanya bisher nur in Samples verfügbar. Mit der Massenproduktion rechnet man in 2008 und erst 2009 mit der großflächigen Ablösung von DDR2. Das deckt sich in etwa mit den Angaben vieler anderer Hersteller. Den Bildern auf dem Stand ist zu entnehmen, dass DDR3-Module zu Beginn wohl mit einer Latenz von 5-5-5 ausgeliefert werden. Wie üblich erwarten wir allerdings noch niedrigere Werte für die bekannten Overclocking-Module diverser Hersteller. Ab DDR3/1066 sind dann allerdings schon wieder 7-7-7 vorgesehen – große Performancevorteile sollte man also zu Beginn nicht erwarten.
![]() |
![]() |
Bei OCZ zeigte man uns einen Prototypen eines ganz besonderen Spiele-Peripheriegerätes für den PC: Mittels eines Stirnbandes werden auf der Stirn des Spielers Sensoren befestigt. Diese messen Aktionspotenziale der Muskulatur und eine Software setzt dies in eine vom Spieler festgelegte Aktion um. Beispielsweise kann der Spieler durch leichtes Nicken des Kopfes in Unreal Tournament 2004 vorwärts laufen oder zu den Seiten strafen. Ein Zucken mit der Augenbraue löst den Feuerbefehl aus, ein Beißen auf die Zähne den Sprung.
Nach einer gewissen Trainingsphase gewöhnt der Spieler sich an dieses Gerät und denkt über die Nutzung nicht mehr nach. Der Vorteil liegt in der bis zu 30 Prozent schnelleren Reaktionszeit des Spielers, denn die Leitung der Aktionspotenziale über den Sensor erfolgen natürlich schneller, als wenn der Muskel am Oberarm erst die Potenziale in eine mechanische Bewegung umwandeln müsste.
Das bereits elf Jahre alte Gerät stammt aus der Medizinforschung und war nur wenig erfolgreich. Es wurde ursprünglich noch über die serielle Schnittstelle an den PC angebunden, die sich bei heutigen PCs schon lange nicht mehr findet. Michael Schuette von OCZ entdeckte zufällig dieses ungewöhliche Eingabegerät und kam auf die Idee, das Prinzip im Spielemarkt zu nutzen. Doch bevor OCZ das Teil möglicherweise tatsächlich mal auf den Markt bringt, ist noch etwas Entwicklungsarbeit notwendig – so soll zum Beispiel die Zahl der Sensoren noch gesteigert werden. Unabhängig der Theorie gefiel uns diese ungewöhnliche Spielsteuerung auf Anhieb, auch wenn die Fragrate angesichts mangelnder Übung eine andere Sprache sprach.
Bei OCZ sieht man die Situation um DDR3 etwas optimistischer. Dort rechnet man bereits bis Ende 2008 mit einem Verhältnis von 80/20 zugunsten von DDR3. Großen Wert legt man hier auch auf die Kühlung der Speichermodule: Egal ob aktiv oder passiv, auch in Zukunft wird uns hier besonders von OCZ einiges erwarten.
Gerade beim Thema Kühlung fand man bei OCZ einen Knaller am Stand: Der Hydrojet ist eine vollständig in sich selbst geschlossene Neuerung, die Wasser- und Luftkühlung auf kleinstem Raum miteinander verbindet. Eine kleine Pumpe befördert kontinuierlich Wasser durch den Kühler, während ein Lüfter die Luft von oben ansaugt. Lüfter und Pumpe sind dabei zusammen in Flüssigkeit gelagert und besitzen nach Aussage von OCZ eine überaus lange Haltbarkeit. Durch neue Entwicklungen wie Mikrokanäle im Kupfer lässt sich die Oberfläche des Kühlers drastisch steigern, so dass die Wärme schnell abgeführt werden kann. Dabei sollen Hotspots vermieden und eine nahezu gleichmäßige Wärmeverteilung über den Kühler hinweg erreicht werden.
![]() |
![]() |
Ein letztes entscheidendes Element dafür ist die Grundplatte des Kühlers, die aus Kohlenstoff gefertigt wird. Eventuell kommen hier sogar schon sogenannte Nanotubes auf Kohlestoff-Basis zum Einsatz. Ein genauer Vergleich mit Kupfer ist mangels Daten vorerst nicht möglich. Laut OCZ will man aber ein Vielfaches der Effizienz von Kupfer erreichen.
Viel wichtiger ist allerdings das Ergebnis, und das kann sich sehen lassen: Satte 400 Watt will OCZ dem Kühler zumuten. Inzwischen sucht man sogar nach Möglichkeiten, Anschlüsse an den Kühler zu setzen, um weitere Teile des PCs damit zu kühlen, sprich Northbridge oder den Grafikchip. Wie genau das aussehen wird, sollen wir in einigen Monaten erfahren, wenn der Kühler auf den Markt kommt. Das Vorzeigemodell war noch per Hand gefertigt und über 1 Kg schwer, das Serienmodell soll dann nur halb so schwer werden. Am großen Problem, die erwärmte Luft dann auch aus dem Gehäuse zu bekommen, ändert das natürlich nichts. Gerade hier punkten in letzter Zeit Wasserkühlungen und Kühlerlösungen für Grafikkarten.
Besonders bedanken wollen wir uns bei OCZ und Michael Schuette für die detailierten Erklärungen zum Hydrojet und der Technologie hinter DDR3.
Beim Stand von Sandisk haben wir ein Vergleichsvideo gefunden, welches den Start von Windows und anschließend Office im Vergleich einer Solid State Disk zu einer herkömmlichen Festplatte zeigt. Natürlich ist die verwendete Hardware mit 1 GB Hauptspeicher und einem 1 GHz Core 2 Duo nicht besonders üppig. Wie repräsentativ das Ergebnis also für größere Notebooks oder Desktopsysteme ist, kann daher noch nicht beantwortet werden.
Die reine Bootzeit von Windows Vista verringert sich allerdings durchaus spürbar, und auch der Start von Office2007 direkt nach dem Bootvorgang geht zügig vonstatten. Manche mögen etwas enttäuscht sein, da man sich durchaus eine viel stärkere Auswirkung erwartet hätte, aber unabhängige Tests müssen zeigen, wie viel man im Alltag wirklich spürt.
Bei Sapphire gab es, wie bei vielen Herstellern dieses Jahr, leider nur wenige Neuigkeiten. Der Grund dafür ist natürlich die Politik seitens ATI/AMD, welche das Geheimnis um den R600 hüten wie ihren Augapfel – wir haben im Gegensatz zu einigen anderen auf der CeBIT keinen R600 sehen können, auch nicht bei Sapphire (bereits am zweiten Tag der CeBIT entzog AMD allen Herstellern die R600-Testsysteme aus den CeBIT-Hinterzimmern, da diese unerlaubterweise einigen Vertretern der Presse vorgeführt worden sind). Uns von 3DCenter interessiert natürlich mehr die Leistung des R600 als mal irgendwo ein Vorserienmodell bestaunen zu dürfen, doch hier müssen wir uns noch bis zum Launch gedulden.
Auf dem Stand von Sapphire gab es ein Doppel-CrossFire System mit der Dual-Radeon-X1950-Pro zu sehen. "Mehr Schein als Sein" könnte man sagen – auf Anfrage erfuhren wir zudem, dass der Standard-Catalyst bisher keine Vierkern-Grafikkartenkombination unterstützt. Die Frage, ob das Teil wirklich schneller als ein G80 ist, wird mit der R600-Vorstellung dann ohnehin obsolet.
Seitdem sich XGI aus dem PC-Markt praktisch zurückgezogen hat (ATI hatte letztes Jahr das Office, Patente und Rechte von XGI gekauft), tat sich nicht mehr all zu viel bei SiS im Bereich Grafikbeschleunigung. Immerhin scheint es noch eine IGP-Entwicklung für Intel zu geben. Mit der Mirage 3 IGP-Serie steht immerhin ein Shader Model 2.0 kompatible IGP für die SiS-Chipsätze zur Verfügung.
Noch in diesem Jahr soll zudem die Mirage 4 IGP-Serie mit Shader Model 3.0 auf den Markt kommen. Laut SiS ist die Mirage 3 absolut Vista-AeroGlass-tauglich. Ein paar ältere Spiele wie Max Payne oder Mafia werden damit sicherlich auch laufen, sofern der Treiber nichts dagegen hat.
Zum Thema Solid State Disks (SSDs) hatten wir am Stand von Super Talent ein nettes Gespräch. Dieser nicht flüchtige Speicher setzt auf das gleiche Prinzip wie Flash-Speicherkarten, jedoch mit weit größeren Kapazitäten und Bandbreiten. Bisher sind Disks mit 4, 16 und 32 GB erhältlich, bald sollen jedoch 128 GB folgen. Überaus interessant sind SSDs für den Einsatz in Notebooks, wo sie die relativ anfälligen Festplatten ersetzen könnten. Doch auch der Desktop-User träumt von schnelleren und lautlosen Zugriffszeiten. Aber so weit sind wir noch nicht (ganz).
![]() |
![]() |
So geht man bei Super Talent davon aus, dass man in ca. drei Jahren mit Festplatten im Desktop/Mobile-Markt konkurrieren kann. Bisher zeigte sich ein Preisverfall von annähernd 50 Prozent pro Jahr für Flash-Speicher, in drei Jahren wären demnach angemessen große SSDs zu bezahlbaren Preisen erhältlich. Hinsichtlich der Performance erreicht man momentan ca. 35 MB/s bis hinauf zu 60 MB/s, je nach Hersteller und Controller. Damit kann man bereits sehr gut mit Festplatten in Notebooks konkurrieren.
Allerdings basieren die Interfaces für die meisten SSDs momentan noch auf der IDE-Schnittstelle. Laut Super Talent befindet sich jedoch ein neuartiger SATA-Controller in Entwicklung, mit dem auch 80 MB/s realisierbar sind. Völlig außer Konkurrenz ist man jedoch bei Zugriffslatenzen. Während Festplatten die mittlere Zugriffszeit in Millisekunden rechnen, schafft ein Flashspeicher das in weitaus geringerer Zeit. Die SSD-Festplatte muss weder aus einem Schlafzustand erwachen, noch der Lesekopf positioniert werden.
Für Notebooks interessant ist zudem der lautlose Datenzugriff und der geringe Leistungsbedarf sowie die physikalisch höhere Widerstandsfähigkeit gegen Erschütterungen. Natürlich gibt es auch hier Nachteile: So müssen sich Käufer neben dem momentan sehr hohen Preis auch mit niedrigerer Schreibperformance anfreunden. Auch die Lebensdauer einer Flashzelle kann es nicht mit den Lese/Schreibzyklen einer Festplatte aufnehmen.
Allerdings versprechen die Hersteller eine reine Datenintegrität auf 10 Jahre, und genug Schreibzyklen für einen Betrieb bis zu 5 Jahren. Dabei helfen Mechanismen, die eine konstante Verteilung der Zugriffe auf alle Zellen sicherstellen sollen, oder gefährdete Blöcke vom Zugriff ausschließt – "Wear-Leveling-Technology" nennt Super Talent dies.
Gerfertigt werden die Speicherdisks übrigens bei Samsung mit NAND-Flashspeicher. Dieser zeichnet sich durch hohe Speicherkapazitäten und relativ geringen Preis pro Megabyte aus. Allerdings ist eine aufwändige Controllerlogik erforderlich, um NAND-Flashspeicher schnell anzusprechen. Hier gibt es also noch Potential, sowohl in der Fertigung als auch beim Interface.
Im Bereich der 3D-Bildschirmtechnologien ist uns eigentlich nur Zalman, bekannt eher durch Kühler für PC-Komponenten, direkt aufgefallen. Dort versammelte sich regelmäßig eine größere Gruppe von Jugendlichen um eine kleine Anzahl an LCD-Bildschirmen. Der Clou an der ganzen Sache: Mit Hilfe einer 3D-Brille konnte man World of WarCraft mit 3D-Effekt erleben.
Nun sind 3D-Effekte mit Hilfe einer Brille sicherlich nichts Neues mehr. Egal ob nun im IMax-Kino oder eben vor einem PC. Den Spielern war das aber anscheinend egal, und auch die zusätzliche Brille störte sie nicht. Zalman selbst wirbt mit einem sehr klaren Bild, extrem großer Betrachtungszone für einen 3D-Bildschirm, und natürlich einem nicht weniger breiten Spektrum an unterstützen Spielen und Applikationen.
![]() |
![]() |
Der "Trick" an der ganzen Sache sind Polarisations- und Verzögerungsfilter innerhalb des LC-Displays. Mit Hilfe polarisierter Gläser in einer zusätzlichen Brille entsteht dann ein 3D-Effekt für den Betrachter. Zwingend notwendig sind dafür allerdings entweder ein 3D-Profil im Treiber von nVidia oder eine direkte Unterstützung für polarisierte Darstellung. Die Displays selbst sehen aus wie normale LCD-Monitore, und sind als 19" sowie 19/22" Widescreen erhältlich. Besonders stolz ist man bei Zalman auf die sehr schnelle Reaktionszeit von 5ms und den Kontrast von 1000:1.
Aber genug der Theorie: Für einen vorübergehenden Betrachter zeigt sich nur ein verzerrtes Bild, bei dem anscheinend mehrere Schichten übereinander gelegt wurden. Der Spieler mit der Brille erlebt allerdings ein wirklich überzeugendes 3D-Bild. Zwar kann es an Schärfe und Sättigung der Farben nicht mit dem Original aufnehmen, dafür macht es ordentlich Eindruck, den Greifen aus World of WarCraft eindeutig im Raum vor einem Canyon sehen zu können. Die Tiefenschärfe wird dabei in den Monitor hinein empfunden, und nicht vom diesem heraus auf den Spieler zu. Das ist zwar generell angenehmer und weniger anstrengend, wie es um die Langzeittauglichkeit steht, konnten wir jedoch noch nicht in Erfahren bringen. Dazu braucht es wohl weiterer Tests.
Sobald die Monitore auf den Markt kommen, sollen sie zwischen 450 und 600 Euro kostet. Wann es so weit sein soll, konnte man uns vor Ort jedoch noch nicht sagen.
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Ihr findet alle Bilder zu diesem Report [59] in der dazugehörigen Galerie.
Verweise:
[1] http://www.3dcenter.org/users/aths
[2] http://www.3dcenter.org/users/blackbirdsr
[3] http://www.3dcenter.org/users/robbitop
[4] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=354423
[5] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356006
[6] http://www.3dcenter.org/artikel/2006/07-24_a.php
[7] http://www.3dcenter.org/abbildung/cebit2007-pic26
[8] http://www.3dcenter.org/abbildung/cebit2007-pic25
[9] http://www.3dcenter.org/abbildung/cebit2007-pic29
[10] http://www.3dcenter.org/abbildung/cebit2007-pic30
[11] http://www.3dcenter.org/abbildung/cebit2007-pic31
[12] http://www.3dcenter.org/abbildung/cebit2007-pic23
[13] http://www.3dcenter.org/abbildung/cebit2007-pic24
[14] http://www.3dcenter.org/abbildung/cebit2007-pic17
[15] http://www.3dcenter.org/abbildung/cebit2007-pic18
[16] http://www.3dcenter.org/abbildung/cebit2007-pic19
[17] http://www.3dcenter.org/abbildung/cebit2007-pic20
[18] http://www.3dcenter.org/abbildung/cebit2007-pic21
[19] http://www.3dcenter.org/abbildung/cebit2007-pic22
[20] http://www.3dcenter.org/abbildung/cebit2007-pic01
[21] http://www.3dcenter.org/abbildung/cebit2007-pic02
[22] http://www.3dcenter.org/abbildung/cebit2007-pic03
[23] http://www.3dcenter.org/abbildung/cebit2007-pic04
[24] http://www.3dcenter.org/abbildung/cebit2007-pic35
[25] http://www.3dcenter.org/abbildung/cebit2007-pic16
[26] http://www.3dcenter.org/abbildung/cebit2007-pic10
[27] http://www.3dcenter.org/abbildung/cebit2007-pic14
[28] http://www.3dcenter.org/abbildung/cebit2007-pic15
[29] http://www.3dcenter.org/abbildung/cebit2007-pic07
[30] http://www.3dcenter.org/abbildung/cebit2007-pic08
[31] http://www.3dcenter.org/abbildung/cebit2007-pic09
[32] http://www.3dcenter.org/abbildung/cebit2007-pic11
[33] http://www.3dcenter.org/abbildung/cebit2007-pic12
[34] http://www.3dcenter.org/abbildung/cebit2007-pic13
[35] http://www.3dcenter.org/abbildung/cebit2007-pic05
[36] http://www.3dcenter.org/abbildung/cebit2007-pic06
[37] http://www.3dcenter.org/abbildung/cebit2007-pic36
[38] http://www.3dcenter.org/abbildung/cebit2007-pic37
[39] http://www.3dcenter.org/abbildung/cebit2007-pic38
[40] http://www.3dcenter.org/abbildung/cebit2007-pic39
[41] http://www.3dcenter.org/abbildung/cebit2007-pic28
[42] http://www.3dcenter.org/abbildung/cebit2007-pic27
[43] http://www.3dcenter.org/abbildung/cebit2007-pic34
[44] http://www.3dcenter.org/abbildung/cebit2007-pic42
[45] http://www.3dcenter.org/abbildung/cebit2007-pic40
[46] http://www.3dcenter.org/abbildung/cebit2007-pic41
[47] http://www.3dcenter.org/abbildung/cebit2007-pic32
[48] http://www.3dcenter.org/abbildung/cebit2007-pic33
[49] http://www.3dcenter.org/abbildung/cebit2007-pic43
[50] http://www.3dcenter.org/abbildung/cebit2007-pic44
[51] http://www.3dcenter.org/abbildung/cebit2007-pic45
[52] http://www.3dcenter.org/abbildung/cebit2007-pic46
[53] http://www.3dcenter.org/abbildung/cebit2007-pic47
[54] http://www.3dcenter.org/abbildung/cebit2007-pic48
[55] http://www.3dcenter.org/abbildung/cebit2007-pic49
[56] http://www.3dcenter.org/abbildung/cebit2007-pic50
[57] http://www.3dcenter.org/abbildung/cebit2007-pic51
[58] http://www.3dcenter.org/abbildung/cebit2007-pic52
[59] http://www.3dcenter.org/image/tid/41