enfrdepluk
Suche finde 4120  disqus socia  tg2 f2 lin2 in2 X-Symbol 3 y2  p2 Tik steam2

GeForce 6800 Ultra Architekturmerkmale

Im April 2004 stellte nVidia die neue NV40-GPU vor. Der neue NV30-Grafikprozessor, der dem Unternehmen helfen sollte, ATI Technologies zu vernichten, das den Sektor der DirectX-9-kompatiblen Lösungen dominierte, schaffte es nicht, NVIDIA an die Spitze zu bringen. Die in den NVIDIA-Labors entwickelte Architektur, die die Anforderungen des DirectX 9-Standards übertrifft, erwies sich in der Form, in der sie erstmals das Licht der GeForce FX erblickte, als sehr schwerfällig hinsichtlich der Anzahl der Transistoren und als sehr anfällig 5800 Ultra. Die Mängel der Grafikprozessorarchitektur sowie die Verwendung von hochfrequentem GDDR2-Speicher und einem 128-Bit-Videospeicherzugriffsbus führten dazu, dass das neue Produkt von NVIDIA bei vielen Aufgaben deutlich schlechtere Ergebnisse zeigte als die RADEON 9700 PRO von ATI.
 
geforce_go_6_series_031 

NVIDIA korrigierte seinen Fehler schnell, indem es eine verbesserte Version des NV30 herausbrachte, die NV35-GPU, die sich als viel brauchbarer erwies. Dennoch stellte sich die Bitterkeit der Niederlage mit dem NV30 als groß heraus – das Unternehmen stellte die Produktion des NV30 ein, nachdem es nur einige zehntausend dieser Prozessoren produziert hatte, und entfernte dann alle Erwähnungen des NV30 von der Unternehmenswebsite.

Ein Jahr ist vergangen. Während dieser Zeit hat das Unternehmen eine Reihe neuer recht erfolgreicher Lösungen herausgebracht, der NV35 wurde durch den NV38 ersetzt. Die Detonator-Treiberlinie wurde vergessen und an ihre Stelle traten ForceWare-Treiber, mit denen dank der Verwendung eines speziellen Shader-Code-Compilers die Leistung von NVIDIA-Videoadaptern in Spielen mit DirectX 9-Pixel-Shadern erheblich verbessert wurde beste Wahl für Enthusiasten ist immer noch Videoadapter auf Basis von Grafikprozessoren von ATI Technologies - RADEON 9800 PRO und dann RADEON 9800 XT geblieben.

Natürlich hat das Team der NVIDIA-Entwicklungsingenieure die ganze Zeit nicht tatenlos zugesehen - das Unternehmen versuchte, sich an seinem Konkurrenten zu rächen. Gerüchte über die Monster-GPU NV40 begannen aufzutauchen, lange bevor sie zum ersten Mal in Silizium verkörpert wurde. Wir sprachen über sechzehn Rendering-Pipelines, Unterstützung für Pixel- und Vertex-Shader Version 3.0 und andere Innovationen. Die kursierenden Gerüchte waren sehr unterschiedlich, bis hin zu „zuverlässigen Informationen“, dass das neue Produkt GDDR3-Speicher verwenden wird, der mit einer Frequenz von 1600 MHz arbeitet, während die Kernfrequenz bis zu 600 MHz betragen wird

Diesmal ging das Unternehmen vorsichtiger und gründlicher vor und versuchte sein Bestes, um eine Wiederholung der Situation beim NV30 zu verhindern. Es ist merkwürdig, dass die Entscheidung getroffen wurde, die Buchstaben „FX“ in den Namen zukünftiger NV40-basierter Videoadapter vollständig aufzugeben – sie wurden in GeForce 6800 umbenannt Ultra und GeForce 6800.

nv_031

Bei der Entwicklung des Grafikprozessors der nächsten Generation konnte NVIDIA nicht umhin, frühere Erfahrungen zu berücksichtigen - die Situation, wenn die Leistung von Grafikprozessoren eines Wettbewerbers trotz der formalen technologischen Überlegenheit von NVIDIA in fast allen Preiskategorien höher ausfällt passen in keinster Weise zum Unternehmen. Daher wurde neben dem weiteren Ausbau der Funktionalität und der Einführung der Unterstützung für Shader des Modells 3.0 größtes Augenmerk bei der Entwicklung des NV40 darauf gelegt, die Leistung zu verbessern und insbesondere die anfänglichen Schwachstellen der CineFX-Architektur zu stärken.

Pixelpipelines NVIDIA GeForce 6800/6800 Ultra Im Hinblick auf den NV40 und die CineFX 3.0-Architektur war es unmöglich, von Pixel-Pipelines im herkömmlichen Sinne zu sprechen. Beginnend mit der NV30- und der CineFX-Architektur hatten NVIDIAs GPUs statt mehrerer "unabhängiger" Pixel-Pipelines eine "breite" Pixel-Pipeline, in der mehrere Pixel gleichzeitig verarbeitet werden. NV40 erbt die NV3x-Architektur, hatte aber gleichzeitig natürlich erhebliche Verbesserungen und Ergänzungen.

Die NV40-Pixel-Pipeline wurde gegenüber der NV4-Pipeline um den Faktor 35 „erweitert“ – jetzt können 16 Pixel gleichzeitig verarbeitet werden, und die maximale Ausgabegeschwindigkeit beträgt 16 Pixel pro Takt. Wenn mehr als eine Textur überlagert wird, verringert sich die Ausgabegeschwindigkeit von Pixeln. Wenn Sie beispielsweise zwei Texturen überlagern, dauert die Verarbeitung derselben 16 Pixel zwei Zyklen, dh die Ausgabegeschwindigkeit verringert sich auf 8 Pixel pro Zyklus. Beim Arbeiten mit einem Z-Puffer oder Musterpuffer "beschleunigt" die Pixel-Pipeline des NV40, wie beim NV35. Die insgesamt vierfache Leistungssteigerung wirkte sich auch auf die Arbeit unter solchen Bedingungen aus: Nun konnte die GPU maximal 32 Z-Werte pro Takt ausgeben. Der NV40 hatte also reichlich „brute force“: Wir können getrost von einer Vervierfachung der Füllrate im Vergleich zum NV35 sprechen.

Neben der „Erweiterung“ der Pixelpipeline hat NVIDIA auch die Rechenleistung des Pixelprozessors erhöht. Erstens wurde die Anzahl der verfügbaren temporären Register – der schwächste Punkt der Pixelprozessoren der Chips der GeForce FX-Serie, verbunden mit den strukturellen Merkmalen der NV3x- und NV40-Pixel-Pipeline – erhöht und jetzt komplexe Pixel-Shader bei der Berechnung voll berücksichtigt 32-Bit-Präzision, sollte den Pixelprozessor nicht in die Knie zwingen.
Zweitens wurde offenbar die Anzahl vollwertiger ALUs (arithmetische Logikeinheiten), die Operationen an Pixelkomponenten ausführen, in NV40 verdoppelt. Genauer gesagt wurden zwei Arten von NV35-FP-ALUs, „vollwertige“ und „vereinfacht“, die die NV30-Ganzzahl-ALUs ersetzten, zu „vollwertigen“ ALUs, die Operationen beliebiger Komplexität mit der gleichen Geschwindigkeit ausführen. So zeigte NVIDIA den Vorteil von CineFX 3.0 mit der doppelten Anzahl von ALUs gegenüber "traditionellen" Architekturen:

419151

Die NV40-ALUs konnten also in einem Zyklus bis zu 8 Operationen an den Komponenten eines Pixels ausführen, und wenn wir berücksichtigen, dass die NV40-Pipeline 16 Pixel gleichzeitig verarbeitete, stellte sich heraus, dass der NV40 insgesamt 32 vollwertige Pixel hatte Gleitkomma-ALUs, und sie können bis zu 128 Operationen an Pixelkomponenten pro Zyklus ausführen.

Pixel-Shader 3.0
Unterstützung für Pixel-Shader-Modell 40, das im NV3.0 erschien, bedeutete in erster Linie Unterstützung für dynamische Zyklen und Verzweigungen in Pixel-Shadern. Nun wurde die Entscheidung, welcher Zweig des Shaders für diesen oder jenen Pixel ausgeführt wird, direkt während der Ausführung des Shaders getroffen – die Variablen, deren Werte den Fortschritt der Shader-Ausführung bestimmen, können sich ändern, ohne vorgegebene Konstanten zu sein, wie dies der Fall ist Fall mit statischen Zweigen und Schleifen.
Als Shader 2.0 ausgeführt wurden, manifestierte sich die neue Funktionalität von NV40 offensichtlich in keiner Weise, hier waren nur die Geschwindigkeitseigenschaften des Pixelprozessors wichtig.

NVIDIA HPDR - Bilder werden realistischer
GPUs von NVIDIA der vorherigen Generation hatten keine Unterstützung für die Ausgabe von Informationen aus dem Pixel-Shader an mehrere Puffer gleichzeitig (Multiple Render Targets) und das Rendern in einen Puffer mit Datendarstellung im Fließkommaformat (FP Render Target). Die Chipfamilie von ATI unterstützte zunächst diese Funktionen und unterschied sich damit positiv von NVIDIA-Grafikprozessoren.

NV40 bietet endlich volle Unterstützung sowohl für Multiple Render Targets als auch für FP Render Target, was es den Vermarktern des Unternehmens ermöglichte, einen neuen Begriff einzuführen: NVIDIA HPDR. Hinter dieser Abkürzung, die für High-Precision Dynamic-Range steht, verbirgt sich die Möglichkeit, Szenen mit einem hohen Dynamikumfang der Beleuchtung (HDRI, High Dynamic Range Images) zu bauen.

NVIDIA verwendete das von Industrial Light and Magic (ILM) entwickelte 16-Bit-OpenEXR-Format. In der 16-Bit-OpenEXR-Beschreibung wurde ein Bit dem Vorzeichen des Exponenten, fünf Bits dem Wert des Exponenten und zehn Bits zugewiesen, um die Mantissen der chromatischen Farbkoordinaten (u, v) darzustellen, fünf Bits pro Koordinate . Der Dynamikbereich der Präsentation beträgt neun Größenordnungen, von 6.14*10^-5 bis 6.41*10^4.

Serios Sam 2 HDR

4838627771 


Der Prozess des Erstellens und Anzeigens eines HDR-Bildes mit der NV40-GPU war in drei Phasen unterteilt:
Lichttransport – berechnet eine Szene mit einem hohen Dynamikbereich der Beleuchtung und speichert Informationen über die Lichteigenschaften für jedes Pixel in einem Puffer unter Verwendung des Fließkommadatenformats – OpenEXR.
NVIDIA betonte, dass der NV40 die Arbeit mit Daten im Fließkommaformat in allen Phasen des Erstellens einer HDR-Szene unterstützt, was einen minimalen Genauigkeitsverlust garantiert:
- Berechnungen in Fließkomma-Shadern,
- Fließkomma-Texturfilterung,
- Operationen mit Puffern, die die Datendarstellung im Fließkommaformat verwenden.
Tone Mapping - Konvertiert ein Bild mit hohem Dynamikbereich in ein LDRI RGBA- oder sRGB-Format.
Farb- und Gammakorrektur - Konvertieren eines Bildes in den Farbraum eines Anzeigegeräts - CRT- oder LCD-Monitor usw.

Mit dem Aufkommen der NV40- und HPDR-Technologie wurden Bilder mit hohem Dynamikbereich, die der Einführung fotorealistischer Grafiken in Spielwelten einen Schritt näher kamen, nicht nur für Besitzer von ATI-Grafikkarten, sondern auch für NVIDIA-Fans verfügbar.

Vertex-Pipelines, Vertex-Shader 3.0
Bei der Stärkung des NV40-Pixelprozessors hat NVIDIA die „geometrische Stärke“ der neuen GeForces nicht vergessen. Die neuen Grafikchips hatten doppelt so viele Vertex-Pipelines – sechs gegenüber drei bei der NVIDIA GeForce FX 5950 Ultra. Neue Spiele hatten immer komplexere Modelle, die Anzahl der Polygone in den Szenen wuchs, so dass die doppelte Spitzenleistung der neuen GPUs von NVIDIA nicht unbeansprucht blieb.
Mit der Leistungssteigerung wurde auch die Funktionalität der Vertex-Prozessoren im NV40 erhöht - im neuen Grafikprozessor kündigte NVIDIA die volle Unterstützung für Vertex-Shader des Modells 3.0 an. Wie bei Pixel-Shadern war die Länge von Vertex-Shadern jetzt praktisch unbegrenzt (eigentlich begrenzt durch die DirectX Model 3.0-Shader-Spezifikationen), während Shader wirklich dynamische Verzweigungen und Schleifen haben können – die Entscheidung, welcher Code für einen bestimmten oder einen anderen Vertex ausgeführt wird, ist richtig getroffen während der Ausführung des Shaders und nicht in der Kompilierungsphase.

Scheitelfrequenzstromteiler Ein weiteres interessantes Merkmal, mit dem NV40-Vertex-Prozessoren ausgestattet waren. Mit diesem „Frequenzteiler“ könnten NV40-Vertexprozessoren Daten aus Streams lesen und die Eingabeparameter des Vertex-Shaders nicht wie bisher für jeden verarbeiteten Vertex, sondern seltener mit einer änderbaren Frequenz aktualisieren.

NVIDIA gibt ein Beispiel für die Verwendung dieser Funktion: Durch das Lesen von Daten aus einem Stream mit einer bestimmten Frequenz, die beispielsweise die Animation bestimmt, können Sie auf der Grundlage desselben Datensatzes die Geometrie eines Modells beispielsweise eines Soldaten bestimmen , erstellen Sie eine ganze Armee von Soldaten, die nicht genau die gleichen "Klone" sein werden - jeder wird sich von den anderen unterscheiden und ein einzigartiges Aussehen und eine einzigartige Animation haben.

UltraSchatten II
Die Technologie wurde erstmals in der NV35-GPU angekündigt UltraShadow, der den Index „2“ im Namen erhalten hatte, wechselte zu NV40. Das Wesentliche an der Technologie hat sich nicht geändert: Bei der Berechnung dynamischer Schatten mithilfe des Vorlagenpuffers konnten die Grenzwerte Z (Tiefengrenzen) angegeben werden, ab denen Schatten von Lichtquellen nicht berechnet werden. Somit war es möglich, Berechnungen einzusparen und die Leistung in Szenen durch Echtzeit-Schattenberechnung zu verbessern.
Aktion UltraShadow II wurde von NVIDIA mit einem Diagramm veranschaulicht: Es zeigt die Grenzwerte (zmin und zmax), ab denen der Template-Puffer nicht berechnet wird:

419161

Die Möglichkeit, Randbedingungen für die Berechnung von Schatten zu setzen, gepaart mit der bekannten Fähigkeit von NV40, bei der Berechnung des Template-Puffers und des Z-Puffers zu „beschleunigen“, also nicht 16, sondern 32 Werte pro Takt auszugeben, hat es geschafft möglich, auf das Erscheinen eines ernsthaften Vorteils von NV40 gegenüber Konkurrenten in Spielen zu zählen, weit verbreitete Berechnung dynamischer Schatten unter Verwendung des Vorlagenpuffers. 
Ein Beispiel für ein Spiel, das dynamische Schattenberechnung verwendet oder dessen Gameplay buchstäblich auf Schatten „aufbaut“, ist Doom3.

Programmierbarer Videoprozessor
Der Heimcomputer ist seit langem als universelle Plattform für Unterhaltung positioniert, was bedeutet, dass es für Entwickler wenig Sinn machte, Grafikprozessoren, die für den Einsatz in Personal Computern vorgesehen sind, nach Klassen typischer Aufgaben zu trennen - die gesamte Chipreihe ist mit den meisten ausgestattet komplettes Funktionsset.
Der NV40 verfügte über einen programmierbaren Videoprozessor, der darauf ausgelegt war, Videostreams zu codieren/decodieren und verschiedene Operationen an ihnen auszuführen. Zuvor hatte S3 dies mit seiner DeltaChrome VPU angekündigt. Außerdem konnten ATI RADEON 9500/9600/9700/9800 Videoadapter auch Videos mit der Leistung von Pixelprozessoren dekodieren. Der NV40-Videoprozessor, NVIDIA VP, hatte die folgenden Funktionen:
Unterstützung für adaptives Deinterlacing
Hochwertige Skalierung und Filterung
Entfernen von Blockartefakten
Eingebauter TV-Encoder
Konvertierung des Farbraums
Umwandlung der Bildrate
Gamma-Korrektur
Rauschunterdrückung
HDTV-Unterstützung (720p, 1080i, 480p, CGMS-Modi)
Hardware-Synchronisation von Audio- und Videostreams
Unterstützt MPEG-1/2/4-Codierung und -Decodierung
Unterstützt WMV9/H.264-Decodierung

Vollbild-Anti-Aliasing: ein neues Qualitätsniveau
Einer der wesentlichen Unterschiede zwischen den Grafikprozessoren der R3x0-Familie von ATI und den Chips der GeForce FX-Serie von NVIDIA war ein anderer Ansatz zur Implementierung von Vollbild-Anti-Aliasing. GeForce FX von NVIDIA unterstützte Multisampling, Supersampling und Kombinationen davon unter Verwendung der traditionellen Subpixel-Anordnung auf einem geordneten orthogonalen Gitter (Ordered Grid), während die GPUs von ATI Multisampling mit Subpixel-Anordnung auf einem gedrehten Gitter verwenden.

419181

Das Vollbild-Anti-Aliasing-Verfahren, das bei gleichen Kosten die Anordnung von Subpixeln auf einem gedrehten Raster verwendet, lieferte eine viel höhere Qualität beim Glätten der Kanten von Polygonen im Vergleich zu dem Verfahren, das die herkömmliche Anordnung von Subpixeln verwendet.

Nach dem Ausfall des NV30 bemühte sich nVidia, verlorenes Terrain zurückzugewinnen. Und das gelang dem Unternehmen mit der Veröffentlichung der NV40-Grafikkarte, auch bekannt als GeForce 6800. Die Karte war sehr effizient und viel produktiver als die FX 5900, auch aufgrund der beachtlichen Anzahl von Transistoren (222 Millionen). Die NV45, auch GeForce 6800 genannt, war nichts anderes als eine NV40 mit einer AGP-zu-PCI-Express-Bridge, wodurch die Karte den neuen Schnittstellenstandard und zusätzlich SLI unterstützte. Die SLI-Technologie ermöglichte die Kombination von zwei PCI Express GeForce 6-Grafikkarten für mehr Leistung.Der Chip enthielt 222 Millionen Transistoren und wurde mit 0,13-Mikron-Prozesstechnologie hergestellt. Der Strombedarf war für die damalige Zeit einfach gigantisch - ein Netzteil mit einer Leistung von 480W oder mehr war nötig, dazu zwei freie Stromleitungen.

Spezifikationen NVIDIA GeForce 6800 Ultra

 

Name GeForce 6800 Ultra
Kern NV40/NV45
Verfahrenstechnik (µm) 0.13
Transistoren (Millionen) 222
Kernfrequenz 400
Speicherfrequenz (DDR) 550 (1100)
Bus- und Speichertyp GDDR3 256-Bit
Bandbreite (Gb/s) 35,2
Pixel-Pipelines 16
TMU pro Förderer 1
Texturen pro Uhr 16
Texturen pro Durchgang 16
Scheitelförderer 6
Pixel Shader 3.0
Vertex-Shader 3.0
Füllrate (MPix/s) 6400
Füllrate (Mtex/s) 6400
DirectX 9.0c
Kantenglättung (max.) SS&MS - 8x
Anisotrope Filterung (max.) 16x
Speicherkapazität 256
Schnittstelle AGP/PCI-E
RAMDAC 2x400

Mit der Veröffentlichung ist es nVidia endlich gelungen, aus dem schmerzhaften Sumpf der NV30-Reihe herauszukommen und einen wirklich fortschrittlichen Grafikbeschleuniger auf den Markt zu bringen, der das Herz eines jeden NVIDIA-Gamers höher schlagen lässt – NV40 ist ein Chip, der traditionell zum Vorfahren wurde einer neuen Familie von Grafikchips von NVIDIA. Nachdem das Unternehmen im Zuge der Anpassung der NV30-Architektur enge Beziehungen zu Spiele- und Softwareentwicklern aufgebaut hatte, entwickelte das Unternehmen den nächsten Grafikprozessor, den NV40, nicht mehr „nach dem Zufallsprinzip“, sondern mit Blick auf die Anforderungen und Wünsche der Entwickler. Und das ist es auch Vertreter GeForce 6800 Ultra - der damals schnellste Gaming-Beschleuniger, konnte die damaligen und später veröffentlichten Spiele buchstäblich in die Luft jagen.

Far Cry

wasser_fix1