NVIDIA-Wikibook/Hintergrundwissen

Aus Linupedia.org
Version vom 28. April 2008, 08:57 Uhr von TomcatMJ (Diskussion | Beiträge) (Über die Namenskonventionen der NVIDIA-Grafikkarten)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu: Navigation, Suche
NVIDIA    GRAFIKKARTEN    WIKIBOOK   :    INSTALLATION,    KONFIGURATION    UND    TROUBLESHOOTING
NVIDIA: Intro - Installation - Konfiguration - 3D Desktops - Troubleshooting - Hintergrundwissen - Schlusswort



Dieser Artikel wird regelmäßig mit dem Artikel NVIDIA-Wikibook/Hintergrundwissen des MosNis Projekt Wikis synchronisiert.
Die importierte Version des Artikels in der Linupedia (dem Linux-Club Wiki) unter NVIDIA-Wikibook/Hintergrundwissen war zum unten vermerkten letzten Artikelsynchronisationszeitpunkt identisch mit dem im MosNis Projekt unter NVIDIA-Wikibook/Hintergrundwissen zu findenden originalen Artikel. Der Artikel kann gerne überarbeitet werden. Wenn beide Artikel mittlerweie gravierende Differenzen aufweisen sollten, bitte eine Nachricht an TomcatMJ senden, damit die Synchronisation erneut initiiert wird.

Die letzte Synchronisation erfolgte am 27.4.2008 um 2020 Uhr..


NVIDIA-Wikibook/Hintergrundwissen





Über NVIDIA



Im Januar 1993 wurde das Unternehmen NVIDIA Corporation von Jen-Hsun Huang, Curtis Priem und Chris Malachowsky gegründet. Mit dem NV1 (STG-2000) brachte NVIDIA im Mai 1995 einen der ersten 3D-Beschleuniger-Prozessoren (eine sogenannte GPU=GraphicsProcessingUnit) heraus. Da dieser auf der NURBS-Technik basierte, konnte er sich wegen Kompatiblitätsproblemen (damals beherrschten die 3Dfx Voodo-Karten den recht jungen 3d-Grafikkartenmarkt) nicht am Markt durchsetzen. Bedingt durch den Misserfolg des NV1 war die Marke NVIDIA bis 1997/98 relativ unbekannt, als die Serie der Riva-PC-Grafikchips herausgebracht wurde, welche den Erfolg des Unternehmens begründete. Nach dem Börsengang des Unternehmens 1999 kaufte die NVIDIA-Corporation im Jahre 2000 die Vermögenswerte von 3dfx auf, dem bis dahin größten Konkurrenten. Im Februar 2002 waren bereits über 100 Millionen Grafikchips durch die NVIDIA-Coprporation ausgeliefert worden.Seit Juni 2001 bietet NVIDIA auch Chipsätze für Hauptplatinen an. Diese werden unter dem Markennamen nForce verkauft. Ende 2005 wurde außerdem der Chipsatz-Hersteller ULi Electronics übernommen. NVIDIA ist ein enger Partner von AMD und bietet deshalb vor allem Lösungen für AMD-Plattformen an. Aber auch für Intel-Plattformen werden Chipsätze angeboten, vor allem um eine Basis für die Multi-GPU-Technik SLI zu besitzen. Desweiteren kooperiert NVIDIA mit Sony, mit denen ein Grafikchip für die PlayStation 3 und andere Geräte entwickelt wurde.Nach der Übernahme von ULi Electronics wurde desweiteren PortalPlayer, ein kalifornischer Hersteller für MP3-Chips, laut einer Pressemitteilung vom 6. November 2006 für 357 Millionen US-Dollar von NVIDIA übernommen (die Pressemitteilung ist im Archiv der Pressemitteilungen der NVIDIA Corporation Website zu finden).

Über die Treiber

Über den freien nv-Treiber

Der nv-Treiber ist ein OpenSource Treiber, der auch von der NVDIA Corporation entwickelt wurde, jedoch im Sourcecode vorliegt und unter einer eigenen freien Lizenz von der NVDIA Corporation freigegeben wurde. Er bietet zwar keine 3D Unterstützung und auch keinen Multi-Monitorbetrieb geschweige denn Multi-GPU oder SLI Betrieb, aber im Gegensatz zum generischen vesa-Treiber von XFree bzw. X.org zumindest 2D und Video(xv)-Beschleunigung, wodurch ein flüssiges DVD gucken ermöglicht wird. Desweiteren existiert für diesen Treiber ein Zusatz namens nvtv bzw. einem dazugehörigen Daemon namens nvtvd, mit dem TV Out (inklusive optionalen Macrovision-Support, also Kopierschutzsignalausgabe auf dem TV Out Port) durch den nv-Treiber ermöglicht wird. Dadurch wird der langsamere vesa-Treiber wirklich nur noch zur Fallback-Lösung bzw. zur vorrübergehenden Notlösung wenn alles andere versagt da die Karte entweder wesentlich zu alt ist oder aufgrund der Neuheit der Karte noch nicht vom aktuellen nvdida-Treiber unterstützt wird.

Über den freien nouveau-Treiber

Der noveau-Treiber ist ein OpenSource Treiber, der von der Community entwickelt wird um eines Tages den proprietären NVIDIA-Treiber ersetzen zu können. Dies ist daher sinnvoll, da so auch nicht-intelbasierte Systeme eventuell eines Tages 3D Funktionalität im Zusammenhang mit NVIDIA-Grafikkarten nutzen können, denn NVIDIA bietet bei weitem nicht für alle Rechnerarchitekturen, in denen die Grafikkarten eigentlich genutzt werden könnten, Treiber an. Bisher hat der Treiber eine recht fortgeschrittene 2D Unterstützung, die 3D Unterstütung sowie Sonderfunktonalitäten wie Mutimonitorbetrieb, SLI-Betrieb oder TV-Out Nutzung steht jedoch noch an oder ist zur Zeit in Entwicklung und ist je nach Grafikchipklasse schon mehr oder weniger fortgeschritten.

Die Entwicklung der Treiber wird mit Hilfe von Analysen von Speicherdumps vor, während und nach dem Aufruf bestimmter Funktionen des proprietären Treibers von NVIDIA durchgeführt, ohne dabei jedoch diesen proprietären Treiber illegalerweise zu disassemblieren, weswegen diese Art Reverse Engeneering eine Cleanroom Analyse darstellt, bei der eben keine Patentverletzungen oder Lizenzverletzungden des proprietären Treibers zu befürchten sind.

Wer dem Nouveau-Projekt bei der Entwicklung helfen will, indem er/sie Grafikkartenspeicherdumpdaten beisteuert, sollte sich http://nouveau.freedesktop.org/wiki/REnouveau-de anschauen. Dort wird erklärt wie ein nutzbarer Speicherdump erstellt werden kann und wie und wo man diesen Dump dann dem Projekt zukommen lassen kann damit er zur Weiterentwicklung des Treibers genutzt werden kann. Da das Projekt ja nicht jede Grafikkarte von NVIDIA im Besitz hat, kann so jeder User zur Weiterentwicklung beitragen selbst wenn man selbst kein Programmierer ist.

Über den freien vesa-Treiber

Der vesa-Treiber ist ein absolut generischer Treiber von xfree86 und x.org, mit dem jegliche Karten, die Auflösungen nach dem VESA-Standard unterstützen, betrieben werden können. Da dieser Treiber weder 2D noch 3D Beschleunigung bietet, ist er wirklich nur als letzte Option anzuraten, da damit zwar noch die alltägliche Textverarbeitung genutzt werden kann, aber die Performance z.B. zum DVD gucken schon nicht mehr wirklich ausreichend ist. Er ist, genau wie der nv-Treiber, Bestandteil der XFree86 bzw. X.org Pakete und somit sofort verfügbar sobald XFree86 oder X.org überhaupt installiert ist.

Über den proprietären nvidia-Treiber

Der proprietäre (closed Source) nvidia-Treiber nutzt die NVIDIA Grafikkartenhardware im Gegensatz zu den beiden anderen Treibern in vollem Umfang, das bedeutet: 2D und 3D Beschleunigung sowie Video-Beschleunigung (xv), Multi-Monitor und Multi-GPU Mode sowie TV Out und SLI-Mode stehen damit zur Verfügung. Es gibt 4 Varianten dieses Treibers, 2 Legacy-Versionen (siehe in den Installationsvoraussetzungen welche älteren Karten dabei welchen der beiden Legacy Treiber benötigen), den offiziellen aktuellen Treiber und den Beta-Treiber, der jedoch, wie ja für Beta Versionen normal ist, ziemlich instabil sein kann und dessen Features eventuell doch noch nicht im nächsten Release des offiziellen Treibers erhältlich sein können oder gar ganz wegfallen können wenn sie sich als zu instabil herausstellen sollten. Nur im offizielen aktuellen und Beta Treiber findet man auch die NV-GLX Unterstützung, mit der 3D Desktops und OpenGL Gameunterstützung zeitgleich funktioniert ohne allzusehr herumtricksen zu müssen. Desweietren werden mit diesen Treibern 2 Tools von NVIDIA mitgeliefert, die die Konfiguration und das Feintuning der Karten ungemein erleichtern, nämlich nvidia-xconfig und nvidia-settings, die beide noch in den Besonderheiten des nvidia-Treibers näher erläutert werden. Aufgrund seiner proprietären und unfreien Lizenz "befleckt" der nvidida-Treiber jedoch die Lizenztechnische Integrität des Kernels (diese Formulierung wird von Kernelentwicklern verwendet, und zwar ungeachtet tatsächlicher oder eben nicht tatsächlicher Lizenzverletzungen der Kernellizenz durch dieses Modul, weswegen man dies wohl eher als eine "Glaubensfrage" ansehen kann). Seit Treiberrelease 169.07 unterstützt der proprietäre NVIDIA-Treiber zusätzlich auf einigen Grafikkartenmodellen die CUDA-Technologie, womit sich einige Berechnungen zur Entlastung der CPU auf die GPU auslagern lassen sowie für Quadro G8x GPU-basierte Karten eine reale Farbtiefe von 30 Bit, was bedeutet, daß statt 8 Bit pro Farbkanal nun 10 Bit pro Farbkanal zur Verfügung stehen.

Über 3D

Über 3D Desktops

Zur Zeit existieren 5 3D Desktop Lösungen die auf NVIDIA-Karten nutzbar sind. Neben den beiden bekannten 3D Desktops Beryl und Compiz und der Zusammenführung der beiden namens Compiz-Fusion existieren noch Suns Looking Glass 3D und Metisse (der oft als 2,5D Desktop angesehen wird). Diese 3D Desktops sind jedoch alle noch im experimentellen Stadium, weswegen man mit gelegentlichen Abstürzen, unberechenbaren Nebeneffekten, seltsamen Verhaltensweisen der Desktops und ähnlichem rechnen muss sofern man diese einsetzt. Vor allem Benutzer des NVIDIA Beta-Treibers sollten dabei bedenken, dass sich damit durchaus in den 3D Desktops noch vorhandene Fehler mit denen im Beta-Treiber aufaddieren können, was zu extrem undurchsichtigen Systemverhaltensweisen führen kann. Wenn man also etwas ausprobieren will, dann am besten nicht direkt alles auf einmal, es sei denn, man ist fit in Fehlersuche und Systemanalyse und kann dann dem entsprechenden Projekt bzw. NVIDIA mit gut dokumentierten Bugreports weiterhelfen ;-) Meist benötigen die 3D Desktops zusätzlich zum Windowmanager einen Compositing-Manager, der für die Verwaltung der 3D Effekte zuständig ist die der X-Server eigentlich nicht direkt handlen kann. Diese Compositing Manager bzw. der Sonderweg NV-GLX werden im Abschnitt 3D Desktops behandelt.

Über NV-GLX als 3D Desktop Basis

NV-GLX ist der Weg über den NVIDIA dem X-Server das Handling diverser Compositing-Effekte beibringt, was meist performanter als ein expliziter separater Compositing-Manager ist, und im Gegensatz zu diesem auch keine Konflikte mit anderen OpenGL nutzenden Applikationen (meist 3D Spielen) als direkten Seiteneffekt hat, den man erst mühsam umgehen müsste. Zur Zeit unterstützen sowohl das inzwischen obsoete da in Compiz-Fusuion aufgegangene Beryl als auch das "pure" Compiz diese Erweiterung, die jedoch nicht mit den Legacy NVIDIA-Treibern, dem nv-Treiber oder gar dem vesa-Treiber zur Verfügung steht.


Über XGL als 3D Desktop Basis

Der Compositing-Manager XGL wurde von Novell entwickelt um die entsprechenden benötigten Funktionen für Compiz zur Verfügung zu stellen. Beryl als ursprünglich aus Compiz entstandener Fork unterstützt diesen Compositing-Manager natürlich auch.

Über AIGLX als 3D Desktop Basis

AIGLX(=Accelerated Indirect GLX) ist Red Hats Antwort auf Novells XGL. Dabei wird ein anderer Weg als mit XGL gegangen der zudem auch schon Einzug in die offiziellen X-Server von x.org gehalten hat (allerdings erst ab Version X11R7.1) und von vielen Karten diverser Hersteller sowie Treibern unterstützt wird. Da AIGLX im X-Server von X.Org erst ab Version X11R7.1 enthalten ist, muss man, um es mit OpenSUSE 10.0 oder 10.1 zu nutzen, dort erst die inoffiziellen Updates aus dem OpenSUSE Build Service installieren, da diese Version noch nicht auf den Installationsmedien und den offiziellen Update-Repos für OpenSUSE Linux 10.0 und 10.1 enthalten ist.

Über Xegl

Xegl, die Linuximplementierung des EGL Grafikschnittstellen-Frameworks, stellt Grafikfunktionen basierend auf dem Framebuffertreiber (fbdev), der Laufzeitbibliothek Cairo bzw. deren Implementierung glitz und der Kombination von DRI und OpenGL bzw. deren Sofwareimplementierung Mesa 3D zur Verfügung. Dies wird, im Gegensatz zu aktuell gängigen Grafikkartentreibern, unabhängig vom X Window System realisiert wodurch das X Window System von der zusätzlichen Last des Grafiktreibers "befreit" wird und somit eine einheitiche Schnittstelle sowohl für den X Window System Betrieb als auch für Konsolenanwendungen, also Grafiknutzung ohne X Window System zur Verfügung gestellt werden kann. Leider steht bisher nur Support für den Radeon r200 Chipsatz zur Verfügung (Support durch diverse Grafikkarten-/Grafikchiphersteller wurde jedoch angekündigt), weswegen zur Zeit im Rahmen dieses Wikibooks noch nicht weiter darauf eingegangen wird. Sobald NVIDIA Grafikchips ebenfalls unterstützt werden, wird sich dies jedoch ändern.

Über OpenGL



Höhe=24px
Achtung dieser Artikel ist noch in Arbeit und dient vorläufig nur als Vorlage. Dieser Beitrag zu Linux oder der Abschnitt ist in Bearbeitung. Weitere Informationen findest du hier. Der Ersteller arbeitet an dem Beitrag oder Abschnitt und entsorgt den Wartungsbaustein spätestens 3 Tage nach der letzten Bearbeitung. Änderungen außer Rechtschreibkorrekturen ohne Absprache mit dem Urspungsautor sind möglichst zu vermeiden, solange dieser Baustein noch innerhalb der genannten Frist aktiviert ist.



Über die Namenskonventionen der NVIDIA-Grafikkarten

Sortiert nach Grafikchipgeneration:

Da es nur eine Grafikkarte mit dieser ersten NVIDIA-Chipsatzgeneration gibt (nämlich die Diamond Edge 3D) erübrigt sich hier eine Differenzierung diverser Modelle anhand einer zusätzlichen Bezeichnung.
Es gibt eigentlich 3 Varianten von RIVA Grafikarten. Die langsame LowCost-Variante nennt sich "Vanta", die normale sind einfach nur "RIVA" Karten und die etwas besseren sind die "RIVA TNT" Karten, sowie die optimierte "RIVA TNT2" Variante, wobei das "TNT" für TwinTexel (ein Texel ist ein Pixel in einer Textur) steht. Die Zusätze LT, Pro und Ultra sind dabei Indikatoren für die Taktung des Chipsatzes und des Grafik-RAM (genaueres dazu siehe in den Listen zu den einzelnen Grafikkartentypen in den Installationsvoraussetzungen).
In dieser Chipsatzgeneration gibt es nur ein Chipsatzmodell. Die Taktung des Speichers der SD-RAM nutzenden Version ist zwar geringfügig höher als die der DDR-RAM nutzenden Version, da jedoch DDR-RAM prinzipiell schneller als SD-RAM ist, ist die langsamer getaktete DDR-RAM nutzende Version dennoch performanter als die SD-RAM nutzende Version der GeForce 256 Karte.
Die MX-Varianten der GeForce 2 haben als LowCost Chipsatzvarianten eine geringere Anzahl Renderpipelines und sind geringer getaktet als die Mittelklassenversionen GTS und Pro. Die Ti Version ist dagegen die Vollausbaustufe betreffs der Renderpipelines und die Ultra Version als oberes Ende der GeForce 2 Chipsatzgeneration ist zusätzlich noch etwas schneller getaktet als die Ti Versionen.
Die Ursprungsversion dieser Chipsatzgeneration hat kein Buchstabenkürzel (=Suffix) angehangen, da die beiden anderen Versionen erst später auf den Markt kamen. Da diese Generation den damaligen High-End Bereich abdecken sollte, gab es diesmal auch eine LowCost Version. Später kamen auch die beiden Varianten Ti 200 und Ti 500 hinzu, wobei die GeForce 3 Ti 200 langsamer und die GeForce 3 Ti 500 etwas schneller getaktet war als das Urmodell GeForce 3.
Die GeForce 4 Ti ist eine direkte Weiterentwicklung der GeForce 3 Ti und gedacht für den anspruchsvollen Spieler. Dagegen basiert die für Einsteiger gedachte GeForce 4 MX auf einem überarbeiteten NV11 Chipsatz der GeForce-2-Serie, die unter anderem den verbesserten Speichercontroller des Geforce 4 Ti-Modelles enthielten. Daher besitzen die GeForce 4 MX keine Pixel- und Vertexshader, sondern nur eine einzelne Hardware Transform&Lighting-Einheit (kurz: hw-T&L) zur Berechnung von Texturumforumungen und Rendering.Mit den Suffixen "MX" (Mainstream-Modelle) und "Ti" (High-End-Modelle) wird die Reihenfolge der Leistungsfähigkeit mit einer drei- (MX) bzw. vierstelligen (Ti) Nummer bezeichnet. Eine höhere Nummer bedeutet dabei einen leistungsfähigeren Grafikchip. Allerdings gibt es bei dieser Grafikchipgeneration auch das Buchstabenkürzel SE, welches eine leistungsreduzierte Version des Grafikchips mit der gleichen Nummer bezeichnet.
Bei der GeForce-FX-Serie setzt NVIDIA erstmals auf eine vollständige Unterscheidungen von Low-Cost, Mainstream und High-End durch eine vierstellige Zahl, ähnlich wie ATI Technologies bei der ATI-Radeon-Familie. Innerhalb dieser Marktsegmente wird dann noch mit Buchstabenkürzeln diversifiziert.
Bei den späteren PCI-Express-Varianten wurde das Kürzel FX durch PCX ersetzt, um den Unterschied hervorzuheben.
Aufteilung:
  • 52xx/55xx: Low-Cost
  • 56xx/57xx: Mainstream
  • 58xx/59xx: High-End
Buchstabenkürzel:
  • LE – Einsteigerversion, das schwächste Modell eines Segments
  • XT – Einsteigerversion, das schwächste Modell eines Segments
  • SE – leicht stärkere XT-Version, leistungsstärker als LE bzw. XT
  • [kein Suffix] – der „normale“ Chip
  • Ultra – leistungsstärkstes Modell
Das Kürzel PCX gibt an, dass die Grafikkarte als native Schnittstelle PCI-Express anstatt der damals üblichen Schnittstelle AGP besitzt.
Die in der GeForce 6 Chipsatzgeneration verwendeten Grafikchips bestehen aus sog. "Quads". Je nach Version können Quads auch deaktiviert werden. Eine Quad besteht bei der GeForce-6-Serie aus vier Rendering-Pipelines, einer TMU und einer VPU (4x1x1). Die Grundversion eines jeden Chips besteht allerdings aus vier Rendering-Pipelines, einer TMU und drei VPUs (4x1x3). Je nach Ausbaustufe erhöht sich also die Ausstattung bei z.B. zwei Quads auf 8x1x4 und bei drei Quads auf 12x1x5 usw. So werden alle gewünschten Konfigurationen erreicht.
Eine Ausnahme ist der NV43-Grafikprozessor, der in seiner maximalen Ausbaustufe mit zwei aktivierten Quads trotzdem nur 8x1x3 statt 8x1x4 besitzt. Mit einer Quad ist allerdings wie erwartet 4x1x3.
Der Vorangestelte Zusatz FX wurde bei dieser Grafikchipgeneration wegen des eher negativen Images der GeForce FX Serie von NVIDIA wieder weggelassen, die Unterscheidung der Zielgruppen der einzelnen Grafikchips erfolgt jedoch immer noch ähnlich kodiert wie bei der GeForce FX Chipsatzgeneration.
Aufteilung:
  • 62xx/65xx: Low-Cost
  • 66xx: Mainstream
  • 68xx: High-End
Buchstabenkürzel
  • LE – Sehr schwache Version
  • XT – Sehr schwache Version
  • kein Suffix – Budgetversion
  • GTO – Sondermodell (nur OEM-Markt), leistungsstärker als Version ohne Suffix
  • GS – Mittelstarke Version einer Serie
  • GT – Leistungsfähige Version, im Mainstream-Segment die leistungsfähigste Version
  • Ultra – Leistungsstärkstes Modell (nur im High-End-Segment)
Das Kürzel TC gibt an, dass die Technologie Turbo Cache, was eine Kombination aus einem einen echten Grafik-RAM und Shared Memory Technik ist, verwendet wird.
Die Unterscheidung der Grafikchips dieser Generation orientiert sich wieder an der Vorgängergeneration GeForce 6.
Aufteilung:
  • 71xx/72xx/73xx: Low-Cost
  • 76xx: Mainstream
  • 78xx/79xx: High-End
Buchstabenkürzel
  • LE – Sehr schwache Version (nur im Low-End-Segment)
  • GS – Budgetversion, die schwächste Version im Mainstream- und High-End-Segment
  • GT - Leistungsfähige Version, im Low-Cost- und Mainstream-Segment die leistungsfähigste Version
  • GTO – Sondermodell, leistungsschwächere GTX-Version
  • GTX - Sehr starke Version (nur im High-End-Segment)
  • GX2 - Version mit zwei Grafikchips für [[[SLI]]-Mode oder MultiGPU-Mode auf einer Karte (nur im High-End-Segment), was sich mit einem entsprechenden Mainbard und einer, zwei oder gar drei weiteren Karte/n zu einem 4fach, 6fach oder (allerdings mangels Unterstützung von MultiGPU Karten bei Mainboards mit 4 PCIe-x16 Slots bisher nur theoretisch) gar 8fach SLI-/MultiGPU-System ausbauen lässt.
Auch diese Chipsatzgeneration folgt im Namensschema wieder der GeForce 6 Generation.
Aufteilung:
  • 84xx/85xx: Low-End
  • 86xx: Mainstream
  • 88xx: High-End
Buchstabenkürzel
  • GS - Sehr schwache Version (nur im Low-End-Segment)
  • GT - Budgetversion.
  • GTS - Leistungsfähigere Version; im Mainstream-Segment die leistungsfähigste Version
  • GTX - Sehr starke Version (nur im High-End-Segment)
  • Ultra - Leistungsstärkstes Modell (nur im High-End-Segment)
Dieses Schema lässt sich allerdings nur begrenzt anwenden, da Nvidia unter den Namen „Geforce 8800 GTS“ verschiedene Grafikkarten vermarktet. So wurde der Name der 8800 GT auch im Bezug zur neueren Geforce 8800 GTS, die mit dem Zusatz „512“ (für 512-MiB-Speicher)versehen wurde, und nicht zu den älteren, G80-basierten 8800-GTS-Varianten gewählt.


Höhe=24px
Achtung dieser Artikel ist noch in Arbeit und dient vorläufig nur als Vorlage. Dieser Beitrag zu Linux oder der Abschnitt ist in Bearbeitung. Weitere Informationen findest du hier. Der Ersteller arbeitet an dem Beitrag oder Abschnitt und entsorgt den Wartungsbaustein spätestens 3 Tage nach der letzten Bearbeitung. Änderungen außer Rechtschreibkorrekturen ohne Absprache mit dem Urspungsautor sind möglichst zu vermeiden, solange dieser Baustein noch innerhalb der genannten Frist aktiviert ist.


Die GeForce Go Chipsätze sind stromsparende Ausfürhungen der regulären NVIDIA Chipsätze, weswegen dort dieseben Namenskonventionen wie für die zugrunde liegenden Chipsätze gelten mit dem Zusatz Go vor der Zahl.
Als zur Zeit aktuellste Grafiklösung für Notebooks wird von Nvidia die GeForce-8M-Serie lanciert, die sich gegenüber den Desktop-Varianten durch geringere Wärmeentwicklung und Stromsparfunktionen auszeichnet. Im Gegensatz zum "Go" beim Markennamen "GeForce Go" wird nun das "M" nicht mehr vor die Modellnummer gestellt, sondern direkt an die Modellnummer angehängt.
Aufteilung:
  • 84xx: Low-End
  • 86xx/87xx: Mainstream
  • 88xx: High-End
Buchstabenkürzel
  • G - Sehr schwache Version
  • GS - Budgetversion, die schwächste Version im Mainstream-Segment
  • GT - im Low-Cost- und Mainstream-Segment die leistungsfähigste Version
  • GTS - Leistungsfähigere Version
  • GTX - Sehr starke Version (nur im High-End-Segment)
Aus dieser Reihe gibt es wohl bisher erst einen Chipsatz, weswegen hier auf Unterscheidungskriterien noch nicht eingegangen werden muss.
Nvidia benutzt für die Quadro Produkte die normalen GeForce-GPUs, allerdings mit spezieller Beschaltung, wodurch die Chip-ID verändert wird. Die Namenskonvention ähnelt daher stark denen der entsprechenden GeForce Grafikchipsätze, nur daß dabei nicht alle Unterarten der GeForce Bezeichnungen auch bei der Quadro vertreten sind. Es gibt eben keine LowCost/LowPerformance Versionen in den vielen Abstufungen, die bei den GeForce Chipsätzen üblich sind, weswegen auf eine so umfangreiche Auffächerung der einzelnen Modellbezeichnungen wie bei der GeForce Chipsatzfamilie verzichtet wird.
Die Quadro Go Chipsätze sind stromsparende Ausführungen der regulären NVIDIA Chipsätze, weswegen dort dieselben Namenskonventionen wie für die zugrunde liegenden Chipsätze gelten mit dem Zusatz Go vor der Zahl.


Die IGP Chipsätze sind Ausführungen der regulären NVIDIA Chipsätze der jeweiligen Leistungsklasse, weswegen dort die angegebenen Ziffern die Grafikchipklasse der zugrunde liegenden normalen Kartenchipsätze und nicht einen konkreten Grafikchip wiederspiegeln, allerdings sind diese Chipsätze in den normalen Systemboardchipsätzen integriert und nicht als Einzellösungen verfügbar.
Darunter fallen die NVIDIA Tesla Karten (reine CUDA-Supportdevices, keine Grafikkarten obwohl es sich um funktionsreduzierte GPUs handelt), die NVIDIA Quadro Plex Geräte (externe Grafiksysteme aus dem High-End Bereich) sowie Soundchips/-chipsatzanteile und Netzwerkchips(-chipsatzanteile. Für diese Geräte gibt es keine konkreten Namenskonventionen im eigentlichen Sinne weswegen diese hier an dieser Stelle dann auch nicht analysiert werden kann und braucht.

Genaueres zu den chipsatzspezifischen Features der einzelnen Grafikkarten (und nicht unbedingt zu dem, was die Hersteller der letztendlich erwerbbaren Grafikkarte noch hinzufügen oder von den vorhandenen Features dann doch nicht nutzen) und konkrete Leistungsangaben finden sich in den Modelllisten im Abschnitt Installationsvoraussetzungen dieses Wikibooks.



NVIDIA: Intro - Installation - Konfiguration - 3D Desktops - Troubleshooting - Hintergrundwissen - Schlusswort



zurück zu Grafikkarten und Monitore