Nvidia-GeForce-700-Serie
Die GeForce-700-Serie ist eine Serie von Desktop-Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-600-Serie. Alle Grafikprozessoren dieser Serie unterstützen das Shadermodell 5.0 (SM 5.0), DirectX 11, sowie OpenCL, CUDA und damit auch PhysX. Die GeForce-700-Serie wurde von der GeForce-900-Serie abgelöst.
Beschreibung
GK110
Die GK110-GPU ist mit 7,1 Mrd. Transistoren auf rund 561 mm² (533 mm² im produktionsoptimierten B1-Stepping) der größte und komplexeste Grafikprozessor der Keplergeneration. Er besteht aus 2880 Shader- und 240 Textureinheiten, die auf 15 SMX-Blöcken (Shader-Cluster) verteilt sind. Diese wiederum sind auf fünf Graphics Processing Clusters verteilt, wodurch der GK110 ein Verhältnis von 3:1 aufweist (im Gegensatz zu den restlichen Grafikprozessoren der Keplergeneration, die ein Verhältnis von 2:1 verwenden). Eine weitere Besonderheit des GK110 stellen die zusätzlichen 64 separate ALUs pro SMX-Block dar, die aber nicht für die Single-Precision- (FP32), sondern für die Double-Precision-Operation (FP64) zuständig sind. Ebenfalls für den professionellen Bereich gedacht und nur auf der GK110-GPU vorhanden sind die Features „Dynamic Parallelism“, „Hyper-Q“ und „GPUDirect“.
Am 19. Februar 2013 präsentierte Nvidia die GeForce GTX Titan als Sonderserie, wobei der GK110-400-A1 mit 14 von 15 aktiven Shaderclustern verwendet wurde. Die Karte wies gegenüber der GeForce GTX 680 bzw. der Radeon HD 7970 „GHz Edition“ eine, je nach Setting, 25 % bis 40 % höhere Performance auf, womit sie sich als schnellste Single-GPU-Karte am Markt erwies.[1] Des Weiteren gab Nvidia zahlreiche Features, die normalerweise nur dem professionellen Bereich zur Verfügung stehen, frei (u. a. die volle FP64-Leistung). Nvidia erweiterte die GPU-Boost-Funktion (als „GPU Boost 2.0“ bezeichnet) so, dass auch die Chiptemperatur mit als Faktor berücksichtigt wird. Dadurch konnte in Kombination mit einer neuen Kühlkonstruktion eine sehr niedrige Geräuschentwicklung erreicht werden. Dies wurde auch durch eine hohe Energieeffizienz der GK110-GPU begünstigt. Die GeForce GTX Titan erhielt in der Fachpresse sehr gute Bewertungen für Rechenleistung, Geräuschentwicklung und Energieeffizienz, jedoch führte Nvidias hoher Listenpreis von 999 US-$, der teilweise sogar über dem der schnellere Dual-GPU-Grafikkarten GeForce GTX 690 und Radeon HD 7990 lag, zu einem als schlecht eingestuften Preis-Leistungs-Verhältnis. Dennoch war die Titan am Markt erfolgreich.
Nachdem Nvidia mit der GeForce GTX 680 auf Basis des GK104-Grafikprozessors im Frühjahr 2012 ein Performancepatt zur Radeon HD 7970 erreicht hatte, reagierte AMD im Sommer 2012 mit einer speziellen GHz-Edition, die dann die schnellste Single-GPU-Grafikkarte am Markt darstellte. Der GK104 der GTX 680, der als Performancechip ursprünglich gar nicht für den Highend-Markt gedacht war, keine ausreichenden Reserven mehr hatte, um die GHz-Edition zu kontern, konnte Nvidia erst wieder mit der GeForce GTX Titan die schnellste Single-GPU-Grafikkarte am Markt vorweisen. Da diese aber als Sonderserie einen Schwerpunkt außerhalb des Massenretailmarktes hatte und aufgrund des deutlich schlechteren Preis-Leistungs-Verhältnis kein Konkurrenzangebot zur Radeon HD 7970 GHz Edition war, präsentierte Nvidia am 23. Mai 2013 die GeForce GTX 780. Mit dieser wurde die GeForce-700-Serie offiziell eingeführt und der GK110-Grafikprozessor erstmals für eine normale GeForcekarte verwendet. Beim GK110-300-A1 sind drei der 15 Shadercluster deaktiviert und die FP64-Leistung künstlich auf 1/8 reduziert, was aber für 3D-Anwendungen keine Relevanz hat. Des Weiteren reduzierte Nvidia den Videospeicher gegenüber der Titan von 6144 auf 3072 MB. Letztendlich wurden durch die Änderungen die Performance gegenüber der Titan um 7 bis 8 % reduziert, was aber immer noch ausreichte, die Radeon HD 7970 GHz Edition je nach Setting 15 % bis 30 % zu überbieten.[2] Da Nvidia den Listenpreis gegenüber der Titan um ein Drittel reduzierte, wies die GeForce GTX 780 ein deutlich besseres Preis-Leistungs-Verhältnis auf. Da auch die Geräuschentwicklung und der Energieverbrauch ungefähr gleich blieb, wurde die Karte insgesamt positiv in der Fachpresse bewertet. Seit September 2013 nutzt Nvidia die produktionsoptimierten GK110-300-B1-Version, ohne weitere Hardwareänderungen vorzunehmen.
Am 7. November 2013 präsentierte Nvidia die GeForce GTX 780 Ti und reagierte damit auf die Radeon R9 290X von AMD, um wieder die schnellste Single-GPU-Grafikkarte am Markt zu haben, nachdem diese eine höhere Performance als die GeForce GTX Titan aufwies. Dazu wurde die GK110-GPU erstmals im Vollausbau auf dem Retailmarkt verwendet (zuvor war dies nur beim Tesla K40 der Fall gewesen). In Kombination mit höheren Taktraten wies die GeForce GTX 780 Ti eine bis zu 10 % höheren Performance gegenüber der Titan auf.[3] Während die Geräuschentwicklung der GeForce GTX 780 Ti das Niveau der anderen GK110-Karten erreichte, wofür man das Chiptemperaturlimit der GPU-Boost-Funktion von 80° auf 83° erhöhte, verfehlte sie jedoch deren Energieeffizienz, was vermutlich auf den deutlich erhöhten VRAM-Takt zurückzuführen ist. Da diese etwas schlechtere Energieeffizienz immer noch deutlich über jener der AMD-Konkurrenz lag und im Highend-Bereich nur eine geringe Bedeutung hat, wurde die Karte, bedingt durch die hohe Performance, positiv in der Fachpresse bewertet.
Am 18. Februar 2014 präsentierte Nvidia die GeForce GTX Titan Black. Nachdem Nvidia die GeForce GTX 780 Ti, die zu diesem Zeitpunkt schnellste Single-GPU-Grafikkarte auf dem Markt, der normalen GeForce-700-Serie zuordnete, hatte die Titan keine Marktrelevanz mehr. Deshalb legte Nvidia die Titan Black auf, die gegenüber der 780 Ti eine leichte Taktratenerhöhung, 6 statt 3 GB VRAM und die volle FP64-Leistung, also das Rechnen mit doppelter Genauigkeit, welches für wissenschaftliche Anwendungen eine hohe Bedeutung hat, aufwies. Allerdings konnte die Titan Black in konventionellen 3D-Anwendungen keinen relevanten Performancevorteil gegenüber der GeForce GTX 780 Ti erreichen,[4] weshalb die Karte in der Fachpresse kritisch bewertet wurde, da Nvidia einen Preisaufschlag von rund 50 % verlangte. Letztendlich konnte die Titan Black nicht mehr die Sonderstellung der Titan erreichen, da die normalen Serien inzwischen über alternative Produkte im selben Leistungsbereich verfügten und fungierte eher nur noch als Übergangslösung zu den professionellen Quadro-Grafikkarten.
Am 25. März 2014 kündigt Nvidia die Dual-GPU-Grafikkarte GeForce GTX Titan Z für Anfang April an,[5] deren tatsächlicher Verkaufsstart nach mehrfachen Verschiebungen aber erst am 28. Mai stattfand.[6] Die Karte verwendet zwei GK110-GPUs in Vollausbau und insgesamt 12 GB VRAM, allerdings mussten die Taktraten stark abgesenkt werden, um eine TDP von 375 Watt nicht zu überschreiten.
GK104
Am 30. Mai 2013 stellte Nvidia die GeForce GTX 770 auf Basis des Grafikprozessors GK104 im Vollausbau vor, welcher bereits bei der GeForce-600-Serie zum Einsatz kam. Die GeForce GTX 770 stellte letztendlich ein Refresh der GeForce GTX 680 mit leicht erhöhten Taktraten dar, womit diese 6 bis 8 % höhere Performance die Leistung der Radeon HD 7970 „GHz Edition“ erreichte.[7] Da Nvidia gleichzeitig den Listenpreis von 499 auf 399 US-$ absenkte, konnte ein besseres Preis-Leistungs-Verhältnis erreicht werden, was, trotz der Namensgebung des Refresh, zu positiven Bewertungen in der Fachpresse führte. Des Weiteren wurde die GPU-Boost Funktion auf die Variante 2.0 erweitert. Obwohl Nvidia die TDP offiziell von 195 auf 230 Watt anhob, blieben die Verbrauchswerte identisch. Da Nvidia auf der GeForce GTX 770 den Kühler der Titan verwendet, wurde eine sehr geringe Geräuschentwicklung erreicht, bei gleichbleibender Leistungsaufnahme, was die Fachpresse positiv bewertete.
Für die GeForce GTX 760, die Nvidia am 25. Juni 2013 vorstellte, verwendet Nvidia den GK104 mit zwei deaktivierten Shaderclustern. Nvidia platzierte die Karte zwischen der GeForce GTX 660 Ti und GTX 670, welche die GeForce GTX 760 auch ersetzte, und erreichte dabei in etwa die Performance der Radeon HD 7950 „Boost Edition“ des Konkurrenten AMD,[8] wies aber mit einem Listenpreis von 249 US-$ ein leicht besseres Preis-Leistungs-Verhältnis auf. Das Modell wurde in der Fachpresse dennoch teilweise kritisch bewertet, da die GeForce GTX 760 gegenüber ihren beiden Vorgängern etwas schlechtere Stromverbrauchs- und Geräuschentwicklungswerte aufwies, trotz der niedrigen Chipspannung und der erweiterten GPU-Boost Funktion. Nvidia führte noch zwei weitere Versionen der GeForce GTX 760 ein, die GeForce GTX 760 192-Bit und die GeForce GTX 760 Ti. Beide Modelle waren Neuauflagen der GeForce GTX 660 (OEM) und der GTX 670, die dem OEM-Markt vorbehalten sind.
GM107
Am 18. Februar 2014 präsentierte Nvidia die GeForce GTX 750 und GeForce GTX 750 Ti. Die Karten verwenden den GM107-Grafikprozessor, der erstmals auf der Maxwell-Architektur der ersten Generation basiert und nach Angaben von Nvidia eine deutlich höhere Energieeffizienz erreichen soll. In unabhängigen Testberichten erreichte die GeForce GTX 750 Ti in etwa die Performance der Radeon R7 260X bei einer 30 % geringeren Leistungsaufnahme.[9] Trotz dieser geringen Leistungsaufnahme wurden die Karten teilweise kritisch in der Fachpresse bewertet, da Nvidia den Listenpreis mit 119 und 149 US-$ gegenüber der AMD-Konkurrenz zu hoch ansetzte und somit ein schlechteres Preis-Leistungs-Verhältnis erreichten.
Datenübersicht
Grafikprozessoren
Grafik- chip | Fertigung | Einheiten | L2- Cache | API-Support | Video- pro- zessor | Bus- Schnitt- stelle | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess | Transi- storen | Die- Fläche | ROP- Parti- tionen | ROPs | Unified-Shader | Textureinheiten | DirectX | OpenGL | OpenCL | ||||||
Stream- prozessoren | Shader- Cluster | TAUs | TMUs | ||||||||||||
GF108 | 40 nm | 0,58 Mrd. | 114 mm² | 1 | 4 | 96 | 2 | 16 | 16 | 0,25 MB | 11.0 | 4.4 | 1.1 | VP4 | PCIe 2.0 |
GK104 | 28 nm | 3,54 Mrd. | 294 mm² | 4 | 32 | 1536 | 8 | 128 | 128 | 0,5 MB | 4.5 | 1.2[10] | VP5 | PCIe 3.0 | |
GK107 | 1,30 Mrd. | 118 mm² | 2 | 16 | 384 | 2 | 32 | 32 | 0,25 MB | ||||||
GK110 (A1 / B1) | 7,08 Mrd. | 561 / 533 mm² | 6 | 48 | 2880 | 15 | 240 | 240 | 1,5 MB | ||||||
GK208 | 1,02 Mrd. | 87 mm² | 1 | 8 | 384 | 2 | 16 | 16 | 0,5 MB | PCIe 2.0 | |||||
GM107 | 1,87 Mrd. | 148 mm² | 2 | 16 | 640 | 5 | 40 | 40 | 2 MB | 12.0 | 4.5[11] | VP6 | PCIe 3.0 |
Modelldaten
Modell | Offizieller Launch [Anm. 1] | Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt (in MHz) [Anm. 3] | Größe | Takt (in MHz) [Anm. 3] | Typ | Speicher- interface | Rechenleistung (in GFlops) | Polygon- durchsatz (in Mio. Dreiecke/s) | Pixelfüllrate (in GPixel/s) | Texelfüllrate (in GTexel/s) | Speicher- bandbreite (in GB/s) | |||||||
ROPs | Shader- Cluster | ALUs | Textur- einheiten | Standard | Boost | SP (MAD) | DP (FMA) | |||||||||||
GeForce GT 710[12] | 29. Jan. 2016 | GK208 | 8 | 1 | 192 | 16 | 954 | - | 1–2 GB | 891 | DDR3 | 64 Bit | 366 | k. A. | 954 | 7,6 | 15,2 | 14,4 |
2 GB | 1252 (2504) | GDDR5 | 40 | |||||||||||||||
GeForce GT 720[13] | 13. Aug. 2014 | GK208 | 8 | 1 | 192 | 16 | 797 | - | 1 GB | 891 | DDR3 | 64 Bit | 306 | k. A. | 797 | 6,4 | 12,8 | 14,4 |
2 GB | 1252 (2504) | GDDR5 | 40 | |||||||||||||||
GeForce GT 730 (64-Bit DDR3)[14] | 18. Jun. 2014 | GK208 | 8 | 2 | 384 | 16 | 902 | - | 2 GB | 891 | DDR3 | 64 Bit | 692,7 | 28,9 | 902 | 7,2 | 14,4 | 14,4 |
GeForce GT 730 (128-Bit DDR3)[14] | 18. Jun. 2014 | GF108 | 4 | 2 | 96 | 16 | 700 [Anm. 4] | - | 1 GB | 891 | DDR3 | 128 Bit | 268,8 | 22,4 | 350 | 2,8 | 11,2 | 28,8 |
GeForce GT 730 (GDDR5)[14] | 18. Jun. 2014 | GK208 | 8 | 2 | 384 | 16 | 902 | - | 1 GB | 1252 (2504) | GDDR5 | 64 Bit | 692,7 | 28,9 | 902 | 7,2 | 14,4 | 40 |
GeForce GT 740[15] | 29. Mai 2014 | GK107 | 16 | 2 | 384 | 32 | 993 | - | 2 GB | 891 | DDR3 | 128 Bit | 762,6 | 31,8 | 993 | 7,9 | 31,8 | 28,5 |
1 GB | 1252 (2504) | GDDR5 | 80,1 | |||||||||||||||
GeForce GTX 745[16][Anm. 5] | 18. Feb. 2014 | GM107 | 16 | 3 | 384 | 24 | 1033 | - | 4 GB | 891 | DDR3 | 128 Bit | 793,3 | 24,8 | 1033 | 16,5 | 24,8 | 28,8 |
GeForce GTX 750[17] | 18. Feb. 2014 | GM107 | 16 | 4 | 512 | 32 | 1020 | 1085 | 1 GB | 1250 (2500) | GDDR5 | 128 Bit | 1044,5 | 32,6 | 1020 | 16,3 | 32,6 | 80 |
GeForce GTX 750 Ti[18] | 18. Feb. 2014 | GM107 | 16 | 5 | 640 | 40 | 1020 | 1085 | 2 GB | 1350 (2700) | GDDR5 | 128 Bit | 1305,6 | 40,8 | 1020 | 16,3 | 40,8 | 86,4 |
GeForce GTX 760 192-Bit[19][Anm. 5] | 21. Okt. 2013 | GK104 | 24 | 6 | 1152 | 96 | 823 | 888 | 1,5 GB | 1452 (2904) | GDDR5 | 192 Bit | 1896,2 | 79 | 2469 | 19,8 | 79 | 134 |
3 GB | ||||||||||||||||||
GeForce GTX 760[20] | 25. Jun. 2013 | GK104 | 32 | 6 | 1152 | 96 | 980 | 1033 | 2 GB | 1502 (3004) | GDDR5 | 256 Bit | 2257,9 | 94,1 | 2940 | 23,5 – 31,4 | 94,1 | 192,3 |
GeForce GTX 760 Ti[21][Anm. 5] | 21. Okt. 2013 | GK104 | 32 | 7 | 1344 | 112 | 915 | 980 | 2 GB | 1502 (3004) | GDDR5 | 256 Bit | 2459,5 | 102,5 | 3203 | 29,3 | 102,5 | 192,3 |
GeForce GTX 770[22] | 30. Mai 2013 | GK104 | 32 | 8 | 1536 | 128 | 1046 | 1085 | 2 GB | 1753 (3506) | GDDR5 | 256 Bit | 3213,3 | 133,9 | 4184 | 33,5 | 133,9 | 224,4 |
GeForce GTX 780[23] | 23. Mai 2013 | GK110 | 48 | 12 | 2304 | 192 | 863 | 902 | 3 GB | 1502 (3004) | GDDR5 | 384 Bit | 3976,7 | 165,7 | 5178 | 27,6 – 34,5 | 165,7 | 288,4 |
10. Sep. 2013 | GK110B | |||||||||||||||||
GeForce GTX 780 Ti[24] | 7. Nov. 2013 | GK110B | 48 | 15 | 2880 | 240 | 876 | 928 | 3 GB | 1753 (3506) | GDDR5 | 384 Bit | 5045,8 | 210,2 | 6570 | 35 | 210,2 | 336,6 |
GeForce GTX Titan[25] | 19. Feb. 2013 | GK110 | 48 | 14 | 2688 | 224 | 837 | 876 | 6 GB | 1502 (3004) | GDDR5 | 384 Bit | 4499,7 | 1311,7 | 5859 | 33,5 | 187,5 | 288,4 |
GeForce GTX Titan Black[26] | 18. Feb. 2014 | GK110B | 48 | 15 | 2880 | 240 | 889 | 980 | 6 GB | 1753 (3506) | GDDR5 | 384 Bit | 5120,6 | 1706,9 | 6667,5 | 35,6 | 213,4 | 336,6 |
GeForce GTX Titan Z[27] | 28. Mai 2014 | 2× GK110B | 2× 48 | 2× 15 | 2× 2880 | 2× 240 | 705 | 876 | 2× 6 GB | 1753 (3506) | GDDR5 | 2× 384 Bit | 2× 4060,8 | 2× 1353,6 | 2× 5287,5 | 2× 28,2 | 2× 169,2 | 2× 336,6 |
Leistungsaufnahmedaten
Modell | Typ | Verbrauch (Watt) | Zusätzliche Strom- stecker | |||
---|---|---|---|---|---|---|
MGCP [Anm. 6] | Messwerte[Anm. 7] | |||||
Idle | 3D-Last [Anm. 8] | Maximal- last[Anm. 9] | ||||
GeForce GT 710 | GK208 | 19 | k. A. | k. A. | k. A. | keine |
GeForce GT 720 | GK208 | 23 | k. A. | k. A. | k. A. | keine |
GeForce GT 730 (64-Bit DDR3) | GK208 | 23 | k. A. | k. A. | k. A. | keine |
GeForce GT 730 (128-Bit DDR3) | GF108 | 49 | k. A. | k. A. | k. A. | keine |
GeForce GT 730 (GDDR5) | GK208 | 38 | k. A. | k. A. | k. A. | keine |
GeForce GT 740 | GK107 | 64 | k. A. | k. A. | k. A. | 1× 6-pin |
GeForce GTX 745 | GM107 | 55 | k. A. | k. A. | k. A. | keine |
GeForce GTX 750 | GM107 | 55 | 7[28]-9[29] | 56[29]-59[28] | 76[28] | keine |
GeForce GTX 750 Ti | GM107 | 60 | 4[28]-8[30] | 52[28]-60[30] | 60[30]-66[28] | keine |
GeForce GTX 760 192-Bit | GK104 | 130 | k. A. | k. A. | k. A. | 1× 6-pin |
GeForce GTX 760 | GK104 | 170 | 10[31]-12[30] | 148[28]-169[30] | 165[28]-197[30] | 2× 6-pin |
GeForce GTX 760 Ti | GK104 | 170 | k. A. | k. A. | k. A. | |
GeForce GTX 770 | GK104 | 230 | 8[28]-10[31] | 162[28]-195[30] | 213[30]-214[28] | 1× 6-pin 1× 8-pin |
GeForce GTX 780 | GK110 GK110B | 250 | 10[28]-14[32] | 199[30]-222[32] | 252[30]-268[28] | |
GeForce GTX 780 Ti | GK110B | 250 | 10[28]-16[32] | 229[28]-260[30] | 260[28]-276[30] | |
GeForce GTX Titan | GK110 | 250 | 10[28]-13[32] | 198[30]-214[32] | 250[30]-263[28] | |
GeForce GTX Titan Black | GK110B | 250 | 13[33] | 243[33] | k. A. | |
GeForce GTX Titan Z | 2× GK110B | 375 | k. A. | k. A. | k. A. | 2× 8-pin |
Anmerkungen
- ↑ Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
- ↑ Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Standardtakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
- ↑ a b Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der I/O-Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
- ↑ Die Shadereinheiten des GF108-Grafikprozessors werden, im Verhältnis zum restlichen Chip, doppelt so hoch getaktet.
- ↑ a b c OEM-Produkt. Karte ist nicht auf dem Retail-Markt verfügbar.
- ↑ Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
- ↑ Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
- ↑ Der unter 3D-Last angegebene Wert entspricht dem typischen Spieleverbrauch der Karte. Dieser ist allerdings je nach 3D-Anwendung verschieden. In der Regel wird zur Ermittlung des Wertes eine zeitgemäße 3D-Anwendung verwendet, was allerdings die Vergleichbarkeit über größere Zeiträume einschränkt.
- ↑ Die Maximallast wird in der Regel mit anspruchsvollen Benchmarkprogrammen ermittelt, deren Belastungen deutlich über denen von „normalen“ 3D-Anwendungen liegen.
Weblinks
Einzelnachweise
- ↑ Test: Nvidia GeForce GTX Titan. Computerbase, 21. Februar 2013, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX 780 im Test. Computerbase, 23. Mai 2013, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX 780 Ti gegen GTX Titan im Test. Computerbase, 8. November 2013, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX Titan Black mit 6 GB im Test. Computerbase, 7. März 2014, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX Titan Z mit 8 TFLOPS für 3.000 Dollar. Computerbase, 25. März 2014, abgerufen am 29. März 2014.
- ↑ Nvidia gibt die GeForce GTX Titan Z frei. Computerbase, 28. Mai 2014, abgerufen am 28. Mai 2014.
- ↑ Nvidia GeForce GTX 770 im Test. Computerbase, 30. Mai 2013, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX 760 im Test. Computerbase, 25. Juni 2013, abgerufen am 29. März 2014.
- ↑ Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test. Computerbase, 18. Februar 2014, abgerufen am 29. März 2014.
- ↑ http://www.geeks3d.com/20150519/nvidia-r352-86-whql-released-one-new-opengl-extension/ Support für OpenGL 4.5 und OpenCL 1.2 mit Treiber 35x.xx und höher für Maxwell und Kepler
- ↑ https://www.techpowerup.com/gpudb/1986/geforce-gtx-750
- ↑ NVIDIA GeForce GT 710. Nvidia Corporation, abgerufen am 28. April 2018.
- ↑ NVIDIA GeForce GT 720. Nvidia Corporation, abgerufen am 19. September 2014.
- ↑ a b c NVIDIA GeForce GT 730. Nvidia Corporation, abgerufen am 19. Juni 2014.
- ↑ NVIDIA GeForce GT 740. Nvidia Corporation, abgerufen am 30. Mai 2014.
- ↑ NVIDIA GeForce GTX 745 (OEM). Nvidia Corporation, abgerufen am 26. Juni 2014 (englisch).
- ↑ NVIDIA GeForce GTX 750. Nvidia Corporation, abgerufen am 18. Februar 2014.
- ↑ NVIDIA GeForce GTX 750 Ti. Nvidia Corporation, abgerufen am 18. Februar 2014.
- ↑ NVIDIA GeForce GTX 760 192-bit (OEM). Nvidia Corporation, abgerufen am 20. Oktober 2013 (englisch).
- ↑ NVIDIA GeForce GTX 760. Nvidia Corporation, abgerufen am 25. Juni 2013.
- ↑ NVIDIA GeForce GTX 760 Ti (OEM). Nvidia Corporation, abgerufen am 20. Oktober 2013 (englisch).
- ↑ NVIDIA GeForce GTX 770. Nvidia Corporation, abgerufen am 30. Mai 2013.
- ↑ NVIDIA GeForce GTX 780. Nvidia Corporation, abgerufen am 23. Mai 2013.
- ↑ NVIDIA GeForce GTX 780 Ti. Nvidia Corporation, abgerufen am 7. November 2013.
- ↑ NVIDIA GeForce GTX TITAN. Nvidia Corporation, abgerufen am 4. Juni 2013.
- ↑ NVIDIA GeForce GTX TITAN Black. Nvidia Corporation, abgerufen am 18. Februar 2014.
- ↑ NVIDIA GeForce GTX TITAN Z. Nvidia Corporation, abgerufen am 28. Mai 2014.
- ↑ a b c d e f g h i j k l m n o p q r ASUS GTX 750 OC 1 GB. TechPowerUp, 19. Februar 2014, abgerufen am 24. April 2014 (englisch).
- ↑ a b Nvidia lance les GeForce GTX 750 Ti & 750 Maxwell. Hardware.fr, 18. Februar 2014, abgerufen am 24. April 2014 (französisch).
- ↑ a b c d e f g h i j k l m n NVIDIA GeForce GTX 750 Ti im Test (Seite 44). HardTecs4U, 18. Februar 2014, abgerufen am 24. April 2014.
- ↑ a b GeForce GTX 760 im Test: Neuer Stern am Preis-/Leistungshimmel? PC Games Hardware, 29. Juni 2013, abgerufen am 24. April 2014.
- ↑ a b c d e Nvidia GeForce GTX 780 Ti im Test: Die "Titan Ultra" ist gelandet – für 649 Euro. PC Games Hardware, 8. November 2013, abgerufen am 24. April 2014.
- ↑ a b Hochadel: NVIDIA GeForce GTX Titan Black im Test (Seite 15). HardTecs4U, 10. Juni 2014, abgerufen am 19. September 2014.
Auf dieser Seite verwendete Medien
Autor/Urheber: GBPublic_PR, Lizenz: CC BY 2.0
The PCB of an Nvidia GTX 780 with the heatsink removed.
Autor/Urheber: NVIDIA Press, Lizenz: CC BY-SA 3.0
NVIDIA's GTX 760 video card.
NVIDIA GeForce GTX TITAN / GeForce GTX 780 / GeForce GTX 770