Geforce gtx titan x vélemények. Az NVIDIA GeForce GTX TITAN X áttekintése és tesztelése: csecsemők lemészárlása. ⇡ Teszt résztvevői

A Maxwell architektúrára épülő nagy GPU megjelenése elkerülhetetlen volt, a kérdés csak az, hogy mikor és milyen formában. Ennek eredményeként jogos volt az a feltételezés, hogy a GM200 megismétli a Kepler családból származó megfelelője, a GK110 útját, amely a TITAN márkanév alatti gyorsító részeként debütál.

NVIDIA GeForce GTX TITAN X

Ezúttal nagyon kevés idő volt az új videokártya tesztelésére, így az áttekintés tömörítve lesz. A felesleges érveket elvetve, térjünk a lényegre. A Maxwell architektúrát a Keplerhez képest a streaming multiprocessors (SMM) egyszerűsített és optimalizált szerkezete jellemzi, amely lehetővé tette az SMM terület radikális csökkentését, miközben a korábbi teljesítmény 90% -át megőrizte. Ezenkívül a GM200 a Maxwell architektúra második iterációjához tartozik, akárcsak a korábban kiadott GM204 (GeForce GTX 970/980) és GM206 (GeForce GTX 960) lapkák. Ezért a PolyMorph Engine 3.0-s verziójú geometriájú motorral rendelkezik, és hardver szinten támogatja néhány számítási funkciót, amelyek valószínűleg az új funkciószintű Direct3D 12-ben fognak szerepelni, és amelyek az NVIDIA VXGI globális megvilágításának hardveres gyorsításához is szükségesek. technológia. Az első és második generációs Maxwell architektúra részletesebb leírásához a GeForce GTX 750 Ti és a GeForce GTX 980 áttekintéseit ajánljuk.

NVIDIA GM200 GPU blokkdiagram

Minőségileg a GM200 GPU és az alacsonyabb kategóriás GPU-k a sorozatban nem különböznek egymástól, csak a GM206 rendelkezik dedikált H.265 (HEVC) videodekóderrel. A különbségek pusztán mennyiségiek. A GM200 soha nem látott számú tranzisztort tartalmaz - 8 milliárdot, tehát másfél-kétszer több számítási egység van benne, mint a GM204-ben (attól függően, hogy melyiket kell számolni). Ezen felül a 384 bites memóriabusz ismét üzembe helyezte. A GK110 chiphez képest az új zászlóshajó GPU nem olyan ijesztően erős, de például a ROP-ok száma itt a duplája, amivel a GM200 jól felkészült a 4K felbontásra.

A kettős pontosságú számítások támogatása szempontjából a GM200 nem különbözik a GM204-től. Minden SMX csak négy FP64-kompatibilis CUDA magot tartalmaz, így a kombinált teljesítmény ezen terhelés mellett az FP32 1/32-e.

⇡ Műszaki adatok, ár

A TITAN X a GM200 mag legerősebb változatát használja aktív számítási egységek teljes készletével. A GPU alapfrekvenciája 1000 MHz, a Boost Clock 1076 MHz. A memória a Maxwell-alapú termékek szabványos, 7012 MHz-es frekvenciáján működik. De a hangerő példátlan a játék videokártyák esetében - 12 GB (és a TITAN X elsősorban játék videokártya, legalábbis addig, amíg a GM200 megjelent a fő, "számozott" GeForce vonalban).

A TITAN X javasolt kiskereskedelmi árait a felülvizsgálat közzététele előtti utolsó órákban közölték. Az amerikai piacon az árat 999 dollárban határozzák meg - ugyanaz, mint az első GK110 alapú TITAN.

Jegyzet: A táblázatban szereplő árak a GeForce GTX 780 Ti és a TITAN Black esetében az utóbbi leállításának idején érvényesek.

Modell

GPU

videó memória

TDP, W

RRP* az amerikai piacra (adók nélkül), $

kód név

Tranzisztorok száma, millió

Órajel frekvencia, MHz: Alap órajel / Boost Clock

CUDA magok száma

A textúra egységek száma

Buszszélesség, bit

Chip típusa

Órajel frekvencia: valós (effektív), MHz

Kötet, MB

GeForce GTX 780 Ti

GeForce GTX TITAN fekete

GeForce GTX 980

GeForce GTX TITAN X

⇡ Építés

A legelső "Titan" óta az NVIDIA ugyanazt a hűtőrendszert használja a csúcskategóriás videokártyákban, némi eltéréssel. A TITAN X csak egy teljesen fekete testtel tűnik ki elődei közül (csak két betét maradt festetlenül az oldalán).

NVIDIA GeForce GTX TITAN X

A kísérletileg GeForce GTX 980-zal felszerelt hátlap ismét hiányzik a TITAN X-ből, annak ellenére, hogy a memórialapkák egy része az alaplap hátoldalára van forrasztva. Bár a GDDR5 chipek általában nem igényelnek további hűtést.

NVIDIA GeForce GTX TITAN X hátulnézet

De visszatért a gőzkamrával ellátott hűtőborda, amelyet a GTX 980-ban egy egyszerűbb lehetőség váltott fel.

NVIDIA GeForce GTX TITAN X, hűtőrendszer

NVIDIA GeForce GTX TITAN X, hűtőrendszer

NVIDIA GeForce GTX TITAN X, hűtőrendszer

A videokártya három DisplayPort csatlakozóval rendelkezik, és egy-egy - HDMI és Dual-Link DVI-I.

⇡ Díj

A nyomtatott áramköri lap kialakítása, ami nem meglepő, asszociációkat ébreszt a GK110 chipre épülő videoadapterek sorozatával. A feszültségátalakító a 6 + 2 séma szerint épül fel (a fázisok száma a GPU és a memória chipek táplálásához). A tápellátás egy 8 tűs és egy 6 tűs csatlakozón keresztül történik. De itt látjuk először az ON Semiconductor NCP81174 GPU teljesítményvezérlőt.

24 db 7 GHz névleges frekvenciájú SK hynix H5GQ4H24MFR-R2C memóriachip található a tábla mindkét oldalán.

NVIDIA GeForce GTX TITAN X, nyomtatott áramköri lap, előlap

NVIDIA GeForce GTX TITAN X, nyomtatott áramköri lap, hátlap

Tesztállvány, vizsgálati módszertan

Az energiatakarékos CPU-technológiák minden tesztben le vannak tiltva. Az NVIDIA illesztőprogram beállításaiban a CPU van kiválasztva processzorként a PhysX számításhoz. Az AMD illesztőprogramokban a Tesselation beállítás átkerült az AMD Optimized beállításról az Alkalmazásbeállítások használata beállításra.

Mérési szempontok: szintetikus
Program Beállítások Engedély
3D Mark 2011 Extrém teszt - -
3DMark Fire Strike teszt (nem extrém) - -
Unigine Heaven 4 DirectX 11 max. minőség, tesselláció Extreme módban AF 16x, MSAA 4x 1920×1080 / 2560×1440
Benchmark: játékok
Program Beállítások Anizotróp szűrés, teljes képernyős élsimítás Engedély
Far Cry 3 + FRAPS DirectX 11 max. minőség, HDAO. A Secure the Outpost küldetés kezdete AF, MSAA 4x 2560×1440/3840×2160
Tomb Raider. Beépített benchmark Max. minőség AF 16x, SSAA 4x 2560×1440/3840×2160
Bioshock Infinite. Beépített benchmark Max. minőség. Utófeldolgozás: Normál AF 16x, FXAA 2560×1440/3840×2160
Crysis 3 + FRAPS Max. minőség. A Post Human küldetés kezdete AF 16x, MSAA 4x 2560×1440/3840×2160
Metró utolsó fény. Beépített benchmark Max. minőség AF 16x, SSAA 4x 2560×1440/3840×2160
Company of Heroes 2. Beépített benchmark Max. minőség AF, SSAA 4x 2560×1440/3840×2160
Battlefield 4 + FRAPS Max. minőség. A tashgari küldetés kezdete AF 16x, MSAA 4x + FXAA 2560×1440/3840×2160
Tolvaj. Beépített benchmark Max. minőség AF 16x, SSAA 4x + FXAA 2560×1440/3840×2160
Alien: Elszigetelődés Max. minőség AF 16x, SMAA T2X 2560×1440/3840×2160

Teszt résztvevői

A következő videokártyák vettek részt a teljesítménytesztben:

  • NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 GB);

⇡ Órajelek, energiafogyasztás, hőmérséklet, túlhajtás

A GM110 olyan alapfrekvencián fut, amelyet a GK110 még soha nem ért el a referencia specifikációiban. Ezenkívül a GPU Boost nagyon agresszíven működik, 1177 MHz-ig növelve a frekvenciát. Ugyanakkor a processzor megelégszik 1,174 V-os feszültséggel, ami alacsonyabb a GK110 alapú csúcstermékekhez képest.

A BIOS-beállítások lehetővé teszik, hogy a teljesítménykorlátot 110%-ra növelje, és 83 mV-ot adjon a GPU maximális feszültségéhez. Valójában a feszültség csak 1,23 V-ra emelkedik, ugyanakkor több további frekvenciafokozat / VID nyílik meg: az alapfrekvencia és a hangszóróban rögzített maximális frekvencia közötti különbség 203 MHz-re nő.

A videokártya túlhajtása lehetővé tette az 1252 MHz-es alapfrekvencia elérését, a dinamikában pedig 1455 MHz-ig terjedő frekvenciákat figyeltek meg. A videomemória 1,2 GHz-et tudott hozzáadni, sikeresen működve 8212 MHz-es effektív frekvencián.

Alap órajel, MHz Max. Boost Clock, MHz Alap órajel, MHz (túlhúzás) Max. regisztrált Boost Clock, MHz (túlhúzás)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN fekete 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

A TITAN X fogyasztás tekintetében közel áll a GTX 780 Ti-hez és jóval meghaladja a GTX 980-at. A várakozásokkal ellentétben a Crysis 3-ban nincs jelentős különbség a TITAN X és a Radeon R9 290X között, viszont a FurMark R9 290X-ben (mint az R9 280X) jobban felmelegszik és észrevehetően felülmúlja a TITAN x-et.

A TITAN X túlhajtása 5-25 wattal növeli a teljesítményt attól függően, hogy melyik teszt eredményére hagyatkozik - FurMark vagy Crysis 3.

A GPU számára megengedett maximális hőmérsékletet a BIOS-beállítások határozzák meg, így a TITAN X nem lépi túl a beállított 83 °C-ot. Ugyanakkor a hűtőrendszer turbinája a maximális fordulatszám 49%-án felpörög - egészen addig. 2339 ford./perc. Első pillantásra ez elég sok, de valójában a hűtő zaja teljesen elfogadható.

⇡ Teljesítmény: szintetikus benchmark

  • A TITAN X már az első teszttől lenyűgöz. A GTX 780 Ti-hez és a Radeon R9 290X-hez képest a grafikus kártya másfélszer gyorsabb.
  • A Radeon R9 280X és a GeForce GTX 770 – az egykor legjobb GPU-kon alapuló adapterek – esetében a különbség több mint kétszeres.

  • A fentiek mindegyike igaz a 3DMark 2013-ra is.

Unigine Heaven 4

  • A TITAN X körülbelül 50%-os előnyt jelent a GTX 780 Ti és a Radeon R9 290X-hez képest WQHD felbontásban. Egyébként a 3DMarkkal ellentétben a GTX 980 semmivel sem jobb, mint a GTX 780 Ti ebben a tesztben.
  • Ultra HD felbontásban a korábbi grafikus adapterek felzárkóztak, és a TITAN X mégis minden rivális felett áll.

⇡ Teljesítmény: játékok

Ezúttal eltérünk a játéktesztek leírásának szokásos formájától. Teljesen értelmetlen minden játékhoz lefesteni, hogy melyik videókártya gyorsabb, a TITAN X esetében. Az új "Titan" minden játékban óriási különbséggel megelőzi riválisát. A mennyiségi mutatók a következő képletet mutatják: A TITAN X 30-50%-kal gyorsabb, mint a GeForce GTX 780 Ti és Radeon R9 290X, és gyakran kétszer gyorsabb a Radeon R9 280X-hez és GeForce GTX 770-hez képest. Az egyetlen intrika az ingadozások keresése. ezen a folyosón belül azon vagy a másik oldalon. Ezen kívül van egy egyedi ház is: a TITAN X 24 FPS-es képsebességet élvez Far Cry 4-ben Ultra HD felbontáson és MSAA 4x-en, míg a riválisok nem tudnak kibújni az 5-7 FPS-es lyukból (és a GeForce GTX 770 ill. még kevesebb). Itt láthatóan 12 GB memóriára volt szüksége a Titannak, és az FC4-ben még a Radeon R9 290X-ben lévő 4 GB sem elég az ilyen beállításokhoz.

sírrabló

Bioshock Infinite

Crysis 3

⇡ Teljesítmény: számítástechnika

Videó dekódolás (DXVA Checker, Decode Benchmark)

  • A GM200 dedikált H.264 dekódere ugyanaz, mint a Maxwell család többi lapkájában. Teljesítménye bőven elegendő ahhoz, hogy akár Ultra HD felbontású és 60 Hz-es vagy magasabb képfrissítésű videókat is lejátszhasson.
  • A diszkrét AMD videoadapterek közül ezzel csak a Radeon R9 285 büszkélkedhet.A GeForce GTX 780 Ti akár 35 FPS leadására is képes 3840 × 2160-as felbontás mellett.
  • A 6-8 x86 magos CPU-k alkalmasabbak a videokonverzió gyors dekódolására, de a fix funkcionalitású blokk ezt kisebb fogyasztás mellett teszi meg, és végül egyszerűen az erős GPU-nak adják.

  • Az egyetlen GPU teljes hardveres H.265 dekódolással a GM206 a GeForce GTX 960-ban. A Maxwell architektúra más képviselői, valamint a Kepler a H.264 dekóder csővezetéken hajtanak végre néhány műveletet. A többi a központi processzorra esik.
  • Mindezen adapterek teljesítménye jó CPU-val elegendő a videó lejátszásához bármilyen ésszerű felbontással és képkockasebesség mellett. Gyors munkához a GTX 960 vagy egy nagy teljesítményű CPU jobban megfelel.

Luxmark: szoba (komplex referencia)

  • A Maxwell architektúra meglepő teljesítménynövekedést mutat a Keplerhez képest ebben a feladatban, így a TITAN X kétszerese a GeForce GTX 780 Ti szerény eredményének, és felülmúlja a Radeon R9 290X teljesítményét. Ez azonban nem jelenti azt, hogy a LuxMark eredményei bármilyen sugárkövetési feladatot reprezentálnak.
  • A TITAN X és a GeForce GTX 980 között nem olyan óriási a különbség, mint a játéktesztekben.

Sony Vegas Pro 13

  • Az AMD videoadapterek továbbra is vezető szerepet töltenek be a videomegjelenítésben. A TITAN X pedig nem tűnik ki a legproduktívabb NVIDIA-eszközök csoportjából.

CompuBench CL: Ocean Surface Simulation

  • A TITAN X elviszi a pálmát a Radeon R9 290X elől, és kompenzálja a GeForce GTX 980 meghibásodását, ami meglepően nehéz ebben a tesztben.

CompuBench CL: Részecskeszimuláció

  • Ezzel szemben itt a GTX 980 nagy lépést tett előre a GTX 780 Ti-hez képest, a TITAN X pedig a sikerre épített. A Radeon R9 290X nem egyezik az NVIDIA zászlóshajójával.

SiSoftware Sandra 2015: Tudományos elemzés

  • A dupla pontosság (FP64) tekintetében az AMD gyorsítók továbbra is páratlanok, sőt a korántsem új GPU-ra épülő Radeon R9 280X is felülmúlhatja a TITAN X-et.
  • A "zöld" TITAN X között előre láthatóan vezet teljesítményben az FP64-ben, különösen az őszintén gyenge GTX 980-hoz képest.
  • Az FP32 számítástechnikában a TITAN X élesen kiemelkedik az összes NVIDIA grafikus kártya közül. Csak ez nyújt a Radeon R9 290X teljesítményéhez hasonló szintű teljesítményt.

⇡ Következtetések

Figyelembe véve, hogy a diszkrét GPU-gyártás még mindig a 28 nm-es folyamaton belül van, a GeForce GTX TITAN X eredményei fantasztikusan néznek ki. A GK110-alapú grafikus adapterekkel azonos TDP mellett a TITAN X az olyan gyorsítók teljesítményének 130-150%-át éri el, mint a GTX 780 Ti és a Radeon R9 290X. Ha az első 28 nm-es GPU-kat vesszük - GK104 (GTX 680, GTX 770) és Radeon R9 280X, akkor a TITAN X gyakran kétszer is felülmúlja őket.

A TITAN X ebben a pozícióban elődeihez hasonlóan rendkívül drága egyetlen GPU-s grafikus kártya esetében. Az elhelyezés nem változott a korábbi Titánokhoz képest. Először is, ez a két különálló GeForce GTX 980 SLI-konfigurációjának alternatívája: bár a tandem potenciális teljesítménye magasabb, egyetlen GPU-nak kiszámíthatóbb a teljesítménye. Másodszor, kompakt PC-k, amelyekben nincs hely két videokártya számára. És végül a nem grafikus számítástechnika (GP-GPU). Bár az FP64 teljesítménye a GM200-ban az FP32 teljesítményének 1/32-ére korlátozódik, a TITAN X részben kompenzálja ezt a korlátozást a GPU nyers erővel. Ezenkívül az FP32 számítástechnika dominál "prosumer" terhelés (ugyanaz a Ray Tracing, gyorsított videó renderelés), és ebben a tudományágban a GM200 legalább olyan jó, mint a legjobb AMD termékek, és gyakran felülmúlja ugyanazt, mint a játéktesztekben.

Előző Elite grafikus kártya NVIDIA GeForce GTX TITAN X 12 GB 2015 márciusában jelent meg, és a Maxwell 2.0 architektúrájú GM200 GPU-n alapult. Abban az időben az újdonságot óriási mennyiségű videomemória a játékokhoz való videokártyákhoz, nagyon nagy teljesítmény és költség (999 dollár) jellemezte. A GeForce GTX TITAN X lendületes bravúrja azonban már három hónap után elhalványult, amikor a játékokban is ugyanolyan gyors GeForce GTX 980 Ti-t sokkal megfizethetőbb áron (649 dollár) mutatták be a nagyközönségnek.

Úgy tűnik, hogy az NVIDIA úgy döntött, hogy megismétli ezt a bejelentési utat a top grafikus megoldások sorában, ami a „GeForce GTX 980 –> GeForce TITAN X –> GeForce GTX 980 Ti” sorozattal fejezhető ki, csak most a videokártyák alapjai A Pascal architektúra GP104/102 magjai 16 nm-es folyamattechnológiával készülnek. Az első videokártyával - NVIDIA GeForce GTX 1080 - mi már találkoztak, mint vele eredeti verziók. Itt az ideje, hogy felfedezzük az NVIDIA legújabb és fenomenális teljesítményű grafikus kártyáját, a TITAN X-et.

Az újdonság 200 dollárral kezdett többe kerülni, mint elődje - 1200 dollár, és természetesen továbbra is professzionális grafikus kártyaként áll a kutatáshoz és a mély tanuláshoz. De amint valószínűleg megérti, elsősorban a játékalkalmazásokban és a grafikus benchmarkokban való teljesítménye érdekel minket, mivel minden játékos nagyon várja a GeForce GTX 1080 Ti bejelentését, amelynek legújabb jelei már megfosztották a cég legnyilvánvalóbb híveit. az alvásról. Ma azonban az NVIDIA TITAN X-et külön számítástechnikai benchmarkokban teszteljük, hogy megbizonyosodjunk arról, hogy professzionális grafikus kártyaként is megállja a helyét.

1. NVIDIA TITAN X 12 GB szuper videokártya felülvizsgálata

a videokártya specifikációi és az ajánlott költség

Az NVIDIA TITAN X videokártya műszaki jellemzői és költsége a táblázatban látható a referencia NVIDIA GeForce GTX 1080 és a GeForce GTX TITAN X régi verziójával összehasonlítva.




csomagolás és felszerelés

Az NVIDIA szigorúan magának tartogatta a TITAN X kiadását, így a videokártya csomagolása szabványos: egy felnyitható kompakt doboz, a közepébe pedig egy antisztatikus tasakba helyezett videokártya.



A csomagban nincs semmi, bár van benne egy további rekesz. Emlékezzünk vissza, hogy az NVIDIA TITAN X ajánlott költsége 1200 USD.

PCB tervezés és jellemzők

Az új NVIDIA TITAN X dizájnja merészebb, sőt agresszívabb lett, mint a GeForce GTX TITAN X. A videokártya elülső oldalán lévő hűtőrendszer burkolatát további élekkel látták el, amelyek a sugarak alatt tükröződnek. világos, a textolit hátoldalát pedig fémből készült hullámos borítás borította.




A krómozott ventilátorrotorral és az elülső oldalon ugyanazzal a felirattal együtt a videokártya igazán stílusos és vonzó. Ne feledje, hogy az NVIDIA TITAN X tetején a "GEFORCE GTX" izzó szimbólumok maradtak, bár ezek már nem szerepelnek a videokártya nevében.




A referencia videokártya 268 mm hosszú, 102 mm magas és 37 mm vastag.

A háromszög alakú lyukakkal perforált panel videokimenetei a következők: DVI-D, három DisplayPort 1.4-es verzió és egy HDMI 2.0b verzió.




Ebben a tekintetben az újdonság nem változott a GeForce GTX 1080-hoz képest.

A videokártyán két csatlakozó található a különféle SLI konfigurációk létrehozásához. A videokártyák kombinálására szolgáló 2-utas, 3-utas és 4-utas SLI-opciók egyaránt támogatottak az új merev összekötő hidak és a régi rugalmas hidak használatával.




Ha a referencia GeForce GTX 1080 csak egy nyolctűs csatlakozóval rendelkezik a plusz teljesítményhez, akkor a TITAN X is kapott még egy hat tűs csatlakozót, ami nem meglepő, mert a videokártya deklarált fogyasztási szintje 250 watt, pl. az azt megelőző GeForce GTX TITAN X. Az ajánlott tápegység egy ilyen videokártyával rendelkező rendszernél legalább 600 watt legyen.

Az NVIDIA TITAN X referencia NYÁK sokkal összetettebb, mint a GeForce GTX 1080 kártya, ami a megnövekedett teljesítményigény, a megnövekedett videomemória és a vele járó szélesebb kommunikációs busz ismeretében egészen logikus.




A GPU táprendszere ötfázisú, Dr.MOS tápelemekkel és tantál-polimer kondenzátorokkal. Két további energiafázis van a videomemóriának szentelve.



Az uPI Semiconductor uP9511P vezérlője felelős a GPU energiagazdálkodásáért.



A megfigyelési funkciókat a Texas Instruments által gyártott INA3221 vezérlő biztosítja.



A 16 nm-re készült, 471 mm2-es GP102 GPU matrica 2016. 21. héten (május végén) jelent meg, és az A1 verzióhoz tartozik.


Az NVIDIA GeForce GTX TITAN X GPU GM200-hoz képest az új GP102 16,7%-kal több univerzális shader processzort tartalmaz, és ezek száma összesen 3584. A mutató előnye a GeForce GTX GP104 1080-hoz képest. lenyűgöző 40%. Ugyanez az igazítás a textúra egységek számát tekintve is, amiből az új TITAN X 224 darabot tartalmaz. A GP102 számokat 96 Raster Operations Units (ROP) egészíti ki.

A GPU frekvenciái is növekedtek. Ha a GeForce GTX TITAN X alap GPU-frekvenciája 3D módban 1000 MHz, és 1076 MHz-ig volt felerősíthető, akkor az új TITAN X alapfrekvenciája 1418 MHz (+41,8%), és a deklarált boost frekvencia 1531 MHz. Valójában a megfigyelési adatok szerint a GPU frekvenciája rövid időre 1823 MHz-re nőtt, és átlagosan 1823 MHz volt. Ez igen jelentős növekedés elődjéhez képest. Hozzátesszük, hogy 2D módra váltva a GPU frekvenciája 139 MHz-re csökken, miközben a feszültség egyidejűleg 1,050 V-ról 0,781 V-ra csökken.

Az NVIDIA TITAN X 12 GB GDDR5X memóriával van felszerelve, amely tizenkét Micron chippel van összeszerelve (6KA77 D9TXS jelzéssel), amely csak a nyomtatott áramköri lap elülső oldalán van forrasztva.



A korábbi GeForce GTX TITAN X-hez képest GM200-on az új TITAN X memóriafrekvenciája GP102-en 10008 MHz, ami 42,7%-kal magasabb. Így változatlan, 384 bites memóriabusz-szélesség mellett a TITAN X memória sávszélessége lenyűgöző 480,4 GB/s-ot ér el, ami csak valamivel kevesebb, mint a jelenlegi rekorder ezen a területen - az AMD Radeon R9 Fury X nagy sebességű HBM-mel és 512 GB/s 2D módban a memória frekvenciája 810 effektív megahertzre csökken.

Az új videokártya hardverének felülvizsgálatának eredményét a GPU-Z segédprogramból származó információk összegzik.


A videokártya BIOS-át is közzétesszük, beolvasva és elmentve ugyanazzal a segédprogrammal.

hűtőrendszer - hatékonyság és zajszint

Az NVIDIA TITAN X hűtőrendszer megegyezik az NVIDIA GeForce GTX 1080 Founders Edition hűtővel.



Alapja egy nikkelezett alumínium hűtőborda, amelynek alján réz elpárologtató kamra található, amely a GPU hűtéséért felel.



Ez a radiátor kis területű, és a bordaközi távolság nem haladja meg a két millimétert.



Így nem nehéz feltételezni, hogy a GPU hűtésének hatékonysága ezzel a radiátorral komolyan függ a ventilátor sebességétől (amit később megerősítettek).

A memóriachipek és a tápáramkörök elemeinek hűtésére hőpárnákkal ellátott fémlemez található.



A videokártya hőmérsékleti rendszerének terhelésként történő ellenőrzéséhez a Fire Strike Ultra terhelési teszt tizenkilenc ciklusát használtuk a 3DMark csomagból.



A hőmérséklet és minden egyéb paraméter figyelésére az MSI Afterburner 4.3.0 Beta 14 és újabb verzióit, valamint a GPU-Z segédprogram 1.12.0-s verzióját használtuk. Teszteket végeztek a rendszeregység zárt tokban, melynek konfigurációját a cikk következő részében láthatja, szobahőmérsékleten 23,5~23,9 Celsius fok.

Először is teszteltük az NVIDIA TITAN X hűtési hatékonyságát és hőteljesítményét teljesen automatikus ventilátorsebesség-szabályozással.



Automata üzemmód (1500-3640 ford./perc)


Ahogy a monitorozási grafikonon is látható, az NVIDIA TITAN X GPU hőmérséklete nagyon gyorsan elérte a 88-89 Celsius fokot, majd a ventilátor sebességének viszonylag meredek 1500-ról 3500 ford./percre növekedése miatt 86 fok körül stabilizálódott. Celsius. A teszt során a ventilátor fordulatszáma tovább nőtt 3640 ford./percre. Nem valószínű, hogy bármelyikünk elvárt egy 250 wattos hőcsomaggal rendelkező referencia videokártyától más hőmérsékletjelzőket, amelyek gyakorlatilag nem különböznek a GeForce GTX TITAN X-től.

Maximális ventilátorsebesség mellett az NVIDIA TIAN X grafikus kártya grafikus processzorának hőmérséklete 12-13 Celsius-fokkal csökken az automatikus beállítási módhoz képest.



Maximális fordulatszám (~4830 ford./perc)


Mindkét ventilátor módban az NVIDIA TITAN X egy nagyon zajos grafikus kártya. Az NVIDIA egyébként nem fosztja meg ennek a videokártya-modellnek a tulajdonosait a garanciától, amikor a referenciahűtőt alternatívakra cserélik.

túlhajtási potenciál

Az NVIDIA TITAN X túlhajtási potenciáljának ellenőrzésekor a maximálisan lehetséges 120%-kal megemeltük a teljesítménykorlátot, a hőmérsékleti határt 90 Celsius-fokra, a ventilátor fordulatszámát pedig manuálisan 88%-os teljesítményre vagy 4260 ford./percre rögzítettük. Több órás tesztelés után sikerült rájönnünk, hogy stabilitásvesztés és képhibák megjelenése nélkül a grafikus processzor alapfrekvenciája 225 MHz-cel (+ 15,9%), a videomemória effektív frekvenciája növelhető. 1240 MHz-cel (+ 12,4%).



Ennek eredményeként a túlhúzott NVIDIA TITAN X frekvenciája 3D módban elérte a 1643-1756/11248 MHz.


A túlhúzott videokártya hőmérsékleti tesztje során a GPU-frekvenciák jelentős elterjedése miatt a 3DMark csomagból származó teszt ismét a TITAN X instabilitásáról számolt be.



Ennek ellenére a teszt mind a 19 ciklusát, valamint a tesztkészlet összes játékát sikeresen teljesítették, és a megfigyelési adatok szerint a túlhúzott videokártya magfrekvenciája 1987 MHz-re nőtt.



88% teljesítmény (~4260 ford./perc)


Tekintettel a referencia NVIDIA TITAN X túlhajtására, feltételezhetjük, hogy az eredeti GeForce GTX 1080 Ti még jobban tunik majd. Azonban az idő eldönti.

2. Tesztkonfiguráció, eszközök és tesztelési módszertan

A videokártyákat a következő konfigurációjú rendszeren tesztelték:

alaplap: ASUS X99-A II (Intel X99 Express, LGA2011-v3, BIOS 1201, 2016.11.10-től);
CPU: Intel Core i7-6900K (14 nm, Broadwell-E, R0, 3,2 GHz, 1,1 V, 8 x 256 KB L2, 20 MB L3);
CPU hűtőrendszer: Phanteks PH-TC14PE (2 Corsair AF140, ~900 rpm);
termikus interfész: ARCTIC MX-4 (8,5 W/(m*K));
RAM: DDR4 4 x 4 GB Corsair Vengeance LPX 2800MHz (CMK16GX4M4A2800C16) (XMP 2800MHz/16-18-18-36_2T/1.2V vagy 3000MHz/16-16_2VT)
videokártyák:

NVIDIA TITAN X 12 GB 1418-1531(1848)/10008MHz és 1643-1756(1987)/11248MHz-re túlhajtva;
Gigabyte GeForce GTX 1080 G1 Gaming 8 GB 1607-1746(1898)/10008 MHz és 1791-1930(2050)/11312 MHz-re túlhajtva;
NVIDIA GeForce GTX 980 Ti 6 GB 1000-1076 (1189)/7012 MHz és 1250-1326 (1437)/8112 MHz-re túlhajtva;

lemez rendszerhez és játékokhoz: Intel SSD 730 480 GB (SATA-III, BIOS vL2010400);
benchmark meghajtó: Western Digital VelociRaptor (SATA-II, 300 GB, 10 000 rpm, 16 MB, NCQ);
biztonsági lemez: Samsung Ecogreen F4 HD204UI (SATA-II, 2 TB, 5400 rpm, 32 MB, NCQ);
hangkártya: Auzen X-Fi HomeTheater HD;
ház: Thermaltake Core X71 (négy legyen csendes! Silent Wings 2 (BL063) 900 rpm-en);
vezérlő és felügyeleti panel: Zalman ZM-MFC3;
Tápegység: Corsair AX1500i Digital ATX (1500 W, 80 Plus Titanium), 140 mm-es ventilátor;
Monitor: 27" Samsung S27A850D (DVI, 2560 x 1440, 60 Hz)

A TITAN X videokártya korábbi verziói természetesen nem állhattak rendelkezésünkre, így két másik videókártyával fogjuk összehasonlítani az új terméket, de egyáltalán nem lassúkkal. Ezek közül az első az eredeti Gigabyte GeForce GTX 1080 G1 Gaming lesz, amit a referencia NVIDIA GeForce GTX 1080 frekvenciáin, valamint 1791-1930/11312 MHz-re túlhajtva teszteltünk.





Vegye figyelembe, hogy ennek a videokártyának a grafikus processzorának csúcsfrekvenciája a túlhajtás során elérte a 2050 MHz-et.

A második tesztkártya a referencia NVIDIA GeForce GTX 980 Ti, melynek teljesítményét névleges frekvencián és 1250-1326(1437)/8112 MHz-re túlhajtva is teszteltük.





Mivel a megjelenéskor a játékokban a GeForce GTX 980 Ti az előző GeForce GTX TITAN X teljesítményével megegyező teljesítményt mutatott, ez az összehasonlítás két különböző TITAN X összehasonlításának tekinthető. Hozzátesszük, hogy az összes videokártya teljesítmény- és hőmérsékleti korlátai a lehető legnagyobbra növelték, és a GeForce illesztőprogramok a legmagasabb teljesítményprioritásra lettek állítva.

A videokártya teljesítményének a platform sebességétől való függőségének csökkentése érdekében a 14 nm-es nyolcmagos processzort 40-es szorzóval, 100 MHz-es referenciafrekvenciával és a harmadik szintre aktivált Load-Line Calibration funkcióval túlhúzták. 4,0 GHz amikor az alaplap BIOS-ában a feszültség 1,2095 V-ra emelkedik.



Ugyanakkor 16 gigabájt RAM működött egy frekvencián 3,2 GHz időzítésekkel 16-16-16-28CR1 1,35 V feszültségen.

A 2016. október 20-án megkezdett tesztelés a Microsoft Windows 10 Professional operációs rendszerrel, az adott dátum összes frissítésével és a következő telepített illesztőprogramokkal történt:

alaplapi lapkakészlet Intel lapkakészlet illesztőprogramok - 10.1.1.38 WHQL, 2016.10.12;
Intel Management Engine Interface (MEI) - 1025.06.11. WHQL, 2016.10.14.;
NVIDIA grafikus kártya illesztőprogramok - GeForce 375.57 WHQL 2016.10.20-tól.

Mivel a mai tesztek videókártyái nagyon produktívak, úgy döntöttek, hogy elutasítják az 1920 x 1080 pixeles felbontású teszteket, és csak 2560 x 1440 pixeles felbontást használtak. A felbontások még magasabbak, sajnos a meglévő monitor nem támogatja. A legfrissebb frissítések eredményeit figyelembe véve azonban nem kell sajnálni a nagyobb felbontások elérhetetlenségét. A tesztekhez két grafikai minőségi módot használtunk: Minőség + AF16x - alapértelmezés szerint textúraminőség az illesztőprogramokban 16x anizotróp szűréssel és Minőség + AF16x + MSAA 4x (8x) 16x anizotrop szűréssel és 4x vagy 8x teljes képernyős élsimítással , olyan esetekben, amikor az átlagos képkocka másodpercenként elég magas maradt egy kényelmes játékhoz. Egyes játékoknál a játékmotorok sajátosságaiból adódóan más élsimító algoritmusokat is alkalmaztak, amelyeket a későbbiekben a módszertanban és az ábrákon is jelezni fogunk. Az anizotróp szűrést és a teljes képernyős élsimítást közvetlenül a játék beállításaiban engedélyezték. Ha ezek a beállítások nem voltak elérhetők a játékokban, akkor a paraméterek megváltoztak a GeForce illesztőprogram vezérlőpultján. A függőleges szinkronizálást (V-Sync) ott is erőszakkal letiltották. A fentieken kívül további változtatások nem történtek az illesztőprogram beállításaiban.

A grafikus kártyákat egy grafikus tesztben, egy VR-tesztben tesztelték, és tizenöt játékot frissítettek a legújabb verzióra az anyag kezdő dátuma szerint. Az előzőhöz képest videokártya teszt a régi és erőforrásigényes Thief és Sniper Elite III kimaradt a tesztkészletből, de az új Total War: WARHAMMER és a DirectX 12 API-t támogató Gears of War 4 került bele (most már öt ilyen játék van a készletben) . Emellett a következő videókártyákról szóló cikkekben egy újabb DirectX 12 API-t támogató játék jelenik meg a listában, így most a tesztalkalmazások listája így néz ki (a játékok és a bennük lévő további teszteredmények sorrendben vannak elrendezve hivatalos megjelenésükről):

3DMark(DirectX 9/11) – 2.1.2973 verzió, Fire Strike, Fire Strike Extreme, Fire Strike Ultra és Time Spy jelenetekben tesztelve (a grafikus pontszám a diagramon látható);
SteamVR– támogatási teszt virtuális valóság”, a teszt során tesztelt képkockák számát vettük eredményül;
Crysis 3(DirectX 11) - 1.3.0.0 verzió, minden grafikai minőségi beállítás maximumon, elmosódási szint közepes, tükröződés engedélyezett, üzemmódok FXAA-val és MSAA-val 4x, a forgatókönyvezett jelenet dupla szekvenciális átadása a Swamp küldetés kezdetétől, 105 másodpercig;
Metró utolsó fény(DirectX 11) – 1.0.0.15-ös verzió, beépített tesztet használtak, grafikai minőségbeállítások és tesszelláció nagyon magas szinten, fejlett PhysX technológia két tesztelési módban, tesztek SSAA-val és élsimítás nélkül, dupla szekvenciális futtatás D6 jelenet;
Battlefield 4(DirectX 11) – 1.2.0.1-es verzió, az Ultra összes grafikai minőségi beállítása, a forgatókönyvezett jelenet dupla szekvenciális futtatása a TASHGAR küldetés kezdetétől, 110 másodpercig;
Grand Theft Auto V(DirectX 11) - build 877, Nagyon jó minőségű beállítások, Javasolt korlátok figyelmen kívül hagyása engedélyezve, V-Sync letiltva, FXAA engedélyezve, NVIDIA TXAA letiltva, MSAA tükröződések letiltva, NVIDIA lágy árnyékok;
DiRT Rally(DirectX 11) - 1.22-es verzió, az Okutama pályán a játékba épített tesztet használták, a grafikai minőség beállításait minden elemnél a maximális szintre állítottuk, Advanced Blending - On; tesztek MSAA 8x-tal, élsimítás nélkül;
Batman: Arkham Knight(DirectX 11) – 1.6.2.0 verzió, minőségi beállítások magas, textúrafelbontás normál, élsimítás be, V-Sync letiltva, tesztelés két módban – az utolsó két NVIDIA GameWorks opció aktiválásával és anélkül, dupla szekvenciális futtatás a tesztjátékba beépített;
(DirectX 11) - 4.3-as verzió, textúra minőségi beállítások nagyon magasra, Texture Filtering - Anisotropic 16X és egyéb maximális minőségi beállítások, tesztek MSAA-val 4x és élsimítás nélkül, a játékba épített teszt dupla szekvenciális futtatása.
A Tomb Raider felemelkedése(DirectX 12) - 1.0-s verzió, build 753.2_64, minden paraméter nagyon magasra állítva, Dynamic Foliage - High, Ambient Occlusion - HBAO+, tesszeláció és egyéb minőségjavító technikák aktiválva, a beépített benchmark teszt két ciklusa (Geothermal Valley jelenet) élsimítás nélkül és SSAA 4.0 aktiválással;
Far Cry Primal(DirectX 11) - 1.3.3 verzió, maximális minőségi szint, nagy felbontású textúrák, térfogati köd és árnyékok maximálisan, beépített teljesítményteszt élsimítás nélkül és aktivált SMAA-val;
Tom Clancy's The Division(DirectX 11) - 1.4-es verzió, maximális minőségi szint, minden képjavítási paraméter aktiválva van, Temporal AA - Supersampling, tesztmódok élsimítás nélkül és SMAA 1X Ultra aktiválással, beépített teljesítményteszt, de FRAPS eredmények rögzítése;
Bérgyilkos(DirectX 12) - 1.5.3-as verzió, beépített teszt "Ultra" grafikai minőségi beállításokkal, SSAO engedélyezett, árnyékminőség "Ultra", memóriavédelem letiltva;
Deus Ex: Az emberiség megosztott(DirectX 12) – 1.10-es verzió, 592.1 build, minden minőségi beállítás manuálisan a maximális szintre állítva, a tesselláció és a mélységélesség aktiválva, a játékba épített benchmark legalább két egymást követő futtatása;
Total War: WARHAMMER(DirectX 12) – 1.4.0-s verzió, 11973.949822 build, minden grafikai minőség beállítás a maximális szintre, tükröződések engedélyezettek, korlátlan videomemória és aktivált SSAO, a játékba épített benchmark kettős szekvenciális futtatása;
Gears of War 4(DirectX 12) - 9.3.2.2-es verzió, minőségi beállítások Ultra-n, V-Sync letiltva, minden effektus engedélyezve, 150%-os felbontású skálázás (3840 x 2160-ig) a játék által nem támogatott élsimítás helyett, dupla szekvenciális futtatás a játékba épített benchmark .

Ha a játékok megvalósították a másodpercenkénti minimális képkockaszám rögzítésének lehetőségét, akkor ez a diagramokon is tükröződött. Mindegyik tesztet kétszer végeztük el, a két kapott érték közül a legjobbat vettük végeredménynek, de csak akkor, ha a különbség nem haladta meg az 1%-ot. Ha a tesztfutások eltérései meghaladták az 1%-ot, akkor a megbízható eredmény érdekében a tesztelést még legalább egyszer megismételték.

3. Teljesítményvizsgálati eredmények

A diagramokon a videokártyák túlhúzás nélküli tesztelésének eredményei zölddel, túlhúzással pedig sötét türkizzel vannak kiemelve. Mivel a diagramokon szereplő összes eredménynek közös mintázata van, ezért nem kommentálunk mindegyiket külön, hanem a cikk következő részében az összefoglaló diagramokat elemezzük.

3DMark




SteamVR




Crysis 3




Metró utolsó fény







Battlefield 4




Grand Theft Auto V




DiRT Rally




Batman: Arkham Knight




Tom Clancy's Rainbow Six: Siege




A Tomb Raider felemelkedése




Far Cry Primal




Tom Clancy's The Division




Bérgyilkos




Deus Ex: Az emberiség megosztott




Total War: WARHAMMER

Mivel most először teszteljük a Total War: WARHAMMER-t, ma és a videókártyákról szóló további cikkeinkben megadjuk azokat a beállításokat, amelyeken a játék tesztelésre kerül.



És akkor az eredmények.




Gears of War 4

Megadjuk az első alkalommal a tesztkészletben szereplő Gears of War 4 új játék beállításait is.








Az eredmények a következők.



Az elkészített diagramokat egészítsük ki egy záró táblázattal, amely teszteredményeket tartalmaz az egyes videokártyák másodpercenkénti képkockaszámának származtatott átlagával és minimális értékeivel.



Ezt követi az összefoglaló diagramok és az eredmények elemzése.

4. Összefoglaló diagramok és eredmények elemzése

Az első pár összefoglaló diagramon azt javasoljuk, hogy az új NVIDIA TITAN X 12 GB névleges frekvencián és a referencia NVIDIA GeForce GTX 980 Ti 6 GB teljesítményét névleges frekvenciákon is összehasonlítsuk. Az utolsó videokártya eredményeit vesszük kiindulási pontnak, és ennek százalékában félretesszük az NVIDIA TITAN X videokártya átlagos FPS-ét. Az új grafikus kártya előnye kétségtelenül lenyűgöző.



Tesztkörülményeink és beállításaink szerint az NVIDIA TITAN X legalább 48%-kal gyorsabb, mint az NVIDIA GeForce GTX 980 Ti, és elképesztő 85%-os csúcsot ér el! Figyelembe véve, hogy a játékokban a GeForce GTX 980 Ti valójában megegyezett az előző GeForce TITAN X-szel, elmondhatjuk, hogy az NVIDIA TITAN X ugyanolyan gyorsabb, mint elődje. Egy teljes értékű Pascal GPU előrehaladása hihetetlen, kár, hogy eddig mindez nagyon drága, de a már a láthatáron pislákoló GeForce GTX 1080 Ti is érezhetően olcsóbb lesz (a kérdés csak az, hogy pontosan mit fognak vágni ?). Tehát átlagosan minden játék esetében 2560 x 1440 pixeles felbontás mellett az NVIDIA TITAN X 64,7%-kal gyorsabb, mint az NVIDIA GeForce GTX 980 Ti élsimítás nélküli módokban, és 70,4%-kal, ha különböző élsimító algoritmusok aktiválva vannak.

Most pedig értékeljük ki, hogy az NVIDIA TITAN X mennyivel előzi meg a Gigabyte GeForce GTX 1080 G1 Gamingot névleges frekvenciákon a GeForce GTX 1080 referenciaverzióinak szintjére hozott frekvenciaképlettel.



Ismét egy nagyon tisztességes teljesítménynövekedés! Az új termék legalább 19%-kal gyorsabb, mint a GeForce GTX 1080, a Rise of Tomb Raiderben pedig az előnye eléri a lenyűgöző 45,5%-ot. Az összes játékban átlagosan az NVIDIA TITAN X 27,0%-kal gyorsabb élsimítás nélküli módokban, és 32,7%-kal gyorsabb, ha az élsimítás engedélyezett.

Most arról álmodozunk, hogy az NVIDIA a GeForce GTX 1080 Ti kiadásakor nem a blokkszámban és a shader processzorok számában vágja le a Pascal csúcsát, ugyanakkor partnerei megnövelt frekvenciájú eredeti verziókat adnak ki. Mennyivel nő még ebben az esetben a zászlóshajó teljesítménye? A válasz a következő összefoglaló táblázatban található.



Az NVIDIA TITAN X 15,9%-os túlhajtása a magban és 12,4%-kal a videomemóriában, 12,9%-kal gyorsítja az amúgy is lélegzetelállítóan gyors videokártyát élsimítás nélküli módokban és 13,4%-kal, ha az AA engedélyezve van. Ha visszatérünk az első összefoglaló diagramhoz, könnyen feltételezhető, hogy az eredeti GeForce GTX 1080 Ti kétszer olyan gyorsan referencia GeForce GTX 980 Ti vagy GeForce GTX TITAN X. Persze egy ilyen összehasonlítás nem objektív, mert mindenki tudja, hogy az eredeti GeForce GTX 980 Ti sokszor akár 1,45-1,50 GHz-es túlhajtásra is képes a magon, ami az előnyt jelenti A potenciális GeForce GTX 1080 Ti nem lesz olyan magas. Ennek ellenére az előző generáció zászlóshajójához képest még 60-70%-os teljesítménynövekedés is lenyűgöző. Hol van nálam hasonló növekedés a központi processzorokban vagy a RAM-ban? Nincs ilyen, még bent sem felső szegmens. És az NVIDIA már rendelkezik ilyen képességekkel!

5. GPU számítástechnika

Először is teszteljük az új NVIDIA TITAN X videokártya teljesítményét a CompuBench CL 1.5.8-as verziójában. Az első két teszt a Viola-Jones algoritmuson és a TV-L1 Optical Flow mozgásvektor számításán alapuló arcfelismerés.



Az NVIDIA TITAN X teljesítménye ismét lenyűgöző. Névleges üzemmódban az újdonság az Arcfelismerés tesztben 66,6%-kal, a TV-L1 Optical Flow benchmarkban pedig 90,4%-kal előzi meg a referencia GeForce GTX 980 Ti-t. A GeForce GTX 1080-zal szembeni előny is elég szembetűnő, és az új Titan túlhajtása további 8,1-12,1%-kal gyorsítja ezt a videokártyát. Körülbelül ugyanilyen teljesítménynövekedés volt megfigyelhető a másik két, növekvő frekvenciával tesztelt videokártyán is.

A következő a sorban az Ocean Surface Simulation teszt a vízfelszíni hullámok mozgásának megjelenítésére a gyors diszkrét Fourier-transzformáció segítségével, valamint a Részecskeszimulációs teszt a részecskék fizikai szimulálására.



A tesztpár jellegzetessége a GeForce GTX 980 Ti és a GeForce GTX 1080 eredményeinek viszonylagos közelsége volt, úgy tűnik, a Maxwell mag nem adja könnyen magát. De az új TITAN X előtt mindkét videókártya megadja magát, 42,6-ról 54,4%-ra veszít.

Sokkal sűrűbb eredmények a Videó kompozíció tesztben.



A túlhúzott Gigabyte GeForce GTX 1080 G1 Gaming még a névleges NVIDIA TITAN X-et is sikerül utolérnie, bár utóbbi húsz százalékos előnyt mutat a GeForce GTX 980 Ti-vel szemben.

De a Bitcoin bányászat szimulációjában ismét látjuk az NVIDIA TITAN X óriási előnyét.



Az új termék majdnem kétszer olyan gyors, mint a GeForce GTX 980 Ti, és 30,4%-kal gyorsabb, mint a Gigabyte GeForce GTX 1080 G1 Gaming a referencia NVIDIA GeForce GTX 1080 frekvenciáin. Ilyen ütemű teljesítménynövekedés mellett az NVIDIA és a videokártyák Az AMD GPU-kból már nagyon kevés lesz.

A következő a sorban a GPGPU teszt az AIDA64 Extreme segédprogram 5.75.3981 Beta verziójából. A kapott eredményekből diagramokat építettünk az egyszeres és kettős pontosságú lebegőpontos műveletekhez.



Ha a korábbi NVIDIA GeForce GTX TITAN X ezekben a tesztekben 62%-kal megelőzte a GeForce GTX TITAN első verzióját, akkor a Pascal magon lévő új TITAN X egyszerre 97,5%-kal felülmúlja elődjét! Az AIDA64 GPGPU teszt bármely más eredményét a fórumunkban található cikk vitaszálában találja.

Végezetül teszteljük a legújabb LuxMark 3.1 legösszetettebb jelenetét – a Hotel Lobbyt.



Vegye figyelembe, hogy a régi GeForce GTX 980 Ti "nem adja fel" a Gigabyte GeForce GTX 1080 G1 Gaminget ebben a tesztben, de a TITAN X azonnal 58,5%-kal felülmúlja azt. Fenomenális teljesítmény! Ennek ellenére kár, hogy az NVIDIA továbbra is késlelteti a GeForce GTX 1080 Ti megjelenését, és különösen kár, hogy ebben még senki nem nyomja.

6. Energiafogyasztás

Az energiafogyasztási szintet a Corsair AX1500i tápegység segítségével mértük a Corsair Link interfészen keresztül, és az azonos nevű program 4.3.0.154 verzióját. A teljes rendszer energiafogyasztását mérték, a monitor kivételével. A mérést 2D módban, normál munkavégzés közben, Microsoft Word vagy Internet böngészés közben, valamint 3D módban végeztük. Az utóbbi esetben a terhelést a Crysis 3 játék Swamp szintű bevezető jelenetének négy egymást követő ciklusával hozták létre 2560 x 1440 pixeles maximális grafikai minőségi beállítások mellett az MSAA 4X használatával. A CPU energiatakarékos technológiái le vannak tiltva.

Hasonlítsuk össze a diagramon a rendszerek energiafogyasztását a ma tesztelt videokártyákkal.



A teljesítmény mindenhol és mindenütt hatalmas növekedése ellenére az NVIDIA-nak sikerült a Pascal magos új TITAN X hőcsomagját a TITAN X előző verziójával megegyező korlátok között tartani - 250 watt, így az ezekkel a videókkal rendelkező rendszerek energiafogyasztása kártyák nem különböznek lényegesen. Tehát névleges módban az NVIDIA TITAN X konfigurációja 41 wattal többet fogyaszt, mint az NVIDIA GeForce GTX 980 Ti videokártya, és mindkét videokártya túlhajtása esetén ez a különbség 23 wattra csökken. Ugyanakkor megjegyezzük, hogy a Gigabyte GeForce GTX 1080 G1 Gaming rendszer gazdaságosabb, mint a TITAN X mindkét verziója, és a referencia GeForce GTX 1080 frekvenciáin majdnem a 400 watt határon belül van, és ez figyelembe véve azt a tényt, hogy a konfiguráció egy megfelelően túlhúzott nyolcmagos processzort tartalmaz. Gazdaságosabb újdonság 2D módban.

Következtetés

Mivel ma a GeForce GTX 1080 és GTX 1070 által képviselt NVIDIA videokártyák foglalják el az egyedüli vezető szerepet a teljesítmény tekintetében a felső árszegmensben, a még termelékenyebb TITAN X megjelenését tekinthetjük a technológiai fölényének leginkább bizonyítékának az egyetlenhez képest. versenyző. Ráadásul ez a bemutató teljesen sikeres volt, mert ugyanabban a hőcsomagban az újdonság előnye az előző generáció zászlóshajója NVIDIA videokártyával szemben a játéktesztekben néha eléri a 85%-ot, átlagosan pedig körülbelül 70%-ot! Nem kevésbé lenyűgöző a számítástechnika teljesítményének növekedése, ami, mint tudjuk, az NVIDIA TITAN sorozatú videokártyák esetében a legfontosabb.

A GeForce GTX 1080 teljesítménybeli különbsége valamivel szerényebb és 27-33%-ot tesz ki, de a túlhajtásból származó teljesítménynövekedés magasabb a TITAN X esetében (körülbelül 13% a GeForce GTX 1080 esetében 10%-kal szemben), ami azt jelenti, hogy amikor a GeForce GTX 1080 Ti megjelenik ugyanazon GP102 alapján, jogunk van még magasabb frekvenciákkal és ennek eredményeként a teljesítmény növekedésével számolni. A TITAN X közleményében a negatív pont az ajánlott költség kétszáz dolláros növekedése, azonban véleményünk szerint a 20%-os költségnövekedés nem okoz komoly gondot az ilyen videokártyák potenciális fogyasztóinak. Nos, a szerényebb játékosok már nagyon várják a GeForce GTX 1080 Ti megjelenését, valamint „piros” vetélytársát.

Ezenkívül megjegyezzük, hogy a játékokban nyújtott lenyűgöző teljesítmény ellenére az NVIDIA maga a TITAN X-et mindenekelőtt hatékony eszközként pozícionálja a neurális hálózatok képzéséhez és a Deep Learning algoritmusokkal kapcsolatos problémák megoldásához (mély tanulás). Ezeket az algoritmusokat ma már aktívan használják különböző területeken: beszéd-, kép-, videofelismerés, hidrometeorológiai előrejelzés, pontosabb orvosi diagnózisok, nagy pontosságú térképezés, robotika, önvezető autók stb. Ezért elmondhatjuk, hogy az új NVIDIA TITAN X videokártya lehetőségei korlátlanok, és minden felhasználót kielégítenek.

Köszönjük az NVIDIA-nak és személyesen Irina Shekhovtsovának
a teszteléshez biztosított videokártyához
.


Bemutatjuk az alapvető részletes anyagot az Nvidia Geforce GTX Titan X tanulmány segítségével.

A vizsgálat tárgya: 3D grafikus gyorsító (videokártya) Nvidia Geforce GTX Titan X 12288 MB 384 bites GDDR5 PCI-E

Fejlesztői részletek: Az Nvidia Corporationt (Nvidia védjegy) 1993-ban alapították az Egyesült Államokban. Székhelye: Santa Clara (Kalifornia). Grafikus processzorokat, technológiákat fejleszt. 1999-ig a fő márka a Riva (Riva 128/TNT/TNT2), 1999-től napjainkig a Geforce volt. 2000-ben a 3dfx Interactive eszközeit felvásárolták, majd a 3dfx / Voodoo védjegyek átkerültek az Nvidiához. Nincs termelés. Az alkalmazottak összlétszáma (a regionális irodákkal együtt) mintegy 5000 fő.

1. rész: Elmélet és építészet

Mint már tudjátok, még a múlt hónap közepén az Nvidia kiadott egy új csúcskategóriás videokártyát Geforce GTX Titan X néven, amely a piac legerősebbjévé vált. Azonnal megkaptuk részletes áttekintést erről az újdonságról, de csak gyakorlati kutatásokat tartalmazott, elméleti rész és szintetikus tesztek nélkül. Ez különböző körülmények miatt következett be, beleértve azokat is, amelyek rajtunk kívül álltak. De ma kijavítjuk ezt a hibát, és közelebbről megvizsgáljuk a márciusi újdonságot - egy hónap alatt semmi sem történt, ami elvesztette volna jelentőségét.

Az Nvidia még 2013-ban kiadta a Geforce GTX Titan videokártyák új márkájának első megoldását, amelyet az Oak Ridge National Laboratory szuperszámítógépéről neveztek el. Az új termékcsalád első modellje új rekordokat döntött mind a teljesítmény, mind az ár tekintetében, 999 dolláros MSRP-vel az amerikai piacon. Ez volt az első csúcskategóriás Titan sorozatú grafikus kártya, amely aztán folytatódott a nem túl népszerű duplachipes Titan Z-vel és a gyorsított Titan Black-vel, amely egy teljesen feloldott GK110 revision B GPU-t kapott.

És most, 2015 tavaszán eljött az ideje egy újabb Nvidia újdonságnak a "titán" prémium sorozatból. A GTX Titan X-et először Jensen Huang, a cég elnöke mutatta be a GDC 2015 játékfejlesztői konferenciáján, az Epic Unreal Engine rendezvényen. Valójában ez a videokártya látatlanban egyébként is részt vett a show-ban, sok demóstandra telepítették, de Jensen hivatalosan bemutatta.

A Geforce GTX Titan X megjelenése előtt a leggyorsabb egychipes videokártya a tavaly szeptemberben bemutatott, ugyanazon Maxwell grafikus architektúra GM204 lapkáján alapuló Geforce GTX 980 volt. Ez a modell nagyon energiatakarékos, megfelelő feldolgozási teljesítményt biztosít, miközben mindössze 165 W-ot fogyaszt – vagyis kétszer olyan energiahatékony, mint az előző generációs Geforce.

Ugyanakkor a Maxwell architektúrájú GPU-k támogatják a hamarosan megjelenő DirectX 12-t (beleértve a 12.1-es funkciószintet is) és a cég további legújabb grafikus technológiáit: az Nvidia Voxel Global Illuminationt (VXGI, a GTX 980 cikkében írtunk róla), egy új Multi- Frame mintavételes élsimítási módszer AA (MFAA), Dynamic Super Resolution (DSR) és még sok más. A teljesítmény, az energiahatékonyság és a funkciók kombinációja tette a GM204 chipet a legjobb fejlett grafikus processzorrá a megjelenése idején.

De minden megváltozik valamikor, és a 2048 magos és 128 textúraegységgel rendelkező GPU-t egy új GPU váltotta fel, amely ugyanazon a második generációs Maxwell architektúrán alapul (az elsőre a GM107 chipről emlékszünk, amelyen a Geforce GTX 750 Ti videokártya található alapú) és ugyanazokkal a képességekkel, de 3072 CUDA maggal és 192 textúraegységgel – mindezt már 8 milliárd tranzisztorba csomagolták. Természetesen a Geforce GTX Titan X azonnal a legerősebb megoldás lett.

Valójában a csúcskategóriás második generációs Maxwell lapka, amelyet ma GM200 kódnéven ismerünk, egy ideig készen állt az Nvidiánál a bejelentése előtt. Egyszerűen nem volt sok értelme egy újabb csúcskategóriás grafikus kártya kiadásának, amikor még a GM204-re épülő Geforce GTX 980 is nagyszerű munkát végzett a világ leggyorsabb egychipes grafikus kártyájaként. Az Nvidia egy ideig várt az AMD erősebb, GPU-ra épülő megoldására, amely ugyanazon a 28 nm-es technológiával készült, de nem várt.

Valószínű, hogy valódi verseny híján egyáltalán nem borulna el a termék, ennek ellenére a kiadás mellett döntöttek, ezzel biztosítva a legerősebb GPU-kat gyártó cég címét. És valóban, nem volt értelme az ellenfél döntésére várni, mert azt legalább júniusra halasztották – egyszerűen veszteséges ennyit várni. Nos, ebben az esetben mindig kiadhat egy még erősebb videokártyát, amely ugyanazon a GPU-n alapul, de magasabb frekvencián működik.

De miért van szükségünk ilyen erőteljes megoldásokra a többplatformos játékok korában, meglehetősen átlagos GPU-teljesítményigényekkel? Először is, az első játékalkalmazások, amelyek a DirectX 12 képességeit használják, még ha többplatformosak is, hamarosan megjelennek - elvégre az ilyen alkalmazások PC-s verziói szinte mindig jobb grafikát, további effektusokat és nagyobb felbontású textúrákat kínálnak. Másodszor, már megjelentek a DirectX 11-es játékok, amelyek a legerősebb GPU-k összes képességét ki tudják használni – mint például a Grand Theft Auto V, amiről az alábbiakban részletesebben is szó lesz.

Fontos, hogy az Nvidia Maxwell grafikus megoldásai teljes mértékben támogassák a DirectX 12 úgynevezett Feature Level 12.1 szolgáltatási szintjét – a jelenleg ismert legmagasabb szintet. Az Nvidia már régóta biztosítja a játékfejlesztőknek a DirectX hamarosan megjelenő verziójához illesztőprogramokat, amelyek most már a Microsoft Windows 10 Technical Preview-t telepítő felhasználók számára is elérhetőek. Nem meglepő módon a Geforce GTX Titan X videokártyákkal demonstrálták a DirectX 12 képességeit a Game Developers Conference-en, ahol először mutatták be a modellt.

Mivel az Nvidia videokártya vizsgált modellje a második generációs Maxwell architektúra csúcsminőségű grafikus processzorán alapul, amelyet már megvizsgáltunk, és amely részletesen hasonlít a korábbi Kepler architektúrához, érdemes elolvasni a korábbi cikkeket a a cég videokártyáival, mielőtt elolvasná ezt az anyagot. Nvidia:

  • Nvidia Geforce GTX 970 - Jó helyettesítője a GTX 770-nek
  • Nvidia Geforce GTX 980 – a Geforce GTX 680 követője, még a GTX 780 Ti-t is felülmúlva
  • Nvidia Geforce GTX 750 Ti - A Maxwell kicsiben indul... Maxwell ellenére
  • Az Nvidia Geforce GTX 680 a 3D grafika új, egyfoglalatos piacvezetője

Nézzük tehát a GM200 GPU-n alapuló Geforce GTX Titan X videokártya részletes specifikációit.

Geforce GTX Titan X grafikus gyorsító
ParaméterJelentése
Chip kódnévGM200
Gyártástechnológia28 nm
A tranzisztorok számakörülbelül 8 milliárd
Alapterületkb 600 mm 2
ÉpítészetEgységesített, egy sor közös processzorral számos típusú adatfolyam feldolgozásához: csúcsok, pixelek stb.
DirectX hardver támogatásDirectX 12, a 12.1 funkciószint támogatásával
Memóriabusz384 bites: Hat független 64 bites memóriavezérlő GDDR5 memória támogatással
GPU frekvencia1000 (1075) MHz
Számítási blokkok24 streaming többprocesszor, beleértve 3072 skaláris ALU-t az egyszeres és dupla pontosságú lebegőpontos számításokhoz (az FP32 arány 1/32-e) az IEEE 754-2008 szabványnak megfelelően;
Textúra blokkok192 textúracímző és -szűrő egység FP16 és FP32 komponensek támogatásával a textúrákban, valamint a trilineáris és anizotróp szűrés támogatásával minden textúraformátumhoz
Raszterezési egységek (ROP)6 széles ROP (96 pixel) különböző élsimítási módok támogatásával, beleértve a programozható és FP16 vagy FP32 keretpuffer formátumot. A blokkok egy sor konfigurálható ALU-ból állnak, és felelősek a mélység létrehozásáért és összehasonlításáért, a többszörös mintavételezésért és a keverésért.
Monitor támogatásIntegrált támogatás akár négy, Dual Link DVI, HDMI 2.0 és DisplayPort 1.2 porton keresztül csatlakoztatott monitorhoz
A Geforce GTX Titan X referencia grafikus kártya specifikációi
ParaméterJelentése
Magfrekvencia1000 (1075) MHz
Univerzális processzorok száma3072
Textúra blokkok száma192
Keverési blokkok száma96
Hatékony memóriafrekvencia7000 (4×1750) MHz
Memória típusaGDDR5
Memóriabusz384 bites
Memória méret12 GB
Memória sávszélesség336,5 GB/s
Számítási teljesítmény (FP32)legfeljebb 7 teraflop
Elméleti maximális kitöltési arány96 gigapixel/s
Elméleti textúra mintavételi sebesség192 gigatexel/s
GumiPCI Express 3.0
CsatlakozókEgy Dual Link DVI, egy HDMI 2.0 és három DisplayPort 1.2
Energia fogyasztás250 W-ig
Extra ételEgy 8 tűs és egy 6 tűs csatlakozó
A rendszerházon elfoglalt helyek száma2
Ajánlott ár999 USD (USA), 74 990 RUB (Oroszország)

Az új Geforce GTX Titan X olyan nevet kapott, amely folytatja az Nvidia prémium megoldásainak sorát a konkrét pozicionáláshoz – egyszerűen csak X betűt fűztek hozzá. Az új modell a Geforce GTX Titan Black modellt váltotta fel, és a cég élén áll. jelenlegi termékcsalád. Fölötte már csak a kétlapkás Geforce GTX Titan Z maradt (bár ez már nem említhető), alatta pedig az egychipes GTX 980 és GTX 970 modellek. a piac legjobb teljesítményű megoldása egychipesre videokártyák.

A szóban forgó Nvidia modell a GM200 lapkára épül, amely 384 bites memóriabusszal rendelkezik, és a memória 7 GHz-en fut, ami 336,5 GB/s-os csúcssávszélességet ad – másfélszer többet, mint a GTX-ben. 980. Ez egészen lenyűgöző érték, különösen, ha felidézzük a második generációs Maxwell-nél alkalmazott új, chipen belüli információtömörítési módszereket, amelyek a versenytárs GPU-jánál sokkal hatékonyabban segítenek kihasználni a rendelkezésre álló memória sávszélességét.

Ezzel a memóriabusszal a videokártyára telepített videomemória mennyisége 6 vagy 12 GB lehetett, de az elit modell esetében a 12 GB beépítése mellett döntöttek az első GTX Titan modellek trendjének folytatásaként. . Ez több mint elég bármilyen 3D-s alkalmazás futtatásához a minőségi paraméterek figyelembevétele nélkül - ez a mennyiségű videomemória abszolút minden létező játékhoz elegendő bármilyen képernyőfelbontás és minőségi beállítás mellett, ami a Geforce GTX Titan X videokártyát különösen csábítóvá teszi a kilátással. a jövőbe – a tulajdonosa soha nem fogy ki a videomemóriából.

A Geforce GTX Titan X hivatalos fogyasztási adata 250 W – ez megegyezik az elit Titan sorozat többi egychipes megoldásával. Érdekes módon a 250 W körülbelül 50%-kal több, mint a GTX 980, és a fő funkcionális blokkok száma is ugyanennyivel nőtt. A meglehetősen magas fogyasztás nem okoz gondot, a referenciahűtő kiváló munkát végez ekkora hő elvezetésében, és a lelkes rendszerek a GTX Titan és a GTX 780 Ti után már régóta készen állnak ilyen szintű fogyasztásra.

Építészet

A Geforce GTX Titan X videokártya modellje az új GM200 grafikus processzorra épül, amely tartalmazza a GM204 chip összes architekturális jellemzőjét, így a GTX 980-ról szóló cikkben leírtak teljes mértékben érvényesek a prémium új termékre - tanácsoljuk először olvassa el azt az anyagot, amelyben pontosan Maxwell építészeti jellemzői vannak.

A GM200 GPU a GM204 extrém változatának nevezhető, amely a 28 nm-es folyamaton belül lehetséges. Az új chip nagyobb, sokkal gyorsabb és energiaigényesebb. Az Nvidia szerint a "nagy Maxwell" 8 milliárd tranzisztort tartalmaz, amelyek körülbelül 600 mm 2 -es területet fednek le, vagyis ez a cég legnagyobb grafikus processzora. A "Big Maxwell" 50%-kal több stream processzorral, 50%-kal több ROP-val és 50%-kal nagyobb memória sávszélességgel rendelkezik, ezért csaknem másfélszer nagyobb a területe.

Építészetileg a GM200 videochip teljesen konzisztens a fiatalabb GM204 modellel, emellett GPC klaszterekből áll, amelyek több SM multiprocesszort tartalmaznak. A felső grafikus processzor hat GPC klasztert tartalmaz, 24 többprocesszorból áll, összesen 3072 CUDA maggal, a textúra műveleteket (mintavétel és szűrés) pedig 192 textúraegység segítségével végzik. És 1 GHz-es alapfrekvenciával a textúramodulok teljesítménye 192 gigatexel / s, ami több mint egyharmadával magasabb, mint a cég korábbi legerősebb videokártyájának - Geforce GTX 980 -nak.

A második generációs Maxwell többprocesszor négy, 32 CUDA magból álló blokkra van osztva (összesen 128 mag SMM-enként), amelyek mindegyike saját erőforrásokkal rendelkezik a parancselosztáshoz, a feldolgozás ütemezéséhez és az utasításfolyam puffereléséhez. Tekintettel arra, hogy minden számítási egység saját diszpécser egységekkel rendelkezik, a CUDA számítási magokat hatékonyabban használják, mint a Keplerben, ami szintén csökkenti a GPU energiafogyasztását. Maga a többprocesszor nem változott a GM204-hez képest:

A gyorsítótárak GPU-ban való használatának hatékonyságának javítása érdekében számos változtatást hajtottak végre a memória alrendszeren. A GM200 mindegyik többprocesszora dedikált 96 KB-os megosztott memóriával rendelkezik, és az első szintű és textúra gyorsítótárak 24 KB-os blokkokban vannak kombinálva – többprocesszoronként két blokk (összesen 48 KB SMM-enként). Az előző generációs Kepler GPU-k mindössze 64 KB megosztott memóriával rendelkeztek, ami egyben L1 gyorsítótárként is működött. Az összes változtatás eredményeként a Maxwell CUDA magok hatásfoka mintegy 1,4-szer magasabb, mint egy hasonló Kepler chipben, az új lapkák energiahatékonysága pedig körülbelül kétszerese.

Általánosságban elmondható, hogy a GM200 grafikus processzorban minden pontosan ugyanúgy van elrendezve, mint a 2014-ben áttekintett GM204 chipben. Még csak hozzá sem nyúltak azokhoz a magokhoz, amelyek dupla pontosságú lebegőpontos műveleteket képesek végrehajtani az egyszeres pontosságú számítások sebességének mindössze 1/32-ével – akárcsak a Geforce GTX 980. Úgy tűnik, az Nvidia felismerte, hogy a kiadás A professzionális piacra (GK210) és a játékra (GM200) speciális megoldások kidolgozása meglehetősen indokolt.

A GM200 memória alrendszere megerősített a GM204-hez képest - hat 64 bites memóriavezérlőre épül, ami összesen egy 384 bites buszt alkot. A memóriachipek 7 GHz-es effektív frekvencián működnek, ami 336,5 GB/s-os csúcssávszélességet ad, ami másfélszer nagyobb, mint a Geforce GTX 980. Ne feledkezzünk meg az Nvidia új adattömörítési módszereiről sem. , amelyek lehetővé teszik a korábbi termékekhez képest nagyobb effektív memória sávszélesség elérését - ugyanazon a 384 bites buszon. A Geforce GTX 980 áttekintése során alaposan átgondoltuk a Maxwell chipek második generációjának ezt az újítását, amely a Keplerhez képest negyedével hatékonyabb videomemória-használatot biztosít számukra.

Az összes legújabb Geforce grafikus kártyához hasonlóan a GTX Titan X modellnek is van alapfrekvenciája – ez a minimum a GPU 3D módban történő működéséhez, valamint a Boost Clock turbófrekvenciája. Az újdonság alapfrekvenciája 1000 MHz, a Boost Clock frekvencia pedig 1075 MHz. A turbófrekvencia a korábbiakhoz hasonlóan csak a GPU átlagos frekvenciáját jelenti az Nvidia által használt játékalkalmazások és egyéb 3D-s feladatok meghatározott készletéhez, a tényleges működési frekvencia pedig magasabb is lehet - ez a 3D terheléstől és körülményektől (hőmérséklet, teljesítmény) függ. fogyasztás stb.)

Kiderült, hogy az új termék GPU-frekvenciája körülbelül 10%-kal magasabb, mint a GTX Titan Blacké, de alacsonyabb, mint a GTX 980-é, mivel a nagy GPU-kat mindig alacsonyabb frekvencián kell órajelezni (a GM200 pedig észrevehetően nagyobb terület, mint a GM204) . Ezért az újdonság összesített 3D-s teljesítménye körülbelül 33%-kal magasabb lesz, mint a GTX 980-é, különösen a Turbo Boost frekvenciák összehasonlításakor.

Minden más tekintetben a GM200 chip pontosan megegyezik a GM204-gyel – a megoldások képességeikben és támogatott technológiájukban megegyeznek. Még a kijelzőkkel és videó adatokkal való munkavégzésre szolgáló modulok is pontosan ugyanazok maradtak, mint a Geforce GTX 980 modell alapjául szolgáló GM204-nél, ennek megfelelően mindaz, amit a GTX 980-ról és a GTX 970-ről írtunk, teljes mértékben vonatkozik a Titan X-re is. .

Ezért az újdonság funkcionális finomságaival kapcsolatos minden egyéb kérdésben a Geforce GTX 980 és GTX 750 Ti ismertetőire hivatkozhatunk, amelyekben részletesen írtunk a Maxwell architektúráról, a streaming multiprocesszorok eszközéről (Streaming Multiprocessor - SMM) , a memória alrendszer felépítése és néhány egyéb építészeti különbség. Megnézheti az olyan funkciókat is, mint a gyorsított VXGI globális megvilágítás számításának hardveres támogatása, az új teljes képernyős élsimítási módszerek és a továbbfejlesztett DirectX 12 grafikus API-képességek.

Problémák megoldása új technikai folyamatok fejlesztésével

Bátran kijelenthetjük, hogy a 28 nm-es folyamattechnológiát már régóta elege van a videokártya-piacon – már negyedik éve figyeljük meg, és eleinte a TSMC egyáltalán nem tudott előrelépni, ill. akkor úgy tűnt, hogy be lehet indítani a 20 nm-es gyártást, de hiába, hogy a nagy GPU-knál nem volt elérhető - a megfelelő hozama meglehetősen alacsony, és semmi előnye nem volt az elhasznált 28 nm-hez képest. Ezért az Nvidiának és az AMD-nek a lehető legtöbbet ki kellett kicsikarnia a meglévő lehetőségekből, és a Maxwell chipek esetében ez egyértelműen az Nvidiának sikerült is. Teljesítmény és energiahatékonyság tekintetében az ilyen architektúrájú GPU-k egyértelmű előrelépést jelentettek, amire az AMD egyszerűen nem reagált – legalábbis egyelőre.

Tehát a GM204-ből az Nvidia mérnökei sokkal nagyobb teljesítményt tudtak kicsikarni a GK104-hez képest, ugyanolyan szintű energiafogyasztás mellett, bár a chip harmadával nőtt, és a tranzisztorok nagyobb sűrűsége lehetővé tette számuk további növelését - 3,5 milliárdról 5,2 milliárdra Nyilvánvaló, hogy ilyen körülmények között a GM204 sokkal több végrehajtó egységet tartalmazott, ami nagyobb 3D-s teljesítményt eredményezett.

De a Maxwell architektúra legnagyobb chipje esetében az Nvidia tervezői nem tudták túlságosan megnövelni a chip méretét, a GK110-hez képest már körülbelül 550 mm 2 területtel rendelkezik, és nem Területének harmadával vagy legalább negyedével növelhető - egy ilyen GPU túl bonyolult és költséges lenne a gyártása. Valamit fel kellett áldoznom (a régebbi Keplerhez képest), és ez a valami a dupla pontosságú számítások teljesítménye lett - a GM200-ban pont olyan a tempója, mint a többi Maxwell megoldásban, bár a régebbi Kepler sokoldalúbb volt, alkalmas grafikus és bármilyen nem grafikus számításhoz.

Egy ilyen döntés nem volt könnyű a Kepler számára - a chip területének túl nagy részét a CUDA FP64 magok és más speciális számítási egységek foglalták el. A nagy Maxwell esetében úgy döntöttek, hogy beérik a grafikus feladatokkal, és egyszerűen a GM204 felnagyított változataként készült. Az új GM200 chip tisztán grafikus lett, nem tartalmaz speciális blokkokat az FP64 számításokhoz, sebességük változatlan marad - az FP32-nek csak 1/32-e. De a GK110 FP64 ALU-k által elfoglalt területének nagy része felszabadult, és több grafikai szempontból fontos FP32 ALU került a helyükre.

Egy ilyen lépés lehetővé tette a grafikus (és a számítási, ha FP32 számításokat vesszük) teljesítményének jelentős növelését a GK110-hez képest anélkül, hogy az energiafogyasztást növelte volna, és a kristályterület enyhe növekedésével - kevesebb, mint 10%. Érdekes módon az Nvidia ezúttal szándékosan a grafikus és a számítási chipek szétválasztására ment. Bár a GM200 továbbra is nagyon produktív az FP32 számításaiban, és a Tesla speciális megoldásai az egyszeri precíziós számításokhoz meglehetősen lehetségesek, és sok tudományos feladathoz elegendőek, a Tesla K40 továbbra is a legproduktívabb az FP64 számításokhoz.

Ez a különbség egyébként az eredeti Titanhoz képest - a vonal első megoldása professzionális célokra is használható lenne dupla pontosságú számításokhoz, hiszen az FP64 számításoknál is 1/3-os arányú. Sok kutató pedig a GTX Titan-t használta CUDA-alkalmazásaihoz és feladataihoz kezdőkártyaként, és sikerrel tért át a Tesla megoldásokra. Erre a GTX Titan X már nem alkalmas, várni kell a következő generációs GPU-kra. Természetesen, ha kezdetben nincsenek grafikus és számítási chipekre osztva.

A bővítőkártyáknak már van ilyen felosztása - a Tesla K80 modell egy pár GK210 chipet tartalmaz, amelyeket nem használnak a videokártyákban, és a GK110-től kettős regiszterfájlban és megosztott memóriában különböznek a számítási feladatok jobb teljesítménye érdekében. Kiderült, hogy a GK210 kizárólag „számítástechnikai” processzornak tekinthető, a GM200 pedig tisztán „grafikus” processzornak (bizonyos fokú konvencióval, mivel mindkét GPU-nak ugyanazok a képességei, csak más-más specializáció).

Lássuk, mi történik az Nvidia grafikus architektúráinak következő generációiban, amelyek már „vékonyabb” technikai eljárással készülnek – náluk talán nem lesz szükség ekkora szétválasztásra, legalábbis elsőre. Vagy fordítva, azonnal látni fogjuk a szigorú felosztást a különböző specializációjú GPU modellekre (a számítási modellek több számítási képességgel rendelkeznek, a grafikus modellek pedig - például TMU és ROP blokkok), bár az architektúra változatlan marad.

A videokártya kialakításának jellemzői

De térjünk vissza a Geforce GTX Titan X-hez. Ez egy nagy teljesítményű grafikus kártya, amelyet a PC-játékok szerelmeseinek terveztek, ezért megfelelő megjelenés- a tábla és a hűtő eredeti és szilárd kialakítása. A Titan vonal korábbi megoldásaihoz hasonlóan a Geforce GTX Titan X modellt is alumínium ház borítja, ami a nagyon prémium megjelenést kölcsönzi a videokártyának - tényleg masszívan néz ki.

A hűtőrendszer is nagyon lenyűgöző – a Titan X hűtő kialakítása rézötvözet gőzkamrát használ – ez hűti a GM200 GPU-t. A párologtató kamra egy nagy, kétnyílású alumíniumötvözet hűtőbordához csatlakozik, amely elvezeti a videochipről átadott hőt. A ventilátor eltávolítja a felmelegedett levegőt a PC házán kívül, ami pozitív hatással van a rendszer általános hőmérsékleti rendszerére. A ventilátor nagyon csendes még túlhajtva és hosszú ideig terhelés alatt is, ennek eredményeként a 250 W-os GTX Titan X az egyik legcsendesebb grafikus kártya kategóriájában.

A Geforce GTX 980 referenciakártyával ellentétben az új termék nem tartalmaz speciális eltávolítható lemezt, amely a tábla hátsó felületét takarja - ez azért történik, hogy a NYÁK-hoz maximális légáramlást biztosítson a hűtéshez. A kártya egy 8 tűs és egy 6 tűs PCI Express kiegészítő tápcsatlakozóból áll.

Mivel a Geforce GTX Titan X a maximális teljesítményű megoldásokat kedvelő rajongóknak készült, az új videokártya minden alkatrészét ennek figyelembevételével választották ki, méghozzá némi fenntartással a funkciók és a jellemzők tekintetében.

Például a Geforce GTX Titan X grafikus processzorának energiával való ellátásához egy 6 fázisú tápegységet használnak további erősítés lehetőségével. A GDDR5 memória működésének biztosítására egy másik kétfázisú táprendszert is használnak. A videokártya 6 + 2 fázisú táprendszere túlhajtás mellett is bőven elegendő teljesítményt biztosít a szóban forgó modellnek. Így a Titan X referenciakártya akár 275 W teljesítményt is képes ellátni a GPU-val, feltéve, hogy a célteljesítmény (teljesítménycél) maximális értéke 110%.

Ezenkívül a túlhajtási potenciál további javítása érdekében az összes új komponens hűtését javították az eredeti Geforce GTX Titan videokártyához képest - az újratervezett kártya és a hűtő jobb túlhajtási képességeket eredményezett. Ennek eredményeként szinte minden Titan X minta képes akár 1,4 GHz-es vagy annál nagyobb frekvencián is működni - ugyanazzal a referencia léghűtővel.

A Geforce GTX Titan X referenciakártya hossza 267 mm, a következő képkimeneti csatlakozókkal rendelkezik: egy Dual-Link DVI, egy HDMI 2.0 és három DisplayPort. A Geforce GTX Titan X támogatja a kijelzőkimenetet 5K felbontásig, és egy másik HDMI 2.0-kompatibilis grafikus kártya, amely még mindig hiányzik a versenytársból – ez lehetővé teszi az új termék csatlakoztatását 4K TV-hez, maximális képminőséget biztosítva magas, 60 képfrissítési gyakoriság mellett. Hz.

Játékfejlesztői támogatás

Az Nvidia mindig is olyan cég volt, amely nagyon szorosan együttműködik a szoftvergyártókkal, és különösen a játékfejlesztőkkel. Vessen egy pillantást a PhysX-re – a legnépszerűbb játékfizikai motorra, amelyet több mint 10 éve használnak több mint 500 játékban. A PhysX széleskörű elterjedése többek között annak köszönhető, hogy az egyik legnépszerűbb játékmotorba: az Unreal Engine 3-ba és az Unreal Engine 4-be integrálták. Így a Game Developers Conference 2015 játékfejlesztői konferencián az Nvidia bejelentette ingyenes hozzáférés a CPU forráskódjaihoz – a PhysX 3.3.3 kiemelt része C++ fejlesztőknek Windows, Linux, OS X és Android verziókban.

A fejlesztők ezentúl tetszés szerint módosíthatják a motor PhysX kódját, és a módosításokat akkor is beépíthetik az alap Nvidia PhysX kódba. A PhysX forrásának nyilvános megnyitásával az Nvidia a játékalkalmazás-fejlesztők még szélesebb körének adott hozzáférést fizikai motorjához, akik ezt a fejlett fizikai motort használhatják játékaikban.

Az Nvidia továbbra is népszerűsít egy másik saját technológiát, a meglehetősen új VXGI dinamikus globális megvilágítás szimulációs algoritmust, amely magában foglalja a speciális hardveres gyorsítás támogatását a második generációs Maxwell GPU-kkal ellátott videokártyákon, például a Geforce GTX Titan X-en.

A VXGI játékba való bevezetése lehetővé teszi a fejlesztők számára, hogy nagyon jó minőségű, valós idejű dinamikus globális megvilágítási számítást készítsenek, a modern GPU-k összes képességét kihasználva és a legmagasabb teljesítményt nyújtva. A globális megvilágítás kiszámításának fontosságának megértéséhez (a renderelés nem csak a fényforrások közvetlen megvilágítását veszi figyelembe, hanem a jelenet összes tárgyáról való visszaverődését is), csak nézzen meg néhány képet - GI-vel és anélkül:

Nyilvánvaló, hogy ez a példa mesterséges, és a valóságban a játéktervezők speciális módszereket használnak a globális árnyékolás szimulálására, további lámpák elhelyezésére vagy előre kiszámított világításra – de a VXGI megjelenése előtt ezek vagy nem voltak teljesen dinamikusak (előre kiszámítva a statikus terhelésre). geometria), vagy nem volt megfelelő realitása és/vagy teljesítménye. A jövőbeli játékokban teljesen lehetséges a VXGI használata, és nem csak a legjobb GPU-kon.

A VXGI technika nagyon népszerű volt a játékfejlesztők körében. Legalábbis sokan kipróbálták a módszert tesztjelenetekben, nagyon izgatottak az eredmények miatt, és fontolgatják, hogy beépítik játékaikba. És itt van egy másik jelenet a globális megvilágítás jó minőségű számításával – ez is azt mutatja, mennyire fontos figyelembe venni a jelenet minden felületéről visszaverődő fénysugarakat:

Míg a fejlesztők nem implementálták a VXGI-t saját motorjukba, használhatja az Unreal Engine 4 VXGI GitHub motor speciális verzióját, amely minden érdeklődő fejlesztő számára elérhető - ez lehetővé teszi a VXGI gyors integrálását a játékukba (és nem csak! ) projektek ezt a népszerű játékmotort használva – ez azonban némi módosítást igényel, a VXGI-t nem lehet egyszerűen "engedélyezni".

Vegyünk egy másik Nvidia technológiát - a teljes képernyős élsimítást az MFAA módszerrel, amely kiváló teljesítményt és egyben elfogadható élsimítási minőséget biztosít. Erről a módszerről már írtunk, és csak röviden ismételjük meg a lényeget és a szempontokat. Az MFAA támogatás a Maxwell GPU-k egyik legfontosabb jellemzője az előző generációs GPU-khoz képest. Az MSAA-módszerben az élsimítási minták pozícióinak programozása révén ezek a minták minden képkockát oly módon változtatnak, hogy az MFAA szinte teljes értékű MSAA, de kevesebb terhelést jelent a GPU-ra.

Ennek eredményeként az MFAA engedélyezésével a kép majdnem olyan, mint az MSAA esetében, de a teljesítményveszteség sokkal kisebb. Például az MFAA 4x olyan sebességet biztosít, mint az MSAA 2x, és az élsimítás minősége megközelíti az MSAA 4x-et. Ezért azokban a játékokban, ahol a teljesítmény nem elegendő a magas képkockasebesség eléréséhez, az MFAA használata teljes mértékben indokolt lesz, és javíthatja a minőséget. Íme egy példa a Titan X grafikus kártya MSAA és MFAA teljesítményére a hagyományos Titanhoz képest (4K felbontásban):

Az MFAA élsimítási módszer kompatibilis az összes DirectX 10 és DirectX 11 játékkal, amely MSAA-támogatással rendelkezik (kivéve az olyan ritka projekteket, mint a Dead Rising 3, a Dragon Age 2 és a Max Payne 3). Az MFAA manuálisan engedélyezhető az Nvidia vezérlőpultján. Ezenkívül az MFAA integrálva van a Geforce Experience-be, és ez a módszer automatikusan engedélyezve lesz különböző játékok Geforce Experience használatával történő optimalizálás esetén. A probléma csak az, hogy az MFAA jelenleg még mindig nem kompatibilis az Nvidia SLI technológiával, amit ígéretek szerint javítanak a videó-illesztőprogramok jövőbeni verzióiban.

Modern játékok Geforce GTX Titan X-en

Minden erejével és képességeivel a Geforce GTX Titan X nem csak a jelenlegi játékokkal, hanem a jövőbeli projektekkel is képes megbirkózni a közelgő DirectX 12 verzió támogatásával. minőség, teljes képernyős élsimítás engedélyezett és nagy felbontású renderelés – mint pl. 4K.

Nagy felbontás és élsimítás esetén a nagy teljesítményű memória alrendszer válik különösen fontossá, és a Geforce GTX Titan X-ben minden megtalálható. tökéletes rendben- A 384 bites memória interfész és a 7 GHz-es effektív frekvencián futó chipek 336,5 GB / s átviteli sebességet biztosítanak - bár ez nem rekord, de elég tisztességes.

És az is nagyon fontos, hogy minden adat beleférjen a videomemóriába, hiszen ha az MSAA sok játékban 4K felbontáson engedélyezve van, a videomemória mennyisége egyszerűen nem elegendő - több mint 4 GB memóriára van szükség. És a Titan X nem csak 6 GB, hanem akár 12 GB videomemóriával rendelkezik, mert ez a vonal azoknak a rajongóknak készült, akik nem tűrik a kompromisszumokat. Nyilvánvaló, hogy ekkora beépített memória mellett a játékosnak nem kell azon gondolkodnia, hogy a játék teljesítménye nagy felbontásban csökken-e, ha a multisampling engedélyezve van - minden játékban bármilyen beállítás mellett 12 GB több lesz. mint elég.

Jelenleg minden játékban bármilyen beállítást megadhat és bármilyen felbontást választhat - a Titan X (majdnem) bármilyen körülmények között elegendő képsebességet biztosít. Itt vannak azok a játékok, amelyeket az Nvidia választott megoldása teljesítményének bemutatására:

Amint láthatja, a legtöbb "legnehezebb" modern játékban 40 FPS vagy nagyobb képkockasebességet biztosítanak a teljes képernyős élsimítással, beleértve a Far Cry 4-hez hasonló projekteket is – ebben a játékban Ultra beállításokkal és anti- -4K felbontású alias, elfogadható renderelési sebesség elérése csak Titan X vagy többchipes konfigurációkon lehetséges.

A jövő DirectX 12-t támogató játékainak megjelenésével pedig a GPU és a videomemória teljesítményével szemben támasztott követelmények még nagyobb növekedésére számíthatunk – a renderelés minőségének javítását nem adják „ingyen”. Az Nvidia egyébként akkor még nem tesztelte a Titan X grafikus kártyáját a legújabb játékban, ami egészen nemrég jelent meg - a Grand Theft Auto V PC-s verziójában. Ez a játéksorozat a legnépszerűbb a modern projektek között, amelyben különféle bűnözői elemekként viselkedsz Los Santos városának díszletében, amely gyanúsan hasonlít az igazi Los Angeleshez. A GTAV PC-s verzióját nagyon várták, és végül április közepén – egy hónappal a Titan X után – jelent meg.

A Grand Theft Auto V játék konzolos verziói (persze a jelenlegi generációs konzolokról beszélünk) is elég jók voltak képminőségben, a játék PC-s verziója pedig még több lehetőséget kínál a javításra: a megnövelt rajzolási távolság (objektumok, effektusok, árnyékok), 60 FPS vagy nagyobb sebességgel való lejátszás, beleértve a 4K felbontást is. Emellett gazdag és sűrű forgalmat, sok dinamikus objektumot a jelenetben, jobb időjárási hatásokat, árnyékokat, világítást stb. ígérnek.

Néhány Nvidia GameWorks technológia használata tovább javította a GTAV képminőségét. Emlékezzünk vissza, hogy a GameWorks egy speciális platform a játék- és grafikai fejlesztők számára, amely az Nvidia videokártyákhoz tervezett 3D technológiákat és segédprogramokat biztosítja számukra. A GameWorks technológiák hozzáadásával a játékokhoz viszonylag egyszerűvé válik a valósághű füst, gyapjú és szőrzet, hullámok, valamint globális megvilágítás és egyéb hatások kiváló minőségű utánzata. A GameWorks nagyban megkönnyíti a fejlesztők dolgát azáltal, hogy példákat, könyvtárakat és SDK-kat kínál, amelyek készen állnak a játékkódban való használatra.

A Grand Theft Auto V néhány ilyen technológiát használ az Nvidia-tól: ShadowWorks Percentage-Closer Soft Shadows (PCSS) és Temporal Anti-Aliasing (TXAA), amelyek javítják a játék amúgy is jó grafikáját. A PCSS egy speciális árnyékleképezési technika, amely jobb minőségű, mint a tipikus lágy árnyékolási módszerek. A PCSS-nek három előnye van: az árnyékélek lágysága az árnyékot vető objektum és a rajzolt felület közötti távolságtól függ, emellett jobb szűrést biztosít, ami csökkenti a műtermékek számát az árnyékok szaggatott szélei formájában, és az árnyékpuffer használata lehetővé teszi a különböző objektumok árnyékmetszéspontjainak helyes kezelését, és megakadályozza a "kettős" árnyékok megjelenését.

Ennek eredményeként, ha a PCSS engedélyezve van, a játék lágy, valósághű, dinamikus árnyékokat biztosít, amelyek sokkal jobbak, mint amit a játékkonzolokon láttunk. Egy olyan játéknál pedig, mint a Grand Theft Auto V, ahol folyamatosan ragyogó napsütés mozog a horizonton, nagyon fontos az árnyékok minősége, mindig szem előtt vannak. A következő képernyőképeken láthatja a különbséget a játékban használt két legjobb minőségű módszer között (AMD algoritmus és Nvidia módszer):

Jól látható, hogy a PCSS módszer lehetővé teszi az árnyékok lágy széleit, amelyek fokozatosan elmosódnak, minél távolabbi a távolság az objektum, amelytől az árnyék van, és az árnyékot "fogadó" felület között. Ugyanakkor a PCSS beépítése szinte nincs hatással a játék végső teljesítményére. Bár ez a módszer jobb árnyékminőséget és valósághűséget biztosít, ennek az opciónak a bekapcsolása gyakorlatilag "ingyenes" a teljesítmény szempontjából.

A GTAV PC-s változatának másik fontos kiegészítése az Nvidia TXAA élsimítási módszer. A Temporal Anti-Aliasing egy új élsimítási algoritmus, amelyet kifejezetten a hagyományos élsimítási módszerek mozgás közbeni problémáinak kezelésére terveztek – ahol az egyes pixelek villognak. A pixelek képernyőn történő szűréséhez ezzel a módszerrel a mintákat nemcsak a pixelen belül, hanem azon kívül is használják, a korábbi képkockák mintáival együtt, ami lehetővé teszi a „mozi” szűrési minőség elérését.

A módszer előnye az MSAA-val szemben különösen észrevehető olyan áttetsző felületű tárgyakon, mint a fű, falevelek és kerítéshálók. A TXAA emellett segít kisimítani pixelről képpontra hatásokat. Általánosságban elmondható, hogy a módszer nagyon jó minőségű, és megközelíti a 3D-s grafikában használt professzionális módszerek minőségét, de a TXAA utáni eredmény kissé elmosódottabb az MSAA-hoz képest, ami nem minden felhasználónak tetszik.

A TXAA engedélyezésének teljesítménye a játéktól és a körülményektől függ, és elsősorban az MSAA sebességével korrelál, amelyet ebben a módszerben is használnak. De összehasonlítva az olyan tisztán utófeldolgozási élsimítási módszerekkel, mint az FXAA, amelyek alacsonyabb minőség mellett is maximális sebességet biztosítanak, a TXAA célja a minőség maximalizálása további teljesítménybüntetés mellett. De a világ olyan gazdagsága és részletgazdagsága mellett, mint azt a Grand Theft Auto V-ben látjuk, a kiváló minőségű élsimítás alkalmazása nagyon hasznos lesz.

A játék PC-s verziója gazdag grafikai beállításokkal rendelkezik, amelyek lehetővé teszik a kívánt képminőség elérését a szükséges teljesítménnyel. Tehát a GTAV PC-n elfogadható renderelési sebességet és minőséget biztosít az összes Nvidia megoldáson, körülbelül a Geforce GTX 660-tól kezdve. Nos, a játék összes grafikai effektusának teljes élvezetéhez javasoljuk, hogy használjon valami, például a Geforce GTX 970/980-at. vagy akár Titan x.

A beállítások ellenőrzéséhez egy teljesítményteszt van beépítve a játékba – ez a benchmark öt, a valódi játékmenethez közel álló jelenetet tartalmaz, amelyek lehetővé teszik a játék renderelési sebességének értékelését egy különböző hardverkonfigurációjú PC-n. Az Nvidia grafikus kártyák tulajdonosai azonban ezt könnyebben megtehetik, ha a játékot saját számítógépükre optimalizálják a Geforce Experience segítségével. Ez a szoftver kiválasztja és módosítja az optimális beállításokat, miközben fenntartja a lejátszható renderelési sebességet – és mindez egyetlen gombnyomással történik. A Geforce Experience megtalálja a funkciók legjobb kombinációját a FullHD monitorral rendelkező Geforce GTX 660 és a 4K TV-vel rendelkező Titan X esetében, így biztosítva a legjobb beállításokat egy adott rendszerhez.

A GTAV játék teljes támogatása a Geforce illesztőprogramok új, 350.12 WHQL verziójában jelent meg, amely speciálisan ehhez az alkalmazáshoz optimalizált profillal rendelkezik. Ez az illesztőprogram-verzió optimális játékon belüli teljesítményt biztosít, beleértve a többi Nvidia-technológiát is: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA), Percentage Closer Soft Shadows (PCSS), SLI és még sok más.

Ezenkívül a 350.12 WHQL speciális illesztőprogram frissített SLI-profilokat tartalmaz számos játékhoz, beleértve a Grand Theft Auto V új profilját. Az SLI-profilokon kívül az illesztőprogram frissíti és profilokat ad hozzá mind a 3D Vision technológiához, mind a GTAV-hoz "Kiváló" besorolású, ami kiváló sztereó képminőséget jelent ebben a játékban – a megfelelő szemüveg és monitor tulajdonosai próbálják ki!

A virtuális valóság technológiák támogatása

A virtuális valóság (Virtual Reality – VR) témája ma már az egyik leghangosabb téma a játékiparban. A VR iránti érdeklődés felélénküléséért sok szempontból a Facebook által akkor felvásárolt Oculus cég „okolható”. Eddig csak prototípusokat vagy SDK-kat mutattak be, de a tervek szerint még idén kiadják az Oculus Rift sisak kereskedelmi verzióját. Más cégek sem maradnak ki. Például a jól ismert Valve cég bejelentette, hogy partnerségre lép a HTC-vel, hogy 2015 végéig kiadja saját virtuális valóság sisakját is.

Természetesen a GPU-gyártók is a VR-ben látnak jövőt, az Nvidia pedig szorosan együttműködik a virtuális valósághoz szükséges szoftver- és hardvermegoldások beszállítóival annak érdekében, hogy a lehető legkényelmesebben működjenek a Geforce videokártyákkal (vagy akár a Tegra, ki tudja?) . És ezek nem csak marketing szlogenek, hiszen ahhoz, hogy a VR használata kényelmes legyen, több problémát is meg kell oldani, többek között csökkenteni kell a késleltetést a játékos akciója (fejmozgása) és ennek a mozgásnak a kijelzőn történő megjelenítése között – A túl sok késés nem csak a virtuális valóság élményét rontja el, hanem az úgynevezett mozgási betegséget (betegség, mozgási betegség) is előidézheti.

A késleltetés csökkentése érdekében az Nvidia VR Direct szoftvere támogatja az aszinkron idővetemítés nevű funkciót. Az aszinkron idővetemítés használatával egy régebbi jelenet elmozdulhat a játékos fejmozdulatai alapján, amelyeket később a sisak érzékelői rögzítettek. Ez csökkenti a művelet és a kép megjelenítése közötti késleltetést, mivel a GPU-nak nem kell újraszámolnia a teljes képkockát az eltolás előtt. Az Nvidia már most is biztosít illesztőprogram-támogatást a VR-alkalmazások fejlesztői számára, és aszinkron időtorzítást is alkalmazhatnak a szoftvereikben.

A kimeneti késleltetésen túlmenően nagyon fontos, hogy a virtuális valóság sisakjában kényelmes játékmenetet érjünk el, nem csak az, hogy magas képkockasebességet biztosítsunk, hanem az is, hogy a lehető legsimább változtatással jelenítse meg a képkockákat minden szem számára. Ennek megfelelően a jövő generációs VR-sisakok népszerűsítése után a játékosok közül sokan szeretnék kipróbálni azokat modern, GPU-erőt igénylő játékokban. És bizonyos esetekben két chipes SLI konfigurációt kell létrehoznia egy pár erős videokártyából, mint például a Geforce GTX Titan X.

Az ilyen esetekben a maximális kényelem biztosítása érdekében az Nvidia VR SLI technológiát kínál, amely lehetővé teszi a játékfejlesztők számára, hogy egy párból egy adott GPU-t rendeljenek minden szemhez a késleltetés csökkentése és a teljesítmény javítása érdekében. Ebben az esetben a bal szem képét egy GPU, a jobb szem számára pedig a második GPU jeleníti meg. Ez a kézenfekvő megoldás csökkenti a késleltetést, és ideális VR alkalmazásokhoz.

A VR SLI és az aszinkron időtekercselés egyelőre nem érhető el az Nvidia nyilvános meghajtóiban, de ez nem is különösebben szükséges, hiszen használatukhoz módosítani kell a játék futtatható kódját. A VR SLI-t és az Asynchronous Time Warp-ot támogató, kiadás előtti Geforce video-illesztőprogramok pedig bizonyos Nvidia-partnerek, például az Epic, a Crytek, a Valve és az Oculus számára elérhetők. Nos, a nyilvános illesztőprogramot a végleges VR-termékek értékesítése előtt adják ki.

Ezenkívül az olyan erős grafikus kártyát, mint a Geforce GTX Titan X, számos virtuális valóság bemutatón használtak az idei Game Developers Conference 2015-ön. Íme, csak néhány példa: „Thief in the Shadows” – az Nvidia, az Epic közös fejlesztése. , az Oculus és a WETA Digital, a The Hobbit Movie Trilogy mögött álló vizuális effektus-stúdió, a Back to Dinosaur Island a Crytek híres, 14 éves X-Isle: Dinosaur Island demójának és a Valve's Portal ”, „Job Simulator”, „TheBluVR” újraindítása. ” és a „Galéria”. Általában a VR-sisakok értékesítésén múlik, és az Nvidia készen áll erre.

Következtetések az elméleti részről

Építészeti szempontból a Maxwell architektúra második generációjának új csúcskategóriás GPU-ja nagyon érdekesnek bizonyult. Testvéreihez hasonlóan a GM200 is a vállalat korábbi architektúráinak legjavát használja, hozzáadott funkciókkal és a Maxwell második generációjának minden fejlesztésével. Ezért funkcionálisan az újdonság a Geforce GTX 900 sorozat modelljeinek megfelelően jól néz ki.A végrehajtó egységek komoly fejlesztésének segítségével az Nvidia mérnökei a teljesítmény-fogyasztás arány megkétszerezését érték el Maxwellben, miközben funkcionalitást adunk – felhívjuk a figyelmet a VXGI globális megvilágításgyorsítási és grafikus API DirectX 12 hardveres támogatására.

A csúcskategóriás Geforce GTX Titan X grafikus kártyát olyan rendkívül lelkes játékosok számára tervezték, akik a legjobb minőséget és teljesítményt szeretnék elérni a legújabb PC-játékokkal, a legmagasabb felbontáson, a legmagasabb minőségi beállításokkal és teljes képernyős élsimítással. , és mindezt elfogadható képkockasebességgel. Egyrészt kevés játékhoz kell ilyen erős GPU, és be lehet szerelni pár olcsóbb videokártyát. Másrészt a megnövekedett késleltetésű és egyenetlen képkockasebességű többchipes megoldások problémái miatt sok játékos egy erős GPU-t részesít előnyben egy pár kevésbé erős GPU-val szemben. Arról nem is beszélve, hogy az egychipes kártya alacsonyabb energiafogyasztást és a hűtőrendszer zaját is biztosítja.

Természetesen ilyen körülmények között a Geforce GTX Titan X fő problémája a megoldás ára. De tény, hogy olyan résben árulják, ahol egyszerűen nincs szükség az árindoklás és az ár-érték arány fogalmára - a maximális teljesítményű megoldások mindig lényegesen drágábbak, mint a hozzájuk közel állók, de mégsem olyan produktívak. A Titan X pedig egy rendkívül erős és drága grafikus kártya azok számára, akik hajlandóak fizetni a 3D alkalmazások maximális sebességéért.

A Geforce GTX Titan X prémium (luxus, elit - nevezzük akárhogy is) videokártyaként van pozicionálva, és az ajánlott árra sem lehet panasz - főleg a vonal korábbi megoldásai (GTX Titan és GTX Titan Black) óta. ) kezdetben pontosan ugyanannyiba került – 999 dollár. Ez a megoldás azok számára, akiknek az ára ellenére a létező leggyorsabb GPU-ra van szükségük. Sőt, a 3D benchmarkok leggazdagabb rajongói és rekorderei számára három, sőt négy Titan X videokártyával rendelkező rendszerek is elérhetők – ezek egyszerűen a világ leggyorsabb videórendszerei.

Ezeket a kéréseket a Titan X teljes mértékben igazolja és teljesíti – a csúcskategóriás újdonság, még önmagában is, a legmagasabb képkockasebességet mutatja minden játékalkalmazásban és szinte minden körülmények között (felbontás és beállítások), valamint a 12-es gyors GDDR5 videomemória mennyisége A GB lehetővé teszi, hogy ne gondoljon a helyi memória hiányára több évre előre - még a jövő generációinak játékai sem, amelyek támogatják a DirectX 12-t stb., egyszerűen nem tudják annyira eltömíteni ezt a memóriát, hogy nem lesz elég.

A 2013-as első GTX Titanhoz hasonlóan a GTX Titan X is új mércét állít fel a teljesítmény és a funkcionalitás terén a prémium grafikus szegmensben. Egy időben a GTX Titan meglehetősen sikeres termék lett az Nvidia számára, és kétségtelen, hogy a GTX Titan X megismétli elődje sikerét. Sőt, a Maxwell architektúra legnagyobb videochipére épülő modell fenntartások nélkül a legproduktívabb a piacon. Mivel az olyan videokártyákat, mint a GTX Titan X, maga az Nvidia gyártja, és referenciamintákat adnak el partnereiknek, a bejelentés pillanatától kezdve nem volt probléma a bolti elérhetőséggel.

A GTX Titan X minden tekintetben a legmagasabb szintjét képviseli: a Maxwell család legerősebb GPU-ja, a grafikus kártyák kiváló dizájnja a korábbi Titan modellek stílusában, valamint a kiváló hűtőrendszer - hatékony és csendes. A 3D renderelési sebességet tekintve ez korunk legjobb videokártyája, amely több mint harmadával nagyobb teljesítményt nyújt a Titan X előtt megjelent legjobb modellekhez képest - mint például a Geforce GTX 980. És ha nem gondolja a dual- chip-videórendszerek (mint például egy pár ugyanolyan GTX 980 vagy egy Radeon R9 295X2 egy versenytárstól, amely a többchipes konfigurációkban rejlő problémákkal küzd), akkor a Titan X nevezhető a legjobb megoldásnak a nem szegény rajongók számára.

Anyagunk következő részében az új Nvidia Geforce GTX Titan X videokártya renderelési sebességét vizsgáljuk meg a gyakorlatban, összehasonlítva a sebességét az AMD legerősebb videórendszereinek teljesítményével, illetve az Nvidia elődeinek teljesítményével. a szokásos szintetikus tesztsorozatunkban, majd a játékokban.

2015 márciusában a nagyközönségnek bemutatták az NVIDIA új zászlóshajó grafikus kártyáját. Az Nvidia Titan X gaming videokártya egylapkás, architektúrája a gyártó által szabadalmaztatott Pascal algoritmusra épül (a GP102 GPU-hoz). A Geforce GTX Titan X bemutatásakor joggal számított a legerősebb játékvideó adapternek.

GPU. A GPU 3584 CUDA magot tartalmaz, 1417 MHz-es alapfrekvenciával. Ebben az esetben az órajel frekvencia gyorsulással 1531 MHz szinten lesz.

Memória. A zászlóshajót 12 Gb-os kapacitással mutatták be, de később megjelent egy 2-szeres csökkentett hangerős verzió is. A memória sebessége eléri a 10 Gb/s-ot. A memóriabusz sávszélessége 384 bites, ami 480 Gb / s memória sávszélességet tesz lehetővé. GDDR5X memóriachipeket használnak, így még 6 Gb-os konfiguráció esetén is magas lesz a teljesítmény.

A Titan X egyéb jellemzői. Az ALU-k száma 3584, a ROP 96, az overlay textúra egységek száma pedig 192. A kártya támogatja a 7680×4320-as felbontást, valamint az új DP 1.4, HDMI 2.0b, DL-DVI és HDCP készletet is. 2.2-es verziójú csatlakozók.

A videokártya PCIe 3.0 slottal (busszal) működik. A teljes teljesítmény biztosításához további 8 és 6 tűs csatlakozókra van szükség a tápegységen. A kártya két nyílást foglal el az alaplapon (SLI 2, 3 és 4 kártyához lehetséges).

A grafikus kártya magassága 4,376 hüvelyk, a hossza 10,5 hüvelyk. 600 W vagy annál nagyobb teljesítményű tápegységek használata javasolt.

Videokártya áttekintése

A gyártók fő hangsúlyt a VR grafikai fejlesztésére, valamint a DirectX 12 teljes támogatására helyezték. A videokártya teljesítménye a játékokban némileg növelhető a GTX Titan X 12 Gb kártya teljesítményének túlhajtásával.


A Pascal technológia a VR-játékokat célozza meg. Az ultra-nagy sebességű FinFET technológia segítségével sisak használatakor maximális simítás érhető el. A Geforce Titan X Pascal modell teljes mértékben kompatibilis a VRWorks-szel, ami a játék fizikájának és tapintási érzeteinek átélésének képességével a teljes elmélyülés hatását kelti.

A réz hőcsövek helyett itt párologtató kamrát használnak. A maximum hőmérséklet 94 fok (a gyártó honlapjáról), a teszteken azonban 83-85 fok az átlaghőmérséklet. Amikor erre a hőmérsékletre emelkedik, a hűtőturbina felgyorsul. Ha a gyorsítás nem elegendő, akkor a grafikus chip órajel-frekvenciája csökken. A turbina zaja jól megkülönböztethető, tehát ha ez jelentős mutató a felhasználó számára, akkor jobb a vízhűtés használata. Erre a modellre már léteznek megoldások.

Bányászati ​​teljesítmény javítása

A cég a játékteljesítményre összpontosított. A videokártyához képest a Geforce GTX Titan X 12 Gb nem javítja a bányászatot, de a fogyasztás magasabb. Minden Titan sorozatú grafikus kártya kiemelkedik FP32 és INT8 dupla pontosságú teljesítményével. Ez lehetővé teszi számunkra, hogy egy sor kártyát professzionális osztálygyorsítónak tekintsünk. A GM200 chippel ellátott modell azonban nem, mivel számos teszt teljesítményromlást mutat a hash-számítások és egyéb műveletek során. A kriptovaluta bányászat teljesítménye mindössze 37,45 Mhash/s.

Nem javasoljuk az X modell használatát kriptográfiai valuták bányászatára. Még az Nvidia Titan X teljesítményének javítása sem éri el ugyanazt az eredményt, mint a Radeon Vega (ha ugyanabban az árkategóriában vesszük), nem beszélve a Tesláról.

Ugyanazon gyártó új kártyája 2,5-szer nagyobb teljesítményt nyújt. Túlhúzott állapotban a Titan V 82,07 Mhash / s értéket adott.

Teszt eredmények a játékokban

Ha összehasonlítjuk a Titan X Pascal videokártyát másokkal, akkor 20-25%-kal jobb, mint az azonos gyártó videokártyája, ráadásul majdnem kétszer felülmúlja a szintén egychipes Radeon R9 FuryX versenytársat.

Minden 4K és UltraHD játékban sima képet látunk. Az SLI módot használó teszteken is jó eredményeket értünk el.

Különböző gyártók videokártyáinak összehasonlítása

A Titan X 12 Gb videokártya ára 1200 dollártól kezdődik, és a gyártótól és a memória mennyiségétől függ.

Kínáljuk, hogy megismerkedjen a különböző gyártók termékeinek összehasonlító jellemzőivel (* - hasonló):

TermékPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
Elsődleges jellemzők listája
Videokártya típusajátszma, meccs *
A GPU neveNVIDIA GeForce GTX TITAN X *
Gyártói kódNE5XTIX015KB-PG600F *
GPU kódnévGM 200 *
Technikai folyamat28 nm *
Támogatott monitoroknégy *
Felbontás GM200 (maximum)5120 és 3200 között *
A specifikációk listája
GPU frekvencia1000Mhz *
Memória méret12288 Mb *
Memória típusaGDDR5 *
Memória frekvencia7000 Mhz7010 MHz7010 MHz
Memóriabusz szélesség384 bites *
RAMDAC frekvencia400 Mhz *
CrossFire /SLI mód támogatásalehetséges *
Quad SLI támogatáslehetséges* *
Specifikációk listája csatlakozásonként
CsatlakozókHDC, HDMI, DisplayPort x3 támogatása *
HDMI verzió2.0 *
Matek blokk
Univerzális processzorok száma3072 *
Shader verzió5.0 *
Textúra blokkok száma192 *
Raszterezési blokkok száma96 *
További jellemzők
Méretek267×112 mm280×111 mm267×111 mm
Az elfoglalt helyek száma2 *
Ár74300 r.75000 r.75400 r.

Az összehasonlító táblázat alapján látható, hogy a különböző gyártók megfelelnek a szabványosításnak. A jellemzők különbsége jelentéktelen: eltérő a videomemória frekvenciája és az adapterek mérete.

Jelenleg nem kapható ez a modell egyetlen gyártótól sem. 2018 januárjában mutatkozott be a világ, amely a játékokban és a kriptovaluta bányászatában többszörösen felülmúlja társait.

A tavasz nem csak a természet ébredésének ideje, hanem a Titan sorozat zászlóshajója, egy chipes videokártyája hagyományos bejelentésének ideje is. És bár az NVIDIA GeForce GTX Titan X első bemutatója váratlan volt, ezt a bejelentést számos pletyka övezte. Pár napja volt ennek a videokártyának a hivatalos bemutatója, több napig volt lehetőségünk részletesen tanulmányozni. Mivel büszkélkedhet, nézzük tovább.

Az NVIDIA GeForce GTX Titan X lett a negyedik a sorban és a harmadik "titán" egy chipes rendszeren. Hadd emlékeztesselek arra, hogy a GeForce GTX Titan Z két GPU-val eltér egymástól. Természetesen megértjük, hogy az ilyen rendszereket nem lehet "népszerűnek" nevezni, de ez az áttekintés még 1000-1300 dollár hiányában is érdekes lehet megismerkedni a Maxwell architektúrával a mai maximális megvalósításban. Amint az várható volt, a GM200 magon, az architektúra második generációján alapul. A PolyMorph Engine 3.0 támogatja a Direct3D 12 funkciószintet és a hardveresen gyorsított globális megvilágítási technológiát. Talán ez lesz az az áttörés a realizmusban és a grafikában, amire a játékipar oly régóta vár?

A GM200 8 milliárd tranzisztort, 256 ROP-t, 3072 CUDA-t és egy 384 bites memóriabuszt tartalmaz. Mindezen fegyverek célja a 4K felbontás támogatása és a 3D teljesítmény javítása. Az alap magfrekvencia: 1000 MHz, Boost Clock - 1076 MHz. A memória 7012 MHz frekvencián működik. A fedélzeten 12 GB grafikus memória található, ami a Titan X megjelenése előtt nem volt elérhető a játékosoknak szánt grafikus kártyáknál.

Videó áttekintése NVIDIA GeForce GTX Titan X

Megjelenés

Az NVIDIA GeForce GTX Titan X nem vált forradalmat a csúcskategóriás videokártyák tervezésében, a megjelenés keveset változott. Léghűtő rendszert használnak, amely külsőleg megismétli a korábban látottakat.

A szerkesztések itt kicsik, a hajótest színének megváltoztatására korlátozódnak. Most szinte teljesen feketére van festve.

A videokártyán nincs erősítőkártya a nyomtatott áramköri lap hátoldalán. Hadd emlékeztesselek arra, hogy a GeForce GTX 980 referenciakialakításában szerepelt.

A hátlapon három DisplayPort, HDMI és DVI látható. Három csatlakozó működhet megosztott munkaterület módban, de egyszerre csatlakoztathatja mind az 5 csatlakozót. Ugyanezt a megközelítést alkalmazzák az egész 900-as vonalon.

Világító NVIDIA GeForce GTX logó az oldalán. Sajnos az izzó legyező látványos képei csak fényképek.

Hűtés

A beépített hűtőrendszer kialakítása megismétli a GeForce GTX 780 Ti-ben használtat.

Az elpárologtató kamrát használják, amely erős oldalnak bizonyult, amikor nagy mennyiségű hőt vittek el a radiátorba.

A rendszer összecsukható, így a hődiffúzor teljesen eltávolítható, jól jöhet vízhűtő rendszer beépítésénél.

Töltő

Az áramellátó rendszer is migrált, a változás említése ellenére, ellenőrzéskor ugyanazok a kondenzátorok és fojtótekercsek. Még a PWM vezérlő is ismerős számunkra - NCP4206.

De nem dramatizálok, mi magunk sem találtuk meg azt a zajt és nyikorgást, ami jónéhány videókártya kommentjében elhangzott, még hosszú távú terheléseknél sem.

A feszültség növelésére szolgáló rúd is megmaradt. Az NVIDIA GeForce GTX Titan X-ben akár 25W-ig is növelhető (TDP 250W/275W).

12 GB 1750 MHz frekvenciájú SKhynix memóriachip van forrasztva, összesen 24 db van belőle.

Az NVIDIA GeForce GTX Titan X tesztelése

Próbaállványt használtak.

ModellAdat
KeretAerocool Strike-X Air
AlaplapBiostar Hi-Fi Z87X 3D
processzorIntel Core i5-4670K Haswell
CPU hűtőDeep Cool Ice Blade Pro v2.0
videokártyaInno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra
RAMCorsair CMX16GX3M2A1600C11 DDR3-1600 16GB Kit CL11
HDDADATA XPG SX900 256 GB
Merevlemez 2WD piros WD20EFRX
TápegységAerocool Templarius 750W
wifi adapterTP-LINK TL-WDN4800
HangCreative Sound Blaster EVO vezeték nélküli
Monitoriiyama ProLite E2773HDS
Monitor 2Philips 242G5DJEB
egérROCCAT Kone XTD
BillentyűzetRazer BlackWidow Chroma
StabilizátorSven AVR PRO LCD 10000
Operációs rendszerMicrosoft Windows Ultimate 8 64 bites

Az alábbi táblázatokban az adatok a gyári beállításokkal vannak megadva, a gyártók saját szoftverei nincsenek telepítve. A memória és a magfrekvenciákat szintén nem érinti, hogy kizárjuk a külső tényezők hatását.

1. A videokártya hőmérsékleti beállítása

  • NVIDIA GeForce GTX Titan X - 31/83
  • Inno3D iChill GeForce GTX 960 Ultra - 29/44
  • GeForce GTX 980 - 34/79
  • GeForce GTX 770 - 35/80
  • GeForce GTX 780 - 35/77
  • GeForce GTX 760 - 35/84

2. Zaj

  • NVIDIA GeForce GTX Titan X - 36/42
  • GeForce GTX 980 - 34/79

3. Energiafogyasztás

  • NVIDIA GeForce GTX Titan X-405
  • Inno3D iChill GeForce GTX 960 Ultra - 260
  • GeForce GTX 980-295
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 340
A teljesítmény értékelését hagyományosan szintetikus tesztekkel kezdjük.

  • NVIDIA GeForce GTX Titan X - 7133
  • Inno3D iChill GeForce GTX 960 Ultra - 3522
  • GeForce GTX 980-6050
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 6190
A tesztkészlet többi része:

Itt az ideje a leglátványosabb teszteknek, az FPS méréseknek az erőforrásigényes játékokban. Számos asztalt kísérünk vizuális videókkal a játék során. Az adatok rögzítése Full HD felbontásban történik Ultra beállítások mellett. Érdemes megfontolni, hogy a videókban számos pillanatban a valós FPS-adatok alacsonyabbak, mint a tesztfutások során nyert adatok, ez a videórögzítéshez szükséges erőforrások költségének köszönhető. Ennél a videokártyánál külön teszteltük a munkát 3840x2160-as felbontásban Ultra beállításokon.

6. Crysis 3
Crysis 3 - 3840x2160 - Nagyon magas 4xAA - 22.

  • Inno3D iChill GeForce GTX 960 Ultra - 45
  • GeForce GTX 980-69
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 61
  • GeForce GTX 770-43
  • GeForce GTX 780-47

7. Battlefield 4
Battlefield 4 - 3840x2160 - Ultra - 39

  • NVIDIA GeForce GTX Titan X-75
  • Inno3D iChill GeForce GTX 960 Ultra - 52
  • GeForce GTX 980-91
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 82

8. Hitman: Feloldozás
Nagyon igényes játék, a Glacier 2 motorra épülve. A játék étvágyát az év többi újdonsága is irigyeli.
Hitman: Absolution - 3840x2160 - Magas, 2x MSAA, 16x AF - 46

  • NVIDIA GeForce GTX Titan X-95
  • Inno3D iChill GeForce GTX 960 Ultra - 44/li>
  • GeForce GTX 980-70
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 62
  • GeForce GTX 770-43
  • GeForce GTX 780-55
  • GeForce GTX 760-41

9. Metro Last Light
Egy másik hardverigényes játék, amely DirectX 11-et és tessellációt használ.
Metro Last Light - 3840x2160 - Nagyon magas - 35

10Középföld: Árnyék Mordor

  • Inno3D iChill GeForce GTX 960 Ultra - 51
  • GeForce GTX 980-111
Középfölde: Mordor árnyéka - 3840x2160 - Ultra - 49

11. Tomb Raider

  • NVIDIA GeForce GTX Titan X - 156
  • Palit GeForce GTX 960 Super JetStream - 64
  • Inno3D iChill GeForce GTX 960 Ultra - 68
  • GeForce GTX 980-100
Tomb Raider - 3840x2160 - Ultra - 49

12. Watch Dogs Ultra 4x AA

  • NVIDIA GeForce GTX Titan X-80
  • Inno3D iChill GeForce GTX 960 Ultra - 49
  • GeForce GTX 980-62
Watch Dogs - 3840x2160 - Ultra - 27

13. Total War: Rome II Extreme

  • NVIDIA GeForce GTX Titan X-79
  • Inno3D iChill GeForce GTX 960 Ultra - 41
  • GeForce GTX 980-70
Total War: Róma II - 3840x2160 - Ultra - 30

14. GRID Autosport Ultra 4x MSAA

  • NVIDIA GeForce GTX Titan X - 154
  • Inno3D iChill GeForce GTX 960 Ultra - 80
  • GeForce GTX 980-128
GRID Autosport - 3840x2160 - Ultra - 69

15. Tankok világa

  • NVIDIA GeForce GTX Titan X - 124
  • Palit GeForce GTX 960 Super JetStream - 71
  • Inno3D iChill GeForce GTX 960 Ultra - 75
  • GeForce GTX 980-116

16. Hadihajók világa

Ez egy új rész tesztjeink között, míg a tesztelt videokártyák száma korlátozott, március végéig átfogó anyag kerül bemutatásra. A World of Warships grafikai hatékonyságát nehéz értékelni, de általában ezek az adatok hasznosak lehetnek egy kifejezetten Wargaming játékokhoz való rendszer építésénél.

  • NVIDIA GeForce GTX Titan X-72
  • Inno3D iChill GeForce GTX 780Ti - 72
  • Palit GeForce GTX 960 Super JetStream – 59
  • Radeon R9 280x-70
  • Radeon R9 280x-70
Jelenleg a játékmotor 72 körül korlátozza a maximális FPS-értéket.

Túlhúzás

A hagyomány szerint nem korlátozódunk a szabványos frekvenciákon végzett tesztelésre. A túlhajtáshoz az MSI Afterburner a legújabb verzió a tesztelés idején. Az NVIDIA GeForce GTX Titan X esetében a következő eredményeket tudtuk elérni a magfeszültség növelése nélkül:

A teljesítménynövekedés összehasonlításához szintetikus 3D Mark FireStrike tesztet használnak:

A maximális feszültségnövekedés mellett további túlhúzás lehetséges. A magfrekvencia memória segítségével 1202 MHz-re és 7806 MHz-re emelhető. Itt a maximális hőmérsékleti sáv 88 fokra emelkedik.

NVIDIA GeForce GTX Titan X eredmények

Az NVIDIA GeForce GTX Titan X teljesítménynövekedést mutatott az alacsonyabb energiafogyasztás hátterében. A jelenlegi erőkiegyenlítés mellett ez a maximális teljesítmény egy chipes rendszeren. Megfelelő válaszok az AMD Radeontól aktuális pillanat nincs kijelentve. Alternatív megoldásként szóba jöhet a GTX 780 Ti, a GTX 980 SLI módban, a Radeon R9 290X, ami továbbra is aktuális. Videómegjelenítéshez is érdekes lesz.

Az NVIDIA GeForce GTX Titan X jól megérdemelt aranyat nyer.

Hasonló cikkek