NVIDIA Pascal: architektúra áttekintése. Videokártyák Simultane Multi-Projection technológia

2016 már a végéhez közeledik, de hozzájárulása a játékiparhoz még sokáig velünk marad. Egyrészt a vörös tábor videokártyái kaptak váratlanul sikeres frissítést a közepes árkategóriában, másrészt az NVIDIA ismét bebizonyította, hogy nem hiába foglalja el a piac 70%-át. A Maxwellek jók voltak, a GTX 970-et méltán tartották az egyik legjobb kártya pénzért, de a Pascal teljesen más kérdés volt.

A GTX 1080 és 1070 által képviselt hardver új generációja szó szerint eltemette a tavalyi rendszerek eredményeit és a használt hardverek zászlóshajójának piacát, míg a GTX 1060 és 1050 által képviselt „junior” vonalak megszilárdították sikereiket a megfizethetőbb szegmensekben. A GTX980Ti és más titánok tulajdonosai krokodilkönnyeket sírnak: sok ezer rubelért überfegyvereik egyszerre elvesztették a költségek 50%-át és a bemutatkozás 100%-át. Az NVIDIA maga állítja, hogy az 1080 gyorsabb, mint a tavalyi TitanX, az 1070 könnyen túlszárnyalja a 980Ti-t, a viszonylag olcsó 1060 pedig az összes többi kártya tulajdonosát is megviseli.

Így van-e, honnan jönnek a nagy termelékenység lábai, és mit kezdjünk mindezzel az ünnepek és a hirtelen jött anyagi örömök előestéjén, valamint hogy pontosan mivel is gyönyörködhetsz, megtudhatod ebben a hosszú és kissé unalmas cikk.

Az Nvidiát lehet szeretni, vagy... nem szeretni, de azt csak valaki egy alternatív univerzumból tagadná, hogy jelenleg a videokártya gyártás területén vezető szerepet tölt be. Mivel az AMD Vegáját még nem jelentették be, a zászlóshajó RX-eket nem láthattuk a Polarison, az R9 Fury pedig a 4 GB-os kísérleti memóriájával őszintén szólva nem tekinthető ígéretes kártyának (a VR és a 4K azonban egy kicsit többet kíván majd , mint neki) – megvan, amink van. Míg az 1080 Ti és a feltételes RX 490, az RX Fury és az RX 580 csak pletykák és várakozások, van időnk megérteni a jelenlegi NVIDIA vonalat, és megnézni, mit ért el a cég az elmúlt években.

Pascal zűrzavara és eredettörténete

Az NVIDIA rendszeresen okokat ad arra, hogy „ne szeresd magad”. A történet a GTX 970-nel és a „3,5 GB memóriával”, „NVIDIA, bassza meg!” Linus Torvaldstól, teljes pornográfia az asztali grafikus vonalakban, az ingyenes és sokkal elterjedtebb FreeSync rendszerrel való munka megtagadása a szabadalmaztatott rendszer javára... Általában van elég ok. Számomra az egyik legbosszantóbb dolog az, ami a videokártyák elmúlt két generációjával történt. Ha durva leírást vesszük, akkor a „modern” GPU-k hosszú utat tettek meg a DX10 támogatása óta. Ha pedig ma a 10. széria „nagyapját” keresi, akkor a modern építészet kezdete a 400. videógyorsítók és a Fermi architektúra környékén lesz. Ott született meg végül a „blokk” kialakítás ötlete az ún. "CUDA magok" az NVIDIA terminológiájában.

Fermi

Ha a 8000., 9000. és 200. sorozat videokártyái voltak az első lépések a „modern architektúra” koncepciójának elsajátításában univerzális shader processzorokkal (mint az AMD, igen), akkor a 400. széria már a lehető legjobban hasonlított ahhoz, amit mi. lásd néhány 1070-ben. Igen, a Ferminek még mindig van egy kis Legacy mankója az előző generációkból: a shader egység kétszer olyan frekvencián dolgozott, mint a geometria kiszámításáért felelős mag, de néhány GTX 480 összképe nem sokban különbözik a többitől. 780, az SM multiprocesszorokat fürtökbe egyesítik, a klaszterek közös gyorsítótáron keresztül kommunikálnak a memóriavezérlőkkel, a munka eredményét pedig a klaszterben közös raszterező egység jeleníti meg:


A GTX 480-ban használt GF100 processzor blokkvázlata.

Az 500-as sorozat ugyanazt a Fermi-t kapta, belül kissé javítva és kevesebb hibával, így a csúcsmegoldások az előző generációs 480 helyett 512 CUDA magot kaptak. Vizuálisan a folyamatábrák általában ikerpárnak tűnnek:


A GF110 a GTX 580 szíve.

Néhol növelték a frekvenciákat, kissé megváltoztatták magát a chipet, de nem történt forradalom. Ugyanaz a 40 nm-es folyamattechnológia és 1,5 GB videomemória 384 bites buszon.

Kepler

A Kepler architektúra megjelenésével sok minden megváltozott. Elmondhatjuk, hogy ez a generáció adta az NVIDIA videokártyáknak azt a fejlődési vektort, amely a jelenlegi modellek megjelenéséhez vezetett. Nemcsak a GPU architektúrája változott meg, hanem az új hardver fejlesztésének konyhája is az NVIDIA-n belül. Ha a Fermi olyan megoldást keresett, amely nagy teljesítményt biztosít, akkor a Kepler az energiahatékonyságra, az erőforrások ésszerű felhasználására, a magas frekvenciákra és a játékmotor könnyű optimalizálására támaszkodott a nagy teljesítményű architektúra képességeihez.

Jelentős változtatásokat hajtottak végre a GPU kialakításában: nem a „zászlóshajó” GF100 / GF110, hanem a „költségvetési” GF104 / GF114 alapján, amelyet akkoriban az egyik legnépszerűbb kártyában - a GTX 460-ban - használtak.


A teljes processzorarchitektúra egyszerűbbé vált, mivel mindössze két nagy blokkot használnak négy egységes shader többprocesszoros modullal. Az új zászlóshajók elrendezése valahogy így nézett ki:


GK104 telepítve a GTX 680-ba.

Amint látható, mindegyik számítási egység jelentősen megnőtt a korábbi architektúrához képest, és SMX-nek hívták. Hasonlítsa össze a blokk felépítését a fent, a Fermi szakaszban láthatóval.


GK104 GPU SMX multiprocesszor

A 600. széria nem tartalmazott teljes értékű processzort, amely hat számítási modult tartalmazott, a zászlóshajó a GTX 680 volt GK104-gyel, és ennél menőbb csak a „kétfejű” 690 volt, amelyen egyszerűen csak volt; két processzor minden szükséges hardverrel és memóriával. Egy évvel később a zászlóshajó GTX 680 kisebb változtatásokkal a GTX 770 lett, a Kepler architektúra fejlődésének koronáját pedig a GK110 kristályra épülő videokártyák jelentették: GTX Titan és Titan Z, 780Ti és a normál 780. Belül - ugyanaz a 28 nanométer, az egyetlen minőségi javulás (ami NEM a GK110 alapú fogyasztói videokártyáknál történt) - teljesítmény dupla pontosságú műveletekkel.

Maxwell

Az első Maxwell architektúrára épülő videokártya... NVIDIA GTX 750Ti volt. Kicsit később a GTX 750 és 745 (csak integrált megoldásként szállított) formájában jelentek meg díszítései, és megjelenésükkor az alsó kategóriás kártyák igazán felrázták az olcsó videógyorsítók piacát. Az új architektúrát a GK107 chipen tesztelték: a jövő zászlóshajóinak apró darabja hatalmas hűtőbordákkal és ijesztő áron. Valahogy így nézett ki:


Igen, csak egy számítási egység van, de mennyivel bonyolultabb a felépítése, mint az elődje, hasonlítsa össze:


Az alap „építőelemként” használt nagyméretű SMX blokk helyett új, kompaktabb SMM blokkokat használnak a GPU-k létrehozásához. A Kepler alapvető számítási egységei jók voltak, de rossz kapacitáskihasználástól szenvedtek – banális utasításéhség: a rendszer nem tudta elosztani az utasításokat nagyszámú végrehajtó elem között. A Pentium 4-nek nagyjából ugyanezek a problémái voltak: az áramellátás tétlen volt, és az elágazás-előrejelzési hibák nagyon drágák voltak. A Maxwellben minden számítási modul négy részre volt osztva, mindegyiknek saját utasításpuffere és vetemítésütemezője volt – hasonló műveletek egy szálcsoporton. Ennek köszönhetően nőtt a hatékonyság, és maguk a grafikus processzorok is rugalmasabbak lettek elődeiknél, és ami a legfontosabb, kevés vér és egy meglehetősen egyszerű kristály árán új architektúrát fejlesztettek ki. A történet spirálisan fejlődik, hehe.

Az újításokból leginkább a mobilmegoldások profitáltak: a kristályfelület negyedével nőtt, a multiprocesszorok végrehajtási egységeinek száma pedig csaknem megduplázódott. Szerencsére a 700. és a 800. sorozat okozta a fő zűrzavart az osztályozásban. Csak a 700-ban voltak Kepler, Maxwell és még Fermi architektúrákon alapuló videokártyák is! Éppen ezért az asztali Maxwellek, hogy elhatárolódjanak az előző generációk zavaraitól, közös 900-as sorozatot kaptak, amelyből később GTX 9xx M mobilkártyák váltak ki.

A Pascal a Maxwell architektúra logikus továbbfejlesztése

Ami a Keplerben elkezdődött és a Maxwell-generációban folytatódott, az a Pascalban maradt: megjelentek az első fogyasztói videokártyák, amelyek a nem túl nagy GP104 chipre épültek, amely négy grafikus feldolgozó klaszterből áll. A teljes méretű, hat klaszteres GP100 egy drága félprofi GPU-hoz került TITAN X márkanév alatt, azonban még a „kivágott” 1080 is úgy világít, hogy az elmúlt generációk rosszul érzik magukat.

Teljesítmény fejlődés

Alapok

Maxwell lett az új architektúra alapja, az összehasonlítható processzorok (GM104 és GP104) diagramja szinte ugyanúgy néz ki, a fő különbség a fürtökbe csomagolt multiprocesszorok száma. A Keplerben (700. generáció) két nagy SMX multiprocesszor volt, amelyeket Maxwellben egyenként 4 részre osztottak, biztosítva a szükséges vezetékeket (a név SMM-re változtatva). Pascalban a blokkban lévő nyolchoz még kettőt adtak hozzá, így 10-en lettek, és a rövidítést ismét megváltoztatták: most ismét SM-nek hívják az egyszeres multiprocesszorokat.


Ellenkező esetben teljes a vizuális hasonlóság. Igaz, belül még több változás történt.

A haladás motorja

A többprocesszoros blokkon belül tisztességtelenül sok változás van. Hogy ne menjek bele a nagyon unalmas részletekbe, hogy mi lett újra, hogyan optimalizálták és hogyan volt korábban, nagyon röviden leírom a változtatásokat, különben már egyesek ásítanak.

Először is Pascal javította azt a részt, amely a kép geometriai összetevőjéért felelős. Ez a többmonitoros konfigurációkhoz és a VR fejhallgatókkal való munkavégzéshez szükséges: a játékmotor megfelelő támogatásával (és az NVIDIA erőfeszítéseivel ez a támogatás gyorsan megjelenik) a videokártya egyszer ki tudja számítani a geometriát, és mindegyikhez több geometriai vetületet kap. képernyő. Ez jelentősen csökkenti a VR terhelését nemcsak a háromszögekkel végzett munka területén (itt a növekedés egyszerűen kétszeres), hanem a pixelkomponenssel való munka során is.

A hagyományos 980Ti kétszer olvassa le a geometriát (mindegyik szemnél), majd minden egyes képhez kitölti textúrákkal és utómunkával, összesen mintegy 4,2 millió pontot dolgozva fel, aminek körülbelül 70%-a lesz ténylegesen felhasználva. többi le lesz vágva, vagy beleesik a régióba, amely egyszerűen nem jelenik meg minden szem számára.

Az 1080 egyszer feldolgozza a geometriát, és azokat a pixeleket, amelyek nem esnek bele a végső képbe, egyszerűen nem számítják ki.


A pixelkomponenssel valójában minden még menőbb. Mivel a memória sávszélességének növelése csak két fronton (órajelenkénti frekvencia és sávszélesség növelése) valósítható meg, és mindkét módszer pénzbe kerül, és a GPU memóriaéhsége az évek során egyre hangsúlyosabb a felbontás növekedése, ill. A VR fejlesztése továbbra is javítja az „ingyenes” módszereket az átviteli sebesség növelésére. Ha nem tudja bővíteni a buszt és növelni a frekvenciát, akkor tömöríteni kell az adatokat. Az előző generációkban már bevezették a hardveres tömörítést, de a Pascalban ez új szintre került. Ismét tegyünk az unalmas matematika nélkül, és vegyünk egy kész példát az NVIDIA-tól. A bal oldalon - Maxwell, a jobb oldalon - Pascal, azok a pontok, amelyek színkomponensét minőségromlás nélkül tömörítették, rózsaszínnel vannak kitöltve.


Ahelyett, hogy adott 8x8 pontos mozaik átvitele történik, az „átlagos” szín + az attól való eltérések mátrixa a memóriában tárolódik az eredeti térfogat ½–⅛-ét. A valós feladatokban a memória alrendszer terhelése 10-ről 30%-ra csökkent a színátmenetek számától és a képernyőn megjelenő összetett jelenetek kitöltésének egyenletességétől függően.


A mérnökök számára úgy tűnt, hogy ez nem elég, és a zászlóshajó videokártyához (GTX 1080) megnövelt sávszélességű memóriát használtak: a GDDR5X órajelenként kétszer annyi adatot (nem utasításokat) továbbít, és több mint 10 Gbps-t produkál. csúcsán. Az ilyen őrült sebességű adatátvitel teljesen új memóriaelrendezési topológiát igényelt az alaplapon, és összességében 60-70%-kal nőtt a memóriával való munka hatékonysága az előző generáció zászlóshajóihoz képest.

Csökkentse a késéseket és a kapacitáskimaradást

A videokártyák régóta nem csak a grafikus feldolgozásban vesznek részt, hanem a kapcsolódó számításokban is. A fizika gyakran kötődik az animációs képkockákhoz, és rendkívül párhuzamos, ami azt jelenti, hogy sokkal hatékonyabb a GPU-n. De az utóbbi időben a legnagyobb problémákat a VR-ipar okozta. Sok játékmotort, fejlesztési módszert és egy csomó más, a grafikával való együttműködést szolgáló technológiát egyszerűen nem VR-hez tervezték, egyszerűen nem dolgozták fel a kamera mozgatását vagy a felhasználó fejének helyzetének megváltoztatását a képkocka renderelése során. Ha mindent úgy hagy, ahogy van, akkor a videofolyam és a mozgások deszinkronizálása mozgási rosszullétet okoz, és egyszerűen megzavarja a játékvilágba való belemerülést, ami azt jelenti, hogy a „rossz” képkockákat renderelés után egyszerűen ki kell dobni. a munka elölről kezdődött. És ezek új késések a képek kijelzőn való megjelenítésében. Ennek nincs pozitív hatása a teljesítményre.

A Pascal figyelembe vette ezt a problémát, és bevezette a dinamikus terheléselosztást és az aszinkron megszakítások lehetőségét: mostantól a végrehajtó egységek vagy megszakítják az aktuális feladatot (a munka eredményét a gyorsítótárba mentve) a sürgősebb feladatok feldolgozásához, vagy egyszerűen visszaállíthatják a fél- rajzolt keretet, és indítson újat, jelentősen csökkentve a képalkotás késését. A fő haszonélvező itt természetesen a VR és a játékok, de ez a technológia is segíthet az általános célú számításoknál: a részecskeütközések szimulációja 10-20%-os teljesítménynövekedést kapott.

Boost 3.0

Az NVIDIA videokártyák elég régen, még a Kepler architektúrára épülő 700. generációban kaptak automatikus túlhajtást. Maxwellben javították a túlhajtást, de még finoman szólva is so-so volt: igen, a videokártya kicsit gyorsabban működött, amíg a hőcsomag engedte, gyárilag bekötve további 20-30 megahertz a magnak és 50-100 a memóriának adott növekedést, de kicsi . Valahogy így működött:


Még ha a GPU-hőmérsékletben is volt különbség, a teljesítmény nem nőtt. Pascal érkezésével a mérnökök felrázták ezt a poros mocsarat. A Boost 3.0 három fronton működik: hőmérséklet-elemzés, órajel növelése és a chip feszültségének növelése. Most minden levet kipréselnek a GPU-ból: a szabványos NVIDIA-illesztőprogramok ezt nem teszik meg, de a gyártó szoftverei lehetővé teszik, hogy egyetlen kattintással profilozási görbét készítsünk, amely figyelembe veszi az adott videokártya minőségét.

Az EVGA az elsők között volt ezen a területen, a Precision XOC segédprogramja egy NVIDIA-tanúsítvánnyal rendelkezik, amely következetesen pásztázza a hőmérsékletek, frekvenciák és feszültségek teljes tartományát, így minden üzemmódban maximális teljesítményt nyújt.

Adjon hozzá egy új technikai folyamatot, nagy sebességű memóriát, mindenféle optimalizálást és a chipek termikus csomagjának csökkentését, és az eredmény egyszerűen illetlen lesz. 1500 „alap” MHz-ről a GTX 1060 több mint 2000 MHz-re tolható, ha jó példányt kapunk, és az eladó nem csavarja el a hűtést.

A kép minőségének és a játékvilág érzékelésének javítása

A termelékenység minden fronton nőtt, de számos olyan terület van, ahol minőségi változás évek óta nem történt: a megjelenített kép minősége. És nem grafikus effektusokról beszélünk, ezeket a játékfejlesztők biztosítják, hanem arról, hogy pontosan mit is látunk a monitoron, és hogy néz ki a játék a végfelhasználó számára.

Gyors függőleges szinkronizálás

A Pascal legfontosabb jellemzője a hármas puffer a keretkimenethez, amely egyszerre biztosítja az ultraalacsony renderelési késéseket és a függőleges szinkronizálást. A kimeneti kép az egyik pufferben, az utoljára rajzolt képkocka egy másikban, az aktuális képkocka pedig a harmadikban. Viszlát vízszintes csíkok és szakadás, hello nagy teljesítmény. Itt nincsenek olyan késleltetések, mint a klasszikus V-Sync (hiszen senki nem hátráltatja a videokártya teljesítményét, és mindig a lehető legnagyobb képkockafrekvenciával húz), és csak a teljesen kialakított képkockák kerülnek a monitorra. Azt hiszem, az új év után írok majd egy külön nagy bejegyzést a V-Sync-ről, G-Sync-ről, Free-Sync-ről és az Nvidia új gyors szinkronizációs algoritmusáról, túl sok a részlet.

Normál képernyőképek

Nem, a most létező képernyőképek csak szégyen. Szinte minden játék egy csomó technológiát használ, hogy a mozgásban lévő képet lenyűgözővé és lélegzetelállítóvá varázsolja, a képernyőképek pedig igazi rémálommá váltak: a lenyűgözően valósághű animációkból, az emberi látás sajátosságait kihasználó speciális effektusokból álló kép helyett néhány amolyan szögletes, furcsa valami furcsa színekkel és teljesen élettelen képpel.

Az új NVIDIA Ansel technológia képernyőképekkel oldja meg a problémát. Igen, a megvalósításához speciális kód integrálása szükséges a játékfejlesztőktől, de minimális a valódi manipuláció, de a haszon óriási. Ansel szüneteltetheti a játékot, átadhatja a kamera irányítását az Ön kezébe, és akkor van hely a kreativitásnak. Egyszerűen készíthet fényképet grafikus felhasználói felület nélkül és kedvenc szögéből.


Renderelheti a meglévő jelenetet rendkívül nagy felbontásban, 360 fokos panorámát készíthet, síkba tűzheti, vagy háromdimenziós formában megtekintheti őket VR-sisakban. Készítsen egy fényképet csatornánként 16 bittel, mentse el egyfajta RAW fájlba, majd játsszon az expozíció, a fehéregyensúly és egyéb beállításokkal, hogy a képernyőképek ismét vonzóak legyenek. Egy-két éven belül rengeteg menő tartalmat várunk a játékrajongóktól.

Hangfeldolgozás videokártyán

Az új NVIDIA Gameworks könyvtárak számos olyan funkciót adnak hozzá, amelyek a fejlesztők rendelkezésére állnak. Főleg a VR-t és a különféle számítások felgyorsítását, valamint a képminőség javítását célozzák, de az egyik funkció a legérdekesebb és említésre méltó. A VRWorks Audio alapvetően új szintre emeli a hanggal való munkát, nem az akadály távolságától és vastagságától függő banális átlagképletek alapján számítja ki a hangot, hanem teljes körűen követi a hangjelzést, minden visszaverődéssel, visszhanggal és hanggal. felszívódás különböző anyagokban. Az NVIDIA egy jó videó példát mutat be a technológia működésére:


Jobb, ha fejhallgatóval nézed

Pusztán elméletileg semmi sem akadályozza meg egy ilyen szimuláció futtatását Maxwellen, de az utasítások aszinkron végrehajtására vonatkozó optimalizálás és a Pascalba épített új megszakítási rendszer lehetővé teszi a számítások elvégzését anélkül, hogy jelentősen befolyásolná a képkockasebességet.

Pascal összesen

Sőt, még több változás is van, és sokuk annyira mélyen van az építészetben, hogy mindegyikről hatalmas cikket lehetne írni. A legfontosabb újítások maguknak a chipeknek a továbbfejlesztett kialakítása, a legalacsonyabb szintű optimalizálás a geometria és az aszinkron működés tekintetében teljes megszakításos feldolgozással, számos, a nagy felbontású és VR-hez szabott funkció, és természetesen az őrült frekvenciák, amelyeket az elmúlt generációk. videokártyákról soha nem is álmodott. Két éve a 780 Ti még alig lépte át az 1 GHz-es határt, ma az 1080 esetenként kettőnél fut: és itt nem csak a 28 nm-ről 16 vagy 14 nm-re csökkentett folyamattechnológiában van az érdem: sok mindent optimalizálnak a legalacsonyabb szint, kezdve a tranzisztorok tervezésével, egészen a topológiájukig és a chipen belüli vezetékezésig.

Minden egyes esetre

Az NVIDIA 10-es sorozatú videokártyák sora valóban kiegyensúlyozottnak bizonyult, és meglehetősen szorosan lefedi az összes játékhasználati esetet, a „játékstratégia és Diablo” opciótól kezdve a „Legjobb játékokat akarok 4k-ban”-ig. A játékteszteket egyetlen egyszerű módszerrel választottuk ki: a tesztek minél szélesebb körét lefedni a lehető legkisebb tesztkészlettel. A BF1 kiváló példa a jó optimalizálásra, és lehetővé teszi a DX11 és a DX12 teljesítményének összehasonlítását azonos feltételek mellett. A DOOM-ot ugyanezen okból választották, csak az OpenGL és a Vulkan összehasonlítását teszi lehetővé. A harmadik "Witcher" itt egy olyan optimalizált játékként működik, amelyben a maximális grafikai beállítások lehetővé teszik, hogy bármilyen zászlóshajót elrontsanak egyszerűen a szar kód miatt. Klasszikus DX11-et használ, amely jól tesztelt és jól kidolgozott illesztőprogramok, és ismerős a játékgyártók számára. Az Overwatch minden olyan „torna” játékhoz ragaszkodik, amiben a kód jól optimalizált, valójában azért érdekes, mert egy grafikusan nem túl nehéz játékban milyen magas az átlagos FPS, amelyet úgy terveztek, hogy az „átlagos” konfigurációban működjön. elérhető az egész világon.

Mindjárt teszek néhány általános megjegyzést: a Vulkan nagyon torkos a videomemória terén, számára ez a jellemző az egyik fő mutató, és ez a tézis a benchmarkokban is megjelenik. A DX12 az AMD kártyákon lényegesen jobban viselkedik, mint az NVIDIA-n, ha a „zöldek” átlagosan FPS-esést mutatnak az új API-kon, akkor a „pirosak” ezzel szemben növekedést mutatnak.

Junior szakosztály

GTX 1050

A fiatalabb NVIDIA (Ti betűk nélkül) nem olyan érdekes, mint a Ti betűkkel töltött testvére. Sorsa egy olyan játékmegoldás MOBA játékokhoz, stratégiai játékokhoz, verseny lövöldözős játékokhoz és egyéb játékokhoz, ahol keveset érdekelnek a részletek és a képminőség, és a stabil képkockaszámot minimális pénzért pont az orvos rendelte.


Nem minden képen látható a magfrekvencia, mert az minden esetben egyedi: 1050 továbbiak nélkül. Lehet, hogy a tápegység nem hajtható, de a 6 tűs csatlakozós testvére könnyedén átveszi a hagyományos 1,9 GHz-et. A tápellátás és a hossz tekintetében a legnépszerűbb opciók láthatók, mindig találhat olyan videókártyát, amely más áramkörrel vagy eltérő hűtéssel rendelkezik, és nem illeszkedik a megadott „szabványokhoz”.

DOOM 2016 (1080p, ULTRA): OpenGL – 68 FPS, Vulkan – 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 – 38 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 49 FPS, DX12 – 40 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS;

A GTX 1050 GP107 grafikus processzorral van felszerelve, amely a régebbi kártyától örökölt, a funkcionális egységek enyhe megvágásával. A 2 GB videomemória nem engedi, hogy elvaduljon, de az e-sport szakágazatokhoz és néhány tankos játékhoz tökéletes, mivel egy alsó kategóriás kártya ára 9,5 ezer rubeltől kezdődik. Nincs szükség további tápellátásra, a videokártya csak 75 wattot igényel az alaplapról a PCI-Express nyíláson keresztül. Igaz, ebben az árszegmensben ott van az AMD Radeon RX460 is, ami ugyanazzal a 2 GB memóriával kevesebbe kerül, és majdnem olyan jó minőségű munka, és nagyjából ugyanennyiért lehet kapni egy RX460-at, de egy 4 GB-os verzió. Nem arról van szó, hogy sokat segítettek neki, hanem valamiféle tartalékot a jövőre nézve. Az eladó választása nem annyira fontos, viheti, ami elérhető, és nem terheli meg a zsebét plusz ezer rubel, amit jobban költene a hőn áhított Ti betűkre.

GTX 1050 Ti

A rendes 1050-ért kb 10 ezer nem rossz, de egy feltöltött (vagy teljes értékű, akárhogy is hívják) változatért nem sokkal kérnek többet (átlagosan 1-1,5 ezerrel többet), de a tölteléke sok. érdekesebb. A teljes 1050-es sorozat egyébként nem az 1060-hoz nem megfelelő „nagy” chipek levágásával/elutasításával készül, hanem teljesen független termékként. Kisebb műszaki eljárással (14 nm), más növényekkel (a kristályokat a Samsung gyára termeszti), és vannak rendkívül érdekes példányok további lehetőségekkel. tápegység: hőcsomagja és alapfogyasztása továbbra is ugyanaz a 75 W, de a túlhajtási potenciál és a megengedett túllépés lehetősége teljesen más.


Ha továbbra is FullHD felbontással (1920x1080) játszik, nem tervezi a frissítést, és a megmaradt hardver 3-5 éven belül van, ez nagyszerű módja annak, hogy alacsony költséggel növelje a teljesítményt a játékokban. Érdemes az ASUS és az MSI megoldásaira koncentrálni a további 6 tűs tápegységgel a Gigabyte-tól, de az ár nem olyan kellemes.

DOOM 2016 (1080p, ULTRA): OpenGL – 83 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 – 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 58 FPS, DX12 – 50 FPS;
Overwatch (1080p, ULTRA): DX11 – 104 FPS.

Középosztály

A 60. sor videokártyáit régóta optimális választásnak tartják azok számára, akik nem akarnak sok pénzt költeni, és ugyanakkor mindent lejátszanak, ami a következő néhány évben megjelenik magas grafikus beállítások mellett. Ez még a GTX 260 idejében kezdődött, aminek két verziója volt (egyszerűbb, 192 stream processzorral és kövérebb, 216 „kővel”), folytatódott a 400., 500. és 700. generációban, és most az NVIDIA ismét egy szinte tökéletes kombináció az árak és a minőség. A „középkategóriából” ismét két változat érhető el: GTX 1060 3 és 6 GB videomemóriával, amely nemcsak a rendelkezésre álló RAM mennyiségében, hanem teljesítményében is különbözik.

GTX 1060 3GB

Az e-sport királynője. Mérsékelt ár, elképesztő teljesítmény FullHD-hez (és az eSportban ritkán használnak nagyobb felbontást: ott az eredmény fontosabb a szépségnél), ésszerű memóriamennyiség (3 GB, egy pillanatra, két éve a zászlóshajó GTX 780 Ti-ben volt, ami obszcén pénzbe kerül). A teljesítmény tekintetében a fiatalabb 1060 könnyedén veri a tavalyi GTX 970-et emlékezetes 3,5 GB memóriájával, és könnyedén felülmúlja a tavalyi szuper zászlóshajó 780 Ti-t.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 – 70 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 92 FPS, DX12 – 85 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS.

Itt a vitathatatlan kedvenc az ár és a kipufogó arány tekintetében az MSI verziója. Jó frekvenciák, csendes hűtőrendszer és ésszerű méretek. Semmit sem kérnek, körülbelül 15 ezer rubelt.

GTX 1060 6GB

A hat gigabájtos verzió a költségvetési jegy a VR-hez és a nagy felbontásokhoz. Nem éhezik a memóriára, minden tesztben kicsit gyorsabb lesz, és magabiztosan felülmúlja a GTX 980-at azokon a területeken, ahol a 4 GB videomemória nem volt elég a tavalyi videókártyához.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 – 73 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 94 FPS, DX12 – 90 FPS;
Overwatch (1080p, ULTRA): DX11 – 166 FPS.

Szeretném még egyszer megjegyezni a videokártyák viselkedését a Vulkan API használatakor. 1050 2 GB memóriával - FPS drop. Az 1050 Ti 4 GB-tal szinte egyenrangú. 1060 3 GB - lehívás. 1060 6 GB - megnövekedett eredmények. A trend szerintem egyértelmű: a Vulkannak 4+ GB videomemóriára van szüksége.

Az a baj, hogy nem kicsi mindkét 1060-as videókártya. Úgy tűnik, hogy a hőcsomag ésszerű, és a tábla nagyon kicsi, de sok gyártó úgy döntött, hogy egyszerűen egységesíti a hűtőrendszert 1080, 1070 és 1060 között. Egyes videokártyák 2 slot magasak, de 28+ centiméter hosszúak, mások gyártották. rövidebb, de vastagabb (2,5 rés). Válasszon gondosan.

Sajnos egy további 3 GB videomemória és egy zárolatlan számítási egység ~ 5-6 ezer rubelbe kerül a 3 GB-os verzió árán felül. Ebben az esetben a Palit kínálja a legérdekesebb lehetőségeket ár és minőség tekintetében. Szörnyű, 28 centis hűtőrendszereket adott ki az ASUS, amit 1080-ra, 1070-re és 1060-ra farag, és egy ilyen videokártya sehova nem fér el, a gyári túlhajtás nélküli verziók majdnem ugyanannyiba kerülnek, a kipufogó is kevesebb, és viszonylag kompakthoz Az MSI-től többet kérnek, mint a versenytársak, megközelítőleg azonos minőségi szinttel és gyári túlhajtással.

Major League

2016-ban minden pénzért játszani egy kicsit nehéz. Igen, az 1080 őrülten menő, de a perfekcionisták és a hardveresek tudják, hogy az NVIDIA TISZTÍTI a szuper zászlóshajó 1080 Ti létezését, aminek hihetetlenül menőnek kell lennie. Az első specifikációk már kiszivárognak a neten, és jól látszik, hogy a zöldek egy lépést várnak a piros-fehérektől: valamiféle uber-gun, amit azonnal a helyére tehet a 3D-s grafika új királya, a nagyszerű és hatalmas GTX 1080 Ti. Nos, egyelőre megvan, amink van.

GTX 1070

A nagy népszerűségnek örvendő GTX 970 és a nem egészen őszinte, 4 gigabájtos memóriája tavalyi kalandjait aktívan vitatták és vitatták az egész internet. Ez nem akadályozta meg abban, hogy a világ legnépszerűbb videokártyája legyen. A naptár évfordulója előtt az első helyen áll a Steam Hardver- és Szoftverfelmérésben. Ez érthető: az ár és a teljesítmény kombinációja egyszerűen ideális volt. És ha kihagyta a tavalyi frissítést, és az 1060 nem tűnik elég menőnek az Ön számára, a GTX 1070 a választása.

A videokártya a 2560x1440 és a 3840x2160-as felbontásokat durván kezeli. A Boost 3.0 túlhajtási rendszer megpróbálja feltölteni az üzemanyagot, amikor a GPU terhelése növekszik (vagyis a legnehezebb jelenetekben, amikor az FPS leereszkedik a speciális effektusok rohama alatt), felgyorsítva a videokártya processzorát egy elképesztő 2100+-ra. MHz. A memória könnyedén eléri a gyári beállítások feletti 15-18%-os effektív frekvenciát. Szörnyű dolog.


Figyelem, az összes tesztet 2,5k felbontásban (2560x1440) végezték:

DOOM 2016 (1440p, ULTRA): OpenGL – 91 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks Off): DX11 – 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 – 91 FPS, DX12 – 83 FPS;
Overwatch (1440p, ULTRA): DX11 – 142 FPS.

Nyilvánvaló, hogy sem ez a kártya, sem az 1080 nem ér el ultra-beállításokat 4k-ban, és soha nem csökken 60 képkocka/másodperc alá, de játszhatsz a feltételes „magas” beállításokkal, letiltva vagy enyhén csökkentve a leginkább energiaéhes funkciókat teljes felbontásban. és Valós teljesítményt tekintve a videokártya könnyedén veri még a tavalyi 980 Ti-t is, ami majdnem kétszer annyiba került. A Gigabyte rendelkezik a legérdekesebb lehetőséggel: sikerült egy teljes értékű 1070-et belezsúfolni egy ITX szabványú házba. A szerény hőcsomagnak és az energiatakarékos kialakításnak köszönhetően. A kártyák ára 29-30 ezer rubeltől indul az ízletes lehetőségekért.

GTX 1080

Igen, a zászlóshajón nincsenek Ti betűk. Igen, nem az NVIDIA-tól elérhető legnagyobb GPU-t használja. Igen, nincs menő HBM 2 memória, és a videokártya sem hasonlít a Death Starra, vagy extrém esetben egy Imperial Star Destroyer osztályú cirkálóra. És igen, ez a jelenleg elérhető legmenőbb játékvideókártya. A DOOM-ot 5k3k felbontásban, 60 képkocka/másodperc sebességgel, ultra beállítások mellett futtatjuk és futtatjuk. Minden új játékra vonatkozik, és a következő egy-két évben nem lesz probléma: amíg a Pascalba ágyazott új technológiák elterjednek, amíg a játékmotorok megtanulják hatékonyan betölteni a rendelkezésre álló erőforrásokat... Igen, pár éve azt mondjuk majd: „Nézd meg a GTX 1260-at, pár éve zászlóshajóra volt szükséged, hogy ezeken a beállításokon játszhass”, de egyelőre a legjobb grafikus kártyák már az új év előtt elérhetők a következő címen: nagyon elfogadható áron.


Figyelem, minden tesztet 4k felbontásban (3840x2160) végeztek:

DOOM 2016 (2160p, ULTRA): OpenGL – 54 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks Off): DX11 – 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 – 65 FPS, DX12 – 59 FPS;
Overwatch (2160p, ULTRA): DX11 – 93 FPS.

Nincs más dolgod, mint eldönteni: szükséged van rá, vagy spórolhatsz 1070-et. Az „ultra” vagy „magas” beállításokon való lejátszás nem sokat számít, hiszen a modern motorok tökéletesen rajzolnak képet nagy felbontásban még Közepes beállítások: a végén mi nem vagyunk olyan szappankonzolok, amelyek nem képesek elegendő teljesítményt nyújtani az őszinte 4K-hoz és a stabil 60 képkocka/másodperchez.

Ha elvetjük a legolcsóbb lehetőségeket, akkor az ár és a minőség legjobb kombinációja ismét a Palit lesz a GameRock verzióban (kb. 43-45 ezer rubel): igen, a hűtőrendszer „vastag”, 2,5 slot, de a videó kártya rövidebb, mint a versenytársak, és néhány 1080-as ritkán van telepítve. Az SLI lassan haldoklik, és még a nagysebességű hidak életadó injekciója sem igazán segít rajta. Az ASUS ROG opció nem rossz, ha sok extrát telepített. eszközöket, és nem akarod blokkolni az extra bővítőhelyeket: a videokártyájuk pontosan 2 slot vastag, de 29 centiméter szabad helyet igényel a hátfaltól a merevlemezrekeszig. Kíváncsi vagyok, hogy a Gigabyte-nak sikerül-e ITX formátumban kiadnia ezt a szörnyeteget?

Eredmények

Az új NVIDIA videokártyák egyszerűen eltemették a használt hardverek piacát. Csak a GTX 970 marad meg rajta, amit 10-12 ezer rubelért ki lehet kapni. A használt 7970 és R9 280 potenciális vásárlói gyakran nem tudják hova tenni, és egyszerűen nem tudják megetetni, a másodlagos piacról pedig sok lehetőség egyszerűen kilátástalan, és nem jó néhány évre olcsó fejlesztésnek: van kevés memória, az új technológiák nem támogatottak. A videokártyák új generációjának szépsége éppen az, hogy még a nem rájuk optimalizált játékok is sokkal erőteljesebben futnak, mint az elmúlt évek GPU-listájának veteránjain, és nehéz elképzelni, mi lesz egy év múlva, amikor a játékmotorok megtanulják az új technológiák teljes erejét kihasználni.

GTX 1050 és 1050Ti

Sajnos nem tudom ajánlani a legolcsóbb Pascal megvásárlását. Az RX 460-at általában ezer-kétezerrel olcsóbban árulják, és ha annyira szűkös a költségvetés, hogy „last minute” videokártyát veszünk, akkor a Radeon objektíve egy érdekesebb befektetés. Viszont az 1050 kicsit gyorsabb, és ha a városodban ennek a két videokártyának az ára közel megegyezik, akkor vedd.

Az 1050Ti pedig kiváló választás azoknak, akiknek a történet és a játékmenet fontosabb, mint a harangok, sípok és a valósághű orrszőrzet. Nincs szűk keresztmetszete a 2 GB videomemória formájában, nem fogy ki egy év alatt. Pénzt biztosíthatsz rá – tedd meg. A Witcher magas beállításokon, GTA V, DOOM, BF 1 - nem probléma. Igen, le kell mondanod számos fejlesztésről, például a szuperhosszú árnyékokról, a bonyolult tesszellációról vagy a korlátozott sugárkövetéssel rendelkező modellek önárnyékolásának „drága” számításáról, de a csata hevében elfelejted ezeket a szépségeket 10 perc játék után, és a stabil 50-60 képkocka másodpercenként sokkal magával ragadóbb hatást ad, mint az ideges ugrások 25-ről 40-re, de „maximum” beállítás mellett.

Ha bármilyen Radeon 7850, GTX 760 vagy annál fiatalabb, 2 GB vagy kevesebb videomemóriával rendelkező videokártyája van, nyugodtan cserélheti őket.

GTX 1060

A fiatalabb 1060 azoknak fog tetszeni, akiknek a 100 FPS-es képkockasebesség fontosabb, mint a grafikus harangok és sípok. Ugyanakkor lehetővé teszi az összes kiadott játék kényelmes lejátszását FullHD felbontásban, magas vagy maximális beállításokkal és stabilan 60 képkocka/másodperc sebességgel, és az ár nagyon eltér minden utána jövőtől. A régebbi, 6 gigabájt memóriával rendelkező 1060 kompromisszumok nélküli megoldás FullHD-re, egy-két éves teljesítménytartalékkal, VR-ismerettel, és teljesen elfogadható jelölt a nagy felbontású, közepes beállítások melletti játékhoz.

Nincs értelme a GTX 970-et GTX 1060-ra cserélni, ehhez még egy év kell. De az unalmas 960, 770, 780, R9 280X és régebbi egységek nyugodtan frissíthetők 1060-ra.

Legfelső szegmens: GTX 1070 és 1080

Nem valószínű, hogy az 1070 lesz olyan népszerű, mint a GTX 970 (még mindig a legtöbb felhasználónak kétévente van hardverfrissítési ciklusa), de ár-minőség arányban mindenképpen méltó folytatása a 70-es vonalnak. Egyszerűen darálja a játékokat a mainstream 1080p felbontáson, könnyen megbirkózik a 2560x1440-nel, kibírja az optimalizálatlan 21-től 9-ig tartó megpróbáltatásokat, és eléggé képes 4k megjelenítésére, bár nem maximális beállítások mellett.


Igen, az SLI lehet ilyen.

A tavalyi 780 Ti, R9 390X és egyéb 980-asok számára azt mondjuk, hogy „gyerünk, viszlát”, különösen, ha nagy felbontásban akarunk játszani. És igen, ez a legjobb megoldás azoknak, akik szeretnek pokoli dobozt építeni Mini-ITX formátumban, és 4k-s játékokkal ijesztgetni a vendégeket egy 60-70 hüvelykes tévén, ami egy kávéfőző méretű számítógépen fut.
A gtx 1050 videokártyák története Címkék hozzáadása

Nvidia GeForce GTX 1080 Pascal áttekintés | Ismerkedés a GP104 GPU-val

A Computex kiállítás előestéjén az Nvidia úgy döntött, hogy bemutatja régóta várt új termékét - a játékosok számára adaptált Pascal architektúrát. Az új GeForce GTX 1080 és 1070 videokártyákba a gyártó a GP104 grafikus processzort telepíti. Ma a régebbi modellt nézzük meg, a fiatalabb pedig június elején kerülhet a kezünkbe.

A Pascal architektúra gyorsabb és hatékonyabb teljesítményt, több számítási modult, kisebb szerszámterületet és gyorsabb memóriát ígér frissített vezérlővel. Alkalmasabb a virtuális valósághoz, a 4K-s játékokhoz és más teljesítményigényes feladatokhoz.

Mint mindig, most is megpróbáljuk megérteni a gyártó ígéreteit, és a gyakorlatban tesztelni azokat. Kezdjük.

Megváltoztatja-e a GeForce GTX 1080 az erőviszonyokat a csúcskategóriás szegmensben?

A hónap elején bejelentett két gamer grafikus kártya közül az Nvidia GeForce GTX 1080 a gyorsabb. Mindkettő a GP104 GPU-t használja, ami egyébként már a második Pascal mikroarchitektúrával rendelkező GPU (az első a GP100 volt, ami áprilisban jelent meg a GTC-n). Az Nvidia vezérigazgatója, Ren-Sun Huan ingerelte a rajongókat, amikor bemutatta a nagyközönségnek az új terméket, és azt állította, hogy a GeForce GTX 1080 felülmúlja a két 980-ast SLI-ben.

Azt is megjegyezte, hogy a nagyobb teljesítményű GTX 1080 alacsonyabb fogyasztású, mint a 900-as sorozaté. Kétszer termelékenyebb és háromszor hatékonyabb, mint a GeForce Titan X egykori zászlóshajója, de ha jobban megnézzük a mellékelt grafikonokat és diagramokat, kiderül, hogy egy ilyen lenyűgöző különbség bizonyos, a virtuális valósággal kapcsolatos feladatokban nyilvánul meg. De még ha ezek az ígéretek csak részben is beigazolódnak, még mindig nagyon érdekes idők előtt állunk a PC-n történő csúcskategóriás játékok fejlesztése szempontjából.

A virtuális valóság kezd fellendülni, de a grafikus alrendszer magas hardverigénye jelentős akadályt gördít ezekhez a technológiákhoz való hozzáférés előtt. Ezenkívül a legtöbb ma elérhető játék nem használja ki a többprocesszoros megjelenítés előnyeit. Ez azt jelenti, hogy általában egy gyors videoadapter képességeire korlátozódik egy GPU-val. A GTX 1080 képes felülmúlni két 980-ast, és nem okoz gondot a modern VR-játékok lejátszása, így nincs szükség több GPU-s konfigurációkra a jövőben.

A 4K ökoszisztéma ugyanolyan gyorsan fejlődik. A nagyobb sávszélességű interfészek, mint például a HDMI 2.0b és a DisplayPort 1.3/1.4, ez év végére megnyitják a kaput a 120 Hz-es panelekkel és dinamikus frissítési gyakorisággal rendelkező 4K monitorok előtt. Míg az AMD és az Nvidia csúcskategóriás GPU-inak korábbi generációit 4K-s játékmegoldásokként forgalmazták, a felhasználóknak minőségi kompromisszumokat kellett kötniük az elfogadható képkockasebesség fenntartása érdekében. A GeForce Nvidia GTX 1080 lehet az első grafikus adapter, amelynek sebessége elegendő lesz a magas képkockasebesség fenntartásához 3840x2160 pixeles felbontás mellett, maximális grafikai részletbeállításokkal.

Mi a helyzet több monitor konfigurációval? Sok játékos készen áll három, 1920x1080-as felbontású monitor telepítésére, de csak azzal a feltétellel, hogy a grafikus rendszer bírja a terhelést, mert ebben az esetben a kártyának félmillió pixelt kell rajzolnia, hiszen a felbontás 7680x1440. Még a rajongók is hajlandóak három 4K-s, 11520x2160 pixeles kombinált felbontású kijelzőt felvenni.

Ez utóbbi lehetőség túl egzotikus még egy új, gamer zászlóshajó videokártya számára is. Az Nvidia GP104 processzor azonban olyan technológiával van felszerelve, amely az ígéretek szerint javítja az új modell tipikus feladatai, azaz a 4K és a Surround élményét. Mielőtt azonban rátérnénk az új technológiákra, nézzük meg közelebbről a GP104 processzort és az alapjául szolgáló Pascal architektúrát.

Miből áll a GP104?

2012 eleje óta az AMD és az Nvidia a 28 nm-es folyamattechnológiát használja. Az erre való váltással mindkét cég jelentős előrelépést tett, bemutatva nekünk a Radeon HD 7970 és a GeForce GTX 680 videokártyákat. A Radeon R9 Fury X és a GeForce GTX 980 Ti vívmányai komplexitásukat tekintve igazi csoda. Az első chip, amelyet az Nvidia 28 nm-es technológiával készített, a GK104 volt, amely 3,5 milliárd tranzisztorból állt. A GeForce GTX 980 Ti-be és a Titan X-be telepített GM200 már nyolcmilliárd tranzisztorral rendelkezik.

A 16 nm-es TSMC FinFET Plus technológiára való átállás lehetővé tette az Nvidia mérnökei számára, hogy új ötleteket valósítsanak meg. A műszaki adatok szerint a 16FF+ chipek 65%-kal gyorsabbak, kétszer olyan sűrűek lehetnek, mint a 28 HPM, vagy 70%-kal kevesebb energiát fogyasztanak. GPU-inak létrehozásakor az Nvidia ezen előnyök optimális kombinációját használja. A TSMC azt állítja, hogy a meglévő 20 nm-es folyamat mérnöki útmutatásait vette át, de a sík tranzisztorok helyett FinFET tranzisztorokat használt. A cég szerint ez a megközelítés csökkenti a hibák számát és növeli a munkalapok hozamát. Azt is állítják, hogy a cégnek nem volt 20 nanométeres technológiai folyamata gyorstranzisztorokkal. Ismételjük meg, a számítógépes grafika világa már több mint négy éve alkalmazza a 28 nm-es folyamattechnológiát.


A GP104 processzor blokkvázlata

A GM204 utódja 7,2 milliárd tranzisztorból áll, amelyek 314 mm2-es területen helyezkednek el. Összehasonlításképpen, a GM204 szerszámfelülete 398 mm2, 5,2 milliárd tranzisztorral. A teljes verzióban egy GP104 GPU négy grafikus feldolgozó fürttel (GPC) rendelkezik. Mindegyik GPC öt szál/textúra feldolgozó fürtöt (TPC) és egy raszterező egységet tartalmaz. A TPC egy streaming multiprocesszort (Streaming Multiprocessor SM) és a PolyMorph motort egyesíti. Az SM 128 egyszeres precíziós CUDA magot, 256 KB regisztermemóriát, 96 KB megosztott memóriát, 48 KB L1/textúra gyorsítótárat és nyolc textúra egységet tartalmaz. A PolyMorph motor negyedik generációja tartalmaz egy új logikai blokkot, amely a geometriai csővezeték végén található a raszterizálási blokk előtt, ez vezérli a Simultaneous Multi-Projection funkciót (erről bővebben lentebb). Összesen 20 SM-et, 2560 CUDA magot és 160 textúra feldolgozó egységet kapunk.


One Streaming Multiprocessor (SM) a GP104-ben

A GPU-háttér nyolc 32 bites memóriavezérlőt (256 bites teljes csatornaszélesség), nyolc raszterező egységet és 256 KB L2 gyorsítótárat tartalmaz minden egységhez. Ennek eredményeként 64 ROP-val és 2 MB megosztott L2 gyorsítótárral rendelkezünk. Bár az Nvidia GM204 processzor blokkdiagramja négy 64 bites vezérlőt és 16 ROP-t mutatott, ezek csoportosítottak és funkcionálisan egyenértékűek voltak.

A GP104 egyes szerkezeti elemei hasonlóak a GM204-hez, ugyanis az új GPU az előd építőköveiből készült. Nincs semmi baj. Ha emlékszel, a Maxwell architektúrában a vállalat az energiahatékonyságra támaszkodott, és nem rázta fel azokat a blokkokat, amelyek Kepler erősségei voltak. Hasonló képet látunk itt is.

Négy SMS hozzáadása nem befolyásolja jelentősen a teljesítményt. A GP104-nek azonban van néhány trükkje. Az első ütőkártya a lényegesen magasabb órajel. A GPU alap órajele 1607 MHz. A GM204 specifikációi összehasonlításképpen 1126 MHz-et jeleznek. A GPU Boost órajele maximum 1733 MHz, de a mintánkat 2100 MHz-re toltuk az EVGA PrecisionX segédprogramjának béta verziójával. Honnan van ekkora túlhajtási tartalék? John Albin, a GPU tervezésért felelős alelnöke szerint csapata tudta, hogy a TSMC 16FF+ folyamat hatással lesz a chip architektúrájának teljesítményére, ezért a chipen belüli időzítés optimalizálására összpontosítottak, hogy kiküszöböljék azokat a szűk keresztmetszeteket, amelyek megakadályozták a magasabb órajel elérését. Ennek eredményeként a GP104 egyszeres pontosságú számítási sebessége elérte a 8228 GFLOP-ot (alapfrekvencián), szemben a GeForce GTX 980 4612 GFLOP-os felső határával. A texeltöltési sebesség a 980-nál (GPU-val) 155,6 Gtex/s-ról ugrott Boost) 277. 3 Gtex/s-ra.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
S.M. 20 16
CUDA magok száma 2560 2048
GPU alapfrekvencia, MHz 1607 1126
GPU frekvencia Boost módban, MHz 1733 1216
Számítási sebesség, GFLOP-ok (alapfrekvencián) 8228 4612
Textúra blokkok száma 160 128
Texel töltési sebesség, Gtex/s 277,3 155,6
Memória adatátviteli sebessége, Gbit/s 10 7
Memória sávszélesség, GB/s 320 224
Raszterezési blokkok száma 64 64
L2 gyorsítótár mérete, MB 2 2
Termikus csomag, W 180 165
A tranzisztorok száma 7,2 milliárd 5,2 milliárd
Kristályfelület, mm2 314 398 mm
Műszaki folyamat, nm 16 28

A háttér továbbra is 64 ROP-t és egy 256 bites memóriabuszt tartalmaz, de az elérhető sávszélesség növelése érdekében az Nvidia GDDR5X memóriát implementált. A cég nagy erőfeszítéseket tett az új típusú memória népszerűsítésére, különösen a különböző AMD videokártyákban használt HBM memóriákhoz és az Nvidia Tesla P100-ba telepített HBM2-höz képest. Érezhető, hogy jelenleg hiány van a piacon HBM2 memóriából, és a cég nem hajlandó elfogadni a HBM korlátait (négy 1 GB-os stack, vagy nyolc 1 GB-os stack megvalósításával járó nehézségeket). Így GDDR5X videómemóriát kaptunk, aminek a kínálata láthatóan szintén korlátozott, hiszen a GeForce GTX 1070 már rendes GDDR5-öt használ. Ez azonban nem fedi le az új megoldás előnyeit. A GeForce GTX 980 GDDR5 memóriájának adatátviteli sebessége 7 Gbps volt. Ez 224 GB/s átviteli sebességet biztosított egy 256 bites buszon. A GDDR5X 10 Gbps-ról indul, ami 320 GB/s-ra növeli az átvitelt (~43%-os növekedés). Az Nvidia szerint a növekedés a továbbfejlesztett I/O áramkörnek köszönhető, az energiafogyasztás növelése nélkül.

A Maxwell architektúra a gyorsítótár és a tömörítési algoritmusok optimalizálásával jobban kihasználja a sávszélességet, a Pascal pedig ugyanezt az utat követi az új veszteségmentes tömörítési módszerekkel a rendelkezésre álló memóriacsatorna sávszélességének hatékonyabb kihasználása érdekében. A delta színtömörítési algoritmus 2:1 arányú erősítést próbál elérni, és ezt a módot továbbfejlesztették a gyakoribb használat érdekében. Van egy új 4:1 mód is, amely akkor hasznos, ha a pixelenkénti különbségek nagyon kicsik. Végül a Pascal egy másik új 8:1-es algoritmust mutat be, amely 4:1-es tömörítést alkalmaz 2x2-es blokkokra, amelyek közötti különbséget a 2:1-es algoritmussal dolgozza fel.



A különbséget nem nehéz szemléltetni. Az első képen egy tömörítetlen képernyőkép látható a Project CARS játékból. A következő képen láthatók azok az elemek, amelyeket egy Maxwell kártya tömöríthet, lilával árnyékolva. A harmadik képen az látható, hogy Pascal még jobban tömöríti a jelenetet. Az Nvidia szerint ez a különbség körülbelül 20%-os csökkenést jelent a memóriából minden egyes képkocka esetén lehívandó információ bájtjaiban.

Nvidia GeForce GTX 1080 Pascal áttekintés | Referenciakártya tervezés

Az Nvidia megváltoztatta a kártyatervezési megközelítését. A „hivatkozás” helyett a térkép saját verzióját Founders Edition-nek nevezi (az alkotók verziója). Nem lehet nem észrevenni, hogy a GeForce GTX 1080 megjelenése szögletesebb lett, de a hűtőrendszer ugyanazt a régi bevált mechanizmust használja a forró levegő kiengedésére az oldalsó sávon keresztül.

A kártya súlya 1020 g, hossza pedig 27 cm. Tapintásra nagyon kellemes érzés, hiszen a hűtőház nemcsak fémnek tűnik, hanem valójában fémből, pontosabban alumíniumból készült. A matt ezüst részek lakkoznak, és ha nem bánunk túl óvatosan a kártyával, hamar megkarcolódnak.

A hátlap két részre oszlik. Csak dekorációként szolgál, hűtő funkciója nincs. Később megtudjuk, mennyire helyes ez a döntés. Az Nvidia azt javasolja, hogy SLI használatakor távolítsa el a lemez elemeit, hogy jobb légáramlást érjen el az egymáshoz közel telepített kártyák között.

Az alján nincs semmi érdekes, bár észrevettük, hogy a fekete burkolat egyes részei érintkezhetnek az alatta lévő alaplap egyes részeivel, például a chipset hűtővel és a SATA portokkal.

A kártya tetején egy nyolctűs kiegészítő tápcsatlakozót látunk. Figyelembe véve a videokártya hivatalos specifikációit, valamint az alaplapi foglalatból kapott 60 W-os teljesítményt, egy ilyen csatlakozó 180 W-os névleges hőcsomaghoz elegendő. Természetesen ellenőrizzük, hogy ez a kártya ténylegesen mennyi áramot fogyaszt, és nem terheli-e túl a vezetékeket.

Két SLI csatlakozó is van. Az új Pascal grafikus kártyákkal együtt az Nvidia új, nagy sávszélességű hidakat vezetett be. Később részletesebben is megvizsgáljuk őket. Röviden: egyelőre csak a két videokártyás SLI konfigurációk támogatottak hivatalosan, és mindkét csatlakozóval kétcsatornás interfész működik a GPU-k között.

Az I/O panelen három teljes DisplayPort csatlakozó található. A specifikációkban a DisplayPort 1.2 szabvány szerepel, de várhatóan kompatibilisek lesznek a DisplayPort 1.3/1.4-gyel (legalábbis a kijelzővezérlő képes kezelni az új szabványokat). Van még HDMI 2.0 kimenet és dual-link DVI-D. Nem kell analóg csatlakozókat keresni.

A kártya másik végén van egy nagy nyílás a levegő befogására és három csavarlyuk a kártya további rögzítéséhez a tokban.

Hűtős kivitel és tápellátás

A megjelenés alapos vizsgálata után ideje megnézni az alumínium burkolat alatt megbúvó tölteléket. Ez nehezebbnek bizonyult, mint amilyennek első pillantásra tűnhet. Szétszerelés után csavarokkal együtt 51 alkatrészt számoltunk az asztalon. Ha eltávolítja a ventilátorokat, további 12 kerül hozzáadásra.

Az Nvidia végre visszatért a valódi gőzkamrához. Négy csavarral csatlakozik az alaplaphoz a GPU tetején.

A centrifugális ventilátornak ismerősnek kell lennie. A közvetlen hőelvonás során levegőt veszünk egy helyen, átengedjük a radiátor bordáin és kilépünk a házból. A keretként is szolgáló hűtőburkolat nemcsak a kártyát stabilizálja, hanem a feszültségátalakítók és a memóriamodulok hűtését is segíti.

Az összes külső alkatrész eltávolítása után eljutottunk a nyomtatott áramköri laphoz. A korábbi megoldásokkal ellentétben az Nvidia hatfázisú tápegységet használ. Öt fázis szolgálja a GPU-t, a fennmaradó fázis pedig a GDDR5X memóriát táplálja.

A táblán egy másik fázis helye látható, ami üres.

A GP104 GPU 314 mm2-es területet foglal el, ami jóval kisebb, mint elődje. A processzor körül a tábla más rétegeinek vonalai láthatók. A magas órajel-frekvenciák eléréséhez a vezetőket a lehető legrövidebbre kell tartani. A szigorú követelmények miatt az Nvidia partnereinek valószínűleg több időre lesz szükségük a gyártás beindításához.

A GDDR5X memóriát a Micron által gyártott 6HA77 chip képviseli. Nemrég kerültek tömeggyártásba, ugyanis az új Nvidia videokártya korábban a sajtónak kiszivárgott képein 6GA77-es chipet láttunk.

A 256 bites memóriabuszra összesen nyolc memóriamodul csatlakozik 32 bites vezérlőkön keresztül. 1251 MHz-es frekvencián az átviteli sebesség eléri a 320 GB/s-ot.

A Micron GDDR5X moduljai 170 tűs csomagot használnak a 190 tűs GDDR5 helyett. Valamivel kisebbek is: 14x12 mm helyett 14x10 mm. Vagyis nagyobb a sűrűségük, és jobb hűtést igényelnek.

A kártyát megfordítva szabad helyet találtunk a második tápcsatlakozónak. Így az Nvidia partnerei telepíthetnek egy második kiegészítő csatlakozót a tápellátáshoz, vagy a meglévőt más helyre helyezhetik.

A kártyán található egy nyílás is, amely lehetővé teszi a tápcsatlakozó 180 fokkal történő elforgatását.

A kondenzátorok közvetlenül a GPU alatt helyezkednek el, hogy kisimítsák az esetleges túlfeszültségeket. A tábla ezen az oldalán is található egy PWM (korábban az elülső oldalon volt). Ez a megoldás lehetőséget ad az Nvidia partnereinek más PWM vezérlők telepítésére.

De térjünk vissza a feszültségstabilizátor PWM vezérlőjéhez. Az Nvidia GPU Boost 3.0 technológia új feszültségszabályozási követelményeket kapott, ami jelentős változásokhoz vezetett. Arra számítottunk, hogy az International Rectifier IR3536A-jához hasonló vezérlőt 5+1 fázisú kialakítással kombinálunk, de az Nvidia a µP9511P-t használta. Ez nem a legjobb hír a túlhúzók számára, mivel a kártya nem támogatja az olyan eszközök felületét és protokollját, mint az MSI Afterburner és a Gigabyte OC Guru. Az új vezérlőre való átállás, ami még nem nagyon van leírva, nagy valószínűséggel a műszaki jellemzőknek köszönhető.

Mivel a PWM vezérlő nem tudja közvetlenül vezérelni a feszültségátalakító egyes fázisait, az Nvidia nagy teljesítményű MOSFET meghajtókat használ 53603A chipekkel a MOSFET-ek kapujának vezérlésére. De néhány más lehetőséghez képest az áramkör elrendezése ügyesnek és rendezettnek tűnik.

Itt különböző típusú MOSFET-ek vannak. A 4C85N egy meglehetősen rugalmas kétcsatornás feszültségkonverziós MOSFET. A tápegység mind a hat fázisát kiszolgálja, és elég nagy elektromos és hőtartalékkal rendelkezik ahhoz, hogy kezelje a referenciakialakítás terheléseit.


Kíváncsi vagyok, hogy az Nvidia GPU Boost 3.0 technológia és a módosított feszültségszabályozó áramkör hogyan befolyásolja az energiafogyasztást. Ezt mindenképp megnézzük.

Nvidia GeForce GTX 1080 Pascal áttekintés | Egyidejű Multi-Projection és Async Compute technológia

Egyidejű Multi-Projekciós motor

A megnövekedett magszám, órajel és 10 Gbps GDDR5X memória felgyorsít minden tesztelt játékot. A Pascal architektúra azonban több olyan funkciót is tartalmaz, amelyeket csak a jövőbeli játékokban fogunk tudni értékelni.

Az egyik új funkció, amelyet az Nvidia Simultaneous Multi-Projection Engine-nek vagy többvetítésű motornak hív, egy hardveregység, amelyet a PolyMorph motorokhoz adtak hozzá. Az új motor akár 16 geometriai adat vetítését is képes létrehozni egyetlen nézőpontból. Vagy eltolja a nézőpontot, hogy sztereoszkópikus képet hozzon létre, hardveresen 32-szer megkettőzve a geometriát, anélkül, hogy az SMP nélkül elérné ezt a hatást.


Egysíkú vetítés

Próbáljuk megérteni ennek a technológiának az előnyeit. Például három monitorunk van Surround konfigurációban. Kissé befelé vannak fordítva, hogy „beburkolják” a felhasználót, így kényelmesebb a játék és a munka. De a játékok ezt nem tudják, és egy síkban jelenítik meg a képet, így a monitor keretei találkozásánál íveltnek tűnik, és az összkép torznak tűnik. Ennél a konfigurációnál helyesebb lenne az egyik nézetet egyenesen előre, a második nézetet balra, mintha egy panorámarepülőgép pilótafülkéjéből, a harmadik pedig jobbra lenne. Így a korábban ívelt panoráma kisimítottnak tűnik, így sokkal szélesebb látószöget kap a felhasználó. A teljes jelenetet továbbra is raszterezni és árnyékolni kell, de a GPU-nak nem kell háromszor renderelnie a jelenetet, így elkerülhető a felesleges többletmunka.


Helytelen perspektíva ferde kijelzőn



A perspektíva SMP-vel korrigált

Az alkalmazásnak azonban támogatnia kell a széles látószög beállításait, és SMP API-hívásokat kell használnia. Ez azt jelenti, hogy a funkció használata előtt a játékfejlesztőknek el kell sajátítaniuk. Nem tudjuk, mennyi erőfeszítést hajlandók beletenni a maroknyi többmonitoros Surround felhasználóért. De vannak más alkalmazások is, amelyeknél érdemes ezt a funkciót a lehető leghamarabb megvalósítani.


az egymenetes sztereó rendereléssel az SMP minden szem számára egy vetítést hoz létre

Vegyük például a virtuális valóságot. Már minden szemhez egyéni vetítés szükséges. Manapság a játékok egyszerűen két külön képernyőre jelenítik meg a képeket, az ezzel járó hátrányokkal és hatékonyságvesztésekkel együtt. De mivel az SMP két vetítési központot támogat, a jelenet egy menetben renderelhető az Nvidia Single Pass Stereo funkciójával. A geometria egyszer feldolgozásra kerül, és az SMP létrehozza a vetületét a bal és a jobb szem számára. Az SMP ezután további vetítéseket alkalmazhat a Lens Matched Shading nevű funkció biztosításához.


Képek az első lépés után Lens Matched Shading funkciókkal



A fejhallgatóra küldött utolsó jelenet

Dióhéjban a Lens Matched Shading megkísérli hatékonyabbá tenni a VR-megjelenítést azáltal, hogy elkerüli a hagyományos síkvetítési renderelés során a geometriát a headset lencséinek torzulásának megfelelő torzításáért (így a legnagyobb hajlítási pontokon elvesztegetve a pixeleket). ). Ezt a hatást úgy lehet megközelíteni, ha SMP-vel osztjuk fel a területet kvadránsokra. Tehát ahelyett, hogy négyzetes vetítéssel dolgozna, a GPU olyan képeket készít, amelyek megfelelnek az objektív torzítási szűrőjének. Ez a módszer megakadályozza az extra pixelek képződését. Mindaddig nem fogsz észrevenni minőségbeli különbséget, amíg a fejlesztők megegyeznek a HMD szemmintavételi gyakoriságával, vagy meghaladják azt.

Az Nvidia szerint a Single Pass Stereo és a Lens Matched Shading technikák kombinációja kétszeres teljesítménynövekedést biztosít a VR-ben az SMP támogatás nélküli GPU-khoz képest. Ennek egy része a pixel-megjelenítéshez kapcsolódik. A Lens Matched Shading technológiát alkalmazva a nem renderelni kívánt képpontok feldolgozásának elkerülése érdekében a jelenet renderelési intenzitása az Nvidia kiegyensúlyozott előbeállításaival 4,2 MP/s-ról (Oculus Rift) 2,8 MP/s-ra csökkent, így csökkent a GPU árnyékoló terhelése. másfélszeresével. A Single Pass Stereo technológia, amely csak egyszer dolgozza fel a geometriát (ahelyett, hogy újra renderelné a második szem számára), hatékonyan kiküszöböli a ma szükséges geometriai feldolgozás felét. Most már világos, mire gondolt Ren-Sun, amikor bejelentette: „kétszer nagyobb teljesítményt és háromszoros hatékonyságot a Titan X-hez képest”.

Aszinkron számítástechnika

A Pascal architektúra néhány aszinkron számítástechnikával kapcsolatos változást is tartalmaz, amelyek a DirectX 12-nek, a VR-nek és az AMD architekturális előnyének köszönhetők, több okból is.

Az Nvidia a Maxwell architektúra óta támogatja a statikus GPU-erőforrások megosztását a grafikai és számítási munkaterhelésekhez. Elméletileg ez a megközelítés akkor jó, ha mindkét blokk egyidejűleg aktív. De tegyük fel, hogy a processzor erőforrásainak 75%-át a grafika fordítja, és gyorsabban teljesítette a feladat részét. Ezután ez a blokk tétlen lesz, és arra vár, hogy a számítási egység befejezze a munka részét. Így e feladatok egyidejű végrehajtásának minden lehetséges előnye elvész. A Pascal ezt a hiányosságot a terhelés dinamikus kiegyenlítésével orvosolja. Ha az illesztőprogram azt állapítja meg, hogy az egyik partíció kihasználatlan, akkor átválthatja erőforrásait, hogy segítsen egy másiknak, így megakadályozhatja, hogy az üresjárati idő negatívan befolyásolja a teljesítményt.

Az Nvidia a Pascalban is javította a megszakítási képességeket, vagyis az aktuális feladat leállításának lehetőségét, hogy egy „sürgősebb” megoldást nagyon rövid végrehajtási idővel megoldhassunk. Mint tudják, a GPU-k erősen párhuzamosított gépek, nagy pufferekkel, amelyek célja, hogy a hasonló erőforrásokat egymáshoz közel tartsák elfoglalva. Az üresjárati shader használhatatlan, ezért minden lehetséges módon be kell vonni a munkafolyamatba.


A VR esetében jobb, ha a megszakítási kérelmeket a lehető legkésőbb küldi el, hogy rögzítse a legújabb nyomkövetési adatokat

Remek példa erre az Asynchronous Time Warp (ATW) funkció, amelyet az Oculus a Rifttel mutatott be. Abban az esetben, ha a grafikus kártya nem tud 11 ms-onként új képkockát előállítani 90 Hz-es kijelzőn, az ATW egy közbenső képkockát generál az utolsó fejbeállított képkocka felhasználásával. De elegendő időnek kell lennie egy ilyen keret létrehozásához, és sajnos a grafikus megszakítás nem túl pontos. Valójában a Fermi, Kepler és Maxwell architektúrák támogatják a húzási szintű megszakítást, ami azt jelenti, hogy a keretek egy rajzolási híváson belül válthatók, ami potenciálisan visszatartja az ATW technikát.

A Pascal pixel szintű megszakításokat valósít meg a grafikákhoz, így a GP104 le tudja állítani az aktuális pixelszintű műveletet, el tudja menteni az állapotát, és átválthat egy másik környezetre. Az Oculus által közölt ezredmásodperces megszakítás helyett az Nvidia kevesebb mint 100 mikroszekundumot állít.

A Maxwell architektúrában a számítási egységben a pixel szintű megszakítás megfelelőjét szál szintű megszakításon keresztül valósították meg. A Pascal is megtartja ezt a technikát, de kiegészíti az utasításszintű megszakítások támogatását a CUDA számítási feladatokban. Az Nvidia illesztőprogramjai jelenleg nem tartalmazzák ezt a funkciót, de hamarosan elérhető lesz pixelszintű megszakítással együtt.

Nvidia GeForce GTX 1080 Pascal áttekintés | Kimeneti folyamat, SLI és GPU Boost 3.0

Pascal kijelző csatorna: HDR-kész

Tavaly találkoztunk az AMD-vel a kaliforniai Sonomában, amikor megosztottak néhány részletet az új Polaris architektúrájáról, különösen a nagy dinamikatartományú tartalmat támogató képkimeneti folyamatról és a megfelelő kijelzőkről.

Nem meglepő, hogy az Nvidia Pascal architektúrája hasonló funkciókkal rendelkezik, amelyek közül néhány még a Maxwellben is elérhető volt. Például a GP104 processzorban lévő kijelzővezérlő támogatja a 12 bites színt, a BT.2020 széles színskálát, az SMPTE 2084 elektro-optikai átviteli funkciót és a HDMI 2.0b-t HDCP 2.2-vel.

A Pascal ehhez a listához hozzáadja a gyorsított HEVC dekódolást 4K60p módban 10/12 bites színnel egy speciális hardveregységen keresztül, amely a HEVC 2-es verziójának támogatását követeli. Korábban az Nvidia hibrid megközelítést alkalmazott szoftverforrások felhasználásával. Ezenkívül a kódolást pixelenként nyolc bit színinformációra korlátozták. De úgy gondoljuk, hogy a vitatott specifikáció támogatásához a Microsoft PlayReady 3.0 gyorsabb és hatékonyabb megoldást igényel.

Az architektúra támogatja a 10 bites HEVC kódolást is 4K60p módban a HDR rögzítéshez vagy streameléshez, és az Nvidia még egy dedikált alkalmazást is kínál hozzá. A GP104 kódolási képességeinek és a hamarosan megjelenő GameStream HDR szoftvernek köszönhetően nagy dinamikatartományú játékokat streamelhet a HDR-kompatibilis TV-hez csatlakoztatott Shield eszközökre. A Shield saját HEVC dekóderrel van felszerelve, amely támogatja a pixelenkénti 10 bites színt, ami tovább könnyíti a képkimeneti folyamatot.

GeForce GTX 1080 GeForce GTX 980
H.264 kódolás Igen (2x 4K60p) Igen
HEVC kódolás Igen (2x 4K60p) Igen
HEVC 10 bites kódolás Igen Nem
H.264 Dekódolás Igen (4K120p akár 240 Mbps-ig) Igen
HEVC dekódolás Igen (4K120p/8K30p 320Mbps-ig) Nem
VP9 dekódolás Igen (4K120p akár 320 Mbps-ig) Nem
HEVC 10/12 bites dekódolás Igen Nem

A HDMI 2.0b támogatáson kívül a GeForce GTX 1080 rendelkezik tanúsított DisplayPort 1.2 támogatással és DP 1.3/1.4 kompatibilis. Ebben a tekintetben már felülmúlja a még ki nem adott Polarist, amelynek kijelzővezérlője jelenleg csak a DP 1.3-at támogatja. Az AMD szerencséjére az 1.4-es specifikációk nem tartalmaznak gyorsabb átviteli módot, és a plafon továbbra is a HBR3 mód által beállított 32,4 Gbps érték.

Ahogy korábban említettük, a GeForce GTX 1080 Founders Edition három Display Port kimenettel, egy HDMI 2.0b csatlakozóval és egy digitális dual-link DVI kimenettel rendelkezik. A GTX 980-hoz hasonlóan az új termék is négy független monitoron képes egyszerre képeket megjeleníteni. De a két DP 1.2 kábelen keresztüli 5120x3200-as felbontáshoz képest a GTX 1080 maximális felbontása 7680x4320 pixel 60 Hz-es frissítési gyakoriság mellett.

Az SLI hivatalosan már csak két GPU-t támogat

Hagyományosan a felső szintű Nvidia videokártyákat két csatlakozóval szerelték fel két, három vagy akár négy gyorsító csatlakoztatására SLI-kapcsolaton belül. Általában a legjobb skálázást két GPU-s konfigurációkban érik el. A további költségek gyakran nem indokoltak, mivel számos buktató jelenik meg. Néhány rajongó azonban továbbra is három és négy grafikus adaptert használ, hogy minden extra képkockát és lehetőséget megmutasson barátainak.

De a helyzet megváltozott. Az Nvidia szerint az új játékok teljesítményskálázási problémái miatt, amelyek kétségtelenül a DirectX 12-vel kapcsolatosak, a GeForce GTX 1080 hivatalosan csak a dual-GPU SLI konfigurációkat támogatja. Akkor miért kell a kártyához két csatlakozó? Az új SLI hidaknak köszönhetően mindkét csatlakozó egyszerre használható adatátvitelre kétcsatornás módban. Az interfész a kétcsatornás mód mellett 400 MHz-ről 650 MHz-re emelt I/O frekvenciával is rendelkezik. Ennek eredményeként a processzorok közötti átvitel több mint kétszeresére nő.


Képkocka renderelési idő Középföldén: Mordor árnyéka új (kék vonal a grafikonon) és régi (fekete) SLI híddal

Sok játékos azonban nem fogja érezni a gyorsabb csatorna előnyeit. Mindenekelőtt nagy felbontás és frissítési gyakoriság esetén lesz releváns. Az Nvidia bemutatott egy FCAT felvételt két GeForce 1080 GTX-ről, amelyek a Middle Earth: Shadow of Mordor rendszert futtatják három 4K kijelzőn. A két kártya egy régi híddal való összekapcsolása folyamatos képkockaidő-ugrásokat eredményezett, ami kiszámítható szinkronizálási problémákhoz vezetett, amelyek akadozás formájában nyilvánultak meg. Az új híddal az ugrások száma csökkent, és kevésbé hangsúlyosak lettek.

Az Nvidia szerint a kétcsatornás módot nem csak az SLI HB hidak támogatják. A már jól ismert LED-es háttérvilágítású hidak Pascal kártyákhoz csatlakoztatva 650 MHz-es frekvencián is képesek továbbítani az adatokat. Ha 4K-ban vagy magasabb minőségben szeretne dolgozni, akkor a legjobb, ha kerüli a rugalmas vagy normál hidakat. A kompatibilitással kapcsolatos részletes információk az Nvidia által biztosított táblázatban találhatók:

1920x1080 @ 60 Hz 2560x1440 @ 120 Hz+ 2560x1440 4K 5K Surround
szabványos híd x x
LED híd x x x x
High Data Bridge (HB) x x x x x x

Mi okozta a három és négy chipes konfigurációk elhagyását? Hiszen a cég mindig arra törekszik, hogy többet adjon el és magasabb termelékenységet érjen el. Cinikusan azt mondhatjuk, hogy az Nvidia nem akarja vállalni a felelősséget azért, hogy elveszítse a két vagy négy kártya párosításának előnyeit az SLI-ben, amikor a modern videojáték-piac egyre finomabb és összetettebb renderelési megközelítéseket alkalmaz. A vállalat azonban ragaszkodik ahhoz, hogy az ügyfelek érdekeit szem előtt tartva jár el, mivel a Microsoft a több GPU-s konfigurációk feletti nagyobb irányítást a játékfejlesztőkre ruházza át, akik viszont új technológiákat vizsgálnak meg, például egyetlen képkocka társrenderelését a jelenlegi frame-by helyett. -frame rendering (AFR).

Azok a rajongók, akiket csak a sebességrekordok érdekelnek, és nem törődnek a fent leírt tényezőkkel, a régi szoftver használatával továbbra is összekapcsolhatnak három-négy GTX 1080-at SLI-ben. Egyedi "hardveres" aláírást kell létrehozniuk egy Nvidia program segítségével, amellyel a "feloldó" kulcs kérhető. Természetesen az új HB SLI hidak nem működnek kettőnél több GPU-val, így a régi LED hidakra kell korlátozódnia ahhoz, hogy a három/négy GP104 650 MHz-es működését egyesítse.

Röviden a GPU Boost 3.0-ról

Annak érdekében, hogy még nagyobb teljesítményt nyerjen ki GPU-iból, az Nvidia ismét továbbfejlesztette GPU Boost technológiáját.

Az előző generációban (GPU Boost 2.0) az órajelet úgy állítottuk be, hogy a feszültség/frekvencia meredekséget egy bizonyos értékre mozgattuk. A vonal feletti potenciális erőtartalékok általában kihasználatlanok maradtak.


GPU Boost 3.0 – a frekvencianövelés beállítása egy feszültségnövelési lépéssel

Mostantól a GPU Boost 3.0 lehetővé teszi az egyes feszültségértékek frekvencianövelésének beállítását, amelyeket csak a hőmérséklet korlátoz. Ezenkívül nem kell kísérleteznie és ellenőriznie a kártya stabilitását a görbe teljes értéktartományában. Az Nvidia beépített algoritmussal automatizálja ezt a folyamatot, létrehozva a GPU egyedi feszültség/frekvencia görbéjét.

Továbblépünk a GeForce GTX 1080 egy másik funkciójára, amely ezt a modellt a maga nemében elsővé tette – a GDDR5X memória támogatására. Ebben a minőségben egy ideig a GTX 1080 lesz az egyetlen termék a piacon, hiszen az már ismert, hogy a GeForce GTX 1070 szabványos GDDR5 chipekkel lesz felszerelve. Az új színtömörítési algoritmusokkal kombinálva (erről egy kicsit később) a nagy memória sávszélesség (memória sávszélesség) lehetővé teszi a GP104 számára, hogy hatékonyabban kezelje a rendelkezésre álló számítási erőforrásokat, mint amennyit a GM104 és GM200 chipeken alapuló termékek megengedhetnének maguknak.

A JEDEC csak ez év januárjában adta ki az új szabvány végleges specifikációit, a GDDR5X egyetlen gyártója jelenleg a Micron. A 3DNews nem írt külön cikket ennek a technológiának, ezért röviden ismertetjük a GDDR5X által hozott újításokat ebben az áttekintésben.

A GDDR5X protokollnak sok közös vonása van a GDDR5-tel (bár mindkét chip elektromosan és fizikailag különbözik) – ellentétben a HBM memóriával, amely alapvetően más típusú, ami gyakorlatilag lehetetlenné teszi a GDDR5(X) interfésszel való együttélést ugyanabban a GPU-ban. Emiatt a GDDR5X-et így hívják, és nem például GDDR6-nak.

Az egyik legfontosabb különbség a GDDR5X és a GDDR5 között az a képesség, hogy jelciklusonként négy bitnyi adatot lehet továbbítani (QDR - Quad Data Rate), szemben a két bittel (DDR - Double Data Rate), ahogyan az a DDR SDRAM memória. A memóriamagok és az adatátviteli interfész fizikai frekvenciája megközelítőleg a GDDR5 chipek tartományába esik.

És annak érdekében, hogy a chipek megnövekedett átviteli sebességét adatokkal telítse, a GDDR5X 8n-ról 16n-ra növelt adat-előzetes letöltést használ. Egy külön chip 32 bites interfészével ez azt jelenti, hogy a vezérlő nem 32, hanem 64 bájtnyi adatot választ ki egy memóriaelérési ciklusban. Ennek eredményeként az interfész átviteli sebessége eléri a 10-14 Gbit/s-ot érintkezőnként 1250-1750 MHz-es CK (command clock) frekvencián – ezt a frekvenciát mutatják a videokártyák megfigyelésére és túlhúzására szolgáló segédprogramok, például a GPU-Z. . A szabványban legalább most szerepelnek ilyen mutatók, de a jövőben a Micron a 16 Gbit/s-os számok elérését tervezi.

A GDDR5X következő előnye a megnövelt chipméret - 8-ról 16 Gbit-re. A GeForce GTX 1080 nyolc darab 8 Gb-os chippel van felszerelve, de a jövőben a grafikus kártyagyártók a RAM mennyiségét megduplázhatják, ahogy egyre nagyobb kapacitású chipek válnak elérhetővé. A GDDR5-höz hasonlóan a GDDR5X is lehetővé teszi két chip használatát egy 32 bites vezérlőn úgynevezett clamshell módban, aminek eredményeként 32 GB memória címzése lehetséges a 256 bites GP104 buszon. Ezenkívül a GDDR5X szabvány a két egyenlő teljesítmény mellett a 6 és 12 Gbit-es chipméreteket írja le, ami lehetővé teszi a videokártyák fedélzeti memória teljes mennyiségének „töredékes” változtatását - például felszerel kártya 384 bites RAM busszal, chipekkel, összesen 9 GB-ig.

Ellentétben azokkal a várakozásokkal, amelyek a GDDR5X-ről a nyilvánosság előtt megjelent első információkat kísérték, az új típusú memória fogyasztása a GDDR5-höz mérhető, vagy csak alig haladja meg az utóbbit. A megnövekedett teljesítmény kompenzálására nagy áteresztőképességű értékeknél a szabvány megalkotói a magok tápfeszültségét a GDDR5 szabvány szerinti 1,5 V-ról 1,35 V-ra csökkentették. Ezenkívül a szabvány kötelező intézkedésként bevezeti a chip frekvenciaszabályozását. a hőmérséklet-érzékelő leolvasásától függően. Egyelőre nem tudni, hogy az új memória valójában mennyiben függ a hűtőborda minőségétől, de elképzelhető, hogy mostantól gyakrabban láthatunk majd olyan hűtőrendszereket a videokártyákon, amelyek nemcsak a GPU-t, hanem a RAM chipeket is kiszolgálják, míg a gyártók A GDDR5 alapú kártyák többnyire figyelmen kívül hagyják ezt a lehetőséget.

Úgy tűnhet, hogy a GDDR5-ről a GDDR5X-re való átállás könnyű feladat volt az NVIDIA számára e technológiák hasonlósága miatt. Ezenkívül a GeForce GTX 1080 a szabvány által meghatározott legalacsonyabb sávszélességű memóriával van felszerelve - érintkezőnként 10 Gbit/s. Az új interfész gyakorlati megvalósítása azonban számos mérnöki nehézséggel jár. Az ilyen magas frekvenciájú adatok átviteléhez az adatbusz topológiájának gondos megtervezése volt szükséges a kártyán az interferencia és a jelgyengülés minimalizálása érdekében a vezetőkben.

A kapott 256 bites busz sávszélessége a GeForce GTX 1080-ban 320 GB/s, ami nem lényegesen kevesebb, mint a GeForce GTX 980 Ti (TITAN X) 336 GB/s sebessége a 384 bites GDDR5 busz 7 Gbit mellett. /s per pin .

Mostantól a PolyMorph Engine egyidejűleg akár 16 vetületet (nézeti ablakot) tud létrehozni, tetszőlegesen elhelyezve, és egy vagy két pontra fókuszálva, amelyek a vízszintes tengely mentén egymáshoz képest el vannak tolva. Ezeket az átalakításokat kizárólag a hardverben hajtják végre, és önmagában nem okoznak teljesítményromlást.

Ennek a technológiának két jól megjósolható alkalmazása van. Az első a VR headsetek. Két vetítési központtal a Pascal egyetlen lépésben sztereó képet tud létrehozni (azonban csak geometriáról beszélünk – a GPU-nak így is kétszer annyi munkát kell végeznie, hogy két képkockán belül raszterizálja a textúrákat).

Ezenkívül az SMP lehetővé teszi a geometria szintjén a sisaklencsék által okozott képtorzítás kompenzálását. Ehhez minden szem képét négy különálló vetület alkotja, amelyeket aztán egy utófeldolgozó szűrő segítségével síkká varrnak össze. Ily módon nemcsak a végső kép geometriai pontossága érhető el, hanem szükségtelenné válik a pixelek 1/3-ának feldolgozása is, amely egyébként egyébként is elveszett volna egy szabványos síkvetítés végső korrekciója során a görbülethez. a lencsék közül.

A Maxwell egyetlen VR-optimalizálása az volt, hogy a kép perifériás részeit, amelyek a leginkább tömörítettek az objektíveken keresztüli kimenethez, csökkentett felbontásban tudták renderelni, ami mindössze 10-15%-os sávszélesség-megtakarítást eredményezett.

A következő terület, ahol az SMP funkcióra van igény, a többmonitoros konfigurációk. SMP nélkül a több dokkolt kijelzőn a kép egy sík a GPU szemszögéből, és geometriailag helyesnek tűnik mindaddig, amíg a képernyők egy vonalban vannak a néző előtt, de a szögben történő dokkolás már nem tűnik helyesnek – mintha egyszerűen több helyen összehajtott egy nagy fényképet. Arról nem is beszélve, hogy a néző mindenesetre pontosan egy lapos képet lát, és nem egy ablakot a virtuális világba: ha az oldalsó képernyőre fordítja a fejét, a benne lévő tárgyak kifeszítve maradnak, hiszen a virtuális kamera még mindig a központi pontot nézi.

Az SMP használatával a videokártya-illesztőprogram információkat szerezhet több képernyő fizikai helyéről, hogy mindegyikhez képet vetítsen a saját nézetablakon keresztül, ami végső soron funkcionálisan közelebb hozza a többmonitoros szerelvényt egy teljes értékű „ablakhoz”. .

Röviden, a hármas pufferelés célja, hogy a GPU-folyamatban az új képkockák renderelésének folyamatát leválasztja a kép kockapufferből való szkennelésétől, mivel a videokártya tetszőlegesen magas frekvencián tud új képkockákat létrehozni, és azokat a képkocka-pufferbe írni. két váltakozó keretpuffer. Ebben az esetben a legutolsó képkocka tartalma a képernyő-frissítési gyakoriság többszöröse mellett a harmadik pufferbe másolódik, ahonnan a monitor a kép elszakítása nélkül felveheti azt. Így az a képkocka, amely a vizsgálat megkezdésekor megjelenik a képernyőn, mindig tartalmazza a GPU által előállított legfrissebb információkat.

A hármas pufferelés az 50-60 Hz-es képernyő-frissítési gyakoriságú monitoroknál a leghasznosabb. A 120-144 Hz-es frekvenciákon, ahogy azt a G-Sync-ről szóló cikkben már írtuk, a függőleges szinkronizálás engedélyezése már elvileg jelentéktelenül növeli a késleltetést, de a Fast Sync minimálisra csökkenti.

Ha kíváncsi arra, hogy a Fast Sync hogyan viszonyul a G-Synchez (és az AMD megfelelője, a Free Synchez – de ez pusztán elméleti kérdés, mivel az NVIDIA csak a változatát támogatja), a G-Sync csökkenti a késleltetést olyan helyzetekben, amikor a GPU-nak nincs ideje új képkockát hozzon létre a szkennelés megkezdéséig, míg a Fast Sync éppen ellenkezőleg, csökkenti a várakozási időt, ha a képkocka frissítési gyakorisága a renderelési folyamatban magasabb, mint a képernyő frissítési gyakorisága. Ráadásul ezek a technológiák együtt is működhetnek.

GeForce GTX 1080 alapítói kiadás:tervezés

Ezt a pompás nevet ma már a GeForce GTX 1080 referenciaverziójának hívják. A GeForce GTX 690-től kezdve az NVIDIA nagy figyelmet fordít arra, hogy új termékei milyen formában kerülnek piacra. A GeForce márkanév alatti modern videokártyák referenciamintái távol állnak a leírhatatlan elődeiktől, amelyeket viszonylag nem hatékony és zajos hűtőrendszerekkel szereltek fel.

A GeForce GTX 1080 Founder's Edition a Kepler és Maxwell videokártyák legjobb tervezési jellemzőit tartalmazza: alumínium turbinaházat, alacsony zajszintű anyagból készült hűtő járókereket és masszív alumínium vázat, amely merevséget ad a szerkezetnek és eltávolítja a hőt a RAM-ból. hasábburgonya.


A GTX 1080 egyidejűleg két olyan komponenst tartalmaz, amelyek időnként megjelennek és eltűnnek az NVIDIA referencia videokártyákról – egy GPU hűtőbordát párologtató kamrával és egy hátlapot. Ez utóbbi részben csavarhúzó nélkül eltávolítható, hogy a szomszédos videokártya hűtőjét SLI módban légáramlással biztosítsuk.

A reprezentatív funkción túlmenően szükség van egy videokártya referenciamintára, hogy a videokártyák véggyártói megvásárolhassák - jelen esetben az NVIDIA-tól - és kielégíthessék a keresletet, amíg el nem készülnek az eredeti kialakítású készülékek ugyanazon a GPU-n. Ezúttal azonban az NVIDIA azt tervezi, hogy a referenciaverziót a modell teljes élettartama alatt értékesíteni fogja, és többek között a hivatalos honlapján keresztül terjeszti. Ez az oka annak, hogy a GTX 1080 FE 100 dollárral magasabb árat kapott az összes többihez ajánlott 599 dollárhoz képest. Végtére is, a Founder's Edition nem tűnik olcsó terméknek és nem is érződik.

Ugyanakkor a videokártyának vannak referenciafrekvenciái, amelyek alá szokás szerint egyetlen eredeti tervezésű kártyát gyártó sem megy. Szó sincs arról, hogy a GTX 1080 FE-hez a GPU-kat a túlhajtási potenciál alapján válassza ki. Ezért a GeForce GTX 1080 megvalósítások teljes tömegében lehetnek drágábbak. De egy ideig a Founder’s Edition lesz a zászlóshajó Pascal uralkodó, sőt egyetlen változata, amely automatikusan 100 dollárral növeli a kiskereskedelmi árait az NVIDIA „ajánlása” fölé.

A múlt héten Jensen Huang lépett a színpadra, és hivatalosan is bemutatta az Nvidia grafikus kártyáit GeForce GTX 1070És GTX 1080. Maguk a gyorsítók és azok túlhajtási potenciáljának bemutatása mellett bemutatásra kerültek az architektúrában használt új technológiák Pascal. Ezt az anyagot nekik ajánljuk. Természetesen nem minden újítást veszünk figyelembe. Néhány új és/vagy frissített technológiáról a GTX 1080 áttekintése lesz szó, amely hamarosan megjelenik.

PascalÉsGPU G.P. 104

Az első és legfontosabb változás Pascal– eltérés a fogyasztói videokártyákban a GeForce GTX 600 sorozat megjelenése óta, 2012 márciusa óta alkalmazott 28 nm-es folyamattechnológiától. A Pascal architektúra új alapokon nyugszik 16 nmFinFET A TSMC gyártási folyamata és a vékonyabb litográfiára való átállás lenyűgöző javulást eredményez az energiafogyasztásban és a teljesítmény skálázásában.

De mindenekelőtt egy finomabb technikai folyamat gyakran lehetővé teszi a frekvencia növelését. Raktáron a videokártya több mint 1700 MHz-en működik. Emellett számos vélemény alapján a GTX 1080 2100+ MHz-ig is képes túlhajtani, és ez egy olyan referencia, amely tápellátásban is erősen korlátozott.

Érdemes megjegyezni, hogy nem csak a technikai folyamat csökkentése tette lehetővé a frekvencia ennyire növelését. Jonah Alben, a GPU Engineering vezető alelnöke szerint a 16 nm-es FinFET folyamattechnológiára való áttérés után az új GPU-k 1325 MHz körüli frekvencián működhetnek, és a csapat Nvidia Régóta dolgozom a frekvenciák növelésén. A munka eredménye a GTX 1080 lett, amely 1733 MHz-en működik.

Hogyan lehetett elérni ezt a fokú órajel- és teljesítményjavulást a Maxwell architektúrához képest? A Pascal több érdekes újítást egyesít, amelyek jelentősen növelhetik a hatékonyságot.

Az optimalizálás nemcsak az órajel frekvenciájának növelését tette lehetővé, hanem a GP104 GPU CUDA magjainak hatékonyságát is az elődhöz, a GM204-hez képest. Ennek bizonyítéka a 70%-os teljesítménynövekedés (a GTX 980-hoz képest), és ez még mindig a még nem teljesen kifejlesztett illesztőprogramokon érvényes.

Az egyik változás a fent bemutatott blokkdiagramon látható. Most egy GPC-fürtben négy SM-blokk (egyidejű többprocesszoros) helyett öt van.

PolimorfMotor 4.0

Magának a GPU-kristálynak egyetlen jelentős kiegészítése van: egy új modul hozzáadása a PolyMorph Engine-hez. Egy szinkron többvetítési blokk került hozzáadásra. Az új blokk a keretfeldolgozási útvonal legvégén található, és több vetítési sémát hoz létre egyetlen geometria adatfolyamból.

Ha nem megy bele a részletekbe, és minden nagyon bonyolult, akkor az új blokk átveszi a geometriai feldolgozást, nem az egészet, hanem egy jelentős részét. Ez csökkenti a többi GPU-egység terhelését. Kívül, Polimorf többmonitoros konfigurációk esetén segít a megfelelő szögben kialakított kép kialakításában, de erről később.

A GeForce GTX 1080 Ti videokártya 11 GB GDDR5X memóriával, 1583 MHz-es GPU-frekvenciával (normál hűtési rendszerrel 2000 MHz-ig túlhajtható), 11 GHz-es QDR memóriafrekvenciával és 35%-kal jobb teljesítményt nyújt, mint a GeForce GTX. 1080. És ez csökkentett, 699 dolláros áron van.

Az új videokártya kiszorítja a GeForce GTX 1080-at a zászlóshajó helyéről a GeForce vonalon, és a leggyorsabb ma elérhető grafikus kártya, valamint a legerősebb Pascal architektúrán alapuló kártya.

A legerősebb játékkártya NVIDIA GeForce GTX 1080 Ti

Az NVIDIA GeForce GTX 1080 Ti a játékosok álma, aki végre élvezheti a legújabb AAA-játékokat, nagyfelbontású virtuális valóságos fejhallgatókban játszhat, élvezve a grafika tisztaságát és pontosságát.

A GTX 1080 Ti az első teljes értékű grafikus kártya a 4K-s játékokhoz. A legújabb és technológiailag legfejlettebb hardverrel van felszerelve, amivel ma még egyetlen videokártya sem büszkélkedhet.

Itt hivatalos bemutató NVIDIA GeForce GTX 1080 Ti

„Itt az ideje valami újnak. Amelyik 35%-kal gyorsabb, mint a GTX 1080. Amelyik a Titan X-nél. Nevezzük a maximumnak...

A videojátékok évről évre egyre szebbek, ezért bemutatjuk az új generáció csúcstermékét, hogy élvezhesd a következő generációs játékokat."

Jen-Xun

Az NVIDIA GeForce GTX 1080 Ti jellemzői

Az NVIDIA nem spórolt a hardveren új és rendkívül erős videokártyájához.

Ugyanazzal van felszerelve GPU Pascal GP102 GPU, ugyanaz, mint a Titan X (P), de minden tekintetben jobb az utóbbinál.

A processzor 12 milliárd tranzisztorral van felszerelve, és hat fürtje van a grafikus feldolgozáshoz, amelyek közül kettő zárolt. Ez összesen ad 28 többszálas processzor egyenként 128 mag.

Így a GeForce GTX 1080 Ti videokártya 3584 CUDA maggal, 224 textúra-megjelenítő egységgel és 88 ROP-val rendelkezik (a z-pufferelésért, élsimításért, a végső kép rögzítéséért a videomemória frame-pufferébe egységek felelősek).

A túlhajtási tartomány 1582 MHz-től 2 GHz-ig kezdődik. A Pascal architektúrát elsősorban a referencia túlhajtására, a nem szabványos modelleknél pedig extrémebb túlhajtásra hozták létre.

A GeForce GTX 1080 Ti videokártya is rendelkezik 11 GB GDDR5X memória, amely 352 bites buszon működik. A zászlóshajó az eddigi leggyorsabb G5X megoldást is tartalmazza.

Az új tömörítési és csempe gyorsítótárazási rendszerrel a GTX 1080 Ti grafikus kártya átviteli sebessége 1200 GB/s-ra növelhető, ami meghaladja az AMD HBM2 technológia vívmányait.

NVIDIA GeForce GTX 1080 Ti specifikáció:

Jellemzők GTX TItan X Pascal GTX 1080 Ti GTX 1080
Technikai folyamat 16 nm 16 nm 16 nm
Tranzisztorok 12 milliárd 12 milliárd 7,2 milliárd
Kristály terület 471 mm² 471 mm² 314 mm²
memória 12 GB GDDR5X 11 GB GDDR5X 8 GB GDDR5X
Memória sebessége 10 Gb/s 11 Gb/s 11 Gb/s
Memória interfész 384 bites 352 bites 256 bites
Sávszélesség 480 GB/s 484 GB/s 320 GB/s
CUDA magok 3584 3584 2560
Alapfrekvencia 1417 1607
Túlhúzási frekvencia 1530 MHz 1583 MHz 1730 MHz
Számítási teljesítmény 11 teraflop 11,5 teraflop 9 teraflop
Hőenergia 250W 250W 180W
Ár 1200$ 699 USD 499$

Az NVIDIA GeForce GTX 1080 Ti videokártya hűtése

A GeForce GTX 1080 Ti Founders új légáramlási megoldást kínál, amely jobb hűtést tesz lehetővé, miközben csendesebb is, mint a korábbi kialakítások. Mindez lehetővé teszi a videokártya további túlhajtását és még nagyobb sebesség elérését. Ezenkívül a hűtési hatékonyság javul 7 fázisú tápegység 14 nagy hatásfokú dualFET tranzisztorral.

A GeForce GTX 1080 Ti a legújabb NVTTM dizájnnal érkezik, amely egy új Vapor hűtőkamrát mutat be, amely kétszer akkora hűtőfelülettel rendelkezik, mint a Titan X(P). Ez az új termikus kialakítás segít az optimális hűtés elérésében, és lehetővé teszi, hogy a grafikus kártya GPU-ja a GPU Boost 3.0 technológiával a specifikációt meghaladóan gyorsuljon.

NVIDIA GeForce GTX 1080 Ti – a túlhúzó álma

Tehát mit tegyünk ezzel a lenyűgöző grafikus kártyával? A válasz kézenfekvő - gyorsuljon a határig. Az esemény során az NVIDIA bemutatta GTX 1080 Ti grafikus kártyájának kiemelkedő túlhajtási potenciálját. Emlékeztetünk arra, hogy 2,03 GHz-es processzorfrekvenciát sikerült elérniük zárolt 60 FPS mellett.