Shtëpi Përgatitjet për dimër Kur do të dalë nvidia pascal? Kartat video. Rrëmuja dhe historia e origjinës së Pascal

Kur do të dalë nvidia pascal? Kartat video. Rrëmuja dhe historia e origjinës së Pascal

Gjatë një konference me investitorët, NVIDIA prezantoi statistika interesante mbi shitjet e kartave video të arkitekturës së re Turing.

Pavarësisht besimit popullor se Turing nuk është në shitje, e kundërta është e vërtetë. Kompania krahasoi shitjet e kartave grafike desktop Pascal dhe Turing me çmim mbi 299 dollarë në 8 javët e para dhe arriti në përfundimin se zgjidhjet e reja shitën 45% më mirë.

Turing aktualisht ka një bazë instalimi prej 2%, ndërsa Pascal ka 50% dhe kartat grafike të vjetra kanë 48%. Kompania gjithashtu raportoi se 90% e pronarëve të përshpejtuesit GeForce kanë karta video më të ngadalta se GeForce GTX 1660 Ti.


Kështu, NVIDIA përmblodhi se e ardhmja e saj duket e ndritshme, pasi shumica e lojtarëve vazhdojnë të përmirësohen me një rritje në klasën e përshpejtuesit. Si mund të ishte ndryshe në një takim me investitorët?

NVIDIA: Turing është më efikas në energji sesa Vega 20

25 prill

Shumë prisnin që gjatë GTC, NVIDIA të prezantonte procesorin grafik Ampere, i cili do të prodhohej sipas standardeve 7 nm. Por kjo nuk ndodhi, sepse NVIDIA është absolutisht e kënaqur me Turing.

Zen-Hsun Huang, themeluesi dhe shefi ekzekutiv i NVIDIA, tha se kompania e tij nuk është e përkushtuar për prodhimin masiv të produkteve 7nm sepse ka Turing. Edhe pse është prodhuar në 12 nm, është shumë më efikas se 14 nm i AMD (Vega 10 = Radeon RX Vega 64) dhe madje 7 nm (Vega 20 = Radeon VII).

Juan deklaroi: “Ajo që na bën të veçantë është aftësia jonë për të ndërtuar GPU-të më efikase të energjisë në botë të të gjitha kohërave, duke përdorur teknologjitë më të përballueshme. Shikoni Turingun. Efikasiteti i energjisë është shumë i mirë, krahasuar edhe me 7 nm për disa".

CEO i NVIDIA Zen-Hsun "Jensen" Huang

AMD ishte e para që arriti standardet 7 nm në prodhimin e procesorëve grafikë. Por edhe me teknologji kaq të avancuar, Radeon VII nuk ishte në gjendje të arrinte hapin me NVIDIA Turing as në efikasitet, as në performancë. Edhe Pascal 14 nm është më efikas në energji sesa Vega 20.

Është e qartë se inxhinierët e NVIDIA kanë bërë një punë të shkëlqyer në gjeneratat e fundit të procesorëve, pas fiasko të gjeneratës Fermi.

NVIDIA sjell gjurmimin e rrezeve në kartat më të vjetra grafike dhe motorët e lojërave

22 mars

NVIDIA ka vendosur të sigurojë funksionalitetin e gjurmimit të rrezeve në kohë reale për kartat video pa mbështetje harduerike RTX.

Gjurmimi është aktualisht i disponueshëm vetëm për kartat e serisë RTX. Pas ndryshimeve, gjurmimi do të kryhet në të gjitha kartat video, duke filluar nga GTX 1060.

Megjithatë, kompania paralajmëron se do të ketë një sërë kufizimesh. Për shembull, në Battlefield V mund të merrni cilësi të përmirësuar me humbje minimale, ndërsa në Metro Exodus në 1440p performanca mund të bjerë në një 18 korniza për sekondë të papranueshme.


Kjo është për shkak se Battlefield V përdor gjurmimin për reflektimet dhe mund të zvogëlojë fuqinë e efekteve për të ruajtur performancën. Metro Exodus përdor gjurmimin për të krijuar efekte shumë realiste të ndriçimit global duke simuluar dritën botën reale. Kjo është loja e parë që çliron potencialin e plotë të RTX. Për shkak të intensitetit të lartë llogaritës, kartat GTX nuk janë të afta të kryejnë llogaritje të tilla, vetëm bërthamat RTX mund të përballojnë një ngarkesë të tillë.

Për shkak të kësaj, kartat RTX performojnë 3 herë më shpejt se seria GTX 10 në këto kushte. Sidoqoftë, në Shadow of the Tomb Raider ngadalësimi do të arrijë 2 herë, dhe në Battlefield V - 1.6 herë. Situata është pak më e mirë me kartat e serisë 16xx, pasi ato kanë bërthama të plota.

Sipas NVIDIA, teknologjia e përditësuar RTX tashmë mbështetet nga motorët Unity dhe Unreal Engine. Crytek kohët e fundit njoftoi zbatimin e gjurmimit të rrezeve në kohë reale në motorin CryEngine 5 në çdo kartë video. Për më tepër, NVIDIA vendosi të mbështesë zhvillimin e Christophe Chid, i cili filloi të ripunonte Quake II të mirë të vjetër për të ofruar mbështetje për RTX dhe futi përpunimin e plotë të gjurmimit të rrezeve në motorin njëzet vjeçar IdTech2. Doli mbresëlënëse, gjykoni vetë:

Ndërtimi përfundimtar i MSI Afterburner 4.6.0 është lëshuar

10 mars

Siç premtoi Alexey Nikolaychuk, ai lëshoi ​​​​ndërtimin përfundimtar të versionit 4.6.0 të mjetit MSI Afterburner, i cili mori mbështetje për kartat video më të fundit AMD dhe NVIDIA, si dhe ndryshime të rëndësishme të ndërfaqes dhe madje edhe një lëkurë të re.

Bërë në programin e mbingarkesës sasi e madhe ndryshimet. Vetë autori numëroi më shumë se njëqind. Përveç mjetit MSI Afterburner, është përditësuar edhe mjeti shoqërues për monitorimin e Serverit Statistikor RivaTuner. Aplikacioni RTSS ka marrë numrin e versionit RTSS 7.2.1.


Ndryshimet më të rëndësishme në MSI Afterburner janë renditur më poshtë. Lista e plotë është në dispozicion në Guru i forumit të faqes në internet 3D.

  • Mbështetje e shtuar për arkitekturën Turing, kontroll i shtuar i tensionit në kartat video referente; Kontroll i përmirësuar i GPU Boost me aftësinë për të kontrolluar energjinë dhe shpërndarjen e nxehtësisë përmes një grafiku fuqi/frekuencë.
  • U shtua mbështetje e pavarur për shumë fansa.
  • Mbështetje e shtuar për teknologjinë NVIDIA Scanner.
  • Shtoi një numër sensorësh të monitorimit të tensionit të harduerit.
  • Mbështetje e shtuar për arkitekturën Vega 20 Për Radeon VII, shtoi mbështetje për Overdrive 8, shtoi monitorimin e temperaturës GPU përmes dy kanaleve, VRM. Monitorimi i ngarkesës së GPU-së është shtuar në Radeon VII.
  • Kontroll i shtuar i tifozëve në drejtuesin AMD Adrenalin 2019.
  • Moduli i përmirësuar i monitorimit të harduerit: kompensimi i shtuar i temperaturës kur monitorohet AMD Ryzen 7 2700X.
  • Grafiku i përdorimit të skedarit Paging është riemërtuar në Ngarkimi i skedarit Paging. U shtua një njoftim në monitorim nëse ndryshimet mund të aplikohen në të gjitha oraret e monitorimit ose të zgjedhura. Grafikët mund të zgjidhen sipas llojit dhe grupit përmes menysë së kontekstit të monitorimit.
  • Elementet e shfaqjes në ekran (OSD - tekst, grafikë ose një kombinim) shfaqen tani në kolonën e vetive të grafikut të monitorimit aktiv.
  • U shtua një çelës i programueshëm për të pastruar historinë e monitorimit.
  • Një buton "Apliko" është shtuar në dritaren e vetive të aplikacionit.
  • Komandat "Shëno maksimumin" dhe "Shëno minimumin" janë shtuar në menynë e kontekstit të monitorimit.
  • Për të kapur një pamje ekrani të printueshme, shtypni F11.
  • Për të hequr grafikët e padëshiruar, mund të mbani Del dhe të klikoni mbi ta me miun.
  • Redaktues i përmirësuar OSD. Tani ka 250 lojëra elektronike të ndryshueshme të disponueshme për shfaqje. Mbështetje e shtuar për grafika të ngulitura në tekst. Ju gjithashtu mund të vendosni grafikë në krye të tekstit. U shtua aftësia për të shtuar kufizues.
  • Mbështetje e shtuar për makro për të shtuar çdo të dhënë në tekstin OSD (për shembull % temperaturë CPU%).
  • Mbështetje e shtuar për formatimin e hipertekstit në OSD.
  • Mbështetje e përmirësuar për shtojcën HwInfo: shtoi UPS-in e ngarkimit, fuqinë, tensionin e hyrjes dhe nivelin e karikimit të baterisë në konfigurimin e paracaktuar.
  • Redaktues i përmirësuar i frekuencës/voltazhit, i cili tani është i disponueshëm për GPU-të AMD.
  • Tani mund të përdorni tastet Tab dhe Shift+Tab për të kaluar midis pikave në kurbën e frekuencës/tensionit. Rregullimi i qetë i vlerave kryhet duke përdorur tastet lart/poshtë, dhe me një mbajtje shtesë të Ctrl, ndërrimi kryhet në 10 MHz.
  • Për të modifikuar pikën e zhvendosjes së frekuencës në grafik, duhet të shtypni Enter duke shtypur Shift+Enter, mund të vendosni frekuencën e synuar absolute.
  • Kontrolli i tastierës së grafikut të frekuencës/tensionit është ndryshuar pak në Kartat AMD. Më parë, për të rregulluar frekuencën, u përdorën kombinimet e tasteve të kursorit lart/poshtë dhe tensionet - majtas/djathtas. Tani frekuenca dhe voltazhi rregullohen me shigjeta dhe fokusi ndryshon përgjatë PageUp/PageDown.
  • Në kartat AMD, duhet të mbani të shtypur tastin Alt për të lëvizur të gjithë kurbën e frekuencës/tensionit, ashtu si në kartat video NVIDIA.
  • Mbështetje e shtuar për zhbërje/ribërje duke përdorur kombinimet e tasteve Ctrl+Z dhe Ctrl+Y. Pas aplikimit të kurbës, historia e ndryshimeve pastrohet.
  • Gama e kontrollit të tensionit në kurbën e tensionit/frekuencës është zgjeruar. Tani mund të ulni tensionin e GPU-së për të zvogëluar konsumin e energjisë.
  • Për të rilexuar kurbën e tensionit/frekuencës nga karta video, shtypni F5.
  • Akset e stresit në grafik tani janë shkallëzuar automatikisht.
  • Kontroll i përmirësuar i harduerit të ndërfaqes së memories së ndarë, duke lejuar kontrollin e frekuencës/voltazhit, testet e stresit të jashtëm dhe mbingarkesën automatike për aplikacionet e lidhura me MSI Afterburner.
  • Shpërndarja përfshin një aplikacion të ri për mbingarkesë automatike, MSI Overclocking Scanner. Aplikacioni është i disponueshëm në kartat video NVIDIA GTX 10x0 dhe NVIDIA RTX 20x0 me një sistem operativ 64-bit. Skaneri përdor testin e stresit të integruar të GPU-së NVIDIA.
  • U shtua një grup cilësimesh kufizuese të shpejtësisë së kuadrove në OSD. Kjo ju lejon të caktoni çelësat kryesorë për të aktivizuar, çaktivizuar dhe për t'iu afruar kufirit të shpejtësisë së kornizës për teknikat në Statistikat e RivaTuner Serveri.
  • Shfaqja e shtuar e të dhënave të topologjisë së procesorit në dritaren e sistemit.
  • Akses i fiksuar në funksionet e monitorimit të harduerit në GPU-të AMD Vega. Tani temperatura, konsumi i energjisë dhe vlerat e tensionit nuk janë të shtrembëruara.
  • Rregulloi monitorimin e ngarkesës GPU të nivelit të ulët për familjen AMD Polaris.
  • Cilësimi i shumëzuesit të frekuencës së fortë në kurbën e tensionit/frekuencës është zëvendësuar nga një heuristik, duke siguruar kontroll të unifikuar të kurbës për Pascal dhe GPU-të më të reja.
  • Shkallëzimi i përmirësuar i ndërfaqes së redaktuesit të kurbës së tensionit/frekuencës.
  • Performanca e përmirësuar e monitorimit të dritareve dhe kthesave kur vendosen vlera mbi 100%.
  • Ndërfaqja shumëgjuhëshe është e bllokuar me rezolucion dhe nuk është e shkallëzuar nga OS, duke rezultuar në mprehtësi të lartë kur densitet i lartë piksele.
  • Shkalla e lëkurës tani është asinkrone. Kjo do të thotë që rritja e shkallës së lëkurës nuk ngadalëson kohën e përditësimit të ndërfaqes.

MSI Afterburner është përditësuar në versionin 4.6.0 beta 10

28 dhjetor 2018

Alexey Nikolaychuk publikoi një version të ri beta të mjetit të tij MSI Afterburner, në të cilin ai zbatoi funksionin e pritshëm të mbingarkesës automatike për kartat video jo vetëm të serisë RTX, por edhe përshpejtuesit me çipin Pascal. Përveç kësaj, u shtua mbështetja për pajisjet e reja dhe u zgjerua gama e sensorëve të mbështetur dhe u përmirësua mbështetja për kartat video AMD.

Ja çfarë ka thënë vetë autori: "Përveç përditësimit të skanerit OC, ndryshime janë bërë edhe në vetë redaktuesin e kurbës së frekuencës/tensionit, shpresoj se do t'i kënaqin fansat e reduktimit të konsumit të energjisë së sistemit (si nga NV ashtu edhe nga AMD). Kufijtë e frekuencës/tensionit të dritares së redaktorit tani mund të rregullohen, kështu që ata pronarë të kartave video të familjes NVIDIA GTX/ RTX që kanë përdorur funksionin e fiksimit të tensionit minimal në dritaren e redaktorit do ta kenë më të lehtë të vendosin tensionin e funksionimit edhe më të ulëta. Pronarët e GPU të AMD mund të përdorin gjithashtu redaktuesin e kurbës së frekuencës/tensionit për të rregulluar në mënyrë të pavarur gjendjet P. Përveç kësaj, tradicionalisht ka dhjetëra përmirësime të vogla në cilësimet e monitorimit dhe kështu me radhë, duke përmirësuar përdorshmërinë e softuerit.”.


Ne ofrojmë një listë të ndryshimeve më interesante më poshtë:

  • Mbështetje e shtuar për kontrollorët e tensionit të Sistemeve Monolitike të Energjisë MP2884A dhe MP2888A.
  • Është shtuar monitorimi i temperaturës VRM dhe VRM2 për kartat grafike të personalizuara RTX 2080Ti. Aftësia për të kontrolluar tensionin, frekuencën e GPU dhe kujtesën në këto karta video është zgjeruar gjithashtu.
  • Moduli i përmirësuar i monitorimit të harduerit:
    • Shtuar ndryshim i temperaturës për AMD Ryzen 7 2700X/ CPU.
    • Të njëjtat temperatura tani janë klonuar në të gjitha bërthamat në CPU-të AMD.
    • Grafiku "Përdorimi i skedarit të shkëmbimit" është riemërtuar në "Kërkimi i tarifës".
    • Redaktues i përmirësuar OSD.
  • Shtojca e përmirësuar HwInfo - shtoi ngarkesën, fuqinë, tensionin e hyrjes dhe nivelin e karikimit të UPS-së në konfigurimin e paracaktuar.
  • Redaktori i përmirësuar i tensionit/frekuencës:
    • Redaktori i tensionit/frekuencës është tani i disponueshëm në GPU-të AMD. Kjo ju lejon të modifikoni frekuencat dhe tensionet bazë në mënyrë të pavarur për çdo gjendje të energjisë.
    • Ashtu si me GPU-në NVIDIA, tani është e mundur të konfiguroni çdo pikë të tensionit dhe frekuencës në mënyrë të pavarur duke përdorur miun dhe tastierën.
  • Gjendjet e fuqisë vetëm për lexim nuk gjurmohen më.
  • Gama dhe frekuenca e tensionit të paracaktuar janë rritur pak. Tani mund të bllokoni tensionin për të ulur kartën video.
  • Mund ta përditësoni kurbën nga hardueri duke klikuar në redaktues.
  • Akset e tensionit dhe frekuencës janë të shkallëzuara në mënyrë dinamike.
  • Teknologjia MSI Overclocking Scanner tani mbështetet në kartat e serive NVIDIA GTX 10x0 dhe NVIDIA RTX 20x0 në 64-bit sistemet operative.
  • Kontroll i përmirësuar i harduerit të ndërfaqes së memories së shpërndarë. Më parë, MSI Remote Server ju lejonte të kontrolloni GPU-në nga aplikacionet e palëve të treta. Tani është e mundur të kryhet testimi i stresit nga aplikacionet e jashtme.

Shërbimi shoqërues RivaTuner Statistic Server u përditësua gjithashtu në versionin 7.2.1 beta 4. Tani opsionet e personalizimit të OSD janë zgjeruar ndjeshëm, aftësia për të shkallëzuar dhe pozicionuar fontet, për të rregulluar madhësinë e objekteve të integruara dhe për t'i mbushur ato është përmirësuar, një shkallëzim i lëkurës është shfaqur modaliteti, është shtuar aftësia për të kufizuar shpejtësinë e kuadrove, është shtuar etiketa kohore e standardit.

Karta video GeForce GTX 1080 Ti ka 11 GB memorie GDDR5X, një frekuencë GPU prej 1583 MHz (e tejkalueshme në 2000 MHz me një sistem standard ftohjeje), një frekuencë memorie prej 11 GHz QDR dhe performancë që është 35% më e mirë se GeForce GTX 1080. Dhe kjo është me një çmim të reduktuar prej 699 dollarë.

Karta e re video e zhvendos GeForce GTX 1080 nga pozicioni kryesor në linjën GeForce dhe bëhet me i shpejti karta grafike e disponueshme sot, si dhe karta më e fuqishme e bazuar në arkitekturën Pascal.

Karta më e fuqishme e lojërave NVIDIA GeForce GTX 1080 Ti

NVIDIA GeForce GTX 1080 Ti është një ëndërr e lojtarëve, të cilët më në fund mund të shijojnë lojërat më të fundit AAA, të luajnë në kufje të realitetit virtual me definicion të lartë, duke shijuar qartësinë dhe saktësinë e grafikës.

GTX 1080 Ti u krijua për të qenë karta e parë grafike e plotë për lojëra 4K. Ajo është e pajisur me pajisjen më të fundit dhe më të avancuar teknologjikisht, me të cilën asnjë kartë video tjetër nuk mund të mburret sot.

Këtu prezantim zyrtar NVIDIA GeForce GTX 1080 Ti

“Është koha për diçka të re. Ai që është 35% më i shpejtë se GTX 1080. Ai që është më i shpejtë se Titan X. Le ta quajmë maksimumi...

Video lojërat janë bërë gjithnjë e më të bukura vit pas viti, ndaj ne po prezantojmë produktin më të mirë të gjeneratës së re në mënyrë që të shijoni brezin e ardhshëm të lojërave."

Jen-Xun

Karakteristikat e NVIDIA GeForce GTX 1080 Ti

NVIDIA nuk kurseu në harduerin për kartën e saj video të re dhe ultra të fuqishme.

Eshte e pajisur me te njejten GPU GPU Pascal GP102, i njëjtë me Titan X (P), por superior ndaj këtij të fundit në të gjitha aspektet.

Procesori është i pajisur me 12 miliardë tranzistorë dhe ka gjashtë grupe për përpunim grafik, dy prej të cilave janë të kyçur. Kjo jep një total prej 28 procesorë me shumë fije 128 bërthama secila.

Kështu, karta video GeForce GTX 1080 Ti ka 3584 bërthama CUDA, 224 njësi ekrani me teksturë dhe 88 ROP (njësi përgjegjëse për z-buffering, anti-aliasing, regjistrimin e imazhit përfundimtar në tampon kornizë të kujtesës video).

Gama e mbingarkesës fillon nga 1582 MHz në 2 GHz. Arkitektura Pascal u krijua kryesisht për mbingarkesë në referencë dhe mbingarkesë më ekstreme në modelet jo standarde.

Karta video GeForce GTX 1080 Ti gjithashtu ka 11 GB memorie GDDR5X, që funksionon mbi një autobus 352-bit. Flamurtari gjithashtu përmban zgjidhjen më të shpejtë G5X deri më tani.

Me sistemin e ri të ngjeshjes dhe ruajtjes së pllakave, xhiroja e kartës grafike GTX 1080 Ti mund të rritet në 1200 GB/s, që tejkalon arritjet e teknologjisë AMD HBM2.

Specifikimi i NVIDIA GeForce GTX 1080 Ti:

Karakteristikat GTX TItan X Pascal GTX 1080 Ti GTX 1080
Procesi teknik 16 nm 16 nm 16 nm
Tranzistorë 12 miliardë 12 miliardë 7.2 miliardë
Zona e kristalit 471 mm² 471 mm² 314 mm²
Kujtesa 12 GB GDDR5X 11 GB GDDR5X 8 GB GDDR5X
Shpejtësia e memories 10 Gb/s 11 Gb/s 11 Gb/s
Ndërfaqja e memories 384-bit 352-bit 256-bit
Gjerësia e brezit 480 GB/s 484 GB/s 320 GB/s
Bërthamat CUDA 3584 3584 2560
Frekuenca bazë 1417 1607
Frekuenca e mbingarkesës 1530 MHz 1583 MHz 1730 MHz
Fuqia llogaritëse 11 teraflops 11.5 teraflops 9 teraflops
Fuqia termike 250 W 250 W 180 W
Çmimi 1200$ 699 dollarë amerikanë 499$

Ftohja e kartës video NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders përmban një zgjidhje të re të rrjedhës së ajrit që lejon ftohje më të mirë të bordit, ndërkohë që është edhe më i qetë se modelet e mëparshme. E gjithë kjo bën të mundur mbingarkimin e mëtejshëm të kartës video dhe arritjen e shpejtësive edhe më të larta. Përveç kësaj, efikasiteti i ftohjes përmirësohet nga Furnizimi me energji elektrike me 7 faza me 14 transistorë dualFET me efikasitet të lartë.

GeForce GTX 1080 Ti vjen me dizajnin më të fundit NVTTM, i cili prezanton një dhomë të re ftohëse me avull që ka dyfishin e zonës së ftohjes se Titan X(P). Ky dizajn i ri termik ndihmon në arritjen e ftohjes optimale dhe lejon që GPU-ja e kartës grafike të përshpejtohet përtej specifikimeve me teknologjinë GPU Boost 3.0.

NVIDIA GeForce GTX 1080 Ti - ëndrra e një overclocker

Pra, çfarë duhet të bëjmë me këtë fuqi mbresëlënëse të kartës grafike? Përgjigja është e qartë - përshpejtoni deri në kufi. Gjatë ngjarjes, NVIDIA demonstroi potencialin e jashtëzakonshëm të mbingarkesës së kartës së tyre grafike GTX 1080 Ti. Ju kujtojmë se ata arritën të arrijnë një frekuencë procesori prej 2.03 GHz në një 60 FPS të kyçur.

Viti 2016 tashmë po i vjen fundi, por kontributi i tij në industrinë e lojërave do të mbetet me ne për një kohë të gjatë. Së pari, kartat video nga kampi i kuq morën një azhurnim të papritur të suksesshëm në rangun e çmimit mesatar, dhe së dyti, NVIDIA vërtetoi edhe një herë se nuk është për asgjë që zë 70% të tregut. Maxwells ishin të mirë, GTX 970 u konsiderua me të drejtë një nga kartat më të mira për para, por Pascal ishte një çështje krejtësisht tjetër.

Gjenerata e re e harduerit të përfaqësuar nga GTX 1080 dhe 1070 fjalë për fjalë varrosi rezultatet e sistemeve të vitit të kaluar dhe tregut të pajisjeve të përdorura kryesore, ndërsa linjat "junior" të përfaqësuara nga GTX 1060 dhe 1050 konsoliduan suksesin e tyre në segmente më të përballueshme. Pronarët e GTX980Ti dhe Titanëve të tjerë po qajnë me lot krokodili: armët e tyre uber për mijëra rubla humbën menjëherë 50% të kostos dhe 100% të shfaqjes. Vetë NVIDIA deklaron se 1080 është më i shpejtë se TitanX i vitit të kaluar, 1070 do të mposht lehtësisht 980Ti dhe buxheti relativisht 1060 do të dëmtojë pronarët e të gjitha kartave të tjera.

A është kështu, nga vijnë këmbët e produktivitetit të lartë dhe çfarë të bëni me të gjitha këto në prag të festave dhe gëzimeve të papritura financiare, si dhe çfarë saktësisht të kënaqni veten, mund ta zbuloni në këtë kohë të gjatë dhe pak të mërzitshme artikull.

Mund ta duash Nvidia ose... të mos e duash, por vetëm dikush nga një univers alternativ do ta mohonte që ajo është aktualisht lider në fushën e prodhimit të kartave video. Meqenëse Vega nga AMD nuk është shpallur ende, ne nuk kemi parë RX-të flamur në Polaris, dhe R9 Fury me 4 GB memorie eksperimentale sinqerisht nuk mund të konsiderohet një kartë premtuese (VR dhe 4K, megjithatë, do të duan pak më shumë , se ajo ka) - ne kemi atë që kemi. Ndërsa 1080 Ti dhe RX 490 me kusht, RX Fury dhe RX 580 janë vetëm thashetheme dhe pritshmëri, ne kemi kohë të kuptojmë linjën aktuale NVIDIA dhe të shohim se çfarë ka arritur kompania në vitet e fundit.

Rrëmuja dhe historia e origjinës së Pascal

NVIDIA jep rregullisht arsye për të "mos dashuruar veten". Historia me GTX 970 dhe "3.5 GB memorie", "NVIDIA, qij!" nga Linus Torvalds, pornografi e plotë në linjat grafike të desktopit, refuzimi për të punuar me sistemin falas dhe shumë më të përhapur FreeSync në favor të pronarit të tij... Në përgjithësi, ka mjaft arsye. Një nga gjërat më të bezdisshme për mua personalisht është ajo që ndodhi me dy gjeneratat e fundit të kartave video. Nëse marrim një përshkrim të përafërt, atëherë GPU-të "moderne" kanë bërë një rrugë të gjatë që nga ditët e mbështetjes së DX10. Dhe nëse sot kërkoni "gjyshin" e serisë së 10-të, atëherë fillimi i arkitekturës moderne do të jetë rreth serisë së 400-të të video përshpejtuesve dhe arkitekturës Fermi. Ishte atje që më në fund u formua ideja e një dizajni "blloku" nga i ashtuquajturi. "Bërthamat CUDA" në terminologjinë NVIDIA.

Fermi

Nëse kartat video të serive 8000, 9000 dhe 200 ishin hapat e parë në zotërimin e vetë konceptit të "arkitekturës moderne" me procesorë universale shader (si AMD, po), atëherë seria 400 ishte tashmë sa më e ngjashme me atë që ne shih në rreth 1070. Po, Fermi ka ende një patericë të vogël Legacy nga gjeneratat e mëparshme: njësia e hijezuesit punonte me dyfishin e frekuencës së bërthamës përgjegjëse për llogaritjen e gjeometrisë, por fotografia e përgjithshme e disa GTX 480 nuk është shumë e ndryshme nga disa 780, multiprocesorët SM kombinohen në grupe, grupet komunikojnë përmes një cache të përbashkët me kontrollorët e memories dhe rezultatet e punës shfaqen nga një njësi rasterizimi e përbashkët për grupin:


Bllok diagrami i procesorit GF100 të përdorur në GTX 480.

Seria 500 kishte të njëjtin Fermi, pak të përmirësuar nga brenda dhe me më pak defekte, kështu që zgjidhjet më të mira morën 512 bërthama CUDA në vend të 480 në gjeneratën e mëparshme. Vizualisht, diagramet e rrjedhës në përgjithësi duken të jenë binjake:


GF110 është zemra e GTX 580.

Në disa vende ata rritën frekuencat, ndryshuan paksa dizajnin e vetë çipit, por nuk pati revolucion. E gjithë e njëjta teknologji procesi 40 nm dhe 1,5 GB memorie video në një autobus 384-bit.

Keplerit

Me ardhjen e arkitekturës së Keplerit, shumëçka ka ndryshuar. Mund të themi se ishte kjo gjeneratë që u dha kartave video NVIDIA vektorin e zhvillimit që çoi në shfaqjen e modeleve aktuale. Jo vetëm arkitektura GPU ka ndryshuar, por edhe vetë kuzhina për zhvillimin e pajisjeve të reja brenda NVIDIA. Nëse Fermi synonte të gjente një zgjidhje që do të siguronte performancë të lartë, atëherë Kepler mbështetej në efikasitetin e energjisë, përdorimin e arsyeshëm të burimeve, frekuencat e larta dhe lehtësinë e optimizimit të motorit të lojës për aftësitë e një arkitekture me performancë të lartë.

Ndryshime të mëdha u bënë në modelin e GPU: ai nuk bazohej në "flamurin" GF100 / GF110, por në "buxhetin" GF104 / GF114, i përdorur në një nga kartat më të njohura të asaj kohe - GTX 460.


Arkitektura e përgjithshme e procesorit është bërë më e thjeshtë për shkak të përdorimit të vetëm dy blloqeve të mëdha me katër module shumëprocesoresh të unifikuar shader. Paraqitja e flamurëve të rinj dukej diçka si kjo:


GK104 i instaluar në GTX 680.

Siç mund ta shihni, secila nga njësitë kompjuterike ka fituar ndjeshëm peshë në krahasim me arkitekturën e mëparshme dhe u quajt SMX. Krahasoni strukturën e bllokut me atë të paraqitur më sipër në seksionin Fermi.


GK104 GPU SMX Multiprocessor

Seria e 600-të nuk kishte karta video në një procesor të plotë që përmban gjashtë blloqe modulesh kompjuterike, kryesorja ishte GTX 680 me GK104 të instaluar, dhe më e freskët se ajo ishte vetëm 690 "me dy koka"; dy procesorë me të gjithë harduerin dhe memorien e nevojshme. Një vit më vonë, flamuri GTX 680, me ndryshime të vogla, u bë GTX 770, dhe kurora e evolucionit të arkitekturës Kepler ishin kartat video të bazuara në kristalin GK110: GTX Titan dhe Titan Z, 780Ti dhe 780 e rregullt. - të njëjtat 28 nanometra, i vetmi përmirësim cilësor (i cili NUK u shkoi kartave video të konsumatorit bazuar në GK110) - performanca me operacione me saktësi të dyfishtë.

Maxwell

Karta e parë video e bazuar në arkitekturën Maxwell ishte... NVIDIA GTX 750Ti. Pak më vonë, prerjet e saj u shfaqën në formën e GTX 750 dhe 745 (të ofruara vetëm si një zgjidhje e integruar), dhe në kohën e shfaqjes së tyre, kartat e nivelit të ulët tronditën vërtet tregun për përshpejtuesit e lirë të videos. Arkitektura e re u testua në çipin GK107: një pjesë e vogël e flamurëve të ardhshëm me ngrohës të mëdhenj dhe një çmim të frikshëm. Dukej diçka si kjo:


Po, ekziston vetëm një njësi kompjuterike, por sa më komplekse është struktura e saj se paraardhësi i saj, krahasoni vetë:


Në vend të bllokut të madh SMX, i cili u përdor si "blloku i ndërtimit" bazë, blloqe të reja, më kompakte SMM përdoren në krijimin e GPU-ve. Njësitë bazë kompjuterike të Keplerit ishin të mira, por vuanin nga shfrytëzimi i dobët i kapacitetit - një uri banale për udhëzime: sistemi nuk mund të shpërndante udhëzime në një numër të madh elementësh ekzekutivë. Pentium 4 kishte afërsisht të njëjtat probleme: energjia ishte e papunë dhe gabimet në parashikimin e degëve ishin shumë të shtrenjta. Në Maxwell, çdo modul kompjuterik ishte i ndarë në katër pjesë, secila prej tyre kishte buferin e vet të instruksioneve dhe planifikuesin e deformimit - operacione të ngjashme në një grup thread-sh. Si rezultat, efikasiteti është rritur, dhe vetë procesorët grafikë janë bërë më fleksibël se paraardhësit e tyre, dhe më e rëndësishmja, me koston e pak gjaku dhe një kristal mjaft të thjeshtë, ata zhvilluan një arkitekturë të re. Historia zhvillohet në një spirale, hehe.

Zgjidhjet celulare përfituan më së shumti nga risitë: sipërfaqja e kristalit u rrit me një të katërtën dhe numri i njësive të ekzekutimit të multiprocesorëve pothuajse u dyfishua. Me fat, ishin seritë e 700-ta dhe të 800-ta që krijuan rrëmujën kryesore në klasifikim. Vetëm brenda 700 kishte karta video të bazuara në arkitekturat Kepler, Maxwell dhe madje edhe Fermi! Kjo është arsyeja pse desktopi Maxwells, për të distancuar veten nga konfuzioni në gjeneratat e mëparshme, mori një seri të zakonshme 900, nga e cila më pas u ndanë kartat celulare GTX 9xx M.

Pascal është një zhvillim logjik i arkitekturës Maxwell

Ajo që filloi në Kepler dhe vazhdoi në gjeneratën Maxwell mbeti në Pascal: kartat e para video të konsumatorit u lëshuan në bazë të çipit jo shumë të madh GP104, i cili përbëhet nga katër grupime të përpunimit grafik. GP100 me madhësi të plotë, me gjashtë grupime, shkoi në një GPU gjysmë-profesionale të shtrenjtë nën markën TITAN X Megjithatë, edhe 1080 "i prerë" ndizet në atë mënyrë që gjeneratat e kaluara të ndjehen të sëmurë.

Përmirësimi i performancës

Bazat

Maxwell u bë themeli i arkitekturës së re, diagrami i procesorëve të krahasueshëm (GM104 dhe GP104) duket pothuajse i njëjtë, ndryshimi kryesor është numri i multiprocesorëve të paketuar në grupe. Në Kepler (gjenerata e 700-të) kishte dy multiprocesorë të mëdhenj SMX, të cilët u ndanë në 4 pjesë secila në Maxwell, duke siguruar instalimet elektrike të nevojshme (duke ndryshuar emrin në SMM). Në Pascal, dy të tjerë iu shtuan tetë ekzistues në bllok, kështu që ishin 10 prej tyre, dhe shkurtesa u ndryshua edhe një herë: tani multiprocesorët e vetëm quhen përsëri SM.


Përndryshe ka ngjashmëri të plotë vizuale. Vërtetë, ka pasur edhe më shumë ndryshime brenda.

Motori i progresit

Ka një numër të pahijshëm ndryshimesh brenda bllokut të shumëprocesorëve. Për të mos hyrë në detaje shumë të mërzitshme të asaj që është ribërë, si është optimizuar dhe si ka qenë më parë, do t'i përshkruaj ndryshimet shumë shkurt, përndryshe disa njerëz tashmë po gezojnë.

Para së gjithash, Pascal korrigjoi pjesën që është përgjegjëse për përbërësin gjeometrik të figurës. Kjo është e nevojshme për konfigurimet me shumë monitorë dhe punën me kufjet VR: me mbështetjen e duhur nga motori i lojës (dhe me përpjekjet e NVIDIA kjo mbështetje do të shfaqet shpejt), karta video mund të llogarisë gjeometrinë një herë dhe të marrë disa parashikime gjeometrike për secilën ekran. Kjo zvogëlon ndjeshëm ngarkesën në VR jo vetëm në fushën e punës me trekëndëshat (këtu rritja është thjesht e dyfishtë), por edhe në punën me komponentin e pikselit.

980Ti konvencional do të lexojë gjeometrinë dy herë (për secilin sy), dhe më pas do ta mbushë atë me tekstura dhe pas procesit për secilën prej imazheve, duke përpunuar gjithsej rreth 4.2 milionë pika, nga të cilat rreth 70% do të përdoren në të vërtetë. pjesa tjetër do të ndërpritet ose do të bjerë në rajon, i cili thjesht nuk shfaqet për secilin sy.

1080 do të përpunojë gjeometrinë një herë, dhe pikselët që nuk bien në imazhin përfundimtar thjesht nuk do të llogariten.


Me komponentin pixel, gjithçka është në fakt edhe më e ftohtë. Meqenëse rritja e gjerësisë së brezit të kujtesës mund të bëhet vetëm në dy fronte (rritja e frekuencës dhe gjerësisë së brezit për orë), dhe të dyja metodat kushtojnë para, dhe "uria" e GPU-së për memorie është bërë gjithnjë e më e theksuar me kalimin e viteve për shkak të rritjes së rezolucionit dhe zhvillimi i VR mbetet përmirësimi i metodave "falas" për rritjen e xhiros. Nëse nuk mund ta zgjeroni autobusin dhe të rrisni frekuencën, duhet të kompresoni të dhënat. Në gjeneratat e mëparshme, kompresimi i harduerit ishte prezantuar tashmë, por në Pascal u soll nivel i ri. Përsëri, le të kalojmë matematikën e mërzitshme dhe të marrim shembull i gatshëm nga NVIDIA. Në të majtë - Maxwell, në të djathtë - Pascal, ato pika, përbërësi i ngjyrës së të cilave ishte i ngjeshur pa humbje të cilësisë, janë të mbushura me rozë.


Në vend të transferimit të pllakave specifike prej 8x8 pikësh, ngjyra "mesatare" + matrica e devijimeve prej saj ruhet në memorie të tilla që zënë nga ½ në ⅛ të vëllimit origjinal. Në detyrat reale, ngarkesa në nënsistemin e kujtesës u ul nga 10 në 30%, në varësi të numrit të gradientëve dhe uniformitetit të mbushjeve në skenat komplekse në ekran.


Inxhinierëve iu duk se kjo nuk ishte e mjaftueshme dhe për kartën video të flamurit (GTX 1080) u përdor memorie me gjerësi bande të rritur: GDDR5X transmeton dy herë më shumë copa të dhënash (jo udhëzime) për cikël orësh dhe prodhon më shumë se 10 Gbps në kulmin e saj. Transferimi i të dhënave me një shpejtësi kaq të çmendur kërkonte një topologji krejtësisht të re të paraqitjes së kujtesës në tabelë, dhe në total efikasiteti i punës me memorie u rrit me 60-70% në krahasim me flamurët e gjeneratës së mëparshme.

Zvogëloni vonesat dhe kohën e ndërprerjes së kapacitetit

Kartat video janë përfshirë prej kohësh jo vetëm në përpunimin e grafikëve, por edhe në llogaritjet përkatëse. Fizika është shpesh e lidhur me kornizat e animacionit dhe është jashtëzakonisht paralele, që do të thotë se është shumë më efikase në GPU. Por gjeneratori më i madh i problemeve kohët e fundit ka qenë industria e VR. Shumë motorët e lojës, metodologjitë e zhvillimit dhe një sërë teknologjish të tjera të përdorura për të punuar me grafikë thjesht nuk u krijuan për VR rasti i lëvizjes së kamerës ose ndryshimi i pozicionit të kokës së përdoruesit gjatë procesit të paraqitjes së kornizës thjesht nuk u përpunua. Nëse lini gjithçka ashtu siç është, atëherë desinkronizimi i transmetimit të videos dhe lëvizjet tuaja do të shkaktojnë sëmundje të lëvizjes dhe thjesht do të ndërhyjnë në zhytjen në botën e lojës, që do të thotë se kornizat "e gabuar" thjesht duhet të hidhen larg pas paraqitjes dhe puna filloi nga e para. Dhe këto janë vonesa të reja në shfaqjen e imazheve në ekran. Kjo nuk ka një efekt pozitiv në performancën.

Pascal e mori parasysh këtë problem dhe prezantoi balancimin dinamik të ngarkesës dhe mundësinë e ndërprerjeve asinkrone: tani njësitë e ekzekutimit mund të ndërpresin detyrën aktuale (duke ruajtur rezultatet e punës në cache) për të përpunuar detyra më urgjente, ose thjesht të rivendosin gjysmën kornizë e tërhequr dhe filloni një të re, duke reduktuar ndjeshëm vonesat në formimin e imazhit. Përfituesi kryesor këtu, natyrisht, është VR dhe lojërat, por kjo teknologji mund të ndihmojë gjithashtu me llogaritjet për qëllime të përgjithshme: simulimi i përplasjeve të grimcave mori një rritje të performancës prej 10-20%.

Boost 3.0

Kartat video NVIDIA morën mbingarkesë automatike shumë kohë më parë, në gjeneratën e 700-të bazuar në arkitekturën Kepler. Në Maxwell, overclocking u përmirësua, por gjithsesi ishte kështu, për ta thënë butë: po, karta video funksionoi pak më shpejt, për aq kohë sa e lejonte paketa termike, një shtesë prej 20-30 megahertz të lidhur nga fabrika. për bërthamën dhe 50-100 për kujtesën dhanë një rritje, por të vogël. Ajo funksionoi diçka si kjo:


Edhe nëse kishte një diferencë në temperaturën e GPU, performanca nuk u rrit. Me ardhjen e Paskalit, inxhinierët shkundën këtë moçal të pluhurosur. Boost 3.0 funksionon në tre drejtime: analiza e temperaturës, rritja e shpejtësisë së orës dhe rritja e tensionit në çip. Tani i gjithë lëngu është shtrydhur nga GPU: drejtuesit standardë NVIDIA nuk e bëjnë këtë, por softueri i shitësit ju lejon të ndërtoni një kurbë profilizimi me një klik, e cila do të marrë parasysh cilësinë e kartës suaj të veçantë video.

EVGA ishte një nga të parët në këtë fushë, programi i tij Precision XOC ka një skaner të certifikuar nga NVIDIA që skanon vazhdimisht të gjithë gamën e temperaturave, frekuencave dhe tensioneve, duke arritur performancën maksimale në të gjitha mënyrat.

Shtoni këtu një proces të ri teknik, memorie me shpejtësi të lartë, të gjitha llojet e optimizimeve dhe uljes së paketës termike të çipave, dhe rezultati do të jetë thjesht i pahijshëm. Nga 1500 "bazë" MHz, GTX 1060 mund të shtyhet në më shumë se 2000 MHz nëse merrni një kopje të mirë dhe shitësi nuk e prish ftohjen.

Përmirësimi i cilësisë së figurës dhe perceptimit të botës së lojës

Produktiviteti është rritur në të gjitha anët, por ka një sërë fushash në të cilat nuk ka pasur ndryshime cilësore për disa vite: cilësia e imazhit të shfaqur. Dhe nuk po flasim për efekte grafike, këto ofrohen nga zhvilluesit e lojërave, por për atë që saktësisht shohim në monitor dhe si duket loja për konsumatorin përfundimtar.

Sinkronizimi i shpejtë vertikal

Karakteristika më e rëndësishme e Pascal është buferi i trefishtë për daljen e kornizës, i cili njëkohësisht siguron vonesa të interpretimit jashtëzakonisht të ulët dhe siguron sinkronizim vertikal. Imazhi i daljes ruhet në një bufer, korniza e fundit e vizatuar ruhet në një tjetër dhe korniza aktuale vizatohet në të tretën. Mirupafshim vija horizontale dhe grisje, përshëndetje me performancë të lartë. Këtu nuk ka vonesa si V-Sync klasik (pasi askush nuk e pengon performancën e kartës video dhe ajo tërheq gjithmonë me shpejtësinë më të lartë të mundshme të kuadrove), dhe vetëm kornizat e formuara plotësisht dërgohen në monitor. Unë mendoj se pas vitit të ri do të shkruaj një postim të madh të veçantë për V-Sync, G-Sync, Free-Sync dhe këtë algoritëm të ri të sinkronizimit të shpejtë nga Nvidia, ka shumë detaje.

Pamjet normale të ekranit

Jo, pamjet e ekranit që ekzistojnë tani janë vetëm një turp. Pothuajse të gjitha lojërat përdorin një mori teknologjish për ta bërë fotografinë në lëvizje të mahnitshme dhe të lë pa frymë, dhe pamjet e ekranit janë bërë një makth i vërtetë: në vend të një fotografie mahnitëse realiste të përbërë nga animacion, efekte speciale që shfrytëzojnë veçoritë e vizionit njerëzor, shihni disa një lloj gjëje këndore, e çuditshme me ngjyra të çuditshme dhe një pamje absolutisht të pajetë.

Teknologjia e re NVIDIA Ansel zgjidh problemin me pamjet e ekranit. Po, zbatimi i tij kërkon integrimin e kodit special nga zhvilluesit e lojërave, por ka një minimum manipulimi të vërtetë, por fitimi është i madh. Ansel mund të ndalojë lojën, të transferojë kontrollin e kamerës në duart tuaja dhe më pas ka vend për kreativitet. Ju thjesht mund të bëni një foto pa GUI dhe nga këndi juaj i preferuar.


Mund ta shfaqni skenën ekzistuese me rezolucion ultra të lartë, të shkrepni panorama 360 gradë, t'i qepni ato në një aeroplan ose t'i lini në formë tredimensionale për t'u parë në një helmetë VR. Bëni një foto me 16 bit për kanal, ruajeni në një lloj skedari RAW dhe më pas luani me ekspozimin, balancën e të bardhës dhe cilësimet e tjera në mënyrë që pamjet e ekranit të bëhen sërish tërheqëse. Ne presim shumë përmbajtje interesante nga fansat e lojërave në një ose dy vjet.

Përpunimi i audios në një kartë video

Bibliotekat e reja të NVIDIA Gameworks shtojnë shumë veçori të disponueshme për zhvilluesit. Ato kanë për qëllim kryesisht VR dhe përshpejtimin e llogaritjeve të ndryshme, si dhe përmirësimin e cilësisë së figurës, por një nga veçoritë është më interesante dhe e denjë për t'u përmendur. VRWorks Audio e çon punën me zërin në një nivel thelbësisht të ri, duke llogaritur tingullin jo sipas formulave mesatare banale në varësi të distancës dhe trashësisë së pengesës, por kryen një gjurmim të plotë të sinjalit të zërit, me të gjitha reflektimet nga mjedisi, jehona dhe zëri. absorbimi në materiale të ndryshme. NVIDIA ka një shembull të mirë video se si funksionon kjo teknologji:


Më mirë të shikosh me kufje

Thjesht teorikisht, asgjë nuk ju pengon të ekzekutoni një simulim të tillë në Maxwell, por optimizimet në lidhje me ekzekutimin asinkron të udhëzimeve dhe sistemin e ri të ndërprerjeve të integruar në Pascal lejojnë që llogaritjet të kryhen pa ndikuar shumë në shpejtësinë e kuadrove.

Pascal në total

Në fakt, ka edhe më shumë ndryshime, dhe shumë prej tyre janë aq të thella në arkitekturë sa mund të shkruhet një artikull i madh për secilën prej tyre. Risitë kryesore janë dizajni i përmirësuar i vetë çipave, optimizimi në nivelin më të ulët për sa i përket gjeometrisë dhe funksionimit asinkron me përpunim të plotë të ndërprerjeve, shumë veçori të përshtatura për të punuar me rezolucion të lartë dhe VR, dhe, natyrisht, frekuenca të çmendura që gjeneratat e kaluara e kartave video nuk i kam ëndërruar kurrë. Dy vjet më parë, 780 Ti mezi kapërceu barrierën 1 GHz, sot 1080 në disa raste funksionon në dy: dhe këtu merita nuk është vetëm në teknologjinë e procesit të reduktuar nga 28 nm në 16 ose 14 nm: shumë gjëra janë optimizuar në niveli më i ulët, duke filluar me projektimin e transistorëve, duke përfunduar me topologjinë e tyre dhe instalimet elektrike brenda vetë çipit.

Për çdo rast individual

Linja e kartave video të serisë 10 NVIDIA doli të ishte vërtet e balancuar dhe mbulon mjaft ngushtë të gjitha rastet e përdorimit të lojërave, nga opsioni "luaj strategji dhe Diablo" deri në "Dua lojëra më të mira në 4k". Testet e lojës u zgjodhën duke përdorur një metodë të thjeshtë: për të mbuluar një gamë sa më të gjerë testesh me grupin më të vogël të mundshëm të testeve. BF1 është një shembull i shkëlqyer i optimizimit të mirë dhe ju lejon të krahasoni performancën e DX11 kundrejt DX12 në të njëjtat kushte. DOOM u zgjodh për të njëjtën arsye, vetëm që ju lejon të krahasoni OpenGL dhe Vulkan. "Witcher" i tretë këtu vepron si një lodër kaq e optimizuar, në të cilën cilësimet maksimale të grafikës lejojnë që çdo flamurtar të prishet thjesht për shkak të kodit të ndyrë. Ai përdor DX11 klasik, i cili është i testuar me kohë dhe i zhvilluar mirë në drejtues dhe është i njohur për krijuesit e lojërave. Overwatch merr rap për të gjitha lojërat "turne" në të cilat kodi është i optimizuar mirë, në fakt është interesant për shkak se sa i lartë është mesatarja e FPS në një lojë jo shumë të rëndë grafike, e krijuar për të punuar në konfigurimin "mesatar"; në dispozicion në të gjithë botën.

Do të jap menjëherë disa komente të përgjithshme: Vulkan është shumë grykës për sa i përket kujtesës video, për të kjo karakteristikë është një nga treguesit kryesorë dhe do ta shihni këtë tezë të pasqyruar në standardet. DX12 në kartat AMD sillet dukshëm më mirë sesa në NVIDIA nëse ato "të gjelbra" mesatarisht tregojnë një rënie në FPS në API-të e reja, atëherë ato "të kuqe", përkundrazi, tregojnë një rritje.

Divizioni i të rinjve

GTX 1050

NVIDIA më e re (pa shkronjat Ti) nuk është aq interesante sa motra e saj e ngarkuar me shkronjat Ti. Fati i tij është një zgjidhje lojërash për lojërat MOBA, lojëra strategjike, lojëra me turne dhe lojëra të tjera ku pak njerëz janë të interesuar për detajet dhe cilësinë e figurës, dhe një normë e qëndrueshme e kuadrove për para minimale është pikërisht ajo që urdhëroi mjeku.


Të gjitha fotot nuk tregojnë frekuencën bazë, sepse është individuale për çdo shembull: 1050 pa të tjera. Furnizimi me energji elektrike mund të mos jetë i drejtuar, por motra e tij me një lidhës 6-pinësh do të marrë lehtësisht 1.9 GHz konvencionale. Për sa i përket furnizimit me energji dhe gjatësisë, shfaqen opsionet më të njohura, gjithmonë mund të gjeni një kartë video me një qark të ndryshëm ose ftohje të ndryshme që nuk përshtaten në "standardet" e specifikuara;

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 38 FPS;
Fusha e betejës 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

GTX 1050 është i pajisur me një procesor grafik GP107, i trashëguar nga karta e vjetër me një zvogëlim të lehtë të njësive funksionale. 2 GB memorie video nuk do t'ju lejojë të vraponi, por për disiplinat e sporteve elektronike dhe për të luajtur disa tanke është perfekt, pasi çmimi për një kartë të nivelit të ulët fillon nga 9,5 mijë rubla. Nuk kërkohet energji shtesë, kartës video i nevojiten vetëm 75 vat të furnizuara nga pllaka amë përmes folesë PCI-Express. Vërtetë, në këtë segment çmimesh është edhe AMD Radeon RX460, i cili me të njëjtën 2 GB memorie kushton më pak, dhe është pothuajse po aq i mirë në cilësinë e punës, dhe për të njëjtat para mund të merrni një RX460, por në një Versioni 4 GB. Nuk është se e ndihmuan shumë, por një lloj rezerve për të ardhmen. Zgjedhja e shitësit nuk është aq e rëndësishme, ju mund të merrni atë që është në dispozicion dhe nuk do të rëndoni xhepin tuaj me një mijë rubla shtesë, të cilat do të shpenzoheshin më mirë për shkronjat e lakmuara Ti.

GTX 1050 Ti

Rreth 10 mijë për një 1050 të rregullt nuk është keq, por për një version të karikuar (ose të plotë, si të doni ta quani) ata kërkojnë jo shumë më tepër (mesatarisht 1-1,5 mijë më shumë), por mbushja e tij është shumë më interesante. Nga rruga, e gjithë seria 1050 prodhohet jo duke prerë/refuzuar çipat "të mëdhenj" që nuk janë të përshtatshëm për 1060, por si një produkt plotësisht i pavarur. Ka një proces teknik më të vogël (14 nm), një fabrikë të ndryshme (kristalet janë rritur nga fabrika Samsung), dhe ka ekzemplarë jashtëzakonisht interesantë me opsione shtesë. furnizimi me energji elektrike: paketa e tij termike dhe konsumi bazë janë ende të njëjtat 75 W, por potenciali i mbingarkesës dhe aftësia për të shkuar përtej asaj që lejohet janë krejtësisht të ndryshme.


Nëse vazhdoni të luani me rezolucion FullHD (1920x1080), mos planifikoni të përmirësoni dhe pajisja juaj e mbetur është brenda 3-5 vjetësh, kjo është një mënyrë e shkëlqyer për të rritur performancën në lojëra me pak kosto. Ju duhet të përqendroheni në zgjidhjet nga ASUS dhe MSI me furnizim shtesë me 6 pin nga Gigabyte janë të mira, por çmimi nuk është aq i këndshëm.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 44 FPS;
Fusha e betejës 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

Ndarja e mesme

Kartat video të linjës së 60-të janë konsideruar prej kohësh zgjidhja optimale për ata që nuk duan të shpenzojnë shumë para dhe në të njëjtën kohë të luajnë gjithçka që do të dalë në dy vitet e ardhshme në cilësime të larta grafike. Kjo filloi në ditët e GTX 260, i cili kishte dy versione (më të thjeshtë, 192 procesorë të rrjedhës dhe më të trashë, 216 "gurë"), vazhdoi në gjeneratat e 400-të, 500-të dhe 700-të, dhe tani NVIDIA u gjend përsëri në një kombinim pothuajse perfekt i çmimeve dhe cilësisë. Dy versione të "gamës së mesme" janë përsëri në dispozicion: GTX 1060 me 3 dhe 6 GB memorie video, që ndryshojnë jo vetëm në sasinë e RAM-it të disponueshëm, por edhe në performancë.

GTX 1060 3 GB

Mbretëresha e eSports. Çmimi i moderuar, performanca e mahnitshme për FullHD (dhe në eSports ata rrallë përdorin rezolucion më të lartë: rezultatet janë më të rëndësishme se bukuria), sasi e arsyeshme memorie (3 GB, për një moment, ishte në flamurin GTX 780 Ti dy vjet më parë, i cili kushton para të turpshme). Për sa i përket performancës, modeli më i ri 1060 mund lehtësisht GTX 970 të vitit të kaluar me një memorie të paharrueshme prej 3,5 GB, dhe lehtësisht tejkalon super-flamurin e vitit të kaluar 780 Ti.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 70 FPS;
Fusha e betejës 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Këtu favoriti i padiskutueshëm për sa i përket çmimit dhe raportit të shkarkimit është versioni nga MSI. Frekuenca të mira, sistem ftohjeje i heshtur dhe dimensione të arsyeshme. Ata nuk kërkojnë asgjë, rreth 15 mijë rubla.

GTX 1060 6 GB

Versioni me gjashtë gigabajt është bileta buxhetore për VR dhe rezolucion të lartë. Nuk do të jetë i uritur për memorie, do të jetë pak më i shpejtë në të gjitha testet dhe do të kalojë me siguri GTX 980 në zonat ku 4 GB memorie video nuk ishte e mjaftueshme për kartën video të vitit të kaluar.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 73 FPS;
Fusha e betejës 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Do të doja të shënoja edhe një herë sjelljen e kartave video kur përdorni Vulkan API. 1050 me 2 GB memorie - FPS rënie. 1050 Ti me 4 GB është pothuajse në të njëjtin nivel. 1060 3 GB - tërheqje. 1060 6 GB - rezultate të rritura. Trendi, mendoj, është i qartë: Vulkan kërkon 4+ GB memorie video.

Problemi është se të dy kartat video 1060 nuk janë të vogla. Duket se paketa termike është e arsyeshme, dhe bordi është vërtet i vogël, por shumë shitës vendosën thjesht të unifikojnë sistemin e ftohjes midis 1080, 1070 dhe 1060. Disa karta video janë 2 slota të larta, por 28+ centimetra të gjata, të tjerët i bënë më i shkurtër, por më i trashë (2.5 lojëra elektronike). Zgjidhni me kujdes.

Fatkeqësisht, një memorie video shtesë prej 3 GB dhe një njësi llogaritëse e shkyçur do t'ju kushtojë ~ 5-6 mijë rubla mbi çmimin e versionit 3 GB. Në këtë rast, Palit ka opsionet më interesante për sa i përket çmimit dhe cilësisë. ASUS ka lëshuar sisteme monstruoze ftohjeje 28 centimetrash, të cilat i skalit për 1080, 1070 dhe 1060, dhe një kartë video e tillë nuk do të përshtatet askund, versionet pa mbingarkesë në fabrikë kushtojnë pothuajse njësoj, dhe shkarkimi është më pak, dhe relativisht kompakt MSI ata kërkojnë më shumë se konkurrentët me përafërsisht të njëjtin nivel cilësie dhe mbingarkesë fabrike.

Major League

Është e vështirë të luash për të gjitha paratë në 2016. Po, 1080 është jashtëzakonisht i lezetshëm, por perfeksionistët dhe njerëzit e harduerit e dinë se NVIDIA po Fsheh ekzistencën e super-flamurit 1080 Ti, i cili duhet të jetë tepër i lezetshëm. Specifikimet e para tashmë po rrjedhin në internet dhe është e qartë se ato jeshile po presin një hap nga ato kuq e bardhë: një lloj arme uber që mund të vendoset menjëherë nga mbreti i ri i grafikës 3D, GTX 1080 Ti i madh dhe i fuqishëm. Epo, tani për tani ne kemi atë që kemi.

GTX 1070

Aventurat e vitit të kaluar të GTX 970 mega-popullore dhe memorien e tij jo mjaft të sinqertë 4 gigabajt u diskutuan dhe diskutuan në mënyrë aktive në të gjithë internetin. Kjo nuk e pengoi atë të bëhej karta video më e njohur e lojërave në botë. Përpara fillimit të vitit të kalendarit, ai mban vendin e parë në Anketën e Hardware dhe Software-it Steam. Kjo është e kuptueshme: kombinimi i çmimit dhe performancës ishte thjesht ideal. Dhe nëse e keni anashkaluar përmirësimin e vitit të kaluar dhe 1060 nuk ju duket mjaft e lezetshme, GTX 1070 është zgjedhja juaj.

Karta video trajton rezolucionet 2560x1440 dhe 3840x2160 me një zhurmë. Sistemi i mbingarkesës Boost 3.0 do të përpiqet të shtojë karburant kur rritet ngarkesa në GPU (d.m.th., në skenat më të vështira, kur FPS ulet nën sulmin e efekteve speciale), duke përshpejtuar procesorin e kartës video në një 2100+ befasues MHz. Kujtesa arrin lehtësisht 15-18% frekuencë efektive mbi cilësimet e fabrikës. Gjë monstruoze.


Kujdes, të gjitha testet u kryen në 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks Off): DX11 - 73 FPS;
Fusha e betejës 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Është e qartë se as kjo kartë dhe as 1080 nuk mund të arrijnë cilësimet ultra në 4k dhe kurrë të mos bien nën 60 korniza për sekondë, por ju mund të luani në cilësimet e kushtëzuara "të larta", duke çaktivizuar ose pakësuar pak funksionet më të egra në rezolucion të plotë. dhe për sa i përket performancës reale, karta video mposht lehtësisht edhe 980 Ti të vitit të kaluar, i cili kushtoi pothuajse dy herë më shumë. Gigabyte ka opsionin më interesant: ata arritën të fusin një 1070 të plotë në një rast të standardit ITX. Falë paketës modeste termike dhe dizajnit me efikasitet energjetik. Çmimet për kartat fillojnë nga 29-30 mijë rubla për opsionet e shijshme.

GTX 1080

Po, flamuri nuk i ka shkronjat Ti. Po, nuk përdor GPU-në më të madhe të disponueshme nga NVIDIA. Po, nuk ka memorie të lezetshme HBM 2 dhe karta video nuk duket si Death Star ose, në raste ekstreme, një kryqëzor i klasës Imperial Star Destroyer. Dhe po, kjo është karta video më e lezetshme e lojrave në dispozicion tani. One merr dhe ekzekuton DOOM në rezolucion 5k3k me 60 korniza për sekondë në cilësimet ultra. Të gjitha lodrat e reja i nënshtrohen dhe për një ose dy vitet e ardhshme nuk do të ketë probleme: për sa kohë që teknologjitë e reja të ngulitura në Pascal do të përhapen gjerësisht, për sa kohë që motorët e lojës mësojnë të ngarkojnë me efikasitet burimet e disponueshme... Po, në nja dy vjet do të themi: "Ja, shiko GTX 1260, disa vjet më parë të duhej një flamurtar për të luajtur në këto cilësime", por tani për tani, kartat më të mira grafike janë në dispozicion para vitit të ri në një çmim shumë të arsyeshëm.


Kujdes, të gjitha testet u kryen në 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks Off): DX11 - 55 FPS;
Fusha e betejës 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

E tëra çfarë ju duhet të bëni është të vendosni: ju duhet, ose mund të kurseni para dhe të merrni 1070. Luajtja në cilësimet "ultra" ose "high" nuk bën shumë ndryshim, pasi motorët modernë nxjerrin në mënyrë të përsosur një pamje me rezolucion të lartë edhe në Cilësimet mesatare: në fund të fundit, ne nuk jeni konzola sapuni që nuk mund të ofrojnë performancë të mjaftueshme për 4k të sinqertë dhe të qëndrueshme 60 korniza për sekondë.

Nëse e hedhim më së shumti opsione të lira, atëherë kombinimi më i mirë i çmimit dhe cilësisë do të jetë përsëri me Palit në versionin GameRock (rreth 43-45 mijë rubla): po, sistemi i ftohjes është "i trashë", 2.5 lojëra elektronike, por karta video është më e shkurtër se konkurrentët, dhe nja dy vitet 1080 janë instaluar rrallë. SLI po vdes ngadalë, madje edhe një injeksion jetëdhënës i urave me shpejtësi të lartë nuk e ndihmon vërtet atë. Opsioni ASUS ROG nuk është i keq nëse keni instaluar shumë shtesë. pajisjet dhe nuk dëshironi të bllokoni lojëra elektronike shtesë të zgjerimit: karta e tyre video është saktësisht 2 fole të trasha, por kërkon 29 centimetra hapësirë ​​të lirë nga muri i pasmë deri te kafazi i diskut. Pyes veten nëse Gigabyte do të arrijë ta lëshojë këtë përbindësh në formatin ITX?

Rezultatet

Kartat e reja video NVIDIA thjesht varrosën tregun e pajisjeve të përdorura. Mbi të mbijeton vetëm GTX 970, e cila mund të rrëmbehet për 10-12 mijë rubla. Blerësit e mundshëm të 7970 dhe R9 280 të përdorur shpesh nuk kanë ku ta vendosin dhe thjesht nuk mund ta ushqejnë atë, dhe shumë opsione nga tregu sekondar nuk janë thjesht premtuese dhe nuk janë të mira si një përmirësim i lirë për disa vjet në të ardhmen: ka pak memorie, teknologjitë e reja nuk mbështeten. Bukuria e gjeneratës së re të kartave video është pikërisht se edhe lojërat që nuk janë të optimizuara për to funksionojnë shumë më fuqishëm sesa në veteranët e grafikëve GPU të viteve të kaluara, dhe është e vështirë të imagjinohet se çfarë do të ndodhë në një vit kur motorët e lojërave mësojnë. për të përdorur fuqinë e plotë të teknologjive të reja.

GTX 1050 dhe 1050Ti

Mjerisht, nuk mund të rekomandoj blerjen e Pascal-it më të lirë. RX 460 zakonisht shitet për një mijë ose dy më lirë, dhe nëse buxheti juaj është aq i kufizuar sa që blini një kartë video "të minutës së fundit", atëherë Radeon është objektivisht një investim më interesant. Nga ana tjetër, 1050 është pak më i shpejtë, dhe nëse çmimet në qytetin tuaj për këto dy karta video janë pothuajse të njëjta, merrni atë.

1050Ti, nga ana tjetër, është një opsion i shkëlqyer për ata për të cilët historia dhe loja janë më të rëndësishme se këmbanat dhe bilbilat dhe qimet realiste të hundës. Nuk ka një pengesë në formën e 2 GB memorie video, nuk do të mbarojë brenda një viti. Ju mund të siguroni para për të - bëjeni. Witcher në cilësime të larta, GTA V, DOOM, BF 1 - nuk ka problem. Po, do t'ju duhet të hiqni dorë nga një sërë përmirësimesh, të tilla si hijet super të gjata, gërshetimi kompleks ose llogaritja "e shtrenjtë" e vetë-hijesimit të modeleve me gjurmim të kufizuar të rrezeve, por në nxehtësinë e betejës do t'i harroni këto bukuri pas 10 minutash lojë, dhe të qëndrueshme 50-60 korniza në sekondë do të japin efekt shumë më zhytës sesa kërcimet nervore nga 25 në 40, por me cilësimet në "maksimum".

Nëse keni ndonjë kartë video Radeon 7850, GTX 760 ose më të re, me 2 GB memorie video ose më pak, mund t'i ndryshoni me siguri.

GTX 1060

1060 më i ri do t'i kënaqë ata për të cilët shpejtësia e kuadrove prej 100 FPS është më e rëndësishme se kambanat dhe bilbilat grafike. Në të njëjtën kohë, do t'ju lejojë të luani me lehtësi të gjitha lodrat e lëshuara në rezolucion FullHD me cilësime të larta ose maksimale dhe të qëndrueshme 60 korniza për sekondë, dhe çmimi është shumë i ndryshëm nga gjithçka që vjen pas tij. 1060 më i vjetër me 6 gigabajt memorie është një zgjidhje pa kompromis për FullHD me një rezervë të performancës për një ose dy vjet, njohje me VR dhe një kandidat plotësisht i pranueshëm për të luajtur në rezolucion të lartë në cilësime mesatare.

Nuk ka kuptim të ndryshoni GTX 970 në një GTX 1060, do të duhet edhe një vit. Por njësitë e mërzitshme 960, 770, 780, R9 280X dhe më të vjetra mund të përmirësohen me siguri në 1060.

Segmenti kryesor: GTX 1070 dhe 1080

1070 nuk ka gjasa të bëhet po aq popullor sa GTX 970 (gjithsesi, shumica e përdoruesve kanë një cikël përditësimi të harduerit çdo dy vjet), por për sa i përket raportit çmim-cilësi, sigurisht që është një vazhdim i denjë i linjës 70. Thjesht i bluan lojërat me rezolucionin e zakonshëm 1080p, përballon lehtësisht 2560x1440, i përballon sprovat e 21 deri në 9 të paoptimizuara dhe është mjaft i aftë të shfaqë 4k, megjithëse jo në cilësimet maksimale.


Po, SLI mund të jetë i tillë.

Ne u themi "hajde, lamtumirë" për të gjithë 780 Ti, R9 390X dhe 980 të tjera të vitit të kaluar, veçanërisht nëse duam të luajmë me rezolucion të lartë. Dhe, po, ky është alternativa më e mirë për ata që duan të ndërtojnë një kuti djallëzore në formatin Mini-ITX dhe të trembin mysafirët me lojëra 4k në një televizor 60-70 inç që funksionon në një kompjuter me madhësinë e një prodhuesi kafeje.
gtx 1050 historia e kartave video Shto etiketa

Rishikimi i Nvidia GeForce GTX 1080 Pascal | Njohja me GPU-në GP104

Në prag të ekspozitës Computex, Nvidia vendosi të prezantojë produktin e ri të shumëpritur - arkitekturën Pascal të përshtatur për lojtarë. Në kartat e reja video GeForce GTX 1080 dhe 1070, prodhuesi instalon procesorin grafik GP104. Sot do të shikojmë modelin më të vjetër dhe më i riu duhet të jetë në duart tona në fillim të qershorit.

Arkitektura Pascal premton performancë më të shpejtë dhe më efikase, më shumë module llogaritëse, një zonë më të vogël diagrami dhe memorie më të shpejtë me një kontrollues të përmirësuar. Është më i përshtatshëm për realitetin virtual, lojërat 4K dhe detyra të tjera me performancë intensive.

Si gjithmonë, ne do të përpiqemi të kuptojmë premtimet e prodhuesit dhe t'i testojmë ato në praktikë. Le të fillojmë.

A do të ndryshojë GeForce GTX 1080 balancën e fuqisë në segmentin e nivelit të lartë?

Nvidia GeForce GTX 1080 është më e shpejta nga dy kartat grafike të lojërave të shpallura në fillim të muajit. Të dy përdorin GPU GP104, e cila, nga rruga, është tashmë GPU e dytë me mikroarkitekturën Pascal (e para ishte GP100, e cila u shfaq në GTC në prill). CEO i Nvidia, Ren-Sun Huan, ngacmoi entuziastët kur prezantoi produktin e ri për publikun e gjerë, duke pretenduar se GeForce GTX 1080 do t'i tejkalojë dy vitet 980 në SLI.

Ai gjithashtu vuri në dukje se GTX 1080, me performancë më të madhe, ka konsum më të ulët të energjisë sesa seria 900. Është dy herë më produktiv dhe tre herë më efikas se ish-flamuri GeForce Titan X, por nëse shikoni më nga afër grafikët dhe diagramet shoqëruese, rezulton se një ndryshim kaq mbresëlënës manifestohet në detyra të caktuara që lidhen me realitetin virtual. Por edhe nëse këto premtime konfirmohen vetëm pjesërisht, ne jemi ende në disa kohë shumë interesante për sa i përket zhvillimit të lojërave të nivelit të lartë në PC.

Realiteti virtual po fillon të fitojë vrull, por kërkesat e larta të harduerit për nënsistemin grafik krijojnë një pengesë të konsiderueshme për aksesin në këto teknologji. Për më tepër, shumica e lojërave të disponueshme sot dështojnë të përfitojnë nga interpretimi me shumë procesorë. Kjo do të thotë, zakonisht jeni të kufizuar në aftësitë e një përshtatësi video të shpejtë me një GPU. GTX 1080 është në gjendje të performojë më mirë se dy vitet 980 dhe nuk duhet të ketë probleme për të luajtur lojëra moderne VR, duke mohuar nevojën për konfigurime me shumë GPU në të ardhmen.

Ekosistemi 4K po përparon po aq shpejt. Ndërfaqet me gjerësi bande më të lartë si HDMI 2.0b dhe DisplayPort 1.3/1.4 duhet të hapin derën për monitorët 4K me panele 120 Hz dhe mbështetje dinamike të shpejtësisë së rifreskimit deri në fund të këtij viti. Ndërsa gjeneratat e mëparshme të GPU-ve të nivelit më të lartë nga AMD dhe Nvidia u tregtuan si zgjidhje lojërash 4K, përdoruesit duhej të bënin kompromise cilësore për të ruajtur normat e pranueshme të kuadrove. GeForce Nvidia GTX 1080 mund të jetë përshtatësi i parë grafik, shpejtësia e të cilit do të jetë e mjaftueshme për të ruajtur shpejtësinë e lartë të kuadrove me një rezolucion prej 3840x2160 piksele me cilësimet maksimale të detajeve grafike.

Cila është situata me konfigurimet e shumëfishta të monitorit? Shumë lojtarë janë gati të instalojnë tre monitorë me rezolucion 1920x1080, por vetëm me kushtin që sistemi grafik të përballojë ngarkesën, sepse në këtë rast karta duhet të tërheqë gjysmë milioni piksele, pasi rezolucioni është 7680x1440. Madje ka entuziastë të gatshëm të marrin tre ekrane 4K me një rezolucion të kombinuar prej 11520x2160 piksele.

Opsioni i fundit është shumë ekzotik edhe për një kartë video të re të flamurit të lojërave. Megjithatë, procesori Nvidia GP104 është i pajisur me teknologji që premton të përmirësojë përvojën për detyrat tipike në modelin e ri, d.m.th. 4K dhe Surround. Por, përpara se të hyjmë në teknologjitë e reja, le të hedhim një vështrim më të afërt në procesorin GP104 dhe arkitekturën Pascal që qëndron në themel të tij.

Nga çfarë përbëhet GP104?

Që nga fillimi i vitit 2012, AMD dhe Nvidia kanë përdorur teknologjinë e procesit 28 nm. Duke kaluar në të, të dyja kompanitë bënë një hap të rëndësishëm përpara, duke na prezantuar me kartat video Radeon HD 7970 dhe GeForce GTX 680 Megjithatë, gjatë katër viteve të ardhshme, atyre iu desh të bënin më të mirën për të nxjerrë më shumë performancë nga teknologjia ekzistuese. Arritjet e Radeon R9 Fury X dhe GeForce GTX 980 Ti janë një mrekulli e vërtetë duke marrë parasysh kompleksitetin e tyre. Çipi i parë i krijuar nga Nvidia duke përdorur teknologjinë e procesit 28 nm ishte GK104, i cili përbëhej nga 3.5 miliardë transistorë. GM200, i cili është i instaluar në GeForce GTX 980 Ti dhe Titan X, tashmë ka tetë miliardë transistorë.

Kalimi në teknologjinë TSMC FinFET Plus 16 nm i lejoi inxhinierët Nvidia të realizonin ide të reja. Sipas të dhënave teknike, çipat 16FF+ janë 65% më të shpejtë, mund të jenë dy herë më të dendur se 28HPM, ose konsumojnë 70% më pak energji. Kur krijon GPU-të e saj, Nvidia përdor kombinimin optimal të këtyre avantazheve. TSMC thotë se mori shenja inxhinierike nga procesi ekzistues 20 nm, por përdori transistorë FinFET në vend të transistorëve planarë. Kompania thotë se kjo qasje zvogëlon numrin e defekteve dhe rrit rendimentin e pllakave të punës. Gjithashtu pretendohet se kompania nuk kishte një proces teknologjik 20 nanometër me transistorë të shpejtë. Le të përsërisim, bota e grafikës kompjuterike ka përdorur teknologjinë e procesit 28 nm për më shumë se katër vjet.

Bllok diagrami i procesorit GP104

Pasardhësi i GM204 përbëhet nga 7.2 miliardë transistorë të vendosur në një sipërfaqe prej 314 mm2. Për krahasim, sipërfaqja e diapazonit GM204 është 398 mm2 me 5.2 miliardë transistorë. Në versionin e plotë, një GPU GP104 ka katër grupime të përpunimit grafik (GPC). Çdo GPC përfshin pesë Thread/Texture Processing Clusters (TPC) dhe një njësi rasterizimi. TPC kombinon një multiprocesor streaming (Streaming Multiprocessor SM) dhe motorin PolyMorph. SM integron 128 bërthama CUDA me precizion të vetëm, 256 KB memorie regjistër, 96 KB memorie të përbashkët, 48 KB memorie të fshehtë L1/tekstture dhe tetë njësi teksture. Gjenerata e katërt e motorit PolyMorph përfshin një bllok të ri logjik, i cili ndodhet në fund të tubacionit të gjeometrisë përpara bllokut të rasterizimit, ai kontrollon funksionin e njëkohshëm të shumëprojeksionit (më shumë për këtë më poshtë). Në total, marrim 20 SM, 2560 bërthama CUDA dhe 160 njësi përpunimi teksture.

Një Multiprocesor Streaming (SM) në GP104

Mbështetja e GPU-së përfshin tetë kontrollues memorie 32-bit (gjerësia totale e kanalit 256-bit), tetë njësi rasterizimi dhe 256 KB cache L2 për secilën njësi. Si rezultat, ne kemi 64 ROP dhe 2 MB memorie të përbashkët L2. Megjithëse bllok diagrami i procesorit Nvidia GM204 tregoi katër kontrollues 64-bit dhe 16 ROP, ato ishin të grupuara dhe funksionalisht ekuivalente.

Disa nga elementët strukturorë të GP104 janë të ngjashëm me GM204, pasi GPU-ja e re u krijua nga blloqet e ndërtimit të paraardhësit të tij. Nuk ka asgjë të keqe. Nëse ju kujtohet, në arkitekturën Maxwell kompania u mbështet në efiçencën e energjisë dhe nuk shkundi blloqet që ishin pikë e fortë Keplerit. Këtu shohim një pamje të ngjashme.

Shtimi i katër SM mund të mos ndikojë ndjeshëm në performancën. Megjithatë, GP104 ka disa truke në mëngë. Atuti i parë është shpejtësia dukshëm më e lartë e orës. Shpejtësia bazë e orës së GPU-së është 1607 MHz. Specifikimet e GM204, për krahasim, tregojnë 1126 MHz. GPU Boost shkon në një maksimum prej 1,733 MHz, por ne e shtymë kampionin tonë në 2,100 MHz duke përdorur versionin beta të mjetit precisionX të EVGA. Nga vjen një diferencë e tillë për overclocking? Sipas John Albin, nënkryetar i lartë i inxhinierisë GPU, ekipi i tij e dinte se procesi TSMC 16FF+ do të ndikonte në performancën e arkitekturës së çipit, kështu që ata u fokusuan në optimizimin e kohës në çip për të hequr pengesat që e pengonin atë të arrinte shpejtësi më të larta të orës. Si rezultat, shpejtësia e llogaritjes me saktësi të vetme të GP104 arriti në 8228 GFLOP (në frekuencën bazë) krahasuar me tavanin prej 4612 GFLOP për GeForce GTX 980. Shpejtësia e mbushjes së texelit u hodh nga 155,6 Gtex/s për 980 (me GPU Boost) në 277. 3 Gtex/s.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
S.M. 20 16
Numri i bërthamave CUDA 2560 2048
Frekuenca bazë GPU, MHz 1607 1126
Frekuenca e GPU në modalitetin Boost, MHz 1733 1216
Llogaritja e shpejtësisë, GFLOPs (në frekuencën bazë) 8228 4612
Numri i blloqeve të teksturimit 160 128
Shpejtësia e mbushjes së Texel, Gtex/s 277,3 155,6
Shpejtësia e transferimit të të dhënave të memories, Gbit/s 10 7
Gjerësia e brezit të memories, GB/s 320 224
Numri i blloqeve të rasterizimit 64 64
Madhësia e memories L2, MB 2 2
Paketa termike, W 180 165
Numri i tranzistorëve 7.2 miliardë 5.2 miliardë
Sipërfaqja e kristalit, mm2 314 398 mm
Procesi teknik, nm 16 28

Backend ende përfshin 64 ROP dhe një autobus memorie 256-bit, por për të rritur gjerësinë e brezit të disponueshëm, Nvidia ka implementuar memorien GDDR5X. Kompania ka bërë shumë përpjekje për të promovuar llojin e ri të memories, veçanërisht në krahasim me memorien HBM, e cila përdoret në të ndryshme Kartat video AMD dhe HBM2, të cilin Nvidia e instalon në Tesla P100. Ekziston një ndjenjë se aktualisht ka një mungesë të memories HBM2 në treg dhe kompania nuk është e gatshme të pranojë kufizimet e HBM (katër pirgje 1 GB, ose vështirësitë që lidhen me zbatimin e tetë pirgjeve 1 GB). Kështu, morëm memorie video GDDR5X, furnizimi i së cilës, me sa duket, është gjithashtu i kufizuar, pasi GeForce GTX 1070 tashmë përdor GDDR5 të rregullt. Por kjo nuk mbulon avantazhet e zgjidhjes së re. Memoria GDDR5 në GeForce GTX 980 kishte një shpejtësi të transferimit të të dhënave prej 7 Gbps. Kjo siguroi 224 GB/s xhiro në një autobus 256-bit. GDDR5X fillon me 10 Gbps, duke rritur xhiros në 320 GB/s (~43% rritje). Sipas Nvidia, rritja arrihet falë një qarku të përmirësuar I/O, pa rritur konsumin e energjisë.

Arkitektura Maxwell e përdor më mirë gjerësinë e brezit duke optimizuar cache-in dhe algoritmet e saj të kompresimit, dhe Pascal ndjek të njëjtën rrugë me metoda të reja të kompresimit pa humbje për të përdorur në mënyrë më efikase gjerësinë e brezit të disponueshëm të kanalit të kujtesës. Algoritmi i kompresimit të ngjyrave delta përpiqet të arrijë një fitim 2:1 dhe kjo mënyrë është përmirësuar për përdorim më të shpeshtë. Ka edhe modaliteti i ri 4:1, i cili përdoret në rastet kur diferencat për piksel janë shumë të vogla. Së fundi, Pascal prezanton një tjetër algoritëm të ri 8:1, i cili aplikon kompresim 4:1 në blloqe 2x2, diferenca ndërmjet të cilave përpunohet duke përdorur algoritmin 2:1.



Dallimi nuk është i vështirë për t'u ilustruar. Imazhi i parë tregon një pamje të pakompresuar nga loja Project CARS. Imazhi i mëposhtëm tregon elementet që një kartë Maxwell mund të ngjesh, të hijezuara në vjollcë. Fotografia e tretë tregon Paskalin duke e ngjeshur edhe më shumë skenën. Sipas Nvidia, ky ndryshim përkthehet në një reduktim prej rreth 20% në bajt të informacionit që duhet të merren nga memorja për çdo kornizë.

ParametriKuptimi
Emri i kodit të çipitGP104
Teknologjia e prodhimit16 nm FinFET
Numri i tranzistorëve7.2 miliardë
Zona kryesore314 mm²
Arkitekturë
Mbështetje harduerike DirectX
Autobusi i kujtesës
1607 (1733) MHz
Blloqe llogaritëse20 multiprocesorë streaming, duke përfshirë 2560 ALU skalare për llogaritjet me pikë lundruese brenda kuadrit të standardit IEEE 754-2008;
Blloqe teksturuese160 njësi për adresimin dhe filtrimin e teksturave me mbështetje për komponentët FP16 dhe FP32 në tekstura dhe mbështetje për filtrimin trilinear dhe anizotrop për të gjitha formatet e teksturës
Monitoroni mbështetjen
Specifikimet e kartës grafike të referencës GeForce GTX 1080
ParametriKuptimi
Frekuenca kryesore1607 (1733) MHz
2560
Numri i blloqeve të teksturës160
Numri i blloqeve të përzierjes64
Frekuenca efektive e kujtesës10000 (4×2500) MHz
Lloji i memoriesGDDR5X
Autobusi i kujtesës256-bit
Kujtesa8 GB
320 GB/s
rreth 9 teraflops
103 gigapiksel/s
257 gigateksel/s
GomaPCI Express 3.0
Lidhës
Konsumim i energjisederi në 180 W
Ushqim shtesëNjë lidhës me 8 pin
2
Çmimi i rekomanduar599-699 dollarë (SHBA), 54 990 RUB (Rusi)

Modeli i ri i kartës video GeForce GTX 1080 ka marrë një emër që është logjik për zgjidhjen e parë të serisë së re GeForce - ai ndryshon nga paraardhësi i tij i drejtpërdrejtë vetëm në numrin e ndryshuar të gjeneratës. Produkti i ri jo vetëm që zëvendëson zgjidhjet më të mira në linjën aktuale të kompanisë, por edhe për disa kohë u bë flamuri i serisë së re, derisa Titan X u lëshua me një GPU me fuqi edhe më të madhe. Poshtë tij në hierarki është edhe modeli tashmë i shpallur GeForce GTX 1070, i bazuar në një version të zhveshur të çipit GP104, të cilin do ta shqyrtojmë më poshtë.

Çmimet e rekomanduara për kartën e re grafike Nvidia janë 599 dollarë dhe 699 dollarë për versionet e rregullta dhe versionin special të themeluesve (shih më poshtë), përkatësisht, dhe kjo është një marrëveshje mjaft e mirë duke pasur parasysh që GTX 1080 është përpara jo vetëm GTX 980 Ti , por edhe Titan X. Sot, produkti i ri është pa asnjë pyetje zgjidhja më e mirë e performancës në tregun e kartave video me një çip, dhe në të njëjtën kohë kushton më pak se kartat video më produktive të gjeneratës së mëparshme. Deri më tani, GeForce GTX 1080 në thelb nuk ka asnjë konkurrent nga AMD, kështu që Nvidia ishte në gjendje të vendoste një çmim që i përshtatet atyre.

Karta video në fjalë bazohet në çipin GP104, i cili ka një autobus memorie 256-bit, por lloji i ri i memories GDDR5X funksionon me një frekuencë shumë të lartë efektive prej 10 GHz, e cila jep një gjerësi bande të lartë prej 320 GB/s. - e cila është pothuajse e barabartë me GTX 980 Ti me autobus 384-bit. Vëllimi i kujtesës së instaluar në një kartë video me një autobus të tillë mund të jetë i barabartë me 4 ose 8 GB, por instalimi i një vëllimi më të vogël për një zgjidhje kaq të fuqishme në kushte moderne do të ishte marrëzi, kështu që GTX 1080 mori mjaft logjikisht 8 GB memorie , dhe ky vëllim është i mjaftueshëm për të ekzekutuar çdo lojë 3D me çdo cilësim cilësor për disa vitet e ardhshme.

GeForce GTX 1080 PCB është, për arsye të dukshme, mjaft të ndryshme nga PCB-të e mëparshme të kompanisë. Konsumi tipik i energjisë për produktin e ri është 180 W - kjo është pak më e lartë se GTX 980, por dukshëm më e ulët se Titan X dhe GTX 980 Ti më pak produktive. Pllaka e referencës ka grupin e zakonshëm të lidhësve për lidhjen e pajisjeve të daljes së imazhit: një Dual-Link DVI, një HDMI dhe tre DisplayPort.

Dizajni i referencës së Edicionit të Themeluesve

Edhe kur GeForce GTX 1080 u prezantua në fillim të majit, u shpall një edicion special i kartës video të quajtur Founders Edition, i cili kishte një çmim më të lartë në krahasim me kartat video të zakonshme nga partnerët e kompanisë. Në thelb, ky botim është një model referimi i kartës dhe sistemit të ftohjes, dhe është prodhuar nga vetë Nvidia. Mund të keni qëndrime të ndryshme ndaj opsioneve të tilla të kartave video, por dizajni i referencës i zhvilluar nga inxhinierët e kompanisë dhe i prodhuar duke përdorur komponentë me cilësi të lartë ka fansat e tij.

Por nëse ata do të paguajnë disa mijëra rubla më shumë për një kartë video nga vetë Nvidia është një pyetje që mund të përgjigjet vetëm nga praktika. Në çdo rast, në fillim do të jenë kartat video referencë nga Nvidia që do të dalin në shitje me një çmim të rritur, dhe nuk ka shumë për të zgjedhur - kjo ndodh me çdo njoftim, por referenca GeForce GTX 1080 është e ndryshme në atë është planifikuar të shitet në këtë formë gjatë gjithë jetëgjatësisë, deri në daljen e gjeneratës së ardhshme të solucioneve.

Nvidia beson se ky botim ka meritat e tij edhe mbi veprat më të mira të partnerëve të saj. Për shembull, dizajni me dy fole të ftohësit e bën të lehtë ndërtimin në bazë të kësaj karte video të fuqishme si PC-të e lojërave të një forme relativisht të vogël ashtu edhe sistemet video me shumë çipa (edhe pse modaliteti me tre dhe katër çipa të funksionimit që nuk rekomandohet nga kompania). GeForce GTX 1080 Founders Edition ka disa avantazhe në formën e një ftohësi efikas duke përdorur një dhomë avulli dhe një ventilator që shtyn ajrin e nxehtë jashtë kasës - kjo është zgjidhja e parë e tillë e Nvidia, që konsumon më pak se 250 W energji.

Krahasuar me modelet e mëparshme të produkteve referencë të kompanisë, qarku i energjisë është përmirësuar nga katërfazor në pesëfazor. Nvidia flet gjithashtu për komponentët e përmirësuar mbi të cilët bazohet produkti i ri, gjithashtu është reduktuar zhurma elektrike, duke lejuar përmirësimin e stabilitetit të tensionit dhe potencialin e mbingarkesës. Si rezultat i të gjitha përmirësimeve, efikasiteti i energjisë i tabelës së referencës është rritur me 6% në krahasim me GeForce GTX 980.

Dhe për të ndryshuar nga modelet "e zakonshme" GeForce GTX 1080 në pamje, një dizajn i pazakontë "i copëtuar" u zhvillua për Botimin e Themeluesve. E cila, megjithatë, ndoshta çoi në një formë më të komplikuar të dhomës së avullimit dhe radiatorit (shih foton), e cila mund të ketë shërbyer si një nga arsyet për të paguar një shtesë prej 100 dollarësh për një botim kaq të veçantë. Le të përsërisim se në fillim të shitjeve, blerësit nuk do të kenë shumë zgjedhje, por në të ardhmen do të mund të zgjedhin si zgjidhje me dizajnin e vet nga një prej partnerëve të kompanisë, dhe kryer nga vetë Nvidia.

Gjenerata e re e arkitekturës grafike Pascal

Karta video GeForce GTX 1080 ishte zgjidhja e parë e kompanisë bazuar në çipin GP104, i cili i përket gjeneratës së re të arkitekturës grafike Pascal të Nvidia. Megjithëse arkitektura e re bazohet në zgjidhjet e zhvilluara në Maxwell, ajo gjithashtu përmban të rëndësishme dallimet funksionale, për të cilën do të shkruajmë më vonë. Ndryshimi kryesor nga pikëpamja globale ishte procesi i ri teknologjik me të cilin u krijua procesori i ri grafik.

Përdorimi i procesit FinFET 16 nm në prodhimin e procesorëve grafikë GP104 në fabrikat e kompanisë tajvaneze TSMC bëri të mundur rritjen e konsiderueshme të kompleksitetit të çipit duke ruajtur një zonë dhe kosto relativisht të ulët. Krahasoni numrin e transistorëve dhe sipërfaqen e çipave GP104 dhe GM204 - ato janë të ngjashme në sipërfaqe (kristali i produktit të ri është edhe pak më i vogël fizikisht), por çipi i arkitekturës Pascal ka një numër dukshëm më të madh të transistorëve, dhe , në përputhje me rrethanat, njësitë e ekzekutimit, duke përfshirë ato që ofrojnë funksionalitet të ri.

Nga pikëpamja arkitekturore, lojërat e para Pascal janë shumë të ngjashme me zgjidhjet e ngjashme të arkitekturës Maxwell, megjithëse ka disa dallime. Ashtu si Maxwell, procesorët Pascal do të kenë konfigurime të ndryshme të Clusterit të Përpunimit Grafik (GPC), Multiprocesorit Streaming (SM) dhe kontrolluesve të memories. Multiprocesori SM është një multiprocesor shumë paralel që planifikon dhe ekzekuton warps (grupe prej 32 thread instruksioni) në bërthamat CUDA dhe njësi të tjera ekzekutimi në multiprocesor. Ju mund të gjeni informacion të detajuar rreth dizajnit të të gjitha këtyre blloqeve në rishikimet tona të zgjidhjeve të mëparshme Nvidia.

Secili prej multiprocesorëve SM është i çiftuar me një motor PolyMorph, i cili trajton marrjen e mostrave të teksturës, modelimin, transformimin, vendosjen e atributeve të kulmit dhe korrigjimin e perspektivës. Ndryshe nga zgjidhjet e mëparshme nga kompania, Motori PolyMorph në çipin GP104 përmban gjithashtu një njësi të re me shumë projeksione, Simultaneous Multi-Projection, për të cilën do të flasim më poshtë. Kombinimi i një multiprocesori SM me një motor Polymorph quhet tradicionalisht TPC - Texture Processor Cluster për Nvidia.

Në total, çipi GP104 në GeForce GTX 1080 përmban katër grupe GPC dhe 20 multiprocesorë SM, si dhe tetë kontrollues memorie të kombinuara me 64 njësi ROP. Çdo grup GPC ka një motor të dedikuar rasterizimi dhe përfshin pesë multiprocesorë SM. Çdo multiprocesor, nga ana tjetër, përbëhet nga 128 bërthama CUDA, një skedar regjistri 256 KB, 96 KB memorie të përbashkët, 48 KB cache L1 dhe tetë njësi teksture TMU. Kjo do të thotë, në total GP104 përmban 2560 bërthama CUDA dhe 160 njësi TMU.

Gjithashtu, procesori grafik në të cilin bazohet GeForce GTX 1080 përmban tetë kontrollues memorie 32-bitësh (në krahasim me 64-bitët e përdorur më parë), i cili na jep një autobus përfundimtar memorie 256-bitësh. Çdo kontrollues memorie ka tetë blloqe ROP dhe 256 KB cache L2. Kjo do të thotë, në total çipi GP104 përmban 64 blloqe ROP dhe 2048 KB cache të nivelit të dytë.

Falë optimizimeve arkitekturore dhe teknologjisë së re të procesit, lojëra e parë Pascal u bë GPU-ja më efiçente ndaj energjisë e të gjitha kohërave. Për më tepër, për këtë ka një kontribut si nga një prej proceseve teknologjike më të avancuara FinFET 16 nm, ashtu edhe nga optimizimet e arkitekturës të kryera në Pascal, në krahasim me Maxwell. Nvidia ishte në gjendje të rriste frekuencën e orës edhe më shumë sesa pritej kur kalonte në një teknologji të re procesi. GP104 funksionon me një frekuencë më të lartë se sa do të funksiononte një GM204 hipotetike e prodhuar duke përdorur procesin 16nm. Për ta bërë këtë, inxhinierët e Nvidia duhej të kontrollonin dhe optimizonin me kujdes të gjitha pengesat e zgjidhjeve të mëparshme që parandalonin përshpejtimin mbi një prag të caktuar. Si rezultat, model i ri GeForce GTX 1080 funksionon me më shumë se 40% frekuencë më të lartë në krahasim me GeForce GTX 980. Por këto nuk janë të gjitha ndryshimet që lidhen me frekuencën e funksionimit të GPU-së.

Teknologjia GPU Boost 3.0

Siç e dimë mirë nga kartat e mëparshme video Nvidia, në procesorët e tyre grafikë ata përdorin teknologjinë harduerike GPU Boost, e krijuar për të rritur shpejtësinë e orës së funksionimit të GPU-së në modalitetet kur ajo nuk ka arritur ende kufijtë e konsumit të energjisë dhe shpërndarjes së nxehtësisë. Me kalimin e viteve, ky algoritëm ka pësuar shumë ndryshime, dhe çipi video i arkitekturës Pascal tashmë përdor gjeneratën e tretë të kësaj teknologjie - GPU Boost 3.0, risia kryesore e së cilës është një vendosje më e mirë e frekuencave turbo, në varësi të tensionit.

Nëse ju kujtohet parimi i punës versionet e mëparshme teknologjia, diferenca midis frekuencës bazë (vlera minimale e garantuar e frekuencës nën të cilën GPU nuk bie, të paktën në lojëra) dhe frekuencës turbo u fiksua. Kjo do të thotë, frekuenca turbo ishte gjithmonë një numër i caktuar megaherz më i lartë se ai bazë. Në GPU Boost 3.0, u bë e mundur vendosja e kompensimeve të frekuencës turbo për çdo tension veç e veç. Mënyra më e lehtë për ta kuptuar këtë është me ilustrim:

Në të majtë është versioni i dytë i GPU Boost, në të djathtë është versioni i tretë, i cili u shfaq në Pascal. Dallimi fiks midis frekuencave bazë dhe turbo nuk lejoi që të zbuloheshin aftësitë e plota të GPU-së në disa raste, GPU-të e gjeneratave të mëparshme mund të punonin më shpejt në tensionin e caktuar, por një tepricë fikse e frekuencës turbo nuk e lejonte këtë; për t'u bërë. Në GPU Boost 3.0 kjo veçori është shfaqur dhe frekuenca turbo mund të vendoset për secilën nga vlerat individuale të tensionit, duke shtrydhur plotësisht të gjithë lëngun nga GPU.

Kërkohen shërbime të dobishme për të kontrolluar tejkalimin dhe për të vendosur kurbën e frekuencës turbo. Vetë Nvidia nuk e bën këtë, por i ndihmon partnerët e saj të krijojnë shërbime të ngjashme për ta bërë më të lehtë overclocking (brenda kufijve të arsyeshëm, natyrisht). Për shembull, funksionaliteti i ri i GPU Boost 3.0 është zbuluar tashmë në EVGA Precision XOC, i cili përfshin një skaner të dedikuar për mbingarkesë që gjen dhe vendos automatikisht diferencën jolineare midis frekuencës bazë dhe frekuencës turbo për tensione të ndryshme duke përdorur një pajisje të integruar. testi i performancës dhe stabilitetit. Si rezultat, përdoruesi merr një kurbë të frekuencës turbo që përputhet në mënyrë të përkryer me aftësitë e një çipi të veçantë. E cila, për më tepër, mund të modifikohet në çdo mënyrë manualisht.

Siç mund ta shihni në pamjen e ekranit të programit, përveç informacionit në lidhje me GPU-në dhe sistemin, ka edhe cilësime për mbingarkimin: Objektivi i energjisë (përcakton konsumin tipik të energjisë gjatë mbingarkesës, si përqindje e standardit), Objektivi i temperaturës së GPU (temperatura maksimale e lejueshme e bërthamës), Kompensimi i orës së GPU (tejkalimi i frekuencës bazë për të gjitha vlerat e tensionit), Kompensimi i memories (tejkalimi i frekuencës së kujtesës video mbi vlerën e paracaktuar), Mbitensioni ( mundësi shtesë për të rritur tensionin).

Programi Precision XOC përfshin tre mënyra të mbingarkesës: Basic, Linear dhe Manual. Në modalitetin kryesor, mund të vendosni një vlerë të vetme për frekuencën e tepërt (frekuencë fikse turbo) mbi atë bazë, siç ishte rasti për GPU-të e mëparshme. Modaliteti linear ju lejon të vendosni një ndryshim linear të frekuencës nga minimumi në vlerat maksimale tension për GPU. Epo, në modalitetin manual mund të vendosni vlera unike të frekuencës GPU për secilën pikë të tensionit në grafik.

Shërbimi përfshin gjithashtu një skaner të veçantë për mbingarkesë automatike. Mund të vendosni nivelet tuaja të frekuencës ose të lejoni Precision XOC të skanojë GPU-në në të gjitha tensionet dhe të gjejë frekuencat më të qëndrueshme për çdo pikë në kurbën e tensionit dhe frekuencës plotësisht automatikisht. Gjatë procesit të skanimit, Precision XOC rrit gradualisht frekuencën e GPU-së dhe kontrollon funksionimin e saj për stabilitet ose artefakte, duke ndërtuar një kurbë ideale të frekuencës dhe tensionit që do të jetë unike për çdo çip specifik.

Ky skaner mund të personalizohet sipas kërkesave tuaja duke vendosur periudhën kohore për testimin e secilës vlerë të tensionit, frekuencën minimale dhe maksimale që testohet dhe hapin e saj. Është e qartë se për të arritur rezultate të qëndrueshme do të ishte më mirë të vendosni një hap të vogël dhe një kohëzgjatje të mirë testimi. Gjatë procesit të testimit, mund të vërehet funksionim i paqëndrueshëm i drejtuesit të videos dhe sistemit, por nëse skaneri nuk ngrin, ai do të rivendosë funksionimin dhe do të vazhdojë të gjejë frekuencat optimale.

Lloji i ri i memories video GDDR5X dhe kompresim i përmirësuar

Pra, fuqia e GPU-së është rritur ndjeshëm, por autobusi i memories mbetet vetëm 256-bit - a do të kufizojë gjerësia e brezit të kujtesës performancën e përgjithshme dhe çfarë mund të bëhet për këtë? Duket se memoria premtuese e gjeneratës së dytë HBM është ende shumë e shtrenjtë për t'u prodhuar, kështu që na u desh të kërkonim opsione të tjera. Që nga prezantimi i memories GDDR5 në 2009, inxhinierët e Nvidia kanë eksploruar mundësitë e përdorimit të llojeve të reja të memories. Si rezultat, zhvillimet kanë çuar në prezantimin e një standardi të ri memorie, GDDR5X - standardi më kompleks dhe më i avancuar deri më sot, duke siguruar një shpejtësi transferimi prej 10 Gbps.

Nvidia jep një shembull interesant se sa shpejt është kjo. Vetëm 100 pikosekonda kalojnë ndërmjet pjesëve të transmetuara - gjatë kësaj kohe një rreze drite do të përshkojë një distancë prej vetëm një inç (rreth 2,5 cm). Dhe kur përdorni memorien GDDR5X, qarqet e transmetimit dhe marrjes së të dhënave duhet të zgjedhin vlerën e bitit të transmetuar në më pak se gjysmën e kësaj kohe, përpara se të dërgohet tjetri - kjo është vetëm që të kuptoni se në çfarë ka ardhur teknologjia moderne.

Për të arritur një shpejtësi të tillë, ishte e nevojshme të zhvillohej një arkitekturë e re për sistemin e hyrjes/daljes së të dhënave, e cila kërkonte disa vite zhvillim të përbashkët me prodhuesit e çipave të memories. Përveç rritjes së shpejtësisë së transferimit të të dhënave, është rritur edhe efikasiteti i energjisë - çipat e memories GDDR5X përdorin një tension më të ulët prej 1.35 V dhe prodhohen duke përdorur teknologji të reja, gjë që jep të njëjtin konsum energjie me një frekuencë 43% më të lartë.

Inxhinierëve të kompanisë iu desh të ripunonin linjat e të dhënave midis bërthamës GPU dhe çipave të memories, duke i kushtuar më shumë vëmendje parandalimit të humbjes dhe degradimit të sinjalit përgjatë gjithë rrugës nga memoria në GPU dhe mbrapa. Kështu, ilustrimi i mësipërm tregon sinjalin e kapur në formën e një "syri" të madh simetrik, i cili tregon optimizimin e mirë të të gjithë qarkut dhe lehtësinë relative të kapjes së të dhënave nga sinjali. Për më tepër, ndryshimet e përshkruara më sipër çuan jo vetëm në mundësinë e përdorimit të GDDR5X në 10 GHz, por gjithashtu duhet të ndihmojnë në marrjen e një brezi të lartë të memories në produktet e ardhshme duke përdorur memorie më konvencionale GDDR5.

Epo, ne morëm më shumë se 40% rritje në gjerësinë e brezit nga përdorimi i memories së re. Por a nuk mjafton kjo? Për të rritur më tej efikasitetin e gjerësisë së brezit të kujtesës, Nvidia vazhdoi të përmirësojë kompresimin e avancuar të të dhënave të prezantuar në arkitekturat e mëparshme. Nënsistemi i memories në GeForce GTX 1080 përdor teknika të përmirësuara dhe disa të reja të kompresimit të të dhënave pa humbje, të dizajnuara për të reduktuar kërkesat e gjerësisë së brezit - kjo është gjenerata e katërt e kompresimit në çip.

Algoritmet e kompresimit të të dhënave në memorie sjellin disa pika pozitive. Kompresimi zvogëlon sasinë e të dhënave të shkruara në memorie, e njëjta gjë vlen edhe për të dhënat e dërguara nga memoria e videos në memorien e nivelit të dytë, gjë që përmirëson efikasitetin e përdorimit të memorjes L2, pasi një pllakë e ngjeshur (një bllok prej disa pikselësh framebuffer) është më i vogël se një i pangjeshur. Ai gjithashtu zvogëlon sasinë e të dhënave të dërguara midis pikave të ndryshme, të tilla si TMU dhe framebuffer.

Tubacioni i kompresimit të të dhënave në GPU përdor disa algoritme, të cilat përcaktohen në varësi të "kompresivitetit" të të dhënave - për ta zgjidhet algoritmi më i mirë i disponueshëm. Një nga më të rëndësishmet është algoritmi i ngjeshjes së ngjyrave delta. Kjo teknikë e kompresimit kodon të dhënat si ndryshim midis vlerave të njëpasnjëshme në vend të vetë të dhënave. GPU llogarit ndryshimin në vlerat e ngjyrave midis pikselëve në një bllok (pllakë) dhe ruan bllokun si një ngjyrë mesatare për të gjithë bllokun plus të dhëna për ndryshimin në vlerat për çdo piksel. Për të dhënat grafike, kjo metodë është zakonisht e përshtatshme, pasi ngjyra brenda pllakave të vogla për të gjithë pikselët shpesh nuk ndryshon shumë.

Procesori grafik GP104 në GeForce GTX 1080 mbështet më shumë algoritme kompresimi në krahasim me çipat e mëparshëm të arkitekturës Maxwell. Kështu, algoritmi i kompresimit 2:1 është bërë më efikas dhe përveç tij janë shfaqur dy algoritme të reja: një modalitet i kompresimit 4:1, i përshtatshëm për rastet kur diferenca në vlerën e ngjyrës së pikselave të bllokut është shumë e vogël, dhe një modalitet 8:1, duke kombinuar një algoritëm konstant 4:1 ngjeshje të blloqeve 2x2 pixel me kompresim 2x delta midis blloqeve. Kur kompresimi është plotësisht i pamundur, ai nuk përdoret.

Megjithatë, në realitet kjo e fundit ndodh shumë rrallë. Kjo mund të shihet në shembujt e pamjeve të ekranit nga loja Project CARS që Nvidia ofroi për të ilustruar rritjen e raportit të kompresimit në Pascal. Në ilustrime, ato pllaka buferi të kornizës që mund të kompresoheshin nga GPU-ja janë të lyera me ngjyrë vjollce, ndërsa ato që nuk mund të kompresohen pa humbje mbeten me ngjyrën origjinale (lart - Maxwell, poshtë - Pascal).

Siç mund ta shihni, algoritmet e reja të kompresimit në GP104 me të vërtetë funksionojnë shumë më mirë sesa në Maxwell. Megjithëse arkitektura e vjetër ishte gjithashtu në gjendje të ngjeshte shumicën e pllakave në skenë, nje numer i madh i bari dhe pemët rreth skajeve, si dhe pjesët e makinës, nuk i nënshtrohen algoritmeve të vjetëruara të kompresimit. Por kur vendosëm teknika të reja në punë në Pascal, shumë pak zona të imazhit mbetën të pakompresuara - efikasiteti i përmirësuar është i dukshëm.

Si rezultat i përmirësimeve në kompresimin e të dhënave, GeForce GTX 1080 është në gjendje të zvogëlojë ndjeshëm sasinë e të dhënave të dërguara për kornizë. Për sa i përket numrave, kompresimi i përmirësuar kursen 20% shtesë të gjerësisë së brezit efektiv të memories. Përveç rritjes prej më shumë se 40% në gjerësinë e brezit të memories së GeForce GTX 1080 në krahasim me GTX 980 për shkak të përdorimit të memories GDDR5X, e gjithë kjo së bashku jep rreth 70% rritje në gjerësinë e brezit efektiv në krahasim me modelin e gjeneratës së mëparshme.

Mbështetje për llogaritjen asinkrone Async Compute

Shumica e lojërave moderne përdorin llogaritje komplekse përveç grafikës. Për shembull, llogaritjet gjatë llogaritjes së sjelljes së trupave fizikë mund të kryhen jo para ose pas llogaritjeve grafike, por njëkohësisht me to, pasi ato nuk janë të lidhura me njëri-tjetrin dhe nuk varen nga njëri-tjetri brenda një kornize. Një shembull tjetër është post-përpunimi i kornizave të renderuara tashmë dhe përpunimi i të dhënave audio, i cili gjithashtu mund të kryhet paralelisht me renderimin.

Nje me shume një shembull i ndritshëm Funksionaliteti përdoret nga teknika Asynchronous Time Warp, e përdorur në sistemet e realitetit virtual për të ndryshuar kornizën e daljes në përputhje me lëvizjen e kokës së lojtarit menjëherë përpara daljes së saj, duke ndërprerë paraqitjen e asaj tjetër. Një ngarkim i tillë asinkron i fuqisë GPU bën të mundur rritjen e efikasitetit të përdorimit të njësive të tij ekzekutuese.

Ngarkesa të tilla pune krijojnë dy skenarë të rinj për përdorimin e GPU-ve. E para nga këto përfshin ngarkesa të mbivendosura, pasi shumë lloje detyrash nuk përdorin plotësisht aftësitë e GPU-ve dhe disa burime janë të papunë. Në raste të tilla, thjesht mund të ekzekutoni dy detyra të ndryshme në të njëjtën GPU, duke i ndarë njësitë e tij ekzekutuese për përdorim më efikas - për shembull, efektet PhysX që funksionojnë së bashku me paraqitjen e kornizës 3D.

Për të përmirësuar këtë skenar, arkitektura Pascal prezantoi balancimin dinamik të ngarkesës. Në arkitekturën e mëparshme Maxwell, ngarkesat e punës të mbivendosura u zbatuan duke shpërndarë në mënyrë statike burimet GPU midis grafikës dhe llogaritjes. Kjo qasje është efektive me kusht që balanca midis dy ngarkesave të punës korrespondon afërsisht me ndarjen e burimeve dhe detyrat të kryhen në të njëjtën kohë. Nëse llogaritjet jografike zgjasin më shumë se ato grafike, dhe të dy presin që puna e përgjithshme të përfundojë, atëherë një pjesë e GPU-së do të jetë e papunë për kohën e mbetur, gjë që do të shkaktojë një ulje të performancës së përgjithshme dhe do të zvogëlojë të gjitha përfitimet në asgjë. Balancimi dinamik i ngarkesës së harduerit ju lejon të përdorni burimet e liruara të GPU-së sapo të bëhen të disponueshme - ne do të ofrojmë një ilustrim për t'u kuptuar.

Ekzistojnë gjithashtu detyra që janë kritike për kohën e ekzekutimit, dhe ky është skenari i dytë i llogaritjes asinkrone. Për shembull, algoritmi i shtrembërimit të kohës asinkron në VR duhet të përfundojë përpara se të skanohet ose korniza do të hidhet poshtë. Në këtë rast, GPU duhet të mbështesë ndërprerjen shumë të shpejtë të detyrave dhe kalimin në një tjetër në mënyrë që të largojë një detyrë më pak kritike nga ekzekutimi në GPU, duke liruar burimet e saj për detyra kritike. detyra të rëndësishme- kjo quhet parandalim.

Një komandë e vetme renderimi nga një motor loje mund të përmbajë qindra thirrje tërheqjeje, çdo thirrje tërheqjeje nga ana e saj përmban qindra trekëndësha për t'u përpunuar, secili përmban qindra pikselë që duhen llogaritur dhe vizatuar. Qasja tradicionale e GPU-së ndërpret vetëm detyrat në një nivel të lartë dhe tubacioni grafik detyrohet të presë që të përfundojë e gjithë puna përpara se të ndërrojë detyrat, duke rezultuar në vonesa shumë të larta.

Për të korrigjuar këtë, arkitektura Pascal prezantoi për herë të parë aftësinë për të ndërprerë një detyrë në nivel pixel - Pixel Level Preemption. Njësitë e ekzekutimit të GPU-së Pascal mund të monitorojnë vazhdimisht ecurinë e paraqitjes së detyrave dhe kur kërkohet një ndërprerje, ato mund të ndalojnë ekzekutimin, duke ruajtur kontekstin për përfundimin e mëtejshëm, duke kaluar shpejt në një detyrë tjetër.

Ndërprerja dhe ndërrimi i nivelit të fijes për operacionet llogaritëse funksionon në mënyrë të ngjashme me ndërprerjen në nivel piksel për llogaritjen grafike. Llogaritja e ngarkesave të punës përbëhet nga rrjete të shumta, secila përmban fije të shumta. Kur merret një kërkesë për ndërprerje, thread-et që funksionojnë në multiprocesor e përfundojnë ekzekutimin. Blloqe të tjera ruajnë gjendjen e tyre për të vazhduar nga e njëjta pikë në të ardhmen, dhe GPU kalon në një detyrë tjetër. I gjithë procesi i ndërrimit të detyrës zgjat më pak se 100 mikrosekonda pas daljes së thread-ve në punë.

Për ngarkesat e punës në lojëra, kombinimi i ndërprerjeve të nivelit të pikselit për ngarkesat e punës grafike dhe ndërprerjeve të nivelit të fillesë për ngarkesat e punës llogaritëse u jep GPU-ve Pascal aftësinë për të kaluar shpejt ndërmjet detyrave me kohë minimale joproduktive. Dhe për detyrat llogaritëse në CUDA, është gjithashtu e mundur ndërprerja me përmasa minimale - në nivelin e udhëzimeve. Në këtë mënyrë, të gjitha fijet ndalojnë ekzekutimin menjëherë, duke kaluar menjëherë në një detyrë tjetër. Kjo qasje kërkon ruajtjen e më shumë informacionit për gjendjen e të gjithë regjistrave të secilit thread, por në disa raste kompjuterike jo grafike është mjaft e justifikuar.

Përdorimi i ndërprerjes së shpejtë dhe ndërrimit të detyrave në ngarkesat grafike dhe llogaritëse iu shtua arkitekturës Pascal në mënyrë që detyrat grafike dhe jografike të mund të ndërpriteshin në nivelin e udhëzimeve individuale, në vend të temave të tëra, siç ishte rasti me Maxwell dhe Kepler. . Këto teknologji mund të përmirësojnë ekzekutimin asinkron të ngarkesave të ndryshme të GPU-së dhe të përmirësojnë reagimin kur ekzekutohen detyra të shumta njëkohësisht. Në ngjarjen Nvidia ata treguan një demonstrim të llogaritjes asinkron duke përdorur shembullin e llogaritjes efektet fizike. Nëse pa llogaritje asinkrone performanca ishte në nivelin 77-79 FPS, atëherë me përfshirjen e këtyre veçorive shkalla e kornizës u rrit në 93-94 FPS.

Ne kemi dhënë tashmë një shembull të një prej mundësive të përdorimit të këtij funksioni në lojëra në formën e shtrembërimit të kohës asinkron në VR. Ilustrimi tregon funksionimin e kësaj teknologjie me një ndërprerje tradicionale (preemption) dhe me një ndërprerje të shpejtë. Në rastin e parë, ata përpiqen të kryejnë procesin e shtrembërimit të kohës asinkron sa më vonë që të jetë e mundur, por para fillimit të përditësimit të imazhit në ekran. Por puna e algoritmit duhet të dërgohet në GPU për ekzekutim disa milisekonda më herët, pasi pa një ndërprerje të shpejtë nuk ka asnjë mënyrë për të ekzekutuar me saktësi punën në momentin e duhur, dhe GPU është boshe për ca kohë.

Në rastin e ndërprerjes së saktë të pikselit dhe fijes (treguar në të djathtë), kjo aftësi lejon saktësi më të madhe në përcaktimin se kur ndodh ndërprerja dhe shtrembërimi i kohës asinkron mund të fillojë shumë më vonë me besimin e përfundimit të punës përpara se të fillojë ekrani duke u përditësuar. Dhe GPU, e cila është e papunë për ca kohë në rastin e parë, mund të ngarkohet me disa punë grafike shtesë.

Teknologji e njëkohshme me shumë projektime

GPU-ja e re GP104 tani mbështet Teknologji e re multi-projeksion (Simultaneous Multi-Projection - SMP), duke lejuar GPU-në të tërheqë të dhëna në sistemet moderne nxirrni imazhe në mënyrë më efikase. SMP lejon që çipi video të nxjerrë njëkohësisht të dhëna në disa projeksione, gjë që kërkonte futjen e një blloku të ri harduerik në GPU si pjesë e motorit PolyMorph në fund të tubacionit të gjeometrisë përpara njësisë së rasterizimit. Ky bllok është përgjegjës për të punuar me projeksione të shumta për një rrjedhë të vetme gjeometrike.

Motori me shumë projeksione përpunon të dhëna gjeometrike njëkohësisht për 16 projeksione të para-konfiguruara duke kombinuar pikën e projektimit (kamerën), këto projeksione mund të rrotullohen ose anohen në mënyrë të pavarur. Meqenëse çdo primitiv i gjeometrisë mund të shfaqet në pamje të shumta njëkohësisht, motori SMP e ofron këtë funksionalitet duke lejuar aplikacionin të udhëzojë GPU-në të përsërisë gjeometrinë deri në 32 herë (16 pamje në dy qendra projeksioni) pa përpunim shtesë.

I gjithë procesi i përpunimit është i përshpejtuar nga hardueri dhe meqenëse multiprojeksioni funksionon pas motorit të gjeometrisë, nuk ka nevojë të përsërisë të gjitha fazat e përpunimit të gjeometrisë disa herë. Kursimet e burimeve janë të rëndësishme kur shpejtësia e paraqitjes është e kufizuar nga performanca e përpunimit të gjeometrisë, si p.sh. tessellation, ku e njëjta punë gjeometrike kryhet shumë herë për çdo projeksion. Prandaj, në rastin e pikut, multiprojeksioni mund të zvogëlojë nevojën për përpunimin e gjeometrisë deri në 32 herë.

Por pse është e nevojshme e gjithë kjo? Ka disa shembuj të mirë ku teknologjia me shumë projektime mund të jetë e dobishme. Për shembull, një sistem me shumë monitorë me tre ekrane të instaluar në një kënd me njëri-tjetrin mjaft afër përdoruesit (konfigurimi rrethues). Në një situatë tipike, skena jepet në një projeksion, gjë që çon në shtrembërime gjeometrike dhe paraqitje të gabuar gjeometrike. Mënyra e duhur është të keni tre projeksione të ndryshme për secilin nga monitorët, sipas këndit në të cilin ata janë pozicionuar.

Duke përdorur një kartë video në një çip me arkitekturë Pascal, kjo mund të bëhet në një kalim gjeometrik, duke specifikuar tre projeksione të ndryshme, secila për monitorin e vet. Dhe kështu përdoruesi do të jetë në gjendje të ndryshojë këndin në të cilin monitorët janë të vendosur me njëri-tjetrin jo vetëm fizikisht, por edhe virtualisht - duke rrotulluar projeksionet për monitorët anësor për të marrë perspektivën e duhur në skenën 3D me një kënd shikimi dukshëm më të gjerë. (FOV). Megjithatë, ka një kufizim këtu - për një mbështetje të tillë, aplikacioni duhet të jetë në gjendje të shfaqë skenën me një FOV të gjerë dhe të përdorë thirrje speciale SMP API për ta vendosur atë. Kjo do të thotë, ju nuk mund ta bëni këtë në çdo lojë, keni nevojë për mbështetje të veçantë.

Sido që të jetë, ditët e një projeksioni të vetëm në një monitor të vetëm me panel të sheshtë kanë ikur, me shumë konfigurime me shumë monitorë dhe ekrane të lakuar tani të disponueshme që mund të përdorin gjithashtu këtë teknologji. Për të mos përmendur sistemet e realitetit virtual që përdorin lente speciale midis ekraneve dhe syve të përdoruesit, të cilat kërkojnë teknika të reja për projektimin e një imazhi 3D në një foto 2D. Shumë nga këto teknologji dhe teknika janë ende në fazat e hershme të zhvillimit, gjëja kryesore është se GPU-të e vjetra nuk mund të përdorin në mënyrë efektive më shumë se një pamje të planit. Ato kërkojnë disa kalime për paraqitje, përpunim të përsëritur të së njëjtës gjeometri, etj.

Çipat e arkitekturës Maxwell kishin mbështetje të kufizuar për Multi-Rezolucionin për të ndihmuar në përmirësimin e efikasitetit, por SMP e Pascal mund të bëjë shumë më tepër. Maxwell mund ta rrotullonte projeksionin 90 gradë për hartimin e kubit ose rezolucione të ndryshme të projeksionit, por kjo ishte e dobishme vetëm në aplikacione të kufizuara si VXGI.

Mundësi të tjera për përdorimin e SMP përfshijnë interpretimin me shumë rezolucion dhe interpretimin stereo me një kalim. Për shembull, Multi-Res Shading mund të përdoret në lojëra për të optimizuar performancën. Kur aplikohet, një rezolucion më i lartë përdoret në qendër të kornizës, dhe në periferi zvogëlohet për të marrë një shpejtësi më të lartë renderimi.

Paraqitja stereo me një kalim përdoret në VR, e shtuar tashmë në paketën VRWorks dhe përdor aftësitë e shumëprojeksioneve për të reduktuar sasinë e punës gjeometrike të kërkuar në paraqitjen VR. Kur përdoret kjo veçori, GPU GeForce GTX 1080 përpunon gjeometrinë e skenës vetëm një herë, duke gjeneruar dy projeksione për secilin sy në të njëjtën kohë, gjë që përgjysmon ngarkesën gjeometrike në GPU dhe gjithashtu redukton humbjet nga funksionimi i drejtuesit dhe OS.

Një metodë edhe më e avancuar për rritjen e efikasitetit të paraqitjes VR është Lens Matched Shading, e cila përdor projeksione të shumta për të simuluar shtrembërimet gjeometrike të kërkuara në paraqitjen VR. Kjo metodë përdor shumë-projeksione për të paraqitur një skenë 3D në një sipërfaqe që përafrohet me interpretimin e korrigjuar me lente për interpretimin e kufjeve VR, duke shmangur vizatimin e shumë pikselëve shtesë në periferi që do të hidhen. Mënyra më e lehtë për të kuptuar thelbin e metodës është nga ilustrimi - katër projeksione pak të zgjeruara përdoren para secilit sy (në Pascal mund të përdorni 16 projeksione për secilin sy - për një imitim më të saktë të një lente të lakuar) në vend të një:

Kjo qasje mund të kursejë ndjeshëm performancën. Kështu, një imazh tipik Oculus Rift për çdo sy është 1.1 megapiksel. Por për shkak të ndryshimit në projeksione, një imazh burimor 2.1 megapiksel përdoret për ta bërë atë - 86% më i madh se sa duhet! Përdorimi i multi-projeksionit, i zbatuar në arkitekturën Pascal, ju lejon të zvogëloni rezolucionin e imazhit të dhënë në 1.4 megapiksel, duke arritur një kursim një herë e gjysmë në shpejtësinë e përpunimit të pikselëve, dhe gjithashtu kursen gjerësinë e brezit të kujtesës.

Dhe së bashku me një kursim të dyfishtë në shpejtësinë e përpunimit të gjeometrisë për shkak të paraqitjes stereo me një kalim të vetëm, karta grafike GeForce GTX 1080 është në gjendje të ofrojë një rritje të konsiderueshme në performancën e interpretimit VR, e cila është shumë kërkuese si për sa i përket shpejtësisë së përpunimit të gjeometrisë, ashtu edhe aq më tepër në përpunimin e pikselëve.

Përmirësime në njësitë e daljes dhe përpunimit të videos

Përveç performancës dhe funksionalitetit të ri të lidhur me paraqitjen 3D, është e nevojshme të ruhet një nivel i mirë i aftësive të prodhimit të imazhit, si dhe dekodimi dhe kodimi i videos. Dhe GPU-ja e parë e arkitekturës Pascal nuk zhgënjeu - ai mbështet të gjitha standardet moderne në këtë kuptim, përfshirë dekodimin e harduerit të formatit HEVC, i nevojshëm për shikimin e videove 4K në një PC. Gjithashtu, pronarët e ardhshëm të kartave video GeForce GTX 1080 së shpejti do të jenë në gjendje të shijojnë transmetimin e videos 4K nga Netflix dhe ofruesit e tjerë në sistemet e tyre.

Për sa i përket prodhimit të ekranit, GeForce GTX 1080 ka mbështetje për HDMI 2.0b me HDCP 2.2, si dhe DisplayPort. Deri më tani, versioni DP 1.2 është certifikuar, por GPU është gati për certifikim për versionet më të reja të standardit: DP 1.3 Ready dhe DP 1.4 Ready. Kjo e fundit lejon që ekranet 4K të dalin me një shpejtësi rifreskimi 120 Hz dhe ekranet 5K dhe 8K të funksionojnë në 60 Hz duke përdorur një palë kabllo DisplayPort 1.3. Nëse për GTX 980 rezolucioni maksimal i mbështetur ishte 5120x3200 në 60 Hz, atëherë për modelin e ri GTX 1080 u rrit në 7680x4320 në të njëjtat 60 Hz. Referenca GeForce GTX 1080 ka tre dalje DisplayPort, një HDMI 2.0b dhe një dixhital Dual-Link DVI.

Modeli i ri i kartës video Nvidia mori gjithashtu një njësi të përmirësuar të dekodimit dhe kodimit të të dhënave video. Kështu, çipi GP104 plotëson standardet e larta të PlayReady 3.0 (SL3000) për riprodhimin e transmetimit të videos, duke ju lejuar të jeni të sigurt se riprodhimi i përmbajtjes me cilësi të lartë nga ofruesit me reputacion si Netflix do të jetë sa më cilësor dhe efikas në energji. Detajet rreth mbështetjes për formate të ndryshme video gjatë kodimit dhe dekodimit janë dhënë në tabelë, produkti i ri ndryshon qartë nga zgjidhjet e mëparshme për mirë:

Por një veçori e re edhe më interesante është mbështetja për të ashtuquajturat ekrane me rreze të lartë dinamike (HDR), të cilat janë gati të përhapen në treg. Televizorët tashmë janë duke u shitur në vitin 2016 (me katër milionë televizorë HDR që pritet të shiten në vetëm një vit), dhe monitorët vitin e ardhshëm. HDR është përparimi më i madh në teknologjinë e ekranit në vite dhe formati jep dy herë më shumë nuancat e ngjyrave(75% e spektrit të dukshëm, në krahasim me 33% për RGB), ekrane më të ndritshme (1000 nits) me kontrast më të lartë (10,000:1) dhe ngjyra më të pasura.

Shfaqja e aftësisë për të riprodhuar përmbajtje me një ndryshim më të madh në shkëlqim dhe ngjyra më të pasura dhe më të ngopura do ta afrojë imazhin në ekran me realitetin, ngjyrat e zeza do të bëhen më të thella dhe drita e ndritshme do të jetë verbuese, si në botën reale. Prandaj, përdoruesit do të shohin më shumë detaje në zonat e ndritshme dhe të errëta të imazheve në krahasim me monitorët dhe televizorët standardë.

Për të mbështetur ekranet HDR, GeForce GTX 1080 ka gjithçka që ju nevojitet - aftësinë për të nxjerrë ngjyra 12-bit, mbështetje për standardet BT.2020 dhe SMPTE 2084, si dhe dalje në përputhje me HDMI 2.0b 10/12-bit standard për HDR në rezolucion 4K, i cili ishte gjithashtu rasti me Maxwell. Përveç kësaj, Pascal tani mbështet dekodimin e formatit HEVC në rezolucion 4K në 60 Hz dhe ngjyra 10 ose 12-bit, e cila përdoret për video HDR, si dhe kodimin e të njëjtit format me të njëjtat parametra, por vetëm në 10 -bit për regjistrim ose transmetim video HDR. Produkti i ri është gjithashtu gati për të standardizuar DisplayPort 1.4 për transmetimin e të dhënave HDR përmes këtij lidhësi.

Nga rruga, kodimi i videos HDR mund të nevojitet në të ardhmen për të transferuar të dhëna të tilla nga një kompjuter në shtëpi në një tastierë lojërash SHIELD që mund të luajë HEVC 10-bit. Kjo do të thotë, përdoruesi do të jetë në gjendje të transmetojë lojën nga një PC në formatin HDR. Prisni, ku mund të marr lojëra me një mbështetje të tillë? Nvidia punon vazhdimisht me zhvilluesit e lojërave për të zbatuar këtë mbështetje, duke u ofruar atyre gjithçka që u nevojitet (mbështetje për drejtuesit, shembuj kodesh, etj.) për t'i bërë saktë imazhet HDR të pajtueshme me ekranet ekzistuese.

Në kohën e lëshimit të kartës video, GeForce GTX 1080, lojëra të tilla si Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle dhe Shadow Warrior 2 mbështesin daljen HDR pritet të plotësohet .

Ndryshime në paraqitjen me shumë çipa SLI

Ka pasur gjithashtu disa ndryshime në lidhje me teknologjinë pronësore të paraqitjes me shumë çipa SLI, megjithëse askush nuk e priste këtë. SLI përdoret nga entuziastët e lojërave kompjuterike për të shtyrë performancën ose në nivele ekstreme duke çiftuar së bashku karta video të fuqishme me një çip, ose për të arritur shpejtësi shumë të larta të kuadrove duke u kufizuar në disa zgjidhje të rangut të mesëm që ndonjëherë janë më të lira se një top -fundi ( Vendimi është i diskutueshëm, por ata e bëjnë kështu). Me monitorët 4K, lojtarët nuk kanë pothuajse asnjë mundësi tjetër përveç instalimit të disa kartave video, pasi edhe modelet më të mira shpesh nuk mund të ofrojnë lojëra të rehatshme në cilësimet maksimale në kushte të tilla.

Një nga komponentët e rëndësishëm të Nvidia SLI janë urat që lidhin kartat video në një nënsistem të përbashkët video dhe shërbejnë për të organizuar kanal dixhital duke transferuar të dhëna ndërmjet tyre. Kartat video GeForce kishin tradicionalisht lidhës të dyfishtë SLI, të cilat shërbenin për të lidhur dy ose katër karta video në konfigurimet SLI 3-kahëshe dhe 4-kahëshe. Secila nga kartat video duhej të lidhej me secilën, pasi të gjitha GPU-të dërguan kornizat që ata dhanë në GPU-në kryesore, prandaj duheshin dy ndërfaqe në secilën prej kartave.

Duke filluar me GeForce GTX 1080, të gjitha kartat grafike Nvidia të bazuara në arkitekturën Pascal lidhin dy ndërfaqe SLI për të përmirësuar performancën e transferimit ndërmjet GPU-së dhe ky modalitet i ri SLI me lidhje të dyfishtë përmirëson performancën dhe përvojën vizuale në ekranet me rezolucion shumë të lartë sistemet me shumë monitor.

Ky modalitet kërkonte gjithashtu ura të reja, të quajtura SLI HB. Ata kombinojnë një palë karta video GeForce GTX 1080 mbi dy kanale SLI njëherësh, megjithëse kartat e reja video janë gjithashtu të pajtueshme me urat e vjetra. Për rezolucione 1920×1080 dhe 2560×1440 pikselë me një ritëm rifreskimi prej 60 Hz, mund të përdorni ura standarde, por në mënyrat më të kërkuara (4K, 5K dhe sistemet me shumë monitorë), vetëm urat e reja do të ofrojnë rezultatet më të mira në kushtet e butësisë së kornizës, megjithëse të vjetrat do të funksionojnë, por disi më keq.

Gjithashtu, kur përdorni urat SLI HB, ndërfaqja e transferimit të të dhënave GeForce GTX 1080 funksionon në 650 MHz, krahasuar me 400 MHz për urat konvencionale SLI në GPU-të më të vjetra. Për më tepër, për disa nga urat e vjetra të ngurta, një frekuencë më e lartë e transmetimit të të dhënave është gjithashtu e disponueshme me çipat video të arkitekturës Pascal. Me një rritje të shpejtësisë së transferimit të të dhënave ndërmjet GPU-ve nëpërmjet një ndërfaqeje të dyfishtë SLI me një frekuencë të rritur funksionimi, sigurohet një dalje më e butë e kornizës në ekran në krahasim me zgjidhjet e mëparshme:

Duhet gjithashtu të theksohet se mbështetja për paraqitjen me shumë çipa në DirectX 12 është disi e ndryshme nga ajo që ishte e zakonshme më parë. Në versionin e fundit të API-së grafike, Microsoft ka bërë shumë ndryshime në lidhje me funksionimin e sistemeve të tilla video. Për zhvilluesit e programeve kompjuterike, DX12 ofron dy opsione për përdorimin e GPU-ve të shumta: modalitetet e përshtatësit të shumëfishtë të ekranit (MDA) dhe të përshtatësit të ekranit të lidhur (LDA).

Për më tepër, modaliteti LDA ka dy forma: Implicit LDA (që Nvidia përdor për SLI) dhe Explicit LDA (kur zhvilluesi i lojës merr përsipër detyrën e menaxhimit të paraqitjes me shumë çipa. Modalitetet MDA dhe Explicit LDA u futën në DirectX 12 sipas rendit për t'u dhënë zhvilluesve të lojërave më shumë liri dhe mundësi kur përdorin sisteme video me shumë çipa Dallimi midis mënyrave është qartë i dukshëm në tabelën e mëposhtme:

Në modalitetin LDA, memoria e çdo GPU mund të lidhet me kujtesën e një tjetri dhe të shfaqet si një vëllim i madh total, natyrisht, me të gjitha kufizimet e performancës kur të dhënat merren nga memoria "e huaj". Në modalitetin MDA, memoria e çdo GPU funksionon veçmas dhe GPU të ndryshme nuk mund të qasen drejtpërdrejt në të dhënat nga memoria e një GPU tjetër. Modaliteti LDA është projektuar për sisteme me shumë çipa me performancë të ngjashme, ndërsa modaliteti MDA ka më pak kufizime dhe mund të funksionojë së bashku midis GPU-ve diskrete dhe të integruara ose zgjidhjeve diskrete me çipa nga prodhues të ndryshëm. Por kjo mënyrë kërkon gjithashtu më shumë mendim dhe punë nga zhvilluesit gjatë programimit për të punuar së bashku në mënyrë që GPU-të të mund të komunikojnë me njëri-tjetrin.

Si parazgjedhje, një sistem SLI i bazuar në bordet GeForce GTX 1080 mbështet vetëm dy GPU, dhe konfigurimet me tre dhe katër çipa nuk rekomandohen zyrtarisht për përdorim, pasi në lojërat moderne po bëhet gjithnjë e më e vështirë të sigurohet përfitime në performancë nga shtimi i një të treti dhe GPU e katërt. Për shembull, shumë lojëra mbështeten në aftësitë e procesorit qendror të sistemit kur përdorin sisteme të reja video me shumë çipa, gjithashtu përdorin gjithnjë e më shumë teknika të përkohshme që përdorin të dhëna nga kornizat e mëparshme, në të cilat funksionimi efektiv i disa GPU-ve në të njëjtën kohë është thjesht i pamundur.

Megjithatë, funksionimi i sistemeve në sisteme të tjera me shumë çipa (jo-SLI) mbetet i mundur, si p.sh. modalitetet eksplicite MDA ose LDA në DirectX 12 ose një sistem SLI me dy çipa me një GPU të tretë të dedikuar për efektet fizike PhysX. Po në lidhje me rekordet në standardet A po i braktis vërtet Nvidia ato? Jo, sigurisht, por meqenëse sisteme të tilla janë të kërkuara në botë nga pothuajse pak përdorues, për të tillë ultra entuziastë ata dolën me një çelës special Enthusiast, i cili mund të shkarkohet në faqen e internetit të Nvidia dhe të zhbllokojë këtë veçori. Për ta bërë këtë, së pari duhet të merrni një identifikues unik GPU duke ekzekutuar një aplikacion të veçantë, më pas të kërkoni çelësin Enthusiast në faqen e internetit dhe, pasi ta shkarkoni, instaloni çelësin në sistem, duke zhbllokuar kështu konfigurimet SLI 3-kahëshe dhe 4-kahëshe .

Teknologjia e sinkronizimit të shpejtë

Disa ndryshime kanë ndodhur në teknologjitë e sinkronizimit gjatë shfaqjes së informacionit. Duke parë përpara, asgjë e re nuk është shfaqur në G-Sync dhe as teknologjia Adaptive Sync nuk mbështetet. Por Nvidia vendosi të përmirësojë butësinë e daljes dhe sinkronizimin për lojërat që tregojnë performancë shumë të lartë kur shpejtësia e kuadrove është dukshëm më e lartë se shpejtësia e rifreskimit të monitorit. Kjo është veçanërisht e rëndësishme për lojërat që kërkojnë vonesë minimale dhe përgjigje të shpejtë dhe që presin beteja dhe gara me shumë lojtarë.

Fast Sync është një alternativë e re për sinkronizimin vertikal që nuk ka artefakte vizuale, siç është grisja e imazhit dhe nuk është e lidhur me një normë fikse rifreskimi, gjë që rrit vonesën. Cili është problemi me Vsync në lojëra si Counter-Strike: Global Offensive? Kjo lojë funksionon me disa qindra korniza për sekondë në GPU të fuqishme moderne dhe lojtari ka zgjedhjen nëse do të aktivizojë V-sinkronizimin apo jo.

Në lojërat me shumë lojtarë, përdoruesit më së shpeshti përpiqen për vonesë minimale dhe çaktivizojnë VSync, duke rezultuar në grisje qartësisht të dukshme në imazh, gjë që është jashtëzakonisht e pakëndshme edhe me shpejtësi të lartë të kuadrove. Nëse aktivizoni sinkronizimin vertikal, luajtësi do të pësojë një rritje të konsiderueshme të vonesave midis veprimeve të tij dhe imazhit në ekran kur tubacioni i grafikut ngadalësohet në shkallën e rifreskimit të monitorit.

Kështu funksionon një transportues tradicional. Por Nvidia vendosi të ndajë procesin e paraqitjes dhe shfaqjes së imazheve në ekran duke përdorur teknologjinë Fast Sync. Kjo lejon që pjesa e GPU-së që po jep korniza të vazhdojë të punojë me sa më efikasitet të jetë e mundur me shpejtësi të plotë, duke i ruajtur ato korniza në një buffer të veçantë të përkohshëm, Bufferin e fundit të dhënë.

Kjo metodë ju lejon të ndryshoni mënyrën e shfaqjes së ekranit dhe të shfrytëzoni më të mirën nga modalitetet VSync On dhe VSync Off, duke arritur një vonesë të ulët, por pa objekte imazhi. Me Fast Sync nuk ka kontroll të rrjedhës së kornizës, motori i lojës funksionon në modalitetin e çaktivizuar të sinkronizimit dhe nuk i thuhet të presë për të shfaqur atë tjetër, kështu që vonesat janë pothuajse aq të ulëta sa me modalitetin VSync Off. Por meqenëse Fast Sync zgjedh në mënyrë të pavarur një buffer për dalje në ekran dhe shfaq të gjithë kornizën, nuk ka ndërprerje të figurës.

Fast Sync përdor tre buferë të ndryshëm, dy të parët prej të cilëve funksionojnë në mënyrë të ngjashme me buferimin e dyfishtë në një tubacion klasik. Buferi primar (Front Buffer - FB) është buferi nga i cili shfaqet informacioni në ekran, një kornizë e renderuar plotësisht. Buferi sekondar (Back Buffer - BB) është një bufer që merr informacion gjatë paraqitjes.

Kur përdorni sinkronizimin vertikal me shpejtësi të lartë të kuadrove, loja pret derisa të arrihet intervali i rifreskimit për të ndërruar buferin parësor me tampon dytësor për të shfaqur të gjithë kornizën në ekran. Kjo ngadalëson procesin dhe shtimi i buferave shtesë si bufferimi tradicional i trefishtë do të shtojë vetëm vonesën.

Me Fast Sync, shtohet një buffer i tretë, Last Rendered Buffer (LRB), i cili përdoret për të ruajtur të gjitha kornizat që sapo janë dhënë në buferin dytësor. Emri i tamponit flet vetë, ai përmban një kopje të kornizës së fundit të dhënë plotësisht. Dhe kur vjen koha për të përditësuar buferin primar, ky bufer LRB kopjohet në primar në tërësi, dhe jo në pjesë, si nga sekondari kur sinkronizimi vertikal është i çaktivizuar. Meqenëse kopjimi i informacionit nga buferët është i paefektshëm, ato thjesht shkëmbehen (ose riemërohen, pasi do të jetë më i përshtatshëm për t'u kuptuar), dhe logjika e re për shkëmbimin e buferave, e cila u shfaq në GP104, menaxhon këtë proces.

Në praktikë, aktivizimi i metodës së re të sinkronizimit Fast Sync siguron ende një vonesë pak më të lartë në krahasim me çaktivizimin e sinkronizimit vertikal - mesatarisht 8 ms më shumë, por shfaq kornizat në monitor në tërësinë e tyre, pa objekte të pakëndshme në ekran që prishin imazh. Metoda e re mund të aktivizohet nga cilësimet grafike të panelit të kontrollit Nvidia në seksionin e kontrollit Vsync. Sidoqoftë, vlera e paracaktuar mbetet kontrolli i aplikacionit dhe thjesht nuk ka nevojë të aktivizoni Fast Sync në të gjitha aplikacionet 3D, është më mirë të zgjidhni këtë metodë posaçërisht për lojërat me FPS të lartë.

Teknologjitë e realitetit virtual Nvidia VRWorks

Ne kemi prekur tashmë temë e nxehtë realitet virtual në artikull, por kryesisht kishte të bënte me rritjen e shpejtësisë së kuadrove dhe sigurimin e vonesës së ulët, të cilat janë shumë të rëndësishme për VR. E gjithë kjo është shumë e rëndësishme dhe me të vërtetë po bëhet përparim, por deri më tani lojërat VR nuk duken aq mbresëlënëse sa më të mirat e lojërave moderne 3D "të zakonshme". Kjo ndodh jo vetëm sepse zhvilluesit kryesorë të lojërave nuk janë ende veçanërisht të përfshirë në aplikacionet VR, por edhe sepse VR është më kërkuese për shpejtësinë e kuadrove, gjë që pengon përdorimin e shumë prej teknikave të zakonshme në lojëra të tilla për shkak të kërkesave të tyre të larta.

Për të reduktuar diferencën në cilësi midis lojërave VR dhe atyre të rregullta, Nvidia vendosi të lëshojë një paketë të tërë të teknologjive përkatëse VRWorks, e cila përfshinte një numër të madh të API-ve, bibliotekave, motorëve dhe teknologjive që mund të përmirësojnë ndjeshëm cilësinë dhe performancën e Aplikacionet VR. Si lidhet kjo me shpalljen e zgjidhjes së parë të lojërave bazuar në Pascal? Është shumë e thjeshtë - disa teknologji janë futur në të për të ndihmuar në rritjen e produktivitetit dhe përmirësimin e cilësisë, dhe ne kemi shkruar tashmë për to.

Dhe megjithëse çështja nuk ka të bëjë vetëm me grafikë, së pari do të flasim pak për të. Kompleti i teknologjive VRWorks Graphics përfshin teknologjitë e përmendura më parë, të tilla si Lens Matched Shading, e cila përdor funksionin e shumëprojeksioneve që u shfaq në GeForce GTX 1080. Produkti i ri ju lejon të merrni një rritje të performancës prej 1,5-2 herë në krahasim me zgjidhjet që nuk kanë një mbështetje të tillë. Ne përmendëm gjithashtu teknologji të tjera, të tilla si MultiRes Shading, të dizajnuara për renderim me rezolucione të ndryshme në qendër të kornizës dhe në periferi të tij.

Por shumë më i papritur ishte shpallja e teknologjisë VRWorks Audio, e krijuar për përpunimin me cilësi të lartë të të dhënave audio në skenat 3D, e cila është veçanërisht e rëndësishme në sistemet e realitetit virtual. Në motorët konvencionalë, pozicionimi i burimeve të zërit në një mjedis virtual llogaritet mjaft saktë nëse armiku gjuan nga e djathta, atëherë tingulli është më i fortë nga ajo anë e sistemit audio dhe një llogaritje e tillë nuk është shumë e kërkuar për fuqinë llogaritëse; .

Por në realitet, tingujt shkojnë jo vetëm te luajtësi, por në të gjitha drejtimet dhe reflektohen nga materiale të ndryshme, të ngjashme me mënyrën se si reflektohen rrezet e dritës. Dhe në realitet, ne i dëgjojmë këto reflektime, megjithëse jo aq qartë sa valët e drejtpërdrejta të zërit. Këto reflektime indirekte të zërit zakonisht simulohen me efekte të veçanta reverb, por kjo është një qasje shumë primitive ndaj detyrës.

VRWorks Audio përdor interpretimin e valëve zanore të ngjashme me gjurmimin e rrezeve në interpretim, ku shtegu i rrezeve të dritës gjurmohet në reflektime të shumta nga objektet në një skenë virtuale. VRWorks Audio gjithashtu simulon përhapjen e valëve të zërit në mjedisi, kur monitorohen valët e drejtpërdrejta dhe të reflektuara, në varësi të këndit të tyre të rënies dhe vetive të materialeve reflektuese. Në punën e tij, VRWorks Audio përdor motorin Nvidia OptiX me performancë të lartë, i njohur për detyrat grafike, i krijuar për gjurmimin e rrezeve. OptiX mund të përdoret për një sërë detyrash, të tilla si llogaritja e ndriçimit indirekt dhe përgatitja e hartave të dritës, dhe tani për gjurmimin e valëve zanore në VRWorks Audio.

Nvidia ka ndërtuar llogaritjet e sakta të valëve të zërit në demonstrimin e saj VR Funhouse, i cili përdor disa mijëra rreze dhe llogarit deri në 12 reflektime nga objektet. Dhe për të kuptuar avantazhet e teknologjisë duke përdorur një shembull të qartë, ju ftojmë të shikoni një video në lidhje me funksionimin e teknologjisë në Rusisht:

Është e rëndësishme që qasja e Nvidia të ndryshojë nga motorët tradicionalë të zërit, duke përfshirë harduerin e përshpejtuar duke përdorur një bllok të veçantë në metodën GPU nga konkurrenti i saj kryesor. Të gjitha këto metoda ofrojnë vetëm pozicionimin e saktë të burimeve të zërit, por nuk llogaritin reflektimin e valëve të zërit nga objektet në një skenë 3D, megjithëse mund ta simulojnë këtë duke përdorur efektin e reverberimit. Megjithatë, përdorimi i teknologjisë së gjurmimit të rrezeve mund të jetë shumë më realist, pasi vetëm kjo qasje do të sigurojë një simulim të saktë të tingujve të ndryshëm, duke marrë parasysh madhësinë, formën dhe materialet e objekteve në skenë. Është e vështirë të thuhet nëse një saktësi e tillë llogaritjeje kërkohet për një lojtar tipik, por një gjë është e sigurt: në VR mund t'u shtojë përdoruesve atë realizëm që ende mungon në lojërat e rregullta.

Epo, gjithçka që na mbetet për të folur është teknologjia VR SLI, e cila funksionon si në OpenGL ashtu edhe në DirectX. Parimi i tij është jashtëzakonisht i thjeshtë: një sistem video me procesor të dyfishtë në një aplikacion VR do të funksionojë në atë mënyrë që çdo syri t'i ndahet një GPU e veçantë, në kontrast me paraqitjen AFR, e cila është e zakonshme për konfigurimet SLI. Kjo përmirëson ndjeshëm performancën e përgjithshme, e cila është kaq e rëndësishme për sistemet e realitetit virtual. Teorikisht, mund të përdoren më shumë GPU, por numri i tyre duhet të jetë çift.

Kjo qasje kërkohej sepse AFR nuk është i përshtatshëm për VR, pasi me ndihmën e tij GPU-ja e parë do të vizatojë një kornizë të barabartë për të dy sytë, dhe e dyta - një e çuditshme, e cila nuk zvogëlon vonesën, e cila është kritike për sistemet e realitetit virtual. . Edhe pse shpejtësia e kornizës do të jetë mjaft e lartë. Pra, me VR SLI, puna në secilën kornizë ndahet në dy GPU - njëra punon në një pjesë të kornizës për syrin e majtë, e dyta - për të djathtën, dhe më pas këto gjysma të kornizës kombinohen në një tërësi.

Kjo ndarje e punës midis një çifti GPU rezulton në fitime të performancës gati 2 herë, duke lejuar shpejtësi më të larta të kuadrove dhe vonesë më të ulët sesa sistemet me një GPU. Megjithatë, përdorimi i VR SLI kërkon mbështetje të veçantë nga aplikacioni për të përdorur këtë metodë shkallëzimi. Por teknologjia VR SLI është tashmë e integruar në aplikacione të tilla demo VR si Valve's The Lab dhe ILMxLAB's Trials on Tatooine, dhe ky është vetëm fillimi - Nvidia premton se së shpejti do të shfaqen aplikacione të tjera, si dhe zbatimi i teknologjisë në motorët e lojës Unreal Engine 4 , Unity dhe MaxPlay.

Platforma e pamjeve të ekranit të lojërave Ansel

Një nga njoftimet më interesante në lidhje me softuerin ishte lëshimi i teknologjisë për kapjen e pamjeve të ekranit me cilësi të lartë në aplikacionet e lojërave, të quajtur sipas një fotograf i famshëm-Ansel. Lojërat janë bërë prej kohësh jo vetëm lojëra, por edhe një vend për përdorimin e duarve lozonjare për individë të ndryshëm krijues. Disa njerëz ndryshojnë skriptet për lojërat, disa lëshojnë grupe tekstesh me cilësi të lartë për lojëra dhe disa bëjnë pamje të bukura të ekranit.

Nvidia vendosi ta ndihmojë këtë të fundit duke prezantuar një platformë të re për krijimin (dhe krijimin, sepse ky nuk është një proces aq i thjeshtë) imazhe me cilësi të lartë nga lojërat. Ata besojnë se Ansel mund të ndihmojë në krijimin e një lloji të ri të artit bashkëkohor. Në fund të fundit, tashmë ka mjaft artistë që kalojnë pjesën më të madhe të jetës së tyre në një kompjuter, duke krijuar pamje të bukura nga lojërat, dhe ata ende nuk kishin një mjet të përshtatshëm për këtë.

Ansel ju lejon jo vetëm të kapni një imazh në një lojë, por ta ndryshoni atë sipas nevojës së krijuesit. Duke përdorur këtë teknologji, ju mund ta lëvizni kamerën rreth skenës, ta rrotulloni dhe ta anoni në çdo drejtim për të marrë përbërjen e dëshiruar të kornizës. Për shembull, në lojëra si revole në vetën e parë, ju mund të lëvizni vetëm lojtarin, nuk mund të ndryshoni asgjë tjetër, kështu që të gjitha pamjet e ekranit rezultojnë të jenë mjaft monotone. Me një aparat fotografik falas në Ansel, ju mund të shkoni shumë përtej kufijve të kamerës së lojës, duke zgjedhur këndin që nevojitet për një fotografi të suksesshme, apo edhe të kapni një imazh të plotë stereo 360 gradë nga pika e dëshiruar dhe në rezolucion të lartë për duke parë më vonë në një helmetë VR.

Ansel funksionon mjaft thjesht - duke përdorur një bibliotekë të veçantë nga Nvidia, kjo platformë zbatohet në kodin e lojës. Për ta bërë këtë, zhvilluesi i tij duhet vetëm të shtojë një pjesë të vogël të kodit në projektin e tij për të lejuar drejtuesin e videos Nvidia të përgjojë të dhënat e buffer-it dhe shader-it. Është shumë pak punë që përfshihet zbatimi i Ansel në lojë kërkon më pak se një ditë për tu zbatuar. Kështu, aktivizimi i kësaj veçorie në The Witness mori rreth 40 rreshta kodi dhe në The Witcher 3 rreth 150 rreshta kodi.

Ansel do të vijë me një SDK me burim të hapur. Gjëja kryesore është që përdoruesi të marrë një grup standard cilësimesh me të, duke e lejuar atë të ndryshojë pozicionin dhe këndin e kamerës, të shtojë efekte, etj. Platforma Ansel funksionon kështu: ndalon lojën, ndez kamerën falas. dhe ju lejon të ndryshoni kornizën në pamjen e dëshiruar, duke regjistruar rezultatin në formën e një pamjeje të rregullt të ekranit, një imazhi 360 gradë, një çifti stereo ose thjesht një panorame me rezolucion të madh.

E vetmja paralajmërim është se jo të gjitha lojërat do të mbështesin të gjitha tiparet e platformës së pamjeve të ekranit të lojës Ansel. Disa zhvillues lojërash, për një arsye ose një tjetër, nuk duan të aktivizojnë një aparat fotografik plotësisht falas në lojërat e tyre - për shembull, për shkak të mundësisë që mashtruesit të përdorin këtë funksionalitet. Ose duan të kufizojnë ndryshimin në këndin e shikimit për të njëjtën arsye - në mënyrë që askush të mos marrë një avantazh të padrejtë. Epo, ose në mënyrë që përdoruesit të mos shohin spritet e dobëta në sfond. Të gjitha këto janë dëshira krejtësisht normale të krijuesve të lojërave.

Një nga veçoritë më interesante të Ansel është krijimi i pamjeve të ekranit me rezolucion thjesht të madh. Nuk ka rëndësi që loja mbështet rezolucione deri në 4K, për shembull, dhe monitori i përdoruesit është Full HD. Duke përdorur platformën e pamjes së ekranit, mund të kapni një imazh me cilësi shumë më të lartë, i cili kufizohet më tepër nga kapaciteti dhe performanca e diskut. Platforma kap lehtësisht pamjet e ekranit me një rezolucion deri në 4.5 gigapiksel, duke i bashkuar ato së bashku nga 3600 copë!

Është e qartë se në foto të tilla mund të shihni të gjitha detajet, deri në tekstin në gazetat e shtrira në distancë, nëse një nivel i tillë detajesh parashikohet në parim në lojë - Ansel gjithashtu mund të kontrollojë nivelin e detajeve, vendosja e nivelit maksimal për të marrë cilësinë më të mirë të figurës. Por ju gjithashtu mund të aktivizoni supersampling. E gjithë kjo ju lejon të krijoni imazhe nga lojërat që mund t'i printoni me siguri në banderola të mëdhenj dhe të jeni të sigurt për cilësinë e tyre.

Është interesante se një kod i veçantë i përshpejtuar nga hardueri i bazuar në CUDA përdoret për të qepur imazhe të mëdha. Në fund të fundit, asnjë kartë video nuk mund të japë një imazh me shumë gigapiksel në tërësi, por mund ta bëjë atë në copa, të cilat thjesht duhet të kombinohen më vonë, duke marrë parasysh dallimet e mundshme në ndriçim, ngjyrë, etj.

Pas qepjes së panoramave të tilla, përdoret një post-përpunim special për të gjithë kuadrin, i përshpejtuar gjithashtu në GPU. Dhe për të kapur imazhe me një gamë më të lartë dinamike, mund të përdorni një format të veçantë imazhi - EXR, një standard i hapur nga Industrial Dritë dhe Magic, vlerat kroma të secilit kanal shkruhen në formatin 16-bit me pikë lundruese (FP16).

Ky format ju lejon të ndryshoni ndriçimin dhe gamën dinamike të figurës duke e përpunuar pas, duke e çuar atë në nivelin e dëshiruar për çdo ekran specifik, në të njëjtën mënyrë siç bëhet me formatet RAW nga kamerat. Dhe për përdorimin e mëvonshëm të filtrave pas përpunimit në programet e përpunimit të imazhit, ky format është shumë i dobishëm, pasi përmban shumë më shumë të dhëna sesa formatet konvencionale të imazhit.

Por vetë platforma Ansel përmban shumë filtra pas përpunimit, gjë që është veçanërisht e rëndësishme sepse ka akses jo vetëm në imazhin përfundimtar, por edhe në të gjithë buferët e përdorur nga loja kur jepet, të cilat mund të përdoren për efekte shumë interesante. , si thellësia e fushës. Ansel ka një API të veçantë pas përpunimit për këtë, dhe çdo efekt mund të përfshihet në një lojë që mbështet këtë platformë.

Filtrat e postës Ansel përfshijnë filtrat e mëposhtëm: kthesat e ngjyrave, hapësirën e ngjyrave, transformimin, ngopjen, shkëlqimin/kontrastin, kokrrizën e filmit, lulëzimin, ndezjen e thjerrëzave, shkëlqimin anamorfik, shtrembërimin, turbullimin e nxehtësisë, syrin e peshkut, devijimin e ngjyrave, hartëzimin e tonit, papastërtitë e lenteve, boshtet e dritës, vinjeta, korrigjimi i gamës, konvolucioni, mprehja, zbulimi i skajeve, turbullimi, sepia, denoise, FXAA dhe të tjera.

Sa i përket shfaqjes së mbështetjes Ansel në lojëra, do të duhet të prisni pak derisa zhvilluesit ta zbatojnë dhe testojnë atë. Por Nvidia premton shfaqjen e afërt të një mbështetjeje të tillë në lojëra të tilla të famshme si The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament dhe të tjerë.

Procesi i ri teknologjik 16 nm FinFET dhe optimizimi i arkitekturës lejuan kartën video GeForce GTX 1080, bazuar në procesorin grafik GP104, të arrijë një frekuencë të lartë të orës prej 1.6-1.7 GHz edhe në formën e referencës, dhe gjenerata e re garanton funksionimin në frekuencat më të larta të mundshme në lojëra teknologjia GPU Boost. Së bashku me rritjen e numrit të njësive të ekzekutimit, këto përmirësime e bënë produktin e ri jo vetëm kartën video me një çip me performancë më të lartë të të gjitha kohërave, por edhe zgjidhjen më efikase të energjisë në treg.

Modeli GeForce GTX 1080 u bë karta e parë video që mbante një lloj të ri memorie grafike GDDR5X - një gjeneratë e re çipash me shpejtësi të lartë që bëri të mundur arritjen e shpejtësive shumë të larta të transferimit të të dhënave. Në rastin e modifikimit GeForce GTX 1080, ky lloj memorie funksionon në një frekuencë efektive prej 10 GHz. Kombinuar me algoritme të përmirësuara të kompresimit të informacionit në framebuffer, kjo ka çuar në një rritje të gjerësisë së brezit efektiv të memories për këtë procesor grafik me 1.7 herë në krahasim me paraardhësin e tij të drejtpërdrejtë, GeForce GTX 980.

Nvidia vendosi me mençuri të mos lëshojë një arkitekturë rrënjësisht të re në një proces krejtësisht të ri teknologjik, në mënyrë që të mos hasë probleme të panevojshme gjatë zhvillimit dhe prodhimit. Në vend të kësaj, ata përmirësuan seriozisht arkitekturën tashmë të mirë dhe shumë efikase të Maxwell, duke shtuar disa veçori. Si rezultat, gjithçka është në rregull me prodhimin e GPU-ve të reja, dhe në rastin e modelit GeForce GTX 1080, inxhinierët kanë arritur një potencial të frekuencës shumë të lartë - në versionet e mbingarkuar nga partnerët, frekuencat GPU priten deri në 2 GHz! Një frekuencë e tillë mbresëlënëse u bë e mundur falë procesit teknik të përsosur dhe punës së mundimshme të inxhinierëve Nvidia gjatë zhvillimit të GPU-së Pascal.

Dhe megjithëse Pascal u bë një pasardhës i drejtpërdrejtë i Maxwell, dhe këto arkitektura grafike nuk janë thelbësisht shumë të ndryshme nga njëra-tjetra, Nvidia ka prezantuar shumë ndryshime dhe përmirësime, duke përfshirë aftësinë për të shfaqur imazhe në ekrane, motorin e kodimit dhe dekodimit të videos dhe asinkronin e përmirësuar. ekzekutimi i llojeve të ndryshme të llogaritjeve në GPU, bëri ndryshime në paraqitjen me shumë çipa dhe prezantoi një metodë të re sinkronizimi, Fast Sync.

Është e pamundur të mos theksohet teknologjia me shumë projeksione Simultaneous Multi-Projection, e cila ndihmon në përmirësimin e performancës në sistemet e realitetit virtual, marrjen e shfaqjes më korrekte të skenave në sistemet me shumë monitorë dhe prezantimin e teknikave të reja të optimizimit të performancës. Por aplikacionet VR do të marrin rritjen më të madhe të shpejtësisë kur mbështesin teknologjinë me shumë projektime, e cila ndihmon në kursimin e burimeve të GPU-së përgjysmë kur përpunohen të dhënat gjeometrike dhe një herë e gjysmë kur kryejnë llogaritjet piksel pas piksel.

Ndër të pastërt ndryshimet e programit Veçanërisht spikat platforma për krijimin e pamjeve të ekranit në lojërat e quajtura Ansel - ta provoni do të jetë interesante jo vetëm për ata që luajnë shumë, por edhe për ata që thjesht janë të interesuar për grafika 3D me cilësi të lartë. Produkti i ri ju lejon të avanconi artin e krijimit dhe retushimit të pamjeve të ekranit në një nivel të ri. Epo, Nvidia thjesht vazhdon të përmirësojë paketat e saj për zhvilluesit e lojërave, si GameWorks dhe VRWorks, hap pas hapi - për shembull, kjo e fundit ka një veçori interesante për përpunimin e zërit me cilësi të lartë, duke marrë parasysh reflektimet e shumta të valëve të zërit duke përdorur rrezet e harduerit. gjurmimi.

Në përgjithësi, një lider i vërtetë ka hyrë në treg në formën e kartës video Nvidia GeForce GTX 1080, duke pasur të gjitha cilësitë e nevojshme për këtë: performancë të lartë dhe funksionalitet të gjerë, si dhe mbështetje për veçori dhe algoritme të reja. Blerësit e parë të kësaj karte video do të jenë në gjendje të vlerësojnë menjëherë shumë nga avantazhet e përmendura, dhe mundësitë e tjera të zgjidhjes do të zbulohen pak më vonë, kur të shfaqet një mbështetje e gjerë softuerike. Gjëja kryesore është se GeForce GTX 1080 doli të ishte shumë i shpejtë dhe efikas, dhe ne me të vërtetë shpresojmë që inxhinierët e Nvidia arritën të rregullojnë disa nga zonat problematike (të njëjtat llogaritje asinkrone).

Përshpejtuesi grafik GeForce GTX 1070

ParametriKuptimi
Emri i kodit të çipitGP104
Teknologjia e prodhimit16 nm FinFET
Numri i tranzistorëve7.2 miliardë
Zona kryesore314 mm²
ArkitekturëUnifikuar, me një sërë përpunuesish të zakonshëm për përpunimin në rrjedhë të llojeve të shumta të të dhënave: kulme, pikselë, etj.
Mbështetje harduerike DirectXDirectX 12, që mbështet Nivelin e Veçorisë 12_1
Autobusi i kujtesës256-bit: Tetë kontrollues të pavarur të memories 32-bit që mbështesin memorien GDDR5 dhe GDDR5X
Frekuenca e GPU-së1506 (1683) MHz
Blloqe llogaritëse15 multiprocesorë aktivë (nga 20 në çip), duke përfshirë 1920 (nga 2560) ALU skalare për llogaritjet me pikë lundruese brenda kornizës së standardit IEEE 754-2008;
Blloqe teksturuese120 njësi të adresimit dhe filtrimit të teksturës aktive (nga 160 në çip) me mbështetje për komponentët FP16 dhe FP32 në tekstura dhe mbështetje për filtrimin trilinear dhe anizotropik për të gjitha formatet e teksturës
Blloqet e funksionimit raster (ROP)8 blloqe të gjera ROP (64 pikselë) me mbështetje për mënyra të ndryshme anti-aliasing, duke përfshirë të programueshëm dhe me format buffer të kornizës FP16 ose FP32. Blloqet përbëhen nga një grup ALU-sh të konfigurueshme dhe janë përgjegjës për gjenerimin dhe krahasimin e thellësisë, marrjen e shumë mostrave dhe përzierjen
Monitoroni mbështetjenMbështetje e integruar për deri në katër monitorë të lidhur nëpërmjet ndërfaqeve Dual Link DVI, HDMI 2.0b dhe DisplayPort 1.2 (1.3/1.4 Ready)

Specifikimet e kartës video referuese GeForce GTX 1070
ParametriKuptimi
Frekuenca kryesore1506 (1683) MHz
Numri i procesorëve universal1920
Numri i blloqeve të teksturës120
Numri i blloqeve të përzierjes64
Frekuenca efektive e kujtesës8000 (4×2000) MHz
Lloji i memoriesGDDR5
Autobusi i kujtesës256-bit
Kujtesa8 GB
Gjerësia e brezit të memories256 GB/s
Performanca llogaritëse (FP32)rreth 6.5 teraflops
Norma maksimale teorike e mbushjes96 gigapiksel/s
Shkalla teorike e mostrimit të teksturës181 gigateksel/s
GomaPCI Express 3.0
LidhësNjë DVI Dual Link, një HDMI dhe tre DisplayPort
Konsumim i energjisederi në 150 W
Ushqim shtesëNjë lidhës me 8 pin
Numri i lojërave elektronike të zëna në kutinë e sistemit2
Çmimi i rekomanduar379-449 dollarë (SHBA), 34 990 (Rusi)

Karta video GeForce GTX 1070 mori gjithashtu një emër logjik, të ngjashëm me të njëjtën zgjidhje nga seria e mëparshme GeForce. Ai ndryshon nga paraardhësi i tij i drejtpërdrejtë GeForce GTX 970 vetëm në numrin e ndryshuar të gjenerimit. Produkti i ri në linjën aktuale të kompanisë është një hap më i ulët se zgjidhja aktuale e nivelit të lartë GeForce GTX 1080, e cila është bërë flamuri i përkohshëm i serisë së re deri në nxjerrjen e zgjidhjeve në GPU me fuqi edhe më të madhe.

Çmimet e rekomanduara për kartën e re grafike të nivelit të lartë të Nvidia janë 379 dollarë dhe 449 dollarë për versionet e rregullta të partnerëve Nvidia dhe versionin special Founders Edition, respektivisht. Krahasuar me modelin më të lartë, ky është një çmim shumë i mirë duke pasur parasysh që GTX 1070 është rreth 25% pas tij në rastin më të keq. Dhe në kohën e shpalljes dhe lëshimit, GTX 1070 bëhet zgjidhja më e mirë e performancës në klasën e saj. Ashtu si GeForce GTX 1080, GTX 1070 nuk ka konkurrentë të drejtpërdrejtë nga AMD dhe mund të krahasohet vetëm me Radeon R9 390X dhe Fury.

Procesori grafik GP104 në modifikimin GeForce GTX 1070 vendosi të linte një autobus memorie të plotë 256-bit, megjithëse nuk përdorën llojin e ri të memories GDDR5X, por GDDR5 shumë të shpejtë, i cili funksionon me një frekuencë të lartë efektive prej 8 GHz. Sasia e memories së instaluar në një kartë video me një autobus të tillë mund të jetë 4 ose 8 GB, dhe për të siguruar performancën maksimale të zgjidhjes së re në cilësime të larta dhe rezolucione të paraqitjes, modeli i kartës video GeForce GTX 1070 ishte gjithashtu i pajisur me 8 GB memorie video, si motra e saj më e madhe. Ky vëllim është i mjaftueshëm për të ekzekutuar çdo aplikacion 3D me cilësime maksimale të cilësisë për disa vite.

Edition Special GeForce GTX 1070 Founders Edition

Kur u prezantua GeForce GTX 1080 në fillim të majit, u njoftua një edicion special i kartës video të quajtur Founders Edition, i cili kishte një çmim më të lartë në krahasim me kartat video të zakonshme nga partnerët e kompanisë. E njëjta gjë vlen edhe për produktin e ri. Në këtë artikull do të flasim përsëri për një edicion special të kartës video GeForce GTX 1070 të quajtur Founders Edition. Ashtu si me modelin më të vjetër, Nvidia vendosi të lëshojë këtë version të kartës video referuese të prodhuesit me një çmim më të lartë. Ata argumentojnë se shumë lojtarë dhe entuziastë që blejnë karta grafike të nivelit të lartë dhe të shtrenjta duan një produkt me një pamje dhe ndjesi të përshtatshme "premium".

Prandaj, është për përdoruesit e tillë që karta video GeForce GTX 1070 Founders Edition do të lëshohet në treg, e cila është projektuar dhe prodhuar nga inxhinierët e Nvidia nga materiale dhe komponentë premium, si mbulesa alumini GeForce GTX 1070 Founders Edition, gjithashtu. si një pllakë e pasme me profil të ulët që mbulon anën e pasme të tabelës së qarkut të printuar dhe mjaft e njohur në mesin e entuziastëve.

Siç mund ta shihni nga fotografitë e bordit, GeForce GTX 1070 Founders Edition trashëgoi saktësisht të njëjtin dizajn industrial të natyrshëm në referencën GeForce GTX 1080 Founders Edition. Të dy modelet përdorin një ventilator radial që nxjerr ajrin e nxehtë nga jashtë, i cili është shumë i dobishëm si në rastet e vogla ashtu edhe në konfigurimet SLI me shumë çipa me hapësirë ​​të kufizuar fizike. Fryrja e ajrit të nxehtë jashtë në vend që të qarkullojë brenda kasës redukton stresin termik, përmirëson rezultatet e mbingarkesës dhe zgjat jetën e komponentëve të sistemit.

Nën mbulesën e sistemit të ftohjes referencë GeForce GTX 1070 është një radiator alumini në formë të veçantë me tre tuba të integruar të ngrohjes bakri që largojnë nxehtësinë nga vetë GPU. Nxehtësia e hequr nga tubat e nxehtësisë më pas shpërndahet nga një ftohës alumini. Epo, pllaka metalike me profil të ulët në pjesën e pasme të tabelës është projektuar gjithashtu për të ofruar karakteristika më të mira të temperaturës. Ai gjithashtu ka një seksion të tërheqshëm për lëvizje më të mirë të ajrit midis kartave të shumta grafike në konfigurimet SLI.

Sa i përket sistemit të energjisë të bordit, GeForce GTX 1070 Founders Edition ka një sistem energjie katërfazore të optimizuar për një furnizim të qëndrueshëm me energji. Nvidia pretendon se përdorimi i komponentëve të veçantë në GTX 1070 Founders Edition ka përmirësuar efikasitetin e energjisë, stabilitetin dhe besueshmërinë në krahasim me GeForce GTX 970, duke siguruar performancë më të mirë të mbingarkesës. Në testet e vetë kompanisë, GPU-të GeForce GTX 1070 tejkaluan lehtësisht 1.9 GHz, që është afër rezultateve të modelit më të vjetër GTX 1080.

Karta grafike Nvidia GeForce GTX 1070 do të jetë e disponueshme në dyqane me pakicë duke filluar nga 10 qershori. Çmimet e rekomanduara për GeForce GTX 1070 Founders Edition dhe zgjidhjet partnere ndryshojnë, dhe kjo është pyetja më e rëndësishme për këtë edicion special. Nëse partnerët e Nvidia shesin kartat e tyre video GeForce GTX 1070 duke filluar nga 379 dollarë (në tregun amerikan), atëherë versioni themelues i modelit të referencës së Nvidia do të kushtojë 449 dollarë. A ka shumë entuziastë të gatshëm të paguajnë më shumë për, thënë sinqerisht, avantazhet e dyshimta të versionit të referencës? Koha do ta tregojë, por ne mendojmë se bordi i referencës është më interesant si një opsion i disponueshëm për blerje që në fillim të shitjeve, dhe më vonë pika e blerjes së tij (dhe madje edhe me një çmim më të lartë!) është reduktuar tashmë në zero.

Mbetet për të shtuar se bordi i qarkut të printuar Referenca GeForce GTX 1070 është e ngjashme me atë të kartës video më të vjetër dhe të dyja ndryshojnë nga dizajni i bordeve të mëparshme të kompanisë. Konsumi tipik i energjisë për produktin e ri është 150 W, që është pothuajse 20% më pak se vlera për GTX 1080 dhe është afër konsumit të energjisë së kartës video të gjeneratës së mëparshme GeForce GTX 970. Bordi i referencës Nvidia ka një grup të njohur i lidhësve për lidhjen e pajisjeve të daljes së imazhit: një Dual-Link DVI, një HDMI dhe tre DisplayPort. Për më tepër, ekziston mbështetje për versionet e reja të HDMI dhe DisplayPort, për të cilat kemi shkruar më lart në rishikimin e modelit GTX 1080.

Ndryshimet arkitekturore

Karta video GeForce GTX 1070 bazohet në çipin GP104, i pari i gjeneratës së re të arkitekturës grafike Pascal të Nvidia. Kjo arkitekturë bazohet në zgjidhjet e zhvilluara në Maxwell, por gjithashtu ka disa dallime funksionale, për të cilat kemi shkruar në detaje më lart - në pjesën e dedikuar për kartën video të nivelit të lartë GeForce GTX 1080.

Ndryshimi kryesor në arkitekturën e re ishte procesi teknologjik me të cilin do të prodhohen të gjitha GPU-të e reja. Përdorimi i procesit FinFET 16 nm në prodhimin e GP104 bëri të mundur rritjen e konsiderueshme të kompleksitetit të çipit duke ruajtur një zonë dhe kosto relativisht të ulët, dhe çipi i parë i arkitekturës Pascal ka një numër dukshëm më të madh të njësive të ekzekutimit, duke përfshirë ato duke ofruar funksionalitet të ri, krahasuar me çipat Maxwell me pozicionim të ngjashëm.

Dizajni i çipit video GP104 është i ngjashëm me zgjidhjet e ngjashme të arkitekturës Maxwell, dhe mund të gjeni informacion të detajuar rreth dizajnit të GPU-ve moderne në rishikimet tona të zgjidhjeve të mëparshme Nvidia. Ashtu si GPU-të e mëparshme, çipat e rinj të arkitekturës do të kenë konfigurime të ndryshme të Clusterit të Përpunimit Grafik (GPC), Streaming Multiprocessor (SM) dhe kontrollorëve të memories, dhe GeForce GTX 1070 tashmë ka pësuar disa ndryshime - një pjesë e çipit është bllokuar dhe joaktive ( theksuar me gri):

Megjithëse GP104 GPU përfshin katër grupe GPC dhe 20 multiprocesorë SM, në versionin për GeForce GTX 1070 ai mori një modifikim të zhveshur me një grup GPC të çaktivizuar nga hardueri. Meqenëse çdo grup GPC ka një motor rasterizimi të dedikuar dhe përfshin pesë multiprocesorë SM, dhe çdo multiprocesor përbëhet nga 128 bërthama CUDA dhe tetë TMU, ky version i GP104 ka 1920 bërthama CUDA dhe 120 TMU aktive nga 2560 procesorë të transmetimit dhe 160 blloqe tekstesh të disponueshme fizikisht. .

GPU-ja mbi të cilën bazohet GeForce GTX 1070 përmban tetë kontrollues memorie 32-bitësh, duke dhënë një autobus memorie totale 256-bit - saktësisht të njëjtë me modelin më të vjetër GTX 1080. Nënsistemi i memories nuk është shkurtuar për të siguruar mjaftueshëm memorie me gjerësi të lartë brezi me kushtin e përdorimit të memories GDDR5 në GeForce GTX 1070. Secili nga kontrollorët e memories shoqërohet me tetë blloqe ROP dhe 256 KB memorie të nivelit të dytë, kështu që çipi GP104 në këtë modifikim përmban gjithashtu 64 blloqe ROP dhe 2048 KB e nivelit të cache-it të nivelit të dytë.

Falë optimizimeve arkitekturore dhe një teknologjie të re të procesit, GPU GP104 është GPU-ja më efikase e energjisë deri më sot. Inxhinierët e Nvidia ishin në gjendje të rrisnin shpejtësinë e orës më shumë sesa prisnin kur kalonin në një teknologji të re procesi, për të cilën u duhej të punonin shumë për të kontrolluar dhe optimizuar me kujdes të gjitha pengesat e zgjidhjeve të mëparshme që nuk i lejonin ata të punonin në frekuenca më të larta. Prandaj, GeForce GTX 1070 gjithashtu funksionon me një frekuencë shumë të lartë, më shumë se 40% më e lartë se vlera e referencës për GeForce GTX 970.

Meqenëse modeli GeForce GTX 1070 është, në thelb, vetëm një GTX 1080 pak më pak i fuqishëm me memorie GDDR5, ai mbështet absolutisht të gjitha teknologjitë që përshkruam në seksionin e mëparshëm. Për të mësuar më shumë rreth arkitekturës Pascal, si dhe teknologjive që ajo mbështet, si p.sh. njësitë e përmirësuara të prodhimit dhe përpunimit të videos, mbështetja Async Compute, teknologjia Simultaneous Multi-Projection, ndryshimet në interpretimin me shumë çipa SLI dhe lloji i ri Fast Sync, ia vlen ta shikoni me një seksion në GTX 1080.

Kujtesa GDDR5 me performancë të lartë dhe përdorimi efikas i saj

Ne shkruam më lart për ndryshimet në nënsistemin e kujtesës së procesorit grafik GP104, mbi të cilin bazohen GeForce GTX 1080 dhe GTX 1070 - kontrollorët e memories të përfshira në këtë GPU mbështesin të dy llojin e ri të memories video GDDR5X, i cili përshkruhet në detaje në rishikimi GTX 1080 dhe memoria e vjetër e mirë GDDR5, e njohur për ne prej disa vitesh.

Për të mos humbur shumë në gjerësinë e brezit të memories në modelin më të ri GTX 1070 në krahasim me GTX 1080 më të vjetër, ai i la aktivë të tetë kontrollorët e memories 32-bit, duke i dhënë atij një ndërfaqe të plotë të memories video të zakonshme 256-bit. Për më tepër, karta video ishte e pajisur me memorien GDDR5 me shpejtësinë më të lartë që ishte e disponueshme në treg - me një frekuencë funksionimi efektiv prej 8 GHz. E gjithë kjo siguroi një gjerësi brezi memorie prej 256 GB/s, në kontrast me 320 GB/s për zgjidhjen më të vjetër - aftësitë llogaritëse gjithashtu u reduktuan përafërsisht me të njëjtën sasi, kështu që balanca u ruajt.

Mos harroni se ndërsa xhiroja teorike maksimale është e rëndësishme për performancën e GPU-së, duhet t'i kushtoni vëmendje edhe asaj se sa me efikasitet po përdoret. Gjatë procesit të paraqitjes, shumë pengesa të ndryshme mund të kufizojnë performancën e përgjithshme, duke parandaluar përdorimin e të gjithë gjerësisë së brezit të disponueshëm. Për të minimizuar këto pengesa, GPU-të përdorin kompresim special pa humbje për të përmirësuar efikasitetin e operacioneve të leximit dhe shkrimit të të dhënave.

Arkitektura Pascal ka prezantuar tashmë gjeneratën e katërt të kompresimit delta të informacionit buffer, duke i lejuar GPU-së të përdorë në mënyrë më efikase aftësitë e disponueshme të autobusit të kujtesës video. Nënsistemi i memories në GeForce GTX 1070 dhe GTX 1080 përdor teknika të përmirësuara të vjetra dhe disa të reja të kompresimit të të dhënave pa humbje, të dizajnuara për të reduktuar kërkesat e gjerësisë së brezit. Kjo zvogëlon sasinë e të dhënave të shkruara në memorie, përmirëson efikasitetin e cache L2 dhe zvogëlon sasinë e të dhënave të dërguara midis pikave të ndryshme në GPU, si TMU dhe framebuffer.

GPU Boost 3.0 dhe veçoritë e mbingarkesës

Shumica e partnerëve të Nvidia kanë njoftuar tashmë zgjidhje të mbicllokuara nga fabrika bazuar në GeForce GTX 1080 dhe GTX 1070. Dhe shumë prodhues të kartave video po krijojnë gjithashtu mjete speciale për mbingarkesë që ju lejojnë të përdorni funksionalitetin e ri të teknologjisë GPU Boost 3.0. Një shembull i shërbimeve të tilla është EVGA Precision XOC, i cili përfshin një skaner automatik për të përcaktuar kurbën e tensionit-frekuencës - në këtë mënyrë, për secilën vlerë të tensionit, duke kryer një test stabiliteti, gjendet një frekuencë e qëndrueshme në të cilën GPU siguron performancë të rritur. . Megjithatë, kjo kurbë mund të ndryshohet me dorë.

Ne e njohim mirë teknologjinë GPU Boost nga kartat e mëparshme video Nvidia. Në GPU-të e tyre, ata përdorin këtë veçori harduerike të krijuar për të rritur shpejtësinë e orës së funksionimit të GPU-së në mënyrat kur ajo nuk ka arritur ende kufijtë e konsumit të energjisë dhe shpërndarjes së nxehtësisë. Në GPU-të Pascal, ky algoritëm ka pësuar disa ndryshime, kryesore prej të cilave ka qenë një vendosje më e mirë e frekuencave turbo, në varësi të tensionit.

Nëse më parë ndryshimi midis frekuencës bazë dhe frekuencës turbo ishte fiksuar, atëherë në GPU Boost 3.0 u bë e mundur të vendosni kompensimet e frekuencës turbo për secilën tension veç e veç. Tani frekuenca turbo mund të vendoset për secilën nga vlerat individuale të tensionit, gjë që ju lejon të shtrydhni plotësisht të gjitha aftësitë e mbingarkesës nga GPU. Ne kemi shkruar për këtë veçori në detaje në rishikimin tonë të GeForce GTX 1080 dhe ju mund të përdorni shërbimet EVGA Precision XOC dhe MSI Afterburner për ta bërë këtë.

Meqenëse disa detaje kanë ndryshuar në metodologjinë e mbingarkesës me lëshimin e kartave video që mbështesin GPU Boost 3.0, Nvidia duhej të bënte shpjegime shtesë në udhëzimet për mbingarkimin e produkteve të reja. Ekzistojnë teknika të ndryshme të mbingarkesës me variabla të ndryshëm që ndikojnë në rezultatin përfundimtar. Një metodë e veçantë mund të jetë më e përshtatshme për çdo sistem specifik, por bazat janë gjithmonë afërsisht të njëjta.

Shumë overclockers përdorin standardin Unigine Heaven 4.0 për të kontrolluar stabilitetin e sistemit, i cili ngarkon në mënyrë të përsosur GPU-në me punë, ka cilësime fleksibël dhe mund të lansohet në modalitetin e dritareve së bashku me një dritare shërbimi mbingarkesëje dhe monitorimi aty pranë, si EVGA Precision ose MSI Afterburner. Sidoqoftë, një kontroll i tillë është i mjaftueshëm vetëm për vlerësimet fillestare, dhe për të konfirmuar me vendosmëri stabilitetin e mbingarkesës, duhet të kontrollohet në disa aplikacione lojrash, sepse lojëra të ndryshme kërkojnë ngarkesa të ndryshme në blloqe të ndryshme funksionale të GPU: matematikore, teksturë, gjeometrike. . Standardi Heaven 4.0 është gjithashtu i përshtatshëm për detyrat e mbingarkesës, sepse ka një mënyrë funksionimi me unazë, në të cilën është i përshtatshëm për të ndryshuar cilësimet e mbingarkesës dhe ekziston një pikë referimi për vlerësimin e rritjes së shpejtësisë.

Nvidia rekomandon ekzekutimin e Heaven 4.0 dhe EVGA Precision XOC së bashku kur mbingarkohen kartat e reja video GeForce GTX 1080 dhe GTX 1070. Së pari, këshillohet që menjëherë të rrisni shpejtësinë e ventilatorit. Dhe për mbingarkesë serioze, mund të vendosni menjëherë vlerën e shpejtësisë në 100%, gjë që do ta bëjë kartën video shumë të zhurmshme, por do të ftoh GPU-në dhe përbërësit e tjerë të kartës video sa më shumë që të jetë e mundur, duke ulur temperaturën në nivelin më të ulët të mundshëm , parandalimi i mbytjes (një ulje e frekuencave për shkak të rritjes së temperaturës së GPU mbi një vlerë të caktuar).

Tjetra, duhet të vendosni gjithashtu objektivin e fuqisë në maksimum. Ky cilësim do të sigurojë sasinë maksimale të energjisë për GPU-në, duke rritur nivelin e konsumit të energjisë dhe objektivin e temperaturës së GPU-së. Për disa qëllime, vlera e dytë mund të ndahet nga ndryshimi i objektivit të energjisë dhe më pas këto cilësime mund të rregullohen individualisht - për shembull, për të arritur më pak ngrohje të çipit video.

Hapi tjetër është rritja e vlerës së rritjes së frekuencës së çipit video (GPU Clock Offset) - kjo do të thotë se sa më e lartë do të jetë frekuenca turbo gjatë funksionimit. Kjo vlerë rrit frekuencën për të gjitha tensionet dhe rezulton në performancë më të mirë. Si gjithmonë, gjatë mbingarkesës, duhet të kontrolloni për qëndrueshmëri duke rritur frekuencën e GPU-së me hapa të vegjël - nga 10 MHz në 50 MHz për hap përpara se të vëreni belbëzimin, gabimet e drejtuesit ose aplikacionit, apo edhe objekte vizuale. Kur të arrihet ky kufi, duhet të zvogëloni vlerën e frekuencës një hap më poshtë dhe të kontrolloni edhe një herë stabilitetin dhe performancën gjatë mbingarkesës.

Përveç frekuencës GPU, mund të rrisni edhe frekuencën e kujtesës video (Memory Clock Offset), e cila është veçanërisht e rëndësishme në rastin e GeForce GTX 1070, i pajisur me memorie GDDR5, e cila zakonisht mbingarkohet mirë. Procesi në rastin e frekuencës së funksionimit të memories përsërit saktësisht atë që bëhet kur gjen një frekuencë të qëndrueshme GPU, ndryshimi i vetëm është se hapat mund të bëhen më të mëdhenj - duke shtuar 50-100 MHz menjëherë në frekuencën bazë.

Përveç hapave të përshkruar më sipër, mund të rrisni edhe kufirin e tensionit (Mbitensioni), sepse frekuenca më të larta të GPU-së shpesh arrihen në tensione më të larta kur pjesët e paqëndrueshme të GPU-së marrin energji shtesë. Vërtetë, një disavantazh i mundshëm i rritjes së kësaj vlere është mundësia e dëmtimit të çipit video dhe dështimi i përshpejtuar, kështu që duhet të përdorni rritjen e tensionit me kujdes ekstrem.

Të apasionuarit pas tejkalimit përdorin teknika paksa të ndryshme, duke ndryshuar parametrat në renditje të ndryshme. Për shembull, disa overclockers ndajnë eksperimente në gjetjen e një frekuence të qëndrueshme të GPU-së dhe kujtesës në mënyrë që ato të mos ndërhyjnë me njëri-tjetrin, dhe më pas testojnë mbingarkimin e kombinuar të çipit video dhe çipeve të memories, por këto janë detaje të parëndësishme të një individi. qasje.

Duke gjykuar nga opinionet në forume dhe komentet e artikujve, disa përdoruesve nuk u pëlqeu algoritmi i ri i funksionimit të GPU Boost 3.0, kur frekuenca e GPU-së së pari ngrihet shumë lart, shpesh mbi frekuencën turbo, por më pas, nën ndikimin e rritjes së temperaturave të GPU ose rritja e konsumit të energjisë mbi kufirin e caktuar, mund të bjerë në vlera dukshëm më të ulëta. Këto janë vetëm specifikat e algoritmit të përditësuar, ju duhet të mësoheni me sjelljen e re të frekuencës dinamike të GPU, por kjo nuk ka ndonjë pasojë negative.

Karta video GeForce GTX 1070 u bë modeli i dytë pas GTX 1080 në linjën e re të Nvidia bazuar në procesorët grafikë të familjes Pascal. Teknologjia e re e procesit FinFET 16 nm dhe optimizimet e arkitekturës lejuan që kartela video e paraqitur të arrijë shpejtësi të larta të orës, gjë që ndihmohet edhe nga gjenerata e re e teknologjisë GPU Boost. Edhe përkundër numrit të reduktuar të njësive funksionale në formën e përpunuesve të rrjedhës dhe moduleve të teksturës, numri i tyre mbetet i mjaftueshëm që GTX 1070 të bëhet zgjidhja më fitimprurëse dhe me efikasitet energjie.

Instalimi i memories GDDR5 në çiftin më të ri të modeleve të kartave video Nvidia të lëshuara në çipin GP104, ndryshe nga lloji i ri GDDR5X që dallon GTX 1080, nuk e pengon atë të arrijë tregues të lartë të performancës. Së pari, Nvidia vendosi të mos shkurtojë autobusin e memories së modelit GeForce GTX 1070, dhe së dyti, instaloi memorien më të shpejtë GDDR5 me një frekuencë efektive prej 8 GHz, e cila është vetëm pak më e ulët se 10 GHz e GDDR5X e përdorur në më të vjetrat. model. Duke marrë parasysh algoritmet e përmirësuar të kompresimit delta, gjerësia e brezit efektiv të memories së GPU-së është bërë më e lartë se ajo e modelit të ngjashëm të gjeneratës së mëparshme GeForce GTX 970.

GeForce GTX 1070 është i mirë sepse ofron performancë shumë të lartë dhe mbështetje për veçori dhe algoritme të reja me një çmim dukshëm më të ulët në krahasim me modelin e vjetër të shpallur pak më herët. Nëse vetëm disa entuziastë mund të përballojnë blerjen e një GTX 1080 për 55,000, atëherë një rreth shumë më i madh blerësish potencialë do të jenë në gjendje të paguajnë 35,000 për vetëm një çerek zgjidhje më pak produktive me të njëjtat aftësi. Ishte kombinimi i një çmimi relativisht të ulët dhe performancës së lartë që e bëri GeForce GTX 1070 ndoshta blerjen më fitimprurëse në kohën e lëshimit të tij.

Përshpejtuesi grafik GeForce GTX 1060

ParametriKuptimi
Emri i kodit të çipitGP106
Teknologjia e prodhimit16 nm FinFET
Numri i tranzistorëve4.4 miliardë
Zona kryesore200 mm²
ArkitekturëUnifikuar, me një sërë përpunuesish të zakonshëm për përpunimin në rrjedhë të llojeve të shumta të të dhënave: kulme, pikselë, etj.
Mbështetje harduerike DirectXDirectX 12, që mbështet Nivelin e Veçorisë 12_1
Autobusi i kujtesës192-bit: gjashtë kontrollues të pavarur të memories 32-bit që mbështesin memorien GDDR5
Frekuenca e GPU-së1506 (1708) MHz
Blloqe llogaritëse10 multiprocesorë streaming, duke përfshirë 1280 ALU skalare për llogaritjet me pikë lundruese brenda kuadrit të standardit IEEE 754-2008;
Blloqe teksturuese80 njësi për adresimin dhe filtrimin e teksturave me mbështetje për komponentët FP16 dhe FP32 në tekstura dhe mbështetje për filtrimin trilinear dhe anizotropik për të gjitha formatet e teksturave
Blloqet e funksionimit raster (ROP)6 blloqe të gjera ROP (48 pikselë) me mbështetje për mënyra të ndryshme anti-aliasing, duke përfshirë të programueshëm dhe me format buffer të kornizës FP16 ose FP32. Blloqet përbëhen nga një grup ALU-sh të konfigurueshme dhe janë përgjegjës për gjenerimin dhe krahasimin e thellësisë, marrjen e shumë mostrave dhe përzierjen
Monitoroni mbështetjenMbështetje e integruar për deri në katër monitorë të lidhur nëpërmjet ndërfaqeve Dual Link DVI, HDMI 2.0b dhe DisplayPort 1.2 (1.3/1.4 Ready)

Specifikimet e kartës grafike të referencës GeForce GTX 1060
ParametriKuptimi
Frekuenca kryesore1506 (1708) MHz
Numri i procesorëve universal1280
Numri i blloqeve të teksturës80
Numri i blloqeve të përzierjes48
Frekuenca efektive e kujtesës8000 (4×2000) MHz
Lloji i memoriesGDDR5
Autobusi i kujtesës192-bit
Kujtesa6 GB
Gjerësia e brezit të memories192 GB/s
Performanca llogaritëse (FP32)rreth 4 teraflops
Norma maksimale teorike e mbushjes72 gigapiksel/s
Shkalla teorike e mostrimit të teksturës121 gigateksel/s
GomaPCI Express 3.0
LidhësNjë DVI Dual Link, një HDMI dhe tre DisplayPort
Konsumi tipik i energjisë120 W
Ushqim shtesëNjë lidhës me 6 pin
Numri i lojërave elektronike të zëna në kutinë e sistemit2
Çmimi i rekomanduar249 dollarë (299 dollarë) në SHBA dhe 18,990 në Rusi

Karta video GeForce GTX 1060 mori gjithashtu një emër të ngjashëm me të njëjtën zgjidhje nga seria e mëparshme GeForce, duke ndryshuar nga emri i paraardhësit të tij të drejtpërdrejtë GeForce GTX 960 vetëm në shifrën e parë të ndryshuar të gjeneratës. Produkti i ri në linjën aktuale të kompanisë është një hap më i ulët se zgjidhja e lëshuar më parë GeForce GTX 1070, e cila është mesatare në shpejtësi në serinë e re.

Çmimet e rekomanduara për video kartën e re të Nvidia janë 249 dollarë dhe 299 dollarë për versionet e rregullta të partnerëve të kompanisë dhe për versionin special Founder's, respektivisht. Krahasuar me dy modelet më të vjetra, ky është një çmim shumë i favorshëm, pasi modeli i ri GTX 1060, edhe pse inferior ndaj tabelave të nivelit të lartë, nuk është pothuajse aq më i lirë se ata. Në kohën e shpalljes së tij, produkti i ri u bë padyshim zgjidhja me performancën më të mirë në klasën e tij dhe një nga ofertat më të favorshme në këtë gamë çmimesh.

Ky model i kartës video të familjes Pascal nga Nvidia doli për të kundërshtuar zgjidhjen e freskët të kompanisë konkurruese AMD, e cila pak më herët lançoi në treg Radeon RX 480. Ju mund ta krahasoni produktin e ri Nvidia me këtë kartë video krejtësisht drejtpërdrejt, pasi ato janë ende dukshëm të ndryshme në çmim. GeForce GTX 1060 është më i shtrenjtë (249-299 dollarë kundrejt 199-229 dollarë), por është gjithashtu qartësisht më i shpejtë se konkurrenti i tij.

Procesori grafik GP106 ka një autobus memorie 192-bit, kështu që sasia e memories së instaluar në një kartë video me një autobus të tillë mund të jetë 3 ose 6 GB. Një vlerë më e vogël në kushtet moderne sinqerisht nuk është e mjaftueshme, dhe shumë projekte lojërash, madje edhe në rezolucion Full HD, do të kenë mungesë të memories video, e cila do të ndikojë seriozisht në butësinë e interpretimit. Për të siguruar performancën maksimale të zgjidhjes së re në cilësime të larta, modeli i kartës video GeForce GTX 1060 ishte i pajisur me 6 GB memorie video, e cila është e mjaftueshme për të ekzekutuar çdo aplikacion 3D me çdo cilësim cilësor. Për më tepër, sot thjesht nuk ka asnjë ndryshim midis 6 dhe 8 GB, dhe një zgjidhje e tillë do të kursejë disa para.

Konsumi tipik i energjisë për produktin e ri është 120 W, që është 20% më pak se vlera për GTX 1070 dhe e barabartë me konsumin e energjisë së kartës video GeForce GTX 960 të gjeneratës së mëparshme, e cila ka performancë dhe aftësi shumë më të ulëta. Pllaka e referencës ka grupin e zakonshëm të lidhësve për lidhjen e pajisjeve të daljes së imazhit: një Dual-Link DVI, një HDMI dhe tre DisplayPort. Për më tepër, ka mbështetje për versionet e reja të HDMI dhe DisplayPort, për të cilat kemi shkruar në rishikimin e modelit GTX 1080.

Gjatësia e tabelës së referencës GeForce GTX 1060 është 9,8 inç (25 cm), dhe ndër ndryshimet nga versionet më të vjetra, veçmas vërejmë se GeForce GTX 1060 nuk mbështet konfigurimin e interpretimit me shumë çipa SLI dhe nuk ka një të veçantë lidhës për këtë. Meqenëse bordi konsumon më pak energji se modelet më të vjetra, një lidhës i jashtëm i energjisë PCI-E me 6 pin është instaluar në tabelë për fuqi shtesë.

Kartat video GeForce GTX 1060 janë shfaqur në treg që nga dita e shpalljes në formën e produkteve nga partnerët e kompanisë: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Një edicion special i GeForce GTX 1060 Founder's Edition, i prodhuar nga vetë Nvidia, do të dalë gjithashtu në sasi të kufizuar, i cili do të shitet me një çmim prej 299 dollarë ekskluzivisht në faqen e internetit të Nvidia dhe nuk do të prezantohet zyrtarisht në Rusi. Edicioni i Themeluesit përmban materiale dhe komponentë me cilësi të lartë, duke përfshirë një shasi alumini, një sistem efikas ftohjeje, qarqe të fuqisë me rezistencë të ulët dhe rregullatorë të tensionit të projektuar me porosi.

Ndryshimet arkitekturore

Karta video GeForce GTX 1060 bazohet në një model plotësisht të ri të procesorit grafik GP106, i cili funksionalisht nuk ndryshon nga i parëlinduri i arkitekturës Pascal në formën e çipit GP104, mbi të cilin janë modelet GeForce GTX 1080 dhe GTX 1070 të përshkruara më sipër. e bazuar Kjo arkitekturë bazohet në zgjidhjet e zhvilluara në Maxwell, por gjithashtu ka disa dallime funksionale, për të cilat kemi shkruar në detaje më herët.

Çipi video GP106 është i ngjashëm në dizajn me çipin më të lartë Pascal dhe zgjidhjet e ngjashme të arkitekturës Maxwell, dhe informacione të hollësishme rreth dizajnit të GPU-ve moderne mund të gjenden në rishikimet tona të zgjidhjeve të mëparshme Nvidia. Ashtu si GPU-të e mëparshme, çipat e rinj të arkitekturës kanë konfigurime të ndryshme të grupeve kompjuterike të Clusterit të Përpunimit Grafik (GPC), Multiprocesorëve Streaming (SM) dhe kontrolluesve të memories:

Procesori grafik GP106 përfshin dy grupe GPC të përbëra nga 10 multiprocesorë streaming (Streaming Multiprocessor - SM), domethënë saktësisht gjysma e asaj që disponohet në GP104. Ashtu si në GPU-në e vjetër, çdo multiprocesor përmban 128 bërthama llogaritëse, 8 njësi teksture TMU, 256 KB memorie regjistri, 96 KB memorie të përbashkët dhe 48 KB memorie të nivelit të parë. Si rezultat, GeForce GTX 1060 përmban gjithsej 1280 bërthama përpunuese dhe 80 njësi teksture - gjysma e numrit të GTX 1080.

Por nënsistemi i memories së GeForce GTX 1060 nuk u përgjysmua në krahasim me zgjidhjen më të lartë, ai përmban gjashtë kontrollues memorie 32-bitësh, duke dhënë një autobus memorie përfundimtare 192-bit. Me një frekuencë efektive të memories video GDDR5 për GeForce GTX 1060 të barabartë me 8 GHz, gjerësia e brezit arrin 192 GB/s, gjë që është mjaft e mirë për një zgjidhje në këtë segment çmimesh, veçanërisht duke pasur parasysh efikasitetin e lartë të përdorimit të tij në Pascal. Secili nga kontrollorët e memories ka tetë blloqe ROP dhe 256 KB cache L2, kështu që në përgjithësi versioni i plotë GPU GP106 përmban 48 njësi ROP dhe 1536 KB L2 cache.

Për të reduktuar kërkesat për gjerësinë e brezit të kujtesës dhe për të përdorur më efikas arkitekturën Pascal, kompresimi pa humbje në çip është përmirësuar më tej, i aftë për të kompresuar të dhënat në buferë për përfitime në efikasitet dhe performancë. Në veçanti, metodat e reja të kompresimit delta me një raport 4:1 dhe 8:1 iu shtuan çipave të familjes së re, duke siguruar një efikasitet shtesë prej 20% të gjerësisë së brezit në krahasim me zgjidhjet e mëparshme të familjes Maxwell.

Frekuenca bazë e GPU-së së re është 1506 MHz - frekuenca nuk duhet të bjerë nën këtë shenjë në parim. Frekuenca tipike turbo (Boost Clock) është shumë më e lartë dhe është e barabartë me 1708 MHz - kjo është vlera mesatare e frekuencës reale në të cilën funksionon çipi grafik GeForce GTX 1060 në një gamë të gjerë lojërash dhe aplikacionesh 3D. Frekuenca aktuale e Boost varet nga loja dhe kushtet e testimit.

Ashtu si pjesa tjetër e familjes Pascal, GeForce GTX 1060 jo vetëm që funksionon me një shpejtësi të lartë të orës, duke ofruar performancë të lartë, por gjithashtu ka një hapësirë ​​të mirë mbingarkesë. Eksperimentet e para tregojnë mundësinë e arritjes së frekuencave prej rreth 2 GHz. Nuk është për t'u habitur që partnerët e kompanisë po përgatisin gjithashtu versione të mbingarkuar në fabrikë të kartës video GTX 1060.

Pra, ndryshimi kryesor në arkitekturën e re ishte procesi teknologjik 16 nm FinFET, përdorimi i të cilit në prodhimin e GP106 bëri të mundur rritjen e konsiderueshme të kompleksitetit të çipit duke ruajtur një zonë relativisht të ulët prej 200 mm², prandaj ky çip i arkitekturës Pascal ka një numër dukshëm më të madh të njësive të ekzekutimit në krahasim me një çip Maxwell me pozicionim të ngjashëm, të prodhuar duke përdorur teknologjinë e procesit 28 nm.

Nëse GM206 (GTX 960) me një sipërfaqe prej 227 mm² kishte 3 miliardë transistorë dhe 1024 ALU, 64 TMU, 32 ROP dhe një autobus 128-bit, atëherë GPU-ja e re përmbante 4.4 miliardë transistorë, 1280 ALU në 200 mm². 80 TMU dhe 48 ROP me një autobus 192-bit. Për më tepër, në frekuencë pothuajse një herë e gjysmë më të lartë: 1506 (1708) kundrejt 1126 (1178) MHz. Dhe kjo është me të njëjtin konsum të energjisë prej 120 W! Si rezultat, GPU GP106 u bë një nga GPU-të më efikase në energji, së bashku me GP104.

Teknologjitë e reja Nvidia

Një nga teknologjitë më interesante të kompanisë, e cila mbështetet nga GeForce GTX 1060 dhe zgjidhje të tjera të familjes Pascal, është teknologjia. Nvidia Multi-Projection Simultaneous. Ne kemi shkruar tashmë për këtë teknologji në rishikimin tonë të GeForce GTX 1080, ajo ju lejon të përdorni disa teknika të reja për të optimizuar paraqitjen; Në veçanti, për të projektuar njëkohësisht një imazh VR për të dy sytë në të njëjtën kohë, duke rritur në masë të madhe efikasitetin e përdorimit të GPU-së në realitetin virtual.

Për të mbështetur SMP, të gjitha GPU-të e familjes Pascal kanë një motor të veçantë, i cili ndodhet në Motorin PolyMorph në fund të tubacionit të gjeometrisë përpara njësisë së rasterizimit. Me ndihmën e tij, GPU mund të projektojë njëkohësisht një primitiv gjeometrik në disa projeksione nga një pikë e vetme, dhe këto projeksione mund të jenë stereo (d.m.th., deri në 16 ose 32 projeksione mbështeten njëkohësisht). Kjo aftësi lejon që GPU-të e Pascal të riprodhojnë me saktësi sipërfaqet e lakuara për paraqitjen e VR, si dhe të shfaqin saktë në sistemet me shumë monitorë.

Është e rëndësishme që teknologjia Simultaneous Multi-Projection tashmë është duke u integruar në motorët e lojërave të njohura (Unreal Engine dhe Unity) dhe lojërat, dhe deri më tani mbështetja teknologjike është njoftuar për më shumë se 30 lojëra në zhvillim, duke përfshirë të tilla projektet e famshme, si Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft dhe Raw Data. Është interesante se megjithëse Unreal Tournament nuk është një lojë VR, ai përdor SMP për të arritur imazhe me cilësi më të lartë dhe për të përmirësuar performancën.

Një tjetër teknologji e shumëpritur është një mjet i fuqishëm për krijimin e pamjeve të ekranit në lojëra. Nvidia Ansel. Ky mjet ju lejon të krijoni pamje të pazakonta dhe me cilësi shumë të lartë nga lojërat, me veçori të padisponueshme më parë, duke i ruajtur ato në rezolucion shumë të lartë dhe duke i plotësuar me efekte të ndryshme dhe të ndani krijimet tuaja. Ansel ju lejon të ndërtoni fjalë për fjalë një pamje të ekranit ashtu siç dëshiron artisti, duke ju lejuar të instaloni një aparat fotografik me çdo parametër kudo në skenë, të aplikoni filtra të fuqishëm post-filtra në imazh ose madje të bëni një foto 360 gradë për ta parë në një helmeta e realitetit virtual.

Nvidia ka standardizuar integrimin e Ansel UI në lojëra dhe është aq e lehtë sa të shtosh disa rreshta kodi. Nuk ka nevojë të prisni që kjo veçori të shfaqet në lojëra, ju mund të vlerësoni aftësitë e Ansel tani në lojën Mirror's Edge: Catalyst, dhe pak më vonë ajo do të bëhet e disponueshme në Witcher 3: Wild Hunt. Përveç kësaj, ka shumë projekte lojërash në zhvillim me mbështetjen e Ansel, duke përfshirë lojëra të tilla si Fortnite, Paragon dhe Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky dhe të tjera.

Gjithashtu GPU-ja e re GeForce GTX 1060 mbështet paketën e veglave Nvidia VRWorks, i cili ndihmon zhvilluesit të krijojnë projekte mbresëlënëse të realitetit virtual. Kjo paketë përfshin shumë shërbime dhe mjete për zhvilluesit, duke përfshirë VRWorks Audio, e cila ju lejon të kryeni llogaritjet shumë të sakta të reflektimeve të valëve të zërit nga objektet në skenë duke përdorur gjurmimin e rrezeve në GPU. Paketa përfshin gjithashtu integrimin në efektet fizike VR dhe PhysX për të siguruar sjelljen fizikisht korrekte të objekteve në skenë.

Një nga lojërat më emocionuese VR për të përfituar nga VRWorks është VR Funhouse, loja e realitetit virtual të Nvidia-s, e cila ofrohet falas në shërbimin Steam të Valve. Kjo lojë bazohet në Unreal Engine 4 (Epic Games), dhe funksionon në kartat video GeForce GTX 1080, 1070 dhe 1060 në lidhje me kufjet HTC Vive VR. Për më tepër, kodi burimor i kësaj loje do të jetë i disponueshëm publikisht, gjë që do t'i lejojë zhvilluesit e tjerë të përdorin ide dhe kode të gatshme në atraksionet e tyre VR. Merrni fjalën tonë për të, ky është një nga demonstrimet më mbresëlënëse të fuqisë së realitetit virtual.

Falë gjithashtu teknologjive SMP dhe VRWorks, përdorimi i procesorit grafik GeForce GTX 1060 në aplikacionet VR siguron performancë mjaft të mjaftueshme për realitetin virtual të nivelit fillestar dhe GPU-ja në fjalë plotëson nivelin minimal të kërkuar të harduerit, duke përfshirë edhe për SteamVR, duke u bërë një nga blerjet më të suksesshme për përdorim në sistemet me mbështetje zyrtare VR.

Meqenëse modeli GeForce GTX 1060 bazohet në çipin GP106, i cili nuk është në asnjë mënyrë inferior në aftësi ndaj procesorit grafik GP104, i cili u bë baza për modifikimet më të vjetra, ai mbështet absolutisht të gjitha teknologjitë që përshkruam më lart.

Karta video GeForce GTX 1060 është bërë modeli i tretë në linjën e re të Nvidia-s, bazuar në procesorët grafikë të familjes Pascal. Procesi i ri teknologjik 16 nm FinFET dhe optimizimet e arkitekturës lejuan që të gjitha kartat e reja video të arrijnë shpejtësi të larta të orës dhe të akomodojnë një numër më të madh njësive funksionale në GPU në formën e procesorëve të transmetimit, moduleve të teksturës dhe të tjerëve, krahasuar me çipat video të gjeneratës së mëparshme. Kjo është arsyeja pse modeli GTX 1060 është bërë zgjidhja më fitimprurëse dhe më efikase në energji në klasën e tij dhe në përgjithësi.

Është veçanërisht e rëndësishme që GeForce GTX 1060 të ofrojë performancë mjaft të lartë dhe mbështetje për veçori dhe algoritme të reja me një çmim dukshëm më të ulët në krahasim me zgjidhjet e vjetra GP104. Çipi grafik GP106 i modelit të ri ofron performancë dhe efikasitet të energjisë kryesuese në klasë. Modeli GeForce GTX 1060 është projektuar posaçërisht dhe është i përsosur për të gjitha lojërat moderne me cilësime grafike të larta dhe maksimale me një rezolucion prej 1920x1080 dhe madje edhe me anti-aliasing në ekran të plotë të aktivizuar duke përdorur metoda të ndryshme (FXAA, MFAA ose MSAA).

Dhe për ata që duan performancë edhe më të mirë me ekrane me rezolucion ultra të lartë, Nvidia ka kartat grafike GeForce GTX 1070 dhe GTX 1080 të nivelit të lartë, të cilat janë gjithashtu shumë të mira në performancë dhe efikasitet energjie. E megjithatë, kombinimi i çmimit të ulët dhe performancës së mjaftueshme e veçon GeForce GTX 1060 nga zgjidhjet më të vjetra. Krahasuar me Radeon RX 480 konkurrues, zgjidhja e Nvidia është pak më e shpejtë me më pak kompleksitet dhe gjurmë GPU, dhe ka efikasitet dukshëm më të mirë të energjisë. Vërtetë, ajo shitet pak më shtrenjtë, kështu që çdo kartë video ka vendin e vet.

E re në faqe

>

Më popullorja