Namai Pasiruošimas žiemai Kada pasirodys nvidia pascal. Vaizdo plokštės. Netvarka ir Paskalio atsiradimo istorija

Kada pasirodys nvidia pascal. Vaizdo plokštės. Netvarka ir Paskalio atsiradimo istorija

Konferencijos su investuotojais metu NVIDIA pristatė įdomią naujos Turing architektūros vaizdo plokščių pardavimo statistiką.

Nepaisant populiaraus įsitikinimo, kad Turingas neparduodamas, tiesa pasirodė priešinga. Bendrovė palygino „Pascal“ ir „Turing“ stalinių vaizdo plokščių, kurių kaina viršija 299 USD, pardavimą per pirmąsias 8 savaites ir padarė išvadą, kad nauji sprendimai buvo parduoti 45% geriau.

Šiuo metu „Turing“ turi 2%, o „Pascal“ turi 50% diegimo bazę ir 48% senų vaizdo plokščių. Bendrovė taip pat pranešė, kad 90% GeForce greitintuvų savininkų vaizdo plokštės yra lėtesnės nei GeForce GTX 1660 Ti.


Taigi, NVIDIA apibendrino, kad jos ateitis atrodo rožinė, nes didžioji dalis žaidėjų ir toliau yra aprūpinami padidinus greitintuvo klasę. Kaip galėtų būti kitaip per susitikimą su investuotojais?

NVIDIA: „Turing“ yra efektyvesnis nei „Vega 20“.

balandžio 25 d

Daugelis tikėjosi, kad GTC metu NVIDIA pristatys Ampere GPU, kuris bus gaminamas pagal 7nm standartus. Bet taip neatsitiko, nes NVIDIA yra visiškai patenkinta Turingu.

Zen-Hsun Huang, NVIDIA įkūrėjas ir generalinis direktorius, teigė, kad jo įmonė nesiekia masinės 7 nm gaminių gamybos, nes turi Turingą. Nors jis pagamintas 12 nm, jis yra daug efektyvesnis nei AMD su 14 nm (Vega 10 = Radeon RX Vega 64) ir net 7 nm (Vega 20 = Radeon VII).

Juanas pareiškė: „Mus ypatingi daro tai, kad galime sukurti visų laikų pasaulyje efektyviausius GPU naudojant įperkamiausias technologijas. Pažiūrėk į Turingą. Energijos vartojimo efektyvumas yra labai geras, kai kurių net 7 nm..

NVIDIA generalinis direktorius Jen-Hsun "Jensen" Huang

AMD buvo pirmasis, pasiekęs 7 nm etaloną GPU gamyboje. Tačiau net ir turėdamas tokią pažangią technologiją „Radeon VII“ negalėjo pasivyti „NVIDIA Turing“ nei efektyvumu, nei našumu. Net 14 nm Pascal yra efektyvesnis nei Vega 20.

Akivaizdu, kad po „Fermi“ kartos nesėkmės NVIDIA inžinieriai atliko puikų darbą pastarosiose procesorių kartose.

NVIDIA suteikia spindulių sekimą senesnėms vaizdo plokštėms ir žaidimų varikliams

kovo 22 d

NVIDIA nusprendė įdiegti realiojo laiko spindulių sekimo funkciją vaizdo plokštėse be RTX aparatinės įrangos palaikymo.

Šiuo metu sekimas galimas tik RTX serijos kortelėms. Po pakeitimų sekimas bus vykdomas visose vaizdo plokštėse, pradedant nuo GTX 1060.

Tačiau bendrovė perspėja, kad bus nemažai apribojimų. Pavyzdžiui, „Battlefield V“ galite gauti geresnę kokybę su minimaliais nuostoliais, o „Metro Exodus“ 1440p raiška našumas gali nukristi iki nepriimtino 18 kadrų per sekundę.


Faktas yra tas, kad „Battlefield V“ sekimas naudojamas atspindžiams, todėl galite sumažinti efektų stiprumą, kad išlaikytumėte našumą. „Metro Exodus“ naudoja sekimą, kad sukurtų itin tikroviškus visuotinio apšvietimo efektus, imituojančius realaus pasaulio šviesą. Tai pirmasis žaidimas, kuris visiškai atskleidžia RTX galimybes. Dėl didelio skaičiavimo intensyvumo GTX kortelės nepajėgia atlikti tokių skaičiavimų, tokią apkrovą gali atlaikyti tik RTX branduoliai.

Dėl šios priežasties RTX kortelės tokiomis sąlygomis veikia 3 kartus greičiau nei GTX 10 serijos. Tačiau „Shadow of the Tomb Raider“ sulėtėjimas sieks 2 kartus, o „Battlefield V“ – 1,6 karto. Situacija su 16xx serijos kortelėmis yra šiek tiek geresnė, nes jos turi sveikų skaičių branduolius.

NVIDIA teigimu, atnaujintą RTX technologiją jau palaiko „Unity“ ir „Unreal Engine“. „Crytek“ neseniai paskelbė apie realiojo laiko spindulių sekimo įdiegimą „CryEngine 5“ bet kurioje vaizdo plokštėje. Be to, NVIDIA nusprendė paremti Christoph Schiedo kūrimą, kuris pradėjo perdaryti seną gerą Quake II, kad palaikytų RTX, ir atnešė pilną spindulių sekimo apdorojimą į dvidešimties metų senumo IdTech2 variklį. Tai pasirodė įspūdinga, spręskite patys:

Išleista galutinė MSI Afterburner 4.6.0 versija

kovo 10 d

Kaip žadėjo Aleksejus Nikolaičiukas, jis išleido galutinį MSI Afterburner 4.6.0 versijos naudingumo variantą, kuris gavo palaikymą naujausioms AMD ir NVIDIA vaizdo plokštėms, taip pat reikšmingus sąsajos pakeitimus ir net naują apvalkalą.

Įjungimo programoje buvo atlikta daugybė pakeitimų. Pats autorius suskaičiavo daugiau nei šimtą. Be „MSI Afterburner“ programos, taip pat buvo atnaujintas „RivaTuner Statistic Server“ stebėjimo įrankis. RTSS programa gavo versijos numerį RTSS 7.2.1.


Žemiau pateikiami svarbiausi MSI Afterburner pakeitimai. Visą sąrašą rasite adresu forumo svetainė 3D guru.

  • Pridėtas Turing architektūros palaikymas, pridėtas įtampos valdymas etaloninėse vaizdo plokštėse; patobulintas GPU Boost valdymas su galimybe valdyti galią ir šilumos išsklaidymą per galios / dažnio grafiką.
  • Pridėtas nepriklausomas kelių gerbėjų palaikymas.
  • Pridėtas NVIDIA skaitytuvo technologijos palaikymas.
  • Pridėta keletas aparatinės įrangos įtampos stebėjimo jutiklių.
  • Pridėtas „Vega 20“ architektūros palaikymas. „Radeon VII“ – „Overdrive 8“, pridėtas dviejų kanalų GPU temperatūros stebėjimas, VRM. Pridėtas GPU apkrovos stebėjimas „Radeon VII“.
  • Pridėtas ventiliatoriaus valdymas AMD Adrenalin 2019 tvarkyklėje.
  • Patobulintas aparatinės įrangos stebėjimo modulis: pridėtas temperatūros poslinkis stebint AMD Ryzen 7 2700X.
  • Puslapio failo naudojimo grafikas buvo pervadintas į Puslapio failo įkėlimas. Pridėtas stebėjimo pranešimas, ar pakeitimus galima pritaikyti visoms arba pasirinktoms stebėjimo diagramoms. Diagramas galima pasirinkti pagal tipą ir grupę per stebėjimo kontekstinį meniu.
  • Ekrano rodymo elementai (OSD – tekstas, grafikas arba derinys) dabar rodomi aktyvaus stebėjimo grafiko ypatybių stulpelyje.
  • Pridėtas programuojamas spartusis klavišas, norint išvalyti stebėjimo istoriją.
  • Mygtukas „Taikyti“ buvo įtrauktas į programos ypatybių langą.
  • Prie stebėjimo kontekstinio meniu pridėtos komandos „Pažymėti maksimumą“ ir „Pažymėti minimumą“.
  • Norėdami užfiksuoti spausdinamą ekrano kopiją, paspauskite F11.
  • Norėdami ištrinti nepageidaujamus grafikus, laikykite nuspaudę Del ir spustelėkite juos pele.
  • Patobulintas OSD redaktorius. Dabar galima rodyti 250 kintamų lizdų. Pridėtas į tekstą įterptų diagramų palaikymas. Grafikai taip pat gali būti dedami ant teksto. Pridėta galimybė pridėti skyriklius.
  • Pridėtas makrokomandų palaikymas, kad būtų galima įtraukti bet kokius duomenis į OSD tekstą (pvz., % CPU temperatūra%).
  • Pridėtas hiperteksto formatavimo palaikymas OSD.
  • Pagerintas HwInfo papildinio palaikymas: prie numatytosios konfigūracijos pridėta UPS apkrova, maitinimas, įvesties įtampa ir akumuliatoriaus lygis.
  • AMD GPU dabar galimas patobulintas dažnio / įtampos redaktorius.
  • Dabar galite naudoti Tab ir Shift + Tab klavišus, kad perjungtumėte dažnio / įtampos kreivės taškus. Sklandus verčių reguliavimas atliekamas aukštyn / žemyn klavišais, o papildomai prispaudus Ctrl, perjungimas atliekamas 10 MHz dažniu.
  • Norėdami redaguoti dažnio poslinkio tašką grafike, paspauskite Enter, paspausdami Shift+Enter galite nustatyti absoliutų tikslinį dažnį.
  • Šiek tiek pakeistas AMD kortelių dažnio/įtampos grafiko klaviatūros valdymas. Anksčiau dažniui reguliuoti buvo naudojami aukštyn/žemyn žymeklio klavišų kombinacijos, o įtampų kairėje/dešinėje – kombinacijos. Dabar dažnis ir įtampa reguliuojami rodyklėmis, o židinys keičiamas PageUp / PageDown.
  • AMD kortelėse, norėdami perkelti visą dažnio / įtampos kreivę, turite laikyti nuspaudę klavišą Alt, kaip ir NVIDIA vaizdo plokštėse.
  • Pridėtas palaikymas anuliuoti / perdaryti naudojant sparčiuosius klavišus Ctrl+Z ir Ctrl+Y. Pritaikius kreivę, pakeitimų istorija išvaloma.
  • Išplėstas įtampos valdymo diapazonas įtampos/dažnio kreivėje. Dabar galite sumažinti GPU įtampą, kad sumažintumėte energijos suvartojimą.
  • Norėdami iš naujo nuskaityti įtampos / dažnio kreivę iš vaizdo plokštės, paspauskite F5.
  • Įtempių ašys grafike dabar keičiamos automatiškai.
  • Patobulintas bendrosios atminties sąsajos aparatinės įrangos valdymas, leidžiantis valdyti dažnio / įtampos grafiką, atlikti išorinį testavimą nepalankiausiomis sąlygomis ir automatinį su MSI Afterburner susijusių programų įsijungimą.
  • Į platinimą įtraukta nauja automatinio įsijungimo programa MSI Overclocking Scanner. Programą galima naudoti NVIDIA GTX 10x0 ir NVIDIA RTX 20x0 vaizdo plokštėse su 64 bitų operacine sistema. Skaitytuvas naudoja NVIDIA integruotą įkrovos testą GPU testavimui nepalankiausiomis sąlygomis.
  • Į OSD įtraukta kadrų dažnio ribotuvo nustatymų grupė. Tai leidžia priskirti sparčiuosius klavišus, kad būtų galima visuotinai įjungti, išjungti ir apytiksliai RivaTuner statistikos serverio metodų kadrų dažnio limitus.
  • Pridėtas procesoriaus topologijos duomenų rodymas sistemos lange.
  • Fiksuota prieiga prie aparatinės įrangos stebėjimo funkcijų AMD Vega GPU. Dabar temperatūros, energijos suvartojimo ir įtampos vertės nėra iškraipytos.
  • Ištaisytas žemo lygio GPU apkrovos stebėjimas AMD Polaris šeimai.
  • Kietojo dažnio daugiklio nustatymas įtampos / dažnio diagramoje buvo pakeistas euristiniu, kuris suteikia vieningą kreivės valdymą Pascal ir naujesniuose GPU.
  • Patobulintas įtampos / dažnio kreivės redaktoriaus sąsajos mastelio keitimas.
  • Patobulintas stebėjimo langų ir kreivių veikimas, kai nustatomos didesnės nei 100 % vertės.
  • Daugiakalbė sąsaja yra apribota skiriamąja geba, o ne OS, todėl esant dideliam pikselių tankiui yra didelis ryškumas.
  • Odos skalė dabar yra asinchroninė. Tai reiškia, kad padidinus odos plotą, vartotojo sąsajos atnaujinimo laikas nesulėtėja.

MSI Afterburner atnaujinta į 4.6.0 beta 10 versiją

2018 m. gruodžio 28 d

Aleksejus Nikolayčukas paskelbė naują savo MSI Afterburner programos beta versiją, kurioje įdiegė laukiamą automatinio įsijungimo funkciją ne tik RTX serijos vaizdo plokštėms, bet ir greitintuvams su Pascal lustu. Be to, buvo pridėtas naujos techninės įrangos palaikymas ir išplėstas palaikomų jutiklių asortimentas, taip pat patobulintas AMD vaizdo plokščių palaikymas.

Štai ką pasakė pats autorius: „Pakeitimai ne tik atnaujino OC skaitytuvą, bet ir palietė patį dažnio / įtampos kreivės redaktorių, tikiuosi, kad jie patiks sistemos energijos suvartojimo mažinimo gerbėjams (tiek NV, tiek AMD). Redagavimo lango dažnio/įtampos ribos dabar yra konfigūruojamos, tad tiems NVIDIA GTX/RTX šeimos vaizdo plokščių savininkams, kurie redaktoriaus lange naudojo minimalios įtampos fiksavimo funkciją, bus lengviau darbinę įtampą nuvaryti dar žemesnę. AMD GPU savininkai dabar taip pat gali naudoti dažnio/įtampos kreivės redaktorių, kad savarankiškai koreguotų P būsenas. Be to, tradiciškai yra daugybė nedidelių stebėjimo nustatymų ir tt patobulinimų, kurie pagerina programinės įrangos naudojimą..


Žemiau pateikiamas įdomiausių pakeitimų sąrašas:

  • Pridėtas monolitinių maitinimo sistemų MP2884A ir MP2888A įtampos valdiklių palaikymas.
  • Pridėtas VRM ir VRM2 temperatūros stebėjimas tinkintoms RTX 2080Ti vaizdo plokštėms. Taip pat buvo išplėstos šių vaizdo plokščių įtampos, GPU dažnio ir atminties valdymo galimybės.
  • Patobulintas aparatinės įrangos stebėjimo modulis:
    • Pridėtas terminis poslinkis AMD Ryzen 7 2700X/ CPU.
    • Ta pati temperatūra dabar klonuojama visuose AMD procesorių branduoliuose.
    • Grafikas „Puslapio failo naudojimas“ buvo pervadintas į „Apmokestinti“.
    • Patobulintas OSD redaktorius.
  • Patobulintas HwInfo papildinys – prie numatytosios konfigūracijos pridėta UPS apkrova, galia, įvesties įtampa ir įkrovimo lygis.
  • Patobulintas įtampos / dažnio redaktorius:
    • Įtampos / dažnio redaktorius dabar galimas AMD GPU. Tai leidžia atskirai redaguoti kiekvienos maitinimo būsenos pagrindinių dažnius ir įtampą.
    • Kaip ir naudojant NVIDIA GPU, dabar kiekvieną įtampos ir dažnio tašką galima reguliuoti atskirai naudojant pelę ir klaviatūrą.
  • Tik skaitymo maitinimo būsenos nebestebimos.
  • Šiek tiek padidintas numatytasis įtampos diapazonas ir dažnis. Dabar galite blokuoti įtampą, kad sumažintumėte vaizdo plokštę.
  • Kreivę galite atnaujinti iš aparatinės įrangos spustelėdami redaktoriuje.
  • Įtampos ir dažnio ašys yra dinamiškai keičiamos.
  • MSI Overclocking Scanner dabar palaikomas NVIDIA GTX 10x0 ir NVIDIA RTX 20x0 serijų kortelėse 64 bitų operacinėse sistemose.
  • Patobulintas paskirstytos atminties sąsajos aparatinės įrangos valdymas. Anksčiau MSI Remote Server leido valdyti GPU iš trečiųjų šalių programų. Dabar galima atlikti testavimą nepalankiausiomis sąlygomis naudojant išorines programas.

RivaTuner statistikos serverio pagalbinė priemonė taip pat buvo atnaujinta į 7.2.1 beta 4 versiją. Dabar OSD tinkinimo parinktys buvo gerokai išplėstos, pagerėjo šriftų mastelio keitimo ir padėties nustatymo, įterptųjų objektų dydžių ir jų užpildymo koregavimo parinktys. Atsirado mastelio keitimo režimas, pridėta galimybė apriboti kadrų dažnį, pridėta etalono laiko žyma.

GeForce GTX 1080 Ti turi 11 GB GDDR5X atminties, 1583 MHz GPU (įsijungia iki 2000 MHz su atsarginiu aušinimu), 11 GHz QDR atmintimi ir 35 % geresniu našumu nei GeForce GTX 1080. Ir tai už mažesnę 699 USD kainą.

Naujoji vaizdo plokštė išstumia GeForce GTX 1080 iš flagmano pozicijos GeForce linijoje ir tampa Greičiausias grafikos plokštę, kuri egzistuoja šiandien, taip pat galingiausią Pascal architektūros plokštę.

Galingiausia NVIDIA GeForce GTX 1080 Ti žaidimų kortelė

NVIDIA GeForce GTX 1080 Ti yra žaidėjo svajonė, kurie pagaliau gali mėgautis naujausiais AAA žaidimais, žaisti su didelės raiškos virtualios realybės šalmais, mėgautis grafikos aiškumu ir tikslumu.

GTX 1080 Ti buvo sukurta kaip pirmoji visapusiška vaizdo plokštė, skirta 4K žaidimams. Jame įdiegta naujausia ir technologiškai pažangiausia techninė įranga, kuria šiandien negali pasigirti jokia kita vaizdo plokštė.

čia oficialus pristatymas NVIDIA GeForce GTX 1080 Ti

„Atėjo laikas kažkam naujam. Tas, kuris yra 35 % greitesnis už GTX 1080. Tas, kuris greitesnis už Titan X. Pavadinkime jį geriausiu...

Kiekvienais metais vaizdo žaidimai tapo gražesni, todėl pristatome naujos kartos aukščiausios klasės produktą, kad galėtumėte mėgautis naujos kartos žaidimais.

Jen-Xun

NVIDIA GeForce GTX 1080 Ti specifikacijos

NVIDIA negailėjo savo naujos ir itin galingos vaizdo plokštės.

Jame įrengtas tas pats GPU Pascal GP102 GPU, kaip ir Titan X (P), bet visais atžvilgiais pranašesnis už pastarąjį.

Procesorius aprūpintas 12 milijardų tranzistorių ir turi šešias grafinio apdorojimo grupes, iš kurių dvi yra užblokuotos. Tai suteikia bendrą sumą 28 kelių gijų procesoriai Kiekviename po 128 branduolius.

Taigi, GeForce GTX 1080 Ti vaizdo plokštė turi 3584 CUDA branduolius, 224 tekstūrų atvaizdavimo blokus ir 88 ROP (vienetus, atsakingus už z-buferį, anti-aliasing, galutinio vaizdo įrašymą į vaizdo atminties kadrų buferį).

Įjungimo diapazonas prasideda nuo 1582 MHz iki 2 GHz. „Pascal“ architektūra buvo sukurta daugiausiai įjungimui standartiniuose ir ekstremalesniam nestandartinių modelių įsijungimui.

GeForce GTX 1080 Ti taip pat turi 11 GB GDDR5X atmintis, veikia per 352 bitų magistralę. Flagmanas taip pat turi greičiausią iki šiol G5X sprendimą.

Naudojant naują glaudinimo ir plytelių talpyklos sistemą, GTX 1080 Ti vaizdo plokštės pralaidumas gali būti padidintas iki 1200 Gb/s, o tai pranoksta AMD HBM2 technologiją.

NVIDIA GeForce GTX 1080 Ti specifikacija:

Charakteristikos GTX TItan X Pascal GTX 1080 Ti GTX 1080
Proceso technologija 16 nm 16 nm 16 nm
tranzistoriai 12 mlrd 12 mlrd 7,2 mlrd
Krištolo sritis 471 mm² 471 mm² 314 mm²
Atmintis 12 GB GDDR5X 11 GB GDDR5X 8 GB GDDR5X
Atminties greitis 10 Gb/s 11 Gb/s 11 Gb/s
Atminties sąsaja 384 bitų 352 bitų 256 bitų
Pralaidumas 480 GB/s 484 GB/s 320 GB/s
CUDA šerdys 3584 3584 2560
bazinis dažnis 1417 1607
Pagreičio dažnis 1530 MHz 1583 MHz 1730 MHz
Skaičiavimo galia 11 teraflopų 11,5 teraflopo 9 teraflopai
Šiluminė galia 250W 250W 180W
Kaina 1200$ 699 USD 499$

Aušinimas NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders turi naują oro srauto sprendimą, kuris leidžia geriau aušinti plokštę ir yra tylesnis nei ankstesni dizainai. Visa tai leidžia labiau įsibėgėti vaizdo plokštę ir pasiekti dar didesnį greitį. Be to, pagerėja aušinimo efektyvumas 7 faziu maitinimo blokas ant 14 didelio efektyvumo dvigubo FET tranzistorių.

GeForce GTX 1080 Ti yra su naujausiu NVTTM dizainu, kuriame pristatoma nauja garų aušinimo kamera, kurios aušinimo plotas yra dvigubai didesnis nei Titan X (P). Šis naujas terminis dizainas padeda pasiekti optimalų aušinimą ir pagreitina vaizdo plokštės GPU, viršijantį specifikaciją, naudojant GPU Boost 3.0 technologiją.

NVIDIA GeForce GTX 1080 Ti yra „overclocker“ svajonė

Taigi, ką daryti su šia įspūdinga vaizdo plokštės galia? Atsakymas akivaizdus – peršokti iki galo. Renginio metu NVIDIA pademonstravo išskirtinį savo GTX 1080 Ti vaizdo plokštės įsijungimo potencialą. Prisiminkite, kad jiems pavyko pasiekti 2,03 GHz procesoriaus dažnį esant užblokuotam 60 FPS.

2016-ieji jau eina į pabaigą, tačiau jo indėlis į žaidimų industriją išliks su mumis ilgam. Pirma, raudonosios stovyklos vaizdo plokštės sulaukė netikėtai sėkmingo atnaujinimo vidutinėje kainų kategorijoje, antra, NVIDIA dar kartą įrodė, kad ne veltui užima 70% rinkos. Maxwells buvo geri, GTX 970 teisėtai buvo laikomas viena geriausių kortelių už pinigus, tačiau Pascal yra visiškai kitas dalykas.

Naujos kartos aparatinė įranga prieš GTX 1080 ir 1070 tiesiogine prasme palaidojo praėjusių metų sistemų ir pavyzdinės naudotos aparatūros rinkos rezultatus, o „jaunesnės“ linijos prieš GTX 1060 ir 1050 sustiprino savo sėkmę įperkant pigiau. segmentai. GTX980Ti ir kitų titanų savininkai verkia nuo krokodilo ašarų: jų „uber“ ginklai už daugybę tūkstančių rublių prarado 50% kainos ir 100% demonstravimo iš karto. Pati NVIDIA teigia, kad 1080 yra greitesnis už pernykštį TitanX, 1070 lengvai „sukrauna“ 980Ti, o santykinai biudžetinis 1060 pakenks visų kitų kortelių savininkams.

Ar tikrai iš čia auga didelio našumo kojos ir ką su visu tuo daryti švenčių ir staigių finansinių džiaugsmų išvakarėse, taip pat kuo konkrečiai save pamaloninti, sužinosite šiame ilgame ir šiek tiek nuobodžiame straipsnyje. straipsnis.

Galite mylėti „Nvidia“ arba... jos nemylėti, bet neigti, kad ji šiuo metu yra vaizdo inžinerijos lyderė, bus tik alternatyvios visatos hitas. Kadangi AMD Vega dar nebuvo paskelbta, dar nematėme flagmano RX Polaris, o R9 Fury su 4 GB eksperimentine atmintimi tikrai negali būti laikomas perspektyvia kortele (VR ir 4K vis dar nori. šiek tiek daugiau, nei ji turi) – mes turime tai, ką turime. Nors 1080 Ti ir sąlyginis RX 490, RX Fury ir RX 580 yra tik gandai ir lūkesčiai, turime laiko išsiaiškinti dabartinę NVIDIA seriją ir pamatyti, ką įmonė pasiekė per pastaruosius metus.

Netvarka ir Paskalio atsiradimo istorija

NVIDIA reguliariai pateikia priežastis „nemylėt savęs“. GTX 970 ir jo „3,5 GB atminties“, „NVIDIA, fuck you!“ istorija. iš Linuso Torvaldso, pilna pornografija darbalaukio grafikos eilutėse, atsisakymas dirbti su nemokama ir daug labiau paplitusia FreeSync sistema savo patentuotos naudai... Apskritai priežasčių yra pakankamai. Man asmeniškai vienas labiausiai erzinančių dalykų yra tai, kas atsitiko su pastarųjų dviejų kartų vaizdo plokštėmis. Jei paimtume apytikslį aprašymą, tai „modernūs“ GPU atkeliavo iš DX10 palaikymo laikų. O jei šiandien ieškosite 10-osios serijos „senelio“, tai moderniosios architektūros pradžia bus 400-osios serijos vaizdo greitintuvų ir Fermi architektūros regione. Būtent jame kilo „bloko“ dizaino idėja iš vadinamojo. „CUDA branduoliai“ pagal NVIDIA terminologiją.

Fermi

Jei 8000-osios, 9000-osios ir 200-osios serijų vaizdo plokštės buvo pirmieji žingsniai įsisavinant pačią koncepciją, „modernią architektūrą“ su universaliais šešėlių procesoriais (kaip AMD, taip), tai 400-oji serija jau buvo kuo panašesnė į tai, ką mes. žr. kai kuriuose 1070. Taip, „Fermi“ vis dar turėjo nedidelį „Legacy“ ramentą iš ankstesnių kartų: atspalvio blokas veikė dvigubai dažniau nei už geometrijos skaičiavimą atsakingos šerdies dažnis, tačiau bendras kai kurių GTX 480 vaizdas nedaug skiriasi nuo kai kurių. 780-as, SM multiprocesoriai yra sugrupuoti, klasteriai bendrauja per bendrą talpyklą su atminties valdikliais, o darbo rezultatai rodomi klasteriui bendru rastrizacijos bloku:


GTX 480 naudojamo GF100 procesoriaus blokinė schema.

500-oje serijoje vis dar buvo tas pats „Fermi“, šiek tiek patobulintas „viduje“ ir su mažiau santuokos, todėl geriausi sprendimai gavo 512 CUDA branduolių, o ne 480 ankstesnės kartos. Vizualiai schemos paprastai atrodo kaip dvyniai:


GF110 yra GTX 580 širdis.

Vietomis padidino dažnius, šiek tiek pakeitė paties lusto dizainą, revoliucijos nebuvo. Visa ta pati 40 nm proceso technologija ir 1,5 GB vaizdo atminties 384 bitų magistralėje.

Kepleris

Atsiradus Keplerio architektūrai, daug kas pasikeitė. Galime sakyti, kad būtent ši karta suteikė NVIDIA vaizdo plokštėms vystymosi vektorių, lėmusį dabartinių modelių atsiradimą. Pasikeitė ne tik GPU architektūra, bet ir naujos NVIDIA įrangos kūrimo virtuvė. Jei „Fermi“ siekė rasti sprendimą, kuris užtikrintų aukštą našumą, tai „Kepler“ lažinosi dėl energijos vartojimo efektyvumo, racionalaus išteklių naudojimo, aukštų dažnių ir lengvo žaidimo variklio optimizavimo, kad būtų užtikrintos didelio našumo architektūros galimybės.

Buvo atlikti rimti GPU dizaino pakeitimai: pagrindu buvo paimtas ne „flagmanas“ GF100 / GF110, o „biudžetinis“ GF104 / GF114, kuris buvo naudojamas vienoje populiariausių to meto kortelių - GTX. 460.


Bendra procesoriaus architektūra buvo supaprastinta naudojant tik du didelius blokus su keturiais vieningais šešėlių kelių procesorių moduliais. Naujųjų flagmanų išdėstymas atrodė maždaug taip:


GK104 įdiegtas GTX 680.

Kaip matote, kiekvienas skaičiavimo vienetas, palyginti su ankstesne architektūra, žymiai padidėjo ir buvo pavadintas SMX. Palyginkite bloko struktūrą su tuo, kas parodyta aukščiau Fermi skyriuje.


Daugiaprocesorius SMX GPU GK104

Šeši šimtoji serija neturėjo vaizdo plokščių pilname procesoriuje su šešiais skaičiavimo modulių blokais, flagmanas buvo GTX 680 su įdiegtu GK104, o už jį šaltesnis buvo tik „dviejų galvų“ 690-asis, ant kurio tik buvo sukurti du procesoriai su visais reikalingais apkaustais ir atmintimi. Po metų flagmanas GTX 680 su nedideliais pakeitimais virto GTX 770, o Keplerio architektūros evoliucijos karūna tapo GK110 kristalo pagrindu sukurtos vaizdo plokštės: GTX Titan ir Titan Z, 780Ti ir įprastas 780. Viduje – visi tie patys 28 nanometrai, vienintelis kokybinis patobulinimas (kuris NĖRA atliktas vartotojų vaizdo plokštėms GK110 pagrindu) - našumas su dvigubo tikslumo operacijomis.

Maksvelas

Pirmoji vaizdo plokštė, pagrįsta Maxwell architektūra, buvo… NVIDIA GTX 750Ti. Kiek vėliau jo pjūviai pasirodė prieš GTX 750 ir 745 (tiekiami tik kaip integruotas sprendimas), o jų atsiradimo metu žemesnės klasės kortelės tikrai išjudino nebrangių vaizdo greitintuvų rinką. Naujoji architektūra buvo išbandyta naudojant GK107 lustą: mažytis būsimų flagmanų gabalėlis su didžiuliais radiatoriais ir bauginančia kaina. Tai atrodė maždaug taip:


Taip, yra tik vienas skaičiavimo vienetas, bet kiek jis sudėtingesnis nei jo pirmtakas, palyginkite patys:


Vietoj didelio bloko SMX, kuris buvo naudojamas kaip pagrindinė "statybinė plyta" kuriant GPU, naudojami nauji, kompaktiškesni SMM blokai. Pagrindiniai Keplerio skaičiavimo įrenginiai buvo geri, bet nukentėjo dėl prasto pajėgumo išnaudojimo – banalaus instrukcijų alkio: sistema negalėjo išsklaidyti instrukcijų per daugybę pavarų. „Pentium 4“ turėjo maždaug tas pačias problemas: maitinimas buvo tuščias, o šakos numatymo klaida buvo labai brangi. „Maxwell“ programoje kiekvienas skaičiavimo modulis buvo padalintas į keturias dalis, kurių kiekviena turėjo savo instrukcijų buferį ir deformacijų planavimo priemonę – to paties tipo operacijas gijų grupėje. Dėl to išaugo efektyvumas, o patys GPU tapo lankstesni nei jų pirmtakai, o svarbiausia – mažai kraujo ir gana paprasto kristalo kaina, jie sukūrė naują architektūrą. Istorija eina spirale, hehe.

Labiausiai iš naujovių pasipelnė mobilieji sprendimai: kristalo plotas išaugo ketvirtadaliu, o kelių procesorių vykdymo blokų skaičius išaugo beveik dvigubai. Pasisekė, 700-oji ir 800-oji serijos padarė pagrindinę netvarką klasifikacijoje. Vien 700 viduje buvo vaizdo plokštės, pagrįstos Keplerio, Maxwell ir net Fermi architektūra! Štai kodėl „Maxwells“ staliniai kompiuteriai, norėdami atitolti nuo ankstesnių kartų keblumų, gavo bendrą 900 seriją, iš kurios vėliau atsiskyrė GTX 9xx M mobiliosios kortelės.

Paskalis – loginė Maksvelo architektūros raida

Tai, kas buvo išdėstyta Kepleryje ir tęsiama Maxwell kartoje, išliko Pascals: buvo išleistos pirmosios vartotojų vaizdo plokštės, paremtos ne itin dideliu GP104 lustu, susidedančiu iš keturių grafikos apdorojimo grupių. Viso dydžio, šešių grupių GP100 atiteko brangiam pusiau profesionaliam GPU su prekės ženklu TITAN X. Tačiau net ir „apkarpytas“ 1080 užsidega taip, kad praeitos kartos pykina.

Našumo gerinimas

pamatų pamatas

Maxwellas tapo naujos architektūros pagrindu, palyginamų procesorių (GM104 ir GP104) diagrama atrodo beveik taip pat, pagrindinis skirtumas yra kelių procesorių, supakuotų į grupes, skaičius. Kepleris (700 kartos) turėjo du didelius SMX multiprocesorius, kurie Maxwell sistemoje buvo padalinti į 4 dalis, užtikrinant reikiamą surišimą (pavadinimo keitimas į SMM). Paskalyje prie esamų aštuonių bloke buvo pridėti dar du, todėl jų buvo 10, o santrumpa dar kartą buvo nutraukta: dabar pavieniai daugiaprocesoriai vėl vadinami SM.


Likusi dalis yra visiškas vizualinis panašumas. Tiesa, viduje buvo ir daugiau pokyčių.

Pažangos variklis

Kelių procesorių bloko viduje yra nepadoriai daug pakeitimų. Kad nesigilinčiau į labai nuobodžias smulkmenas, kas buvo perdaryta, kaip optimizuota ir kaip buvo anksčiau, pakeitimus aprašysiu labai trumpai, kitaip kai kurie jau žiovauja.

Visų pirma, Pascalis pataisė dalį, kuri yra atsakinga už geometrinį paveikslo komponentą. Tai būtina kelių monitorių konfigūracijoms ir darbui su VR šalmais: tinkamai palaikius žaidimo variklį (ir šis palaikymas netrukus pasirodys NVIDIA pastangomis), vaizdo plokštė gali vieną kartą apskaičiuoti geometriją ir gauti po kelias geometrijos projekcijas kiekvienam. ekranų. Tai žymiai sumažina VR apkrovą ne tik dirbant su trikampiais (čia padidėjimas tik du kartus), bet ir dirbant su pikselių komponentu.

Sąlyginis 980Ti du ​​kartus nuskaitys geometriją (kiekvienai akiai), tada užpildys ją tekstūromis ir atliks kiekvieno vaizdo apdorojimą, iš viso apdorodamas apie 4,2 milijono taškų, iš kurių apie 70% bus panaudota. likusi dalis bus nupjauta arba pateks į sritį, kuri tiesiog nerodoma kiekvienai akiai.

1080 apdoros geometriją vieną kartą, o pikseliai, kurie nepatenka į galutinį vaizdą, tiesiog nebus skaičiuojami.


Naudojant pikselių komponentą, viskas iš tikrųjų yra dar šauniau. Kadangi padidinti atminties pralaidumą galima tik dviem frontais (didinti dažnį ir pralaidumą vienam laikrodžiui), ir abu metodai kainuoja pinigus, o GPU atminties „alkis“ bėgant metams tampa vis ryškesnis dėl raiškos augimas ir VR plėtra išlieka gerinti "nemokamus" metodus padidinti pralaidumą. Jei negalite išplėsti magistralės ir pakelti dažnio – reikia suspausti duomenis. Ankstesnėse kartose aparatinės įrangos glaudinimas jau buvo įdiegtas, tačiau Pascal jis buvo perkeltas į naują lygį. Vėlgi, apsieisime be nuobodžios matematikos ir paimsime paruoštą pavyzdį iš NVIDIA. Kairėje - Maxwell, dešinėje - Pascal, tie taškai, kurių spalvos komponentas buvo be nuostolių suspaustas, užpildyti rausva spalva.


Užuot perkėlus konkrečias 8x8 taškų plyteles, atmintyje yra „vidutinė“ spalva + nukrypimų nuo jos matrica, tokie duomenys užima nuo ½ iki ⅛ pradinio tūrio. Atliekant realias užduotis, atminties posistemio apkrova sumažėjo nuo 10 iki 30%, priklausomai nuo gradientų skaičiaus ir sudėtingų scenų užpildymo vienodumo ekrane.


Inžinieriams to atrodė nepakankamai, o pavyzdinei vaizdo plokštei (GTX 1080) buvo naudojama padidinto pralaidumo atmintis: GDDR5X perduoda dvigubai daugiau duomenų (ne instrukcijų) bitų per laikrodį ir sukuria daugiau nei 10 Gb / s greičiu. viršūnė. Duomenims perduoti tokiu beprotišku greičiu reikėjo visiškai naujo atminties išdėstymo plokštėje, o bendras atminties efektyvumas išaugo 60-70%, lyginant su ankstesnės kartos flagmanais.

Sumažinkite vėlavimą ir prastovą

Vaizdo plokštės jau seniai užsiima ne tik grafikos apdorojimu, bet ir su tuo susijusiais skaičiavimais. Fizika dažnai yra susieta su animacijos kadrais ir yra nepaprastai lygiagreti, o tai reiškia, kad daug efektyviau skaičiuoti naudojant GPU. Tačiau didžiausiu problemų sukėlėju pastaruoju metu tapo VR pramonė. Daugelis žaidimų variklių, kūrimo metodikos ir daugybė kitų technologijų, naudojamų darbui su grafika, tiesiog nebuvo sukurti VR, atvejis, kai perkeliama kamera ar keičiama vartotojo galvos padėtis atvaizduojant kadrą, tiesiog nebuvo apdorota. Jei paliksite viską taip, kaip yra, vaizdo srauto ir jūsų judesių desinchronizavimas sukels jūros ligos priepuolius ir tiesiog trukdys pasinerti į žaidimų pasaulį, o tai reiškia, kad „netinkamus“ kadrus po atvaizdavimo ir paleidimo tiesiog reikia išmesti. vėl dirba. Ir tai yra nauji vėlavimai rodyti vaizdą ekrane. Tai neturi teigiamo poveikio našumui.

Pascalis atsižvelgė į šią problemą ir įdiegė dinaminį apkrovos balansavimą bei asinchroninių pertraukimų galimybę: dabar vykdomieji blokai gali arba nutraukti esamą užduotį (išsaugoti darbo rezultatus talpykloje), kad apdorotų skubesnes užduotis, arba tiesiog iš naujo nustatyti nepakankamai išnaudotą kadrą ir pradėti naują, žymiai sumažinant vaizdo formavimo vėlavimą. Pagrindinis naudos gavėjas čia, be abejo, yra VR ir žaidimai, tačiau ši technologija taip pat gali padėti atlikti bendrus skaičiavimus: dalelių susidūrimo modeliavimo našumas padidėjo 10–20%.

Padidinti 3.0

NVIDIA vaizdo plokštės automatinį įsijungimą gavo jau seniai, dar 700-osios kartos, paremtos Keplerio architektūra. Maxwell'e buvo patobulintas įsijungimas, bet vis tiek buvo, švelniai tariant, toks: taip, vaizdo plokštė veikė šiek tiek greičiau, kol tai leido terminis paketas, papildomi 20-30 megahercų branduoliui ir 50 -100 už atmintį, laidu iš gamyklos, davė padidėjimą, bet nedidelis. Tai veikė taip:


Net jei buvo GPU temperatūros skirtumas, našumas nepadidėjo. Atsiradus Paskaliui, inžinieriai supurtė šią dulkėtą pelkę. „Boost 3.0“ veikia trimis frontais: temperatūros analizė, laikrodžio greičio padidinimas ir lusto įtampos padidinimas. Dabar iš GPU išspaudžiamos visos sultys: standartinės NVIDIA tvarkyklės to nedaro, tačiau tiekėjų programinė įranga leidžia vienu paspaudimu sukurti profiliavimo kreivę, kuri atsižvelgs į konkretaus vaizdo plokštės egzemplioriaus kokybę.

EVGA buvo vienas iš pirmųjų šioje srityje, jo „Precision XOC“ programa turi NVIDIA sertifikuotą skaitytuvą, kuris nuosekliai pereina visą temperatūrų, dažnių ir įtampos diapazoną ir pasiekia maksimalų našumą visais režimais.

Pridėkite čia naują proceso technologiją, didelės spartos atmintį, įvairius optimizavimus ir lustų šilumos paketo sumažinimą, ir rezultatas bus tiesiog nepadorus. Iš 1500 „bazinių“ MHz GTX 1060 galima išspausti daugiau nei 2000 MHz, jei pasitaiko gera kopija, o pardavėjas nesikrato aušinimo.

Vaizdo kokybės ir žaidimo pasaulio suvokimo gerinimas

Našumas buvo padidintas visais frontais, tačiau yra nemažai punktų, kuriuose jau kelerius metus nebuvo kokybinių pokyčių: rodomo vaizdo kokybėje. Ir čia ne apie grafinius efektus, juos pateikia žaidimų kūrėjai, o apie tai, ką tiksliai matome monitoriuje ir kaip žaidimas atrodo galutiniam vartotojui.

Greitas vertikalus sinchronizavimas

Svarbiausia Pascal savybė yra trigubas kadrų išvesties buferis, kuris vienu metu užtikrina itin mažą atvaizdavimo vėlavimą ir užtikrina vertikalią sinchronizaciją. Išvesties vaizdas saugomas viename buferyje, paskutinis atvaizduotas kadras – kitame, o dabartinis – nupieštas trečiame. Atsisveikink su horizontaliomis juostelėmis ir plyšimu, sveiki, didelis našumas. Čia nėra uždelsimų, kurie tinka klasikinei V-Sync (kadangi vaizdo plokštės veikimo niekas nevaržo ir ji visada piešia didžiausiu įmanomu kadrų dažniu), o į monitorių siunčiami tik visiškai suformuoti kadrai. Manau, kad po naujų metų parašysiu atskirą didelį įrašą apie V-Sync, G-Sync, Free-Sync ir šį naują greito sinchronizavimo algoritmą iš Nvidia, čia per daug smulkmenų.

Įprastos ekrano nuotraukos

Ne, tos ekrano nuotraukos, kurios dabar yra, yra tiesiog gėda. Beveik visuose žaidimuose naudojama daug technologijų, kad judantis vaizdas būtų nuostabus ir kvapą gniaužiantis, o ekrano kopijos tapo tikru košmaru: vietoje stulbinančiai tikroviško vaizdo, kurį sudaro animacija, specialieji efektai, išnaudojantys žmogaus regėjimo ypatumus, matote keletą kažkoks kampuotas nesuprantu kas su keistomis spalvomis ir absoliučiai negyva nuotrauka.

Naujoji NVIDIA Ansel technologija išsprendžia problemą su ekrano kopijomis. Taip, jo įgyvendinimui reikia integruoti specialų kodą iš žaidimų kūrėjų, tačiau realių manipuliacijų yra minimaliai, tačiau pelnas didžiulis. Ansel žino, kaip pristabdyti žaidimą, perduoda kameros valdymą į jūsų rankas, o tada – vietos kūrybai. Galite tiesiog fotografuoti be GUI ir savo mėgstamo kampo.


Esamą siužetą galite atvaizduoti itin didele raiška, fotografuoti 360 laipsnių panoramas, sujungti jas į plokštumą arba palikti 3D formatu, kad galėtumėte peržiūrėti su VR šalmu. Nufotografuokite 16 bitų kiekviename kanale, išsaugokite ją kaip savotišką RAW failą, tada paleiskite ekspoziciją, baltos spalvos balansą ir kitus nustatymus, kad ekrano nuotraukos vėl taptų patrauklios. Tikimės, kad per metus ar dvejus žaidimų gerbėjai pateiks daugybę šaunaus turinio.

Vaizdo įrašo garso apdorojimas

Naujosios NVIDIA Gameworks bibliotekos prideda daug kūrėjams prieinamų funkcijų. Jie daugiausia skirti VR ir pagreitinti įvairius skaičiavimus, taip pat pagerinti vaizdo kokybę, tačiau viena iš funkcijų yra pati įdomiausia ir verta dėmesio. VRWorks Audio pakelia darbą su garsu į iš esmės naują lygmenį, garsą skaičiuoja ne pagal banalias vidutines formules, priklausomai nuo kliūties atstumo ir storio, o atlieka pilną garso signalo sekimą, su visais atspindžiais iš aplinkos, aidėjimu ir garso sugertimi įvairiose srityse. medžiagų. NVIDIA turi gerą vaizdo pavyzdį, kaip ši technologija veikia:


Žiūrėkite geriau su ausinėmis

Grynai teoriškai niekas netrukdo paleisti tokio modeliavimo naudojant Maxwell, tačiau optimizavimas, susijęs su asinchroniniu instrukcijų vykdymu ir nauja „Pascals“ pertraukimo sistema, leidžia atlikti skaičiavimus nepažeidžiant kadrų dažnio.

Paskalis iš viso

Tiesą sakant, pokyčių yra dar daugiau, ir daugelis jų yra tokie gilūs architektūroje, kad apie kiekvieną iš jų būtų galima parašyti didžiulį straipsnį. Pagrindinės naujovės yra patobulintas pačių lustų dizainas, optimizavimas žemiausiu geometrijos ir asinchroninio veikimo lygiu su visišku pertraukimų valdymu, daug funkcijų, pritaikytų darbui su didele raiška ir VR, ir, žinoma, beprotiški dažniai, kurie praeities kartos vaizdo plokštės negalėjo svajoti. Prieš dvejus metus 780 Ti vos peržengė 1 GHz slenkstį, šiandien 1080 kai kuriais atvejais veikia su dviem: ir čia nuopelnas yra ne tik sumažinta proceso technologija nuo 28 nm iki 16 ar 14 nm: daugelis dalykų yra optimizuoti žemiausio lygio, pradedant tranzistorių projektavimu, baigiant jų topologija ir surišimu pačioje lusto viduje.

Kiekvienam individualiam atvejui

NVIDIA 10 serijos vaizdo plokščių linija pasirodė tikrai subalansuota ir gana tankiai apima visus žaidimų vartotojų atvejus, nuo parinkties „žaisti strategiją ir diablo“ iki „noriu geriausių žaidimų 4k“. Žaidimo testai buvo parinkti pagal vieną paprastą techniką: aprėpti kuo platesnį testų spektrą su kuo mažesniu testų rinkiniu. BF1 yra puikus gero optimizavimo pavyzdys ir leidžia palyginti DX11 ir DX12 našumą tomis pačiomis sąlygomis. DOOM buvo pasirinktas dėl tos pačios priežasties, tik norint palyginti OpenGL ir Vulkan. Trečiasis „Witcher“ čia veikia kaip taip optimizuotas žaislas, kuriame didžiausi grafikos nustatymai leidžia sugadinti bet kurį flagmaną tiesiog dėl šūdo kodo. Jame naudojamas klasikinis DX11, kuris yra patikrintas laiko ir puikiai sutvarkytas tvarkyklėse ir yra žinomas žaidimų kūrėjams. „Overwatch“ naudoja repą visiems „turnyro“ žaidimams, kuriuose yra gerai optimizuotas kodas, iš tikrųjų įdomu, koks vidutinis FPS yra žaidime, kuris grafiniu požiūriu nėra labai sunkus, patobulintas, kad veiktų „ vidutinė“ konfigūracija, pasiekiama visame pasaulyje.

Iš karto pateiksiu keletą bendrų komentarų: „Vulkan“ yra labai neparankus vaizdo atminties atžvilgiu, jam ši charakteristika yra vienas iš pagrindinių rodiklių, ir jūs pamatysite, kad ši tezė atsispindės etalonuose. DX12 AMD kortelėse elgiasi daug geriau nei NVIDIA, jei „žaliosios“ rodo vidutinį FPS sumažėjimą naujose API, „raudonosios“, atvirkščiai, rodo padidėjimą.

jaunesnysis skyrius

GTX 1050

Jaunesnė NVIDIA (be Ti raidžių) nėra tokia įdomi, kaip jos įkrauta sesuo su Ti raidėmis. Jo likimas yra žaidimų sprendimas MOBA žaidimams, strategijoms, turnyrų šaudyklėms ir kitiems žaidimams, kur detalės ir vaizdo kokybė mažai ką domina, o stabilus kadrų dažnis už minimalius pinigus yra tai, ką liepė gydytojas.


Visose nuotraukose nėra pagrindinio dažnio, nes jis yra individualus kiekvienam atvejui: 1050 be papildomų. galios gali ir nesivaikyti, o jos sesuo su 6 kontaktų jungtimi nesunkiai perims sąlyginį 1,9 GHz. Pagal galią ir ilgį pateikiami populiariausi variantai, visada galima rasti vaizdo plokštę su kita grandine ar kitokiu aušinimu, kuris netelpa į nurodytus „standartus“.

DOOM 2016 (1080p, ULTRA): OpenGL – 68 FPS, Vulkan – 55 FPS;
„The Witcher 3: Wild Hunt“ (1080p, MAX, „HairWorks Off“): DX11 – 38 FPS;
„Battlefield 1“ (1080p, ULTRA): DX11 – 49 FPS, DX12 – 40 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS;

GTX 1050 turi GP107 grafikos procesorių, paveldėtą iš senesnės kortelės su nedideliu funkcinių blokų apkarpymu. 2 GB vaizdo atminties neleis siautėti, tačiau e-sporto disciplinoms ir žaisti tam tikrus tankus puikiai tinka, nes jaunesniojo kortelės kaina prasideda nuo 9,5 tūkst. Papildoma galia nereikalinga, vaizdo plokštei tereikia 75 vatų iš pagrindinės plokštės per PCI-Express lizdą. Tiesa, šiame kainų segmente yra ir AMD Radeon RX460, kuris su tais pačiais 2 GB atminties yra pigesnis, o kokybe beveik nenusileidžia, o už maždaug tuos pačius pinigus galima gauti ir RX460, bet su 4 GB. versija. Ne tai, kad jie jam labai padėjo, bet kažkoks rezervas ateičiai. Pardavėjo pasirinkimas nėra toks svarbus, galite pasiimti tai, kas yra, ir neišsitraukia kišenės su papildomu tūkstančiu rublių, kuriuos geriau išleisti brangioms Ti raidėms.

GTX 1050 Ti

Apie 10 tūkstančių už įprastą 1050 nėra blogai, bet už įkrautą (arba pilną, vadink kaip nori) variantą prašo šiek tiek daugiau (vidutiniškai 1-1,5 tūkst. daugiau), bet jo užpildymas daug įdomesnis. . Beje, visa 1050 serija gaminama ne pjaustant/atmetant 1060 netinkančias „dideles“ drožles, o kaip visiškai savarankiškas gaminys. Jo gamybos procesas mažesnis (14 nm), kitokia gamykla (kristalai auginami Samsung gamykloje), yra itin įdomių egzempliorių su papildomais. maitinimas: terminis paketas ir bazinis suvartojimas vis dar yra tie patys 75 W, tačiau įsijungimo potencialas ir galimybė viršyti leistiną yra visiškai skirtingi.


Jei ir toliau žaidžiate FullHD raiška (1920 x 1080), neplanuojate naujovinti, o kita jūsų aparatinė įranga yra 3–5 metų senumo, tai puikus būdas pagerinti žaislų našumą be nuostolių. Orientuotis reikėtų į ASUS ir MSI sprendimus su papildomu 6 kontaktų maitinimo šaltiniu, Gigabyte variantai neblogi, bet kaina ne tokia džiuginanti.

DOOM 2016 (1080p, ULTRA): OpenGL – 83 FPS, Vulkan – 78 FPS;
„The Witcher 3: Wild Hunt“ (1080p, MAX, „HairWorks Off“): DX11 – 44 FPS;
„Battlefield 1“ (1080p, ULTRA): DX11 – 58 FPS, DX12 – 50 FPS;
Overwatch (1080p, ULTRA): DX11 – 104 FPS.

Vidurinis skyrius

60-osios linijos vaizdo plokštės jau seniai buvo laikomos geriausiu pasirinkimu tiems, kurie nenori išleisti daug pinigų ir tuo pačiu žaisti aukštais grafikos nustatymais viskuo, kas bus išleista per ateinančius porą metų. Jis prasidėjo nuo GTX 260, kuris turėjo dvi versijas (paprastesnis, 192 srautų procesorius ir riebesnis, 216 „akmenų“), tęsėsi 400, 500 ir 700 kartose, o dabar NVIDIA vėl pateko į beveik tobulą. kainos ir kokybės derinys. Vėl galimos dvi „vidurinės“ versijos: GTX 1060 su 3 ir 6 GB vaizdo atmintimi skiriasi ne tik turimos RAM kiekiu, bet ir našumu.

GTX 1060 3GB

Esporto karalienė. Protinga kaina, nuostabus FullHD našumas (o eSporte jie retai naudoja didesnę skiriamąją gebą: ten rezultatai svarbesni už gražius dalykus), protingas atminties kiekis (3 GB, per minutę, buvo prieš dvejus metus flagmane GTX 780 Ti, kuris kainavo nepadorius pinigus). Kalbant apie našumą, jaunesnis 1060 nesunkiai aplenkia praėjusių metų GTX 970 su įsimintina 3,5 GB atmintimi ir lengvai tempia už ausų praėjusių metų superflagmaną 780 Ti.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 87 FPS;
„The Witcher 3: Wild Hunt“ (1080p, MAX, „HairWorks Off“): DX11 – 70 FPS;
„Battlefield 1“ (1080p, ULTRA): DX11 – 92 FPS, DX12 – 85 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS.

Čia absoliutus mėgstamiausias pagal kainą ir išmetimą yra MSI versija. Geri dažniai, tyli aušinimo sistema ir protingi matmenys. Už ją jie neprašo nieko, maždaug 15 tūkstančių rublių.

GTX 1060 6GB

6 GB versija yra biudžetinis bilietas į VR ir didelę skiriamąją gebą. Atminties bado nebaks, visuose testuose jis yra šiek tiek greitesnis ir užtikrintai pralenks GTX 980 kur pernykščiai vaizdo plokštei neužteks 4 GB vaizdo atminties.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 121 FPS;
„The Witcher 3: Wild Hunt“ (1080p, MAX, „HairWorks Off“): DX11 – 73 FPS;
„Battlefield 1“ (1080p, ULTRA): DX11 – 94 FPS, DX12 – 90 FPS;
Overwatch (1080p, ULTRA): DX11 – 166 FPS.

Norėčiau dar kartą atkreipti dėmesį į vaizdo plokščių elgesį naudojant Vulkan API. 1050 su 2 GB atmintimi – FPS sumažinimas. 1050 Ti su 4 GB – beveik lygi. 1060 3 GB – išėmimas. 1060 6 GB – rezultatų augimas. Tendencija, manau, aiški: Vulkan reikia 4+ GB vaizdo atminties.

Bėda ta, kad abu 1060 nėra mažos vaizdo plokštės. Atrodo, kad šilumos paketas yra pagrįstas, o plokštė ten tikrai maža, tačiau daugelis pardavėjų nusprendė tiesiog suvienodinti aušinimo sistemą tarp 1080, 1070 ir 1060. Kažkas turi vaizdo plokštes 2 lizdų aukščio, bet 28+ centimetrų ilgio, kažkas padarė jie trumpesni, bet storesni (2,5 plyšiai). Rinkitės atsargiai.

Deja, papildomos 3 GB vaizdo atminties ir atrakintas skaičiavimo blokas jums kainuos ~ 5-6 tūkstančius rublių prie 3 GB versijos kainos. Šiuo atveju Palit turi įdomiausius kainos ir kokybės variantus. ASUS išleido siaubingas 28 cm aušinimo sistemas, kurios yra lipdomos ant 1080, 1070 ir 1060, o tokia vaizdo plokštė niekur netilps, versijos be gamyklinio įsijungimo kainuoja beveik tiek pat, o išmetimas mažiau, o ir prašo daugiau palyginti kompaktiškoms MSI nei konkurentams, kurių kokybė ir gamyklinis įsijungimas yra maždaug toks pat.

Pagrindinė lyga

Žaisti iš visų pinigų 2016 m. sunku. Taip, 1080 yra beprotiškai šaunus, bet perfekcionistai ir aparatūros vėplai žino, kad NVIDIA SLEpia, kad egzistuoja superflagmanas 1080 Ti, kuris turėtų būti neįtikėtinai šaunus. Pirmosios specifikacijos jau sklinda į internetą ir akivaizdu, kad žalieji laukia, kol įsikiš raudonai balti: kažkoks „uber“ ginklas, kurį akimirksniu gali įdėti naujasis 3D grafikos karalius, didysis. ir galingas GTX 1080 Ti. Na, kol kas turime tai, ką turime.

GTX 1070

Praėjusių metų megapopuliaraus GTX 970 ir jo ne visai sąžiningos 4 gigabaitų atminties nuotykiai buvo aktyviai rūšiuojami ir čiulpia visą internetą. Tai nesutrukdė jai tapti populiariausia žaidimų vaizdo plokšte pasaulyje. Prieš metų pasikeitimą kalendoriuje ji užima pirmąją vietą Steam aparatinės ir programinės įrangos apklausoje. Tai suprantama: kainos ir našumo derinys buvo tiesiog tobulas. Ir jei praleidote praėjusių metų atnaujinimą ir 1060 neatrodo pakankamai blogas, GTX 1070 yra jūsų pasirinkimas.

2560x1440 ir 3840x2160 raiškos vaizdo plokštė suvirškina su kaupu. „Boost 3.0“ įsijungimo sistema bandys mesti malkas, kai padidės GPU apkrova (tai yra sudėtingiausiose scenose, kai FPS krenta nuo specialiųjų efektų užpuolimo), padidins vaizdo plokštės procesorių iki stulbinančio 2100+. MHz. Atmintis lengvai gauna 15-18% efektyvaus dažnio virš gamyklinių verčių. Monstrų dalykas.


Dėmesio, visi bandymai atliekami 2,5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL – 91 FPS, Vulkan – 78 FPS;
„The Witcher 3: Wild Hunt“ (1440p, MAX, „HairWorks Off“): DX11 – 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 – 91 FPS, DX12 – 83 FPS;
Overwatch (1440p, ULTRA): DX11 – 142 FPS.

Žinoma, neįmanoma išgauti itin aukštų nustatymų naudojant 4k ir niekada nenukristi žemiau 60 kadrų per sekundę nei naudojant šią kortelę, nei naudojant 1080 kadrų per sekundę, tačiau galite žaisti su sąlyginiais „aukštais“ nustatymais, visiškai išjungdami arba šiek tiek sumažindami pačias nepadoriausias funkcijas. raiška, o pagal realų našumą vaizdo plokštė nesunkiai lenkia net beveik dvigubai pigiau kainuojančią pernykštę 980 Ti. „Gigabyte“ turi įdomiausią variantą: į ITX standarto korpusą pavyko sugrūsti visavertį 1070. Dėl kuklios šiluminės pakuotės ir energiją taupančio dizaino. Kortelių kainos prasideda nuo 29-30 tūkstančių rublių už skanius variantus.

GTX 1080

Taip, flagmanas neturi Ti raidžių. Taip, jis nenaudoja didžiausio NVIDIA siūlomo GPU. Taip, čia nėra šaunios HBM 2 atminties, o vaizdo plokštė nepanaši į Death Star ar, kraštutiniu atveju, į Star Destroyer klasės Imperial cruiser. Ir taip, tai šiuo metu pati šauniausia žaidimų vaizdo plokštė. Vienas po kito ima ir paleidžia DOOM 5 k3k raiška ir 60 kadrų per sekundę greičiu ultra nustatymuose. Tai taikoma visiems naujiems žaislams ir ateinančius metus ar dvejus problemų nekils: kol naujosios Pascal technologijos neišplis, kol žaidimų varikliai išmoks efektyviai įkrauti turimus išteklius... Taip, per porą metų sakysime: „Pažiūrėk į GTX 1260, prieš porą metų tau reikėjo flagmano, kad galėtum žaisti su tais nustatymais“, bet kol kas geriausias iš geriausių vaizdo plokščių galima įsigyti iki naujųjų metų už labai priimtiną kainą. kaina.


Dėmesio, visi bandymai atliekami 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL – 54 FPS, Vulkan – 78 FPS;
„The Witcher 3: Wild Hunt“ (2160p, MAX, „HairWorks Off“): DX11 – 55 FPS;
„Battlefield 1“ (2160p, ULTRA): DX11 – 65 FPS, DX12 – 59 FPS;
Overwatch (2160p, ULTRA): DX11 – 93 FPS.

Belieka tik apsispręsti: reikia, ar galima sutaupyti ir paimti 1070. Žaisti „ultra“ ar „aukštu“ nustatymų nėra didelio skirtumo, nes šiuolaikiniai varikliai puikiai piešia paveikslą didele raiška net esant vidutiniams nustatymams. : Galų gale, jūs nesate muilinės konsolės, kurios negali užtikrinti pakankamai našumo, kad būtų sąžiningas 4k ir stabilus 60 kadrų per sekundę.

Jei atmestume nebrangiausius variantus, tai Palit vėl turės geriausią kainos ir kokybės derinį GameRock versijoje (apie 43-45 tūkst. rublių): taip, aušinimo sistema yra „stora“, 2,5 lizdo, bet vaizdo plokštė yra trumpesnis nei konkurentų, o 1080 pora įrengiama retai. SLI pamažu miršta, ir net gyvybę suteikianti greitųjų tiltų injekcija nelabai padeda. ASUS ROG parinktis nėra bloga, jei įdiegta daug priedų. nenorite uždengti papildomų išplėtimo angų: jų vaizdo plokštė yra lygiai 2 lizdų storio, tačiau jai reikia 29 centimetrų laisvos vietos nuo galinės sienelės iki standžiojo disko krepšelio. Įdomu, ar Gigabaitui pavyks išleisti šį monstrą ITX formatu?

Rezultatai

Naujos NVIDIA vaizdo plokštės tiesiog palaidojo naudotos techninės įrangos rinką. Ant jo išgyvena tik GTX 970, kurį galima išgraibstyti už 10-12 tūkstančių rublių. Potencialūs naudotų 7970 ir R9 280 pirkėjai dažnai neturi kur jo dėti ir tiesiog nemaitina, o daugelis antrinės rinkos variantų yra tiesiog neperspektyvūs, o kaip pigus atnaujinimas porai metų į priekį – nieko gero: mažai. atminties, naujos technologijos nepalaikomos. Naujos kartos vaizdo plokščių grožis yra tas, kad net ir ne joms optimizuoti žaidimai veikia daug linksmiau nei praėjusių metų veteranų GPU diagramose, ir sunku įsivaizduoti, kas bus po metų, kai žaidimų varikliai išmoks išnaudoti visą naujų technologijų galia.

GTX 1050 ir 1050 Ti

Deja, negaliu rekomenduoti įsigyti nebrangiausio Pascal. RX 460 dažniausiai parduodamas tūkstančiu ar dviem pigiau, o jei tavo biudžetas toks ribotas, kad imi vaizdo plokštę „už naujausią“, tai Radeon objektyviai yra įdomesnė investicija. Kita vertus, 1050 yra šiek tiek greitesnis, o jei jūsų mieste šių dviejų vaizdo plokščių kainos beveik vienodos, imkite.

1050Ti, savo ruožtu, yra puikus pasirinkimas tiems, kurie istoriją ir žaidimą vertina labiau nei skambučius, švilpukus ir tikroviškus nosies plaukus. Jame nėra kliūties 2 GB vaizdo atminties forma, ji „nesumažės“ po metų. Galite įdėti pinigų – daryk. „Witcher“ aukštuose nustatymuose, GTA V, DOOM, BF 1 – jokių problemų. Taip, teks atsisakyti daugelio patobulinimų, tokių kaip ypač ilgi šešėliai, sudėtingas teseliavimas ar „brangus“ savaime šešėliuojančių modelių skaičiavimas su ribotu spindulių sekimu, tačiau mūšio įkarštyje šias gražuoles pamiršite. po 10 minučių žaidimo, o stabilus 50-60 kadrų per sekundę duos daug labiau įtraukiantį efektą nei nerviniai šuoliai nuo 25 iki 40, bet su nustatymais "maksimaliai".

Jei turite Radeon 7850, GTX 760 ar naujesnes vaizdo plokštes su 2 GB ar mažiau vaizdo atminties, galite saugiai pakeisti.

GTX 1060

Jaunesnis 1060 patiks tiems, kuriems 100 FPS kadrų dažnis yra svarbesnis nei grafiniai varpeliai ir švilpukai. Tuo pačiu leis visus išleistus žaidimus patogiai žaisti FullHD raiška su aukštais arba maksimaliais nustatymais ir stabiliais 60 kadrų per sekundę greičiu, o kaina labai skiriasi nuo visko, kas ateina po to. Senesnis 1060 su 6 gigabaitais atminties yra bekompromisis FullHD sprendimas su metų ar dvejų našumo marža, susipažinimu su VR ir visiškai priimtinu kandidatu žaisti aukšta raiška esant vidutiniams parametrams.

Nėra prasmės keisti GTX 970 į GTX 1060, tai užtruks dar metus. Tačiau erzinančius 960, 770, 780, R9 280X ir senesnius įrenginius galima saugiai atnaujinti iki 1060.

Aukščiausias segmentas: GTX 1070 ir 1080

Vargu ar 1070 taps toks populiarus kaip GTX 970 (vis dėlto dauguma vartotojų turi geležinį atnaujinimo ciklą kas dvejus metus), tačiau kainos ir kokybės atžvilgiu tai tikrai vertas 70-osios linijos tęsinys. Jis tiesiog šlifuoja žaidimus esant įprastam 1080p raiška, lengvai valdo 2560 x 1440, atlaiko išbandymus neoptimizuotuose nuo 21 iki 9 ir yra gana pajėgus rodyti 4k, nors ir ne maksimaliais nustatymais.


Taip, SLI taip pat gali būti toks.

Atsisveikiname su kiekvienu 780 Ti, R9 390X ir kitais praėjusių metų 980-aisiais, ypač jei norime žaisti didelės raiškos. Ir, taip, tai geriausias pasirinkimas tiems, kurie mėgsta statyti pragarišką dėžę Mini-ITX formatu ir gąsdinti svečius 4k žaidimais 60-70 colių televizoriuje, kuris veikia kavos virimo aparato dydžio kompiuteriu.
gtx 1050 vaizdo plokštės istorija Pridėkite žymų

„Nvidia GeForce GTX 1080 Pascal“ apžvalga | Susipažinkite su GP104 GPU

„Computex“ išvakarėse „Nvidia“ nusprendė pristatyti savo ilgai lauktą naujieną – žaidėjams pritaikytą „Pascal“ architektūrą. Naujose GeForce GTX 1080 ir 1070 vaizdo plokštėse gamintojas montuoja GP104 grafikos procesorių. Šiandien apžvelgsime senesnį modelį, o jaunesnis mūsų rankose turėtų atsidurti birželio pradžioje.

„Pascal“ architektūra žada greitesnį ir efektyvesnį našumą, daugiau skaičiavimo modulių, sumažintą štampavimo plotą ir greitesnę atmintį su atnaujintu valdikliu. Jis geriau tinka VR, 4K žaidimams ir kitoms daug našumo reikalaujančioms programoms.

Kaip visada, pasistengsime suprasti gamintojo pažadus ir išbandyti juos praktiškai. Pradėkime.

Ar GeForce GTX 1080 pakeis galios balansą aukščiausios klasės segmente?

„Nvidia GeForce GTX 1080“ yra greičiausia iš dviejų anksčiau šį mėnesį paskelbtų žaidimų vaizdo plokščių. Abu naudoja GP104 GPU, kuris, beje, yra jau antrasis Pascal mikroarchitektūros GPU (pirmasis buvo GP100, kuris GTC pasirodė balandį). „Nvidia“ generalinis direktorius Ren-Sun Huanas erzino entuziastus, kai plačiajai visuomenei pristatė naują produktą, teigdamas, kad „GeForce GTX 1080“ SLI pranoks du 980.

Jis taip pat pažymėjo, kad didesnio našumo GTX 1080 energijos suvartojimas yra mažesnis nei 900 serijos. Jis yra dvigubai greitesnis ir tris kartus efektyvesnis nei buvęs flagmanas „GeForce Titan X“, tačiau pažvelgus į pridedamus grafikus ir diagramas paaiškėja, kad toks įspūdingas skirtumas pasireiškia tam tikromis su virtualia realybe susijusiomis užduotimis. Tačiau net jei šie pažadai pasitvirtins tik iš dalies, mūsų laukia labai įdomūs laikai, kalbant apie aukščiausios klasės žaidimų kūrimą asmeniniame kompiuteryje.

Virtuali realybė pamažu įgauna pagreitį, tačiau aukšti techninės įrangos reikalavimai grafikos posistemiui sukuria didelę kliūtį prieigai prie šių technologijų. Be to, dauguma šiandien prieinamų žaidimų nežino, kaip pasinaudoti kelių procesorių atvaizdavimo pranašumais. Tai reiškia, kad paprastai apsiribojate vieno greito vaizdo adapterio su vienu GPU galimybėmis. GTX 1080 gali pranokti du 980 ir neturėtų kovoti su šiandienos VR žaidimais, todėl ateityje nebereikės kelių procesorių konfigūracijų.

4K ekosistema vystosi taip pat greitai. Didesnės pralaidumo sąsajos, tokios kaip HDMI 2.0b ir DisplayPort 1.3/1.4, iki šių metų pabaigos turėtų atverti duris 4K monitoriams su 120 Hz plokštėmis ir dinaminio atnaujinimo dažnio palaikymu. Nors ankstesnės kartos aukščiausios klasės AMD ir Nvidia GPU buvo naudojami kaip 4K žaidimų sprendimai, vartotojai turėjo eiti į kompromisus dėl kokybės, kad išlaikytų priimtiną kadrų dažnį. „GeForce Nvidia GTX 1080“ gali būti pirmoji vaizdo plokštė, pakankamai greita, kad išlaikytų didelį kadrų dažnį esant 3840 x 2160 raiškai su maksimaliais grafikos detalių nustatymais.

Kokia situacija su kelių monitorių konfigūracijomis? Daugelis žaidėjų nori įdiegti tris monitorius, kurių skiriamoji geba yra 1920x1080, tačiau su sąlyga, kad grafikos sistema atlaikys apkrovą, nes tokiu atveju kortelė turi atvaizduoti pusę milijono pikselių, nes skiriamoji geba yra 7680x1440. Yra net entuziastų, norinčių paimti tris 4K ekranus, kurių bendra skiriamoji geba yra 11520x2160 pikselių.

Pastarasis variantas yra per daug egzotiškas net naujai žaidimų flagmano vaizdo plokštei. Tačiau „Nvidia GP104“ procesoriuje įdiegta technologija, kuri žada pagerinti patirtį atliekant tipines naujojo modelio užduotis, t. y. 4K ir erdvinį. Tačiau prieš pereidami prie naujų technologijų, atidžiau pažvelkime į GP104 procesorių ir jo pagrindinę Pascal architektūrą.

Iš ko pagamintas GP104?

Nuo 2012 m. pradžios AMD ir Nvidia naudoja 28 nm proceso technologiją. Perėjusios prie jo, abi bendrovės padarė didelį šuolį į priekį – pristatė mums vaizdo plokštes Radeon HD 7970 ir GeForce GTX 680. Tačiau per ateinančius ketverius metus joms teko daug suktis, kad iš esamos technologijos išgautų didesnį našumą. Radeon R9 Fury X ir GeForce GTX 980 Ti vaizdo plokščių pasiekimai yra tikrai nuostabūs, atsižvelgiant į jų sudėtingumą. Pirmasis lustas, kurį Nvidia sukūrė 28 nm procese, buvo GK104, kurį sudarė 3,5 milijardo tranzistorių. GM200, rastas „GeForce GTX 980 Ti“ ir „Titan X“, jau turi aštuonis milijardus tranzistorių.

Perėjimas prie 16 nm TSMC FinFET Plus technologijos leido Nvidia inžinieriams įgyvendinti naujas idėjas. Pagal techninius duomenis 16FF+ lustai yra 65% greitesni, gali turėti dvigubai didesnį tankį nei 28HPM arba sunaudoti 70% mažiau energijos. Kurdama savo GPU, Nvidia naudoja optimalų šių privalumų derinį. TSMC teigia, kad jis buvo pagrįstas esamo 20 nm proceso inžinerija, tačiau vietoj plokščių tranzistorių naudojo FinFET tranzistorius. Bendrovė teigia, kad šis metodas sumažina laužo kiekį ir padidina darbinių plokščių našumą. Taip pat teigiama, kad įmonė neturėjo 20 nanometrų proceso technologijos su greitais tranzistoriais. Vėlgi, kompiuterinės grafikos pasaulis jau daugiau nei ketverius metus laikosi 28 nm proceso technologijos.

GP104 procesoriaus bloko schema

GM204 įpėdinį sudaro 7,2 milijardo tranzistorių, išdėstytų 314 mm2 plote. Palyginimui, GM204 matricos plotas yra 398 mm2 su 5,2 milijardo tranzistorių. Pilnoje versijoje vienas GP104 GPU turi keturias grafikos apdorojimo grupes (GPC). Kiekviename GPC yra penkios gijų / tekstūrų apdorojimo grupės (TPC) ir rasterizatorius. TPC sujungia vieną srautinio perdavimo daugiaprocesorių (SM) ir „PolyMorph“ variklį. SM sujungia 128 pavienius tikslius CUDA branduolius, 256 KB registro atminties, 96 KB bendrosios atminties, 48 ​​KB L1 / tekstūros talpyklos ir aštuonis tekstūros vienetus. Ketvirtosios kartos „PolyMorph“ variklyje yra naujas loginis blokas, esantis geometrijos dujotiekio gale prieš rastrizacijos bloką, jis valdo „Simultaneous Multi-Projection“ funkciją (daugiau apie tai žemiau). Iš viso gauname 20 SM, 2560 CUDA branduolių ir 160 tekstūrų apdorojimo vienetų.

Vienas srautinio perdavimo kelių procesorių (SM) GP104

GPU galinė dalis apima aštuonis 32 bitų atminties valdiklius (256 bitų bendras kanalo plotis), aštuonis rastravimo blokus ir 256 KB L2 talpyklos vienam įrenginiui. Mes turime 64 ROP ir 2 MB bendrinamos L2 talpyklos. Nors Nvidia GM204 procesoriaus blokinėje diagramoje buvo parodyti keturi 64 bitų valdikliai ir 16 ROP, jie buvo sugrupuoti ir yra funkciškai lygiaverčiai.

Kai kurie GP104 struktūriniai elementai yra panašūs į GM204, nes naujasis GPU buvo sukurtas iš pirmtako „statybinių blokų“. Čia nėra nieko blogo. Jei pamenate, Maxwell architektūroje įmonė rėmėsi energijos vartojimo efektyvumu ir nekratė blokų, kurie buvo Keplerio stiprybė. Čia matome panašų vaizdą.

Pridėjus keturis SMS, veikimas gali nepastebimai paveikti. Tačiau GP104 turi keletą gudrybių. Pirmasis koziris – žymiai aukštesni laikrodžių dažniai. Bazinis GPU taktinis dažnis yra 1607 MHz. Palyginimui GM204 specifikacijose nurodyta 1126 MHz. GPU Boost maksimalus dažnis yra 1733 MHz, bet mes padidinome pavyzdį iki 2 100 MHz naudodami EVGA PrecisionX beta programą. Iš kur toks rezervas įsijungimui? Pasak Johno Albino, vyresniojo GPU inžinerijos viceprezidento, jo komanda žinojo, kad TSMC 16FF+ procesas turės įtakos lusto architektūrai, todėl jie sutelkė dėmesį į lusto laiko optimizavimą, kad pašalintų kliūtis, neleidžiančias pasiekti didesnio laikrodžio greičio. Dėl to GP104 vienkartinio tikslumo skaičiavimo greitis pasiekė 8228 GFLOP (pagrindiniu laikrodžiu), palyginti su 4612 GFLOP lubomis GeForce GTX 980. Tekselių užpildymo greitis šoktelėjo nuo 155,6 Gtex/s 980 (su GPU Boost). 277, 3 Gtex / s.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
SM 20 16
CUDA branduolių skaičius 2560 2048
Bazinis GPU dažnis, MHz 1607 1126
GPU dažnis Boost režimu, MHz 1733 1216
Skaičiavimo greitis, GFLOP (pagrindiniu dažniu) 8228 4612
Tekstūros vienetų skaičius 160 128
Texel užpildymo greitis, Gtex/s 277,3 155,6
Atminties perdavimo sparta, Gbps 10 7
Atminties pralaidumas, GB/s 320 224
Rasterizacijos blokų skaičius 64 64
L2 talpyklos dydis, MB 2 2
Terminis paketas, W 180 165
Tranzistorių skaičius 7,2 mlrd 5,2 mlrd
Kristalo plotas, mm2 314 398 mm
Proceso technologija, nm 16 28

Galinėje dalyje vis dar yra 64 ROP ir 256 bitų atminties magistralė, tačiau „Nvidia“ pristatė GDDR5X atmintį, kad padidintų galimą pralaidumą. Bendrovė įdėjo daug pastangų reklamuodama naujo tipo atmintį, ypač HBM atminties fone, kuri naudojama įvairiose AMD vaizdo plokštėse ir HBM2, kurį Nvidia diegia į Tesla P100. Panašu, kad šiuo metu rinkoje trūksta HBM2 atminties, o įmonė nėra pasirengusi priimti HBM apribojimus (keturias 1 GB dėklas arba aštuonių 1 GB dėtuvių diegimo sunkumus). Taip gavome GDDR5X vaizdo atmintį, kurios pasiūla, matyt, irgi ribota, nes GeForce GTX 1070 jau naudoja įprastą GDDR5. Tačiau tai neapima naujojo sprendimo privalumų. GeForce GTX 980 GDDR5 atmintis turėjo 7 Gb/s duomenų perdavimo spartą. Tai suteikė 224 GB/s pralaidumą per 256 bitų magistralę. GDDR5X prasideda nuo 10 Gb/s, padidindamas pralaidumą iki 320 GB/s (~43 % padidėjimas). „Nvidia“ teigimu, padidėjimas pasiekiamas naudojant atnaujintą įvesties / išvesties schemą ir nedidinant energijos suvartojimo.

Maxwell architektūra tapo efektyvesnė naudojant pralaidumą optimizuojant talpyklos ir glaudinimo algoritmus, o Pascal eina tuo pačiu keliu su naujais be nuostolių glaudinimo metodais, kad ekonomiškiau išnaudotų turimą atminties posistemio pralaidumą. Delta spalvų glaudinimo algoritmas bando pasiekti 2:1 stiprinimą, todėl šis režimas buvo patobulintas, kad jį būtų galima naudoti dažniau. Taip pat yra naujas 4:1 režimas, kuris naudojamas tais atvejais, kai vieno pikselio skirtumai yra labai maži. Galiausiai Pascal pristato dar vieną naują 8:1 algoritmą, kuris taiko 4:1 glaudinimą 2x2 blokams, kurių skirtumas apdorojamas 2:1 algoritmu.



Skirtumą nesunku iliustruoti. Pirmame paveikslėlyje parodyta nesuspausta projekto CARS ekrano kopija. Toliau pateiktame paveikslėlyje pavaizduoti elementai, kuriuos „Maxwell“ kortelė gali suspausti, jie yra nuspalvinti purpurine spalva. Trečiame kadre matosi, kad Paskalis dar labiau suspaudžia sceną. „Nvidia“ teigimu, šis skirtumas reiškia, kad informacijos, kurią reikia gauti iš atminties kiekvienam kadrui, kiekis baitais sumažėja maždaug 20%.

ParametrasReikšmė
Lusto kodo pavadinimasGP104
Gamybos technologija16 nm FinFET
Tranzistorių skaičius7,2 mlrd
Pagrindinė sritis314 mm²
Architektūra
„DirectX“ techninės įrangos palaikymas
Atminties magistralė
1607 (1733) MHz
Skaičiavimo blokai20 srautinio perdavimo kelių procesorių, įskaitant 2560 IEEE 754-2008 slankiojo kablelio skaliarinius ALU;
Tekstūriniai blokeliai160 tekstūrų adresavimo ir filtravimo vienetų su FP16 ir FP32 tekstūrų komponentų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Monitoriaus palaikymas
GeForce GTX 1080 pamatinės grafikos specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1607 (1733) MHz
2560
Tekstūros blokų skaičius160
Maišymo blokų skaičius64
Efektyvus atminties dažnis10000 (4×2500) MHz
Atminties tipasGDDR5X
Atminties magistralė256 bitų
Atmintis8 GB
320 GB/s
apie 9 teraflopus
103 gigapikseliai/s
257 gigatekseliai/s
PadangaPCI Express 3.0
Jungtys
energijos suvartojimasiki 180W
Papildomas maistasViena 8 kontaktų jungtis
2
Rekomenduojama kaina599–699 USD (JAV), 54 990 RUB (Rusija)

Naujasis GeForce GTX 1080 vaizdo plokštės modelis gavo logišką pavadinimą pirmajam naujosios GeForce serijos sprendimui – nuo ​​tiesioginio pirmtako jis skiriasi tik pasikeitusiu kartos numeriu. Naujovė ne tik pakeičia aukščiausios klasės sprendimus dabartinėje įmonės linijoje, bet ir kurį laiką tapo naujosios serijos flagmanu, kol Titan X buvo išleistas su dar galingesniu GPU. Žemiau jo hierarchijoje taip pat yra jau paskelbtas modelis GeForce GTX 1070, paremtas nulupta GP104 lusto versija, kurią svarstysime toliau.

Siūlomos naujos „Nvidia“ vaizdo plokštės kainos yra atitinkamai 599 USD ir 699 USD už įprastą ir „Founders Edition“ (žr. žemiau), o tai yra gana geras pasiūlymas, atsižvelgiant į tai, kad GTX 1080 lenkia ne tik GTX 980 Ti, bet ir Titan X. Šiandien naujasis produktas yra geriausias sprendimas pagal našumą vieno lusto vaizdo plokščių rinkoje be jokių klausimų ir tuo pačiu yra pigesnis už galingiausias ankstesnės kartos vaizdo plokštes. Kol kas „GeForce GTX 1080“ iš esmės neturėjo konkurento iš AMD, todėl „Nvidia“ sugebėjo nustatyti jiems tinkančią kainą.

Nagrinėjama vaizdo plokštė yra pagrįsta GP104 lustu, turinčiu 256 bitų atminties magistralę, tačiau naujo tipo GDDR5X atmintis veikia labai aukštu efektyviu 10 GHz dažniu, o tai užtikrina didelį 320 GB/s pralaidumą. - kuris beveik prilygsta GTX 980 Ti su 384 bitų magistrale. Vaizdo plokštėje su tokia magistrale įdiegtos atminties kiekis galėtų būti 4 arba 8 GB, tačiau tokiam galingam sprendimui šiuolaikinėmis sąlygomis nustatyti mažesnę sumą būtų kvaila, todėl GTX 1080 gavo 8 GB atminties, o šios sumos pakanka paleisti bet kokias 3D programas su bet kokiais kokybės nustatymais kelerius metus į priekį.

GeForce GTX 1080 PCB, suprantama, gerokai skiriasi nuo ankstesnių bendrovės PCB. Įprastų naujų elementų energijos suvartojimo vertė yra 180 vatų – šiek tiek didesnė nei GTX 980, bet pastebimai mažesnė nei mažiau galingų Titan X ir GTX 980 Ti. Nuorodų plokštėje yra įprastas jungčių rinkinys vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort.

Founders Edition referencinis dizainas

Net ir gegužės pradžioje paskelbus GeForce GTX 1080, buvo paskelbta apie specialų vaizdo plokštės leidimą pavadinimu Founders Edition, kurio kaina yra didesnė nei įprastų kompanijos partnerių vaizdo plokščių. Tiesą sakant, šis leidimas yra etaloninis kortelės ir aušinimo sistemos dizainas, o jį gamina pati „Nvidia“. Į tokias vaizdo plokščių parinktis galima žiūrėti skirtingai, tačiau kompanijos inžinierių sukurtas ir kokybiškas komponentais pagamintas etaloninis dizainas turi savo gerbėjų.

Bet ar jie mokės keliais tūkstančiais rublių daugiau už pačios „Nvidia“ vaizdo plokštę, yra klausimas, į kurį gali atsakyti tik praktika. Bet kokiu atveju iš pradžių prekyboje už padidintą kainą pasirodys etaloninės vaizdo plokštės iš Nvidia, o rinktis tikrai nėra iš ko – taip nutinka su kiekvienu pranešimu, tačiau etaloninė GeForce GTX 1080 skiriasi tuo. tokia forma planuojama pardavinėti visą gyvavimo laiką., iki bus išleisti naujos kartos sprendimai.

„Nvidia“ mano, kad šis leidimas turi pranašumų net prieš geriausius partnerių darbus. Pavyzdžiui, dviejų lizdų aušintuvo konstrukcija leidžia lengvai surinkti tiek palyginti mažo dydžio žaidimų kompiuterius, tiek kelių lustų vaizdo sistemas, pagrįstas šia galinga vaizdo plokšte (net nepaisant to, kad trijų ir keturių lustų režimas nerekomenduojamas įmonės). „GeForce GTX 1080 Founders Edition“ turi tam tikrų pranašumų: efektyvus aušintuvas, kuriame naudojamas garavimo kamera, ir ventiliatorius, išstumiantis įkaitintą orą iš korpuso – tai pirmasis toks „Nvidia“ sprendimas, sunaudojantis mažiau nei 250 vatų galios.

Palyginti su ankstesniais bendrovės etaloniniais gaminių projektais, maitinimo grandinė buvo atnaujinta iš keturių fazių į penkių fazių. „Nvidia“ taip pat kalba apie patobulintus komponentus, kuriais grindžiamas naujasis produktas, taip pat sumažintas elektrinis triukšmas, siekiant pagerinti įtampos stabilumą ir įsijungimo potencialą. Dėl visų patobulinimų etaloninės plokštės energijos vartojimo efektyvumas padidėjo 6%, palyginti su GeForce GTX 980.

O norint išoriškai skirtis nuo „įprastų“ „GeForce GTX 1080“ modelių, „Founders Edition“ buvo sukurtas neįprastas „kapoto“ korpuso dizainas. Tačiau, ko gero, tai lėmė ir garinimo kameros bei radiatoriaus formos komplikaciją (žr. nuotrauką), kuri galėjo būti viena iš priežasčių, kodėl už tokį specialų leidimą papildomai reikia sumokėti 100 USD. Kartojame, kad išpardavimų pradžioje pirkėjai neturės didelio pasirinkimo, tačiau ateityje bus galima rinktis tiek sprendimą su savo dizainu iš vieno iš įmonės partnerių, tiek atliekamą pačios Nvidia.

Naujos kartos Pascal grafikos architektūra

„GeForce GTX 1080“ vaizdo plokštė yra pirmasis bendrovės sprendimas, pagrįstas GP104 lustu, kuris priklauso naujos kartos „Nvidia“ Pascal grafikos architektūrai. Nors naujoji architektūra paremta Maxwell sukurtais sprendimais, ji turi ir svarbių funkcinių skirtumų, apie kuriuos parašysime vėliau. Pagrindinis pokytis pasauliniu požiūriu buvo naujas technologinis procesas, pagal kurį buvo pagamintas naujas grafinis procesorius.

16 nm FinFET proceso technologijos panaudojimas gaminant GP104 GPU Taivano įmonės TSMC gamyklose leido žymiai padidinti lusto sudėtingumą išlaikant santykinai mažą plotą ir sąnaudas. Palyginkite tranzistorių skaičių ir GP104 bei GM204 lustų plotą – jų plotas artimas (naujovės lustas net fiziškai mažesnis), tačiau Pascal architektūros lustas turi žymiai didesnį tranzistorių skaičių ir atitinkamai. , vykdymo vienetai, įskaitant tuos, kurie teikia naujas funkcijas.

Architektūriniu požiūriu pirmasis žaidimų „Pascal“ yra labai panašus į panašius Maxwell architektūros sprendimus, nors yra ir tam tikrų skirtumų. Kaip ir Maxwell, Pascal architektūros procesoriai turės skirtingas grafikos apdorojimo grupių (GPC), srautinio perdavimo kelių procesorių (SM) ir atminties valdiklių konfigūracijas. SM daugiaprocesorius yra labai lygiagretus daugiaprocesorius, kuris suplanuoja ir vykdo deformacijas (kreipimus, 32 komandų srautų grupes) CUDA branduoliuose ir kituose daugiaprocesoriaus vykdymo blokuose. Išsamią informaciją apie visų šių blokų dizainą rasite mūsų ankstesnių Nvidia sprendimų apžvalgose.

Kiekvienas iš SM kelių procesorių yra suporuotas su „PolyMorph Engine“, kuris tvarko tekstūros atranką, teseliaciją, transformaciją, viršūnių atributų nustatymą ir perspektyvos korekciją. Skirtingai nuo ankstesnių bendrovės sprendimų, GP104 lusto „PolyMorph Engine“ taip pat turi naują „Simultaneous Multi-Projection“ bloką, apie kurį kalbėsime toliau. SM kelių procesorių derinys su vienu „Polymorph Engine“ tradiciškai vadinamas TPC – „Nvidia“ skirtų tekstūrų procesorių grupe.

Iš viso „GeForce GTX 1080“ GP104 lustą sudaro keturios GPC klasteriai ir 20 SM kelių procesorių, taip pat aštuoni atminties valdikliai kartu su 64 ROP. Kiekvienas GPC klasteris turi tam skirtą rastrizacijos variklį ir penkis SM. Kiekvienas daugiaprocesorius savo ruožtu susideda iš 128 CUDA branduolių, 256 KB registro failo, 96 KB bendros atminties, 48 ​​KB L1 talpyklos ir aštuonių TMU tekstūrų vienetų. Tai yra, iš viso GP104 yra 2560 CUDA branduolių ir 160 TMU vienetų.

Be to, grafikos procesorius, kuriuo pagrįstas GeForce GTX 1080, turi aštuonis 32 bitų (priešingai nei anksčiau naudotus 64 bitų) atminties valdiklius, kurie suteikia mums galutinę 256 bitų atminties magistralę. Aštuonios ROP ir 256 KB L2 talpyklos yra susietos su kiekvienu atminties valdikliu. Tai yra, iš viso GP104 mikroschemoje yra 64 ROP ir 2048 KB L2 talpyklos.

Dėl architektūrinių optimizacijų ir naujos proceso technologijos pirmasis žaidimų „Pascal“ tapo efektyviausiu visų laikų energiją taupančiu GPU. Be to, prie to prisideda ir vienas pažangiausių technologinių procesų 16 nm FinFET, ir architektūros optimizavimas, atliktas Pascal, lyginant su Maxwell. Perėjus prie naujos proceso technologijos, „Nvidia“ sugebėjo padidinti laikrodžio greitį dar labiau, nei tikėjosi. GP104 veikia didesniu dažniu nei hipotetinis GM204, pagamintas naudojant 16 nm procesą. Norėdami tai padaryti, „Nvidia“ inžinieriai turėjo atidžiai patikrinti ir optimizuoti visas ankstesnių sprendimų kliūtis, kurios neleidžia įsibėgėti virš tam tikros ribos. Dėl to naujasis GeForce GTX 1080 veikia daugiau nei 40 % greičiau nei GeForce GTX 980. Tačiau tai dar ne viskas, ką galima pasakyti apie GPU laikrodžio pokyčius.

GPU Boost 3.0 technologija

Kaip gerai žinome iš ankstesnių „Nvidia“ vaizdo plokščių, jos savo GPU naudoja „GPU Boost“ aparatinės įrangos technologiją, skirtą padidinti GPU veikimo taktinį dažnį režimuose, kai jis dar nepasiekė savo energijos suvartojimo ir šiluminių ribų. Bėgant metams šis algoritmas patyrė daugybę pokyčių, o Pascal architektūros vaizdo luste jau naudojama trečioji šios technologijos karta – GPU Boost 3.0, kurios pagrindinė naujovė – smulkesnis turbo dažnių nustatymas, priklausomai nuo įtampos.

Jei prisimenate ankstesnių technologijos versijų veikimo principą, tai skirtumas tarp bazinio dažnio (garantuota minimali dažnio reikšmė, žemiau kurios GPU nenukrenta, bent jau žaidimuose) ir turbo dažnio buvo fiksuotas. Tai yra, turbo dažnis visada buvo tam tikru megahercų skaičiumi virš bazės. GPU Boost 3.0 pristatė galimybę nustatyti turbo dažnio poslinkius kiekvienai įtampai atskirai. Lengviausias būdas tai suprasti yra iliustracija:

Kairėje yra antrosios versijos GPU Boost, dešinėje - trečioji, pasirodžiusi Pascal. Fiksuotas skirtumas tarp bazinio ir turbo dažnių neleido atskleisti visų GPU galimybių, kai kuriais atvejais ankstesnių kartų GPU galėjo dirbti greičiau esant nustatytai įtampai, tačiau fiksuotas turbo dažnio perteklius to neleido. GPU Boost 3.0 pasirodė ši funkcija, o turbo dažnį galima nustatyti kiekvienai atskirai įtampos vertei, visiškai išspaudžiant visas sultis iš GPU.

Norint valdyti įsijungimą ir nustatyti turbo dažnio kreivę, reikalingos patogios paslaugos. Pati „Nvidia“ to nedaro, bet padeda savo partneriams sukurti tokias komunalines paslaugas, kurios palengvintų įsijungimą (žinoma, neperžengiant pagrįstų ribų). Pavyzdžiui, naujas GPU Boost 3.0 funkcionalumas jau buvo atskleistas EVGA Precision XOC, kuriame yra specialus įsijungimo skaitytuvas, kuris automatiškai suranda ir nustato netiesinį skirtumą tarp bazinio dažnio ir turbo dažnio esant skirtingoms įtampoms, paleisdamas integruotą veikimo ir stabilumo testas. Dėl to vartotojas gauna turbo dažnio kreivę, kuri puikiai atitinka konkretaus lusto galimybes. Kuris, be to, gali būti modifikuojamas kaip jums patinka rankiniu režimu.

Kaip matote programos ekrano kopijoje, be informacijos apie GPU ir sistemą, taip pat yra įsijungimo nustatymai: Power Target (apibrėžia tipinį energijos suvartojimą įsijungimo metu procentais nuo standarto), GPU Temp Target. (maksimali leistina šerdies temperatūra), GPU laikrodžio poslinkis (viršijantis visų įtampos verčių bazinį dažnį), Atminties poslinkis (viršijantis vaizdo atminties dažnį virš numatytosios vertės), Viršįtampa (papildoma galimybė padidinti įtampą).

„Precision XOC“ programa apima tris įsijungimo režimus: pagrindinį, linijinį ir rankinį. Pagrindiniame režime galite nustatyti vieną pagreitinimo reikšmę (fiksuotą turbo dažnį) virš pagrindinio, kaip buvo ankstesnių GPU atveju. Linijinis režimas leidžia nustatyti tiesinį dažnio pokytį nuo minimalių iki didžiausių GPU įtampos verčių. Na, rankiniu režimu galite nustatyti unikalias GPU dažnio reikšmes kiekvienam grafiko įtampos taškui.

Priemonėje taip pat yra specialus skaitytuvas, skirtas automatiniam įsijungimui. Galite nustatyti savo dažnio lygius arba leisti „Precision XOC“ programai nuskaityti GPU esant bet kokiai įtampai ir visiškai automatiškai rasti stabiliausius dažnius kiekvienam įtampos ir dažnio kreivės taškui. Nuskaitymo proceso metu Precision XOC laipsniškai padidina GPU dažnį ir tikrina jo veikimą, ar nėra stabilumo ar artefaktų, sukurdama idealią dažnio ir įtampos kreivę, kuri bus unikali kiekvienam konkrečiam lustui.

Šį skaitytuvą galima pritaikyti pagal jūsų poreikius, nustatant laiko intervalą, per kurį reikia patikrinti kiekvieną įtampos vertę, mažiausią ir didžiausią tikrintiną dažnį bei jo žingsnį. Akivaizdu, kad norint pasiekti stabilių rezultatų, geriau būtų nustatyti nedidelį žingsnį ir padorią testavimo trukmę. Testavimo metu gali būti stebimas nestabilus vaizdo tvarkyklės ir sistemos darbas, tačiau jei skeneris neužšąla, jis atkurs darbą ir toliau ieškos optimalių dažnių.

Naujo tipo vaizdo atmintis GDDR5X ir patobulintas glaudinimas

Taigi, GPU galia gerokai išaugo, o atminties magistralė liko tik 256 bitų – ar atminties pralaidumas apribos bendrą našumą ir ką su tuo daryti? Panašu, kad perspektyvų antrosios kartos HBM gaminti vis dar per brangu, todėl teko ieškoti kitų variantų. Nuo 2009 m., kai buvo pristatyta GDDR5 atmintis, „Nvidia“ inžinieriai tiria naujų tipų atminties panaudojimo galimybes. Dėl to buvo pristatytas naujas atminties standartas GDDR5X – pats sudėtingiausias ir pažangiausias standartas iki šiol, suteikiantis 10 Gbps perdavimo spartą.

„Nvidia“ pateikia įdomų pavyzdį, kaip greitai tai vyksta. Tarp perduodamų bitų praeina tik 100 pikosekundžių – per šį laiką šviesos spindulys nukeliaus vos vieno colio (apie 2,5 cm) atstumą. O naudojant GDDR5X atmintį, duomenų priėmimo grandinės turi pasirinkti perduodamo bito reikšmę mažiau nei per pusę šio laiko iki kito siuntimo – tai tik tam, kad suprastumėte, prie ko priėjo šiuolaikinės technologijos.

Norint pasiekti šį greitį, reikėjo sukurti naują I/O sistemos architektūrą, kuriai prireikė kelerių metų bendro kūrimo su atminties lustų gamintojais. Be padidėjusio duomenų perdavimo spartos, išaugo ir energijos vartojimo efektyvumas – GDDR5X atminties lustai naudoja mažesnę 1,35 V įtampą ir yra gaminami naudojant naujas technologijas, o tai suteikia vienodas energijos sąnaudas esant 43% didesniam dažniui.

Bendrovės inžinieriai turėjo pertvarkyti duomenų perdavimo linijas tarp GPU branduolio ir atminties lustų, daugiau dėmesio skirdami signalo praradimo ir signalo pablogėjimo prevencijai nuo atminties iki GPU ir atgal. Taigi aukščiau esančioje iliustracijoje užfiksuotas signalas rodomas kaip didelė simetriška „akis“, o tai rodo gerą visos grandinės optimizavimą ir santykinį duomenų fiksavimo iš signalo lengvumą. Be to, aukščiau aprašyti pakeitimai ne tik suteikė galimybę naudoti GDDR5X 10 GHz dažniu, bet ir turėtų padėti gauti didelį atminties pralaidumą būsimuose gaminiuose, naudojantys labiau pažįstamą GDDR5 atmintį.

Na, naudojant naują atmintį, atminties pralaidumas padidėjo daugiau nei 40%. Bet ar to neužtenka? Siekdama dar labiau padidinti atminties pralaidumo efektyvumą, „Nvidia“ toliau tobulino ankstesnėse architektūrose įdiegtą pažangų duomenų glaudinimą. GeForce GTX 1080 atminties posistemis naudoja patobulintas ir keletą naujų duomenų be nuostolių glaudinimo metodų, skirtų sumažinti pralaidumo reikalavimus – tai jau ketvirtoji lusto glaudinimo karta.

Duomenų glaudinimo atmintyje algoritmai vienu metu suteikia keletą teigiamų aspektų. Suspaudimas sumažina į atmintį įrašomų duomenų kiekį, tas pats pasakytina ir apie duomenis, perkeltus iš vaizdo atminties į antrojo lygio talpyklą, o tai pagerina L2 talpyklos naudojimo efektyvumą, nes suglaudinta plytelė (kelių kadrų buferio taškų blokas) turi mažesnę dydis nei nesuspaustas. Tai taip pat sumažina duomenų, siunčiamų tarp skirtingų taškų, pvz., TMU tekstūros modulio ir kadrų buferio, kiekį.

Duomenų glaudinimo konvejeryje GPU naudojami keli algoritmai, kurie nustatomi priklausomai nuo duomenų „suspaudžiamumo“ – jiems parenkamas geriausias prieinamas algoritmas. Vienas iš svarbiausių yra delta spalvų glaudinimo algoritmas. Šis suspaudimo metodas koduoja duomenis kaip skirtumą tarp iš eilės einančių reikšmių, o ne pačių duomenų. GPU apskaičiuoja spalvų reikšmių skirtumą tarp bloko (plytelės) pikselių ir išsaugo bloką kaip vidutinę viso bloko spalvą ir duomenis apie kiekvieno pikselio verčių skirtumą. Grafiniams duomenims šis metodas dažniausiai puikiai tinka, nes mažose visų pikselių plytelėse spalva dažnai per daug nesiskiria.

„GeForce GTX 1080“ GP104 GPU palaiko daugiau glaudinimo algoritmų nei ankstesni Maxwell lustai. Taigi 2:1 suspaudimo algoritmas tapo efektyvesnis, o be jo atsirado du nauji algoritmai: 4:1 glaudinimo režimas, tinkantis tais atvejais, kai bloko pikselių spalvų reikšmės skirtumas yra labai didelis. mažas ir 8:1 režimas, kuris apjungia nuolatinį 4:1 2 × 2 pikselių blokų suspaudimą su 2x delta glaudinimu tarp blokų. Kai suspaudimas iš viso neįmanomas, jis nenaudojamas.

Tačiau iš tikrųjų pastarasis nutinka labai retai. Tai matyti iš žaidimo Project CARS ekrano kopijų pavyzdžių, kuriuos „Nvidia“ cituoja, kad parodytų padidintą „Pascal“ suspaudimo laipsnį. Iliustracijose tos kadrų buferio plytelės, kurias GPU galėjo suspausti, buvo nuspalvintos purpurine spalva, o tos, kurių nepavyko suspausti be nuostolių, liko originalios spalvos (viršuje - Maxwell, apačioje - Pascal).

Kaip matote, nauji GP104 glaudinimo algoritmai tikrai veikia daug geriau nei Maxwell. Nors senoji architektūra taip pat galėjo suspausti daugumą scenoje esančių plytelių, daug žolės ir medžių aplink kraštus, taip pat automobilių detales, netaikomi seniems suspaudimo algoritmams. Tačiau įtraukus naujas Pascal technologijas, labai mažas vaizdo sričių skaičius liko nesuspaustas – akivaizdus geresnis efektyvumas.

Dėl patobulintų duomenų glaudinimo, GeForce GTX 1080 gali žymiai sumažinti vienam kadrui siunčiamų duomenų kiekį. Skaičiais patobulintas glaudinimas sutaupo dar 20 % efektyvaus atminties pralaidumo. Be daugiau nei 40 % didesnio GeForce GTX 1080 atminties pralaidumo, palyginti su GTX 980, naudojant GDDR5X atmintį, visa tai kartu suteikia apie 70 % didesnį efektyvų atminties pralaidumą, palyginti su ankstesnės kartos modeliu.

Async Compute palaikymas

Daugumoje šiuolaikinių žaidimų, be grafikos, naudojami sudėtingi skaičiavimai. Pavyzdžiui, skaičiavimai apskaičiuojant fizinių kūnų elgesį gali būti atliekami ne prieš ar po grafinių skaičiavimų, o kartu su jais, nes jie nėra susiję vienas su kitu ir nepriklauso vienas nuo kito tame pačiame rėmelyje. Kitas pavyzdys – jau pateiktų kadrų tolesnis apdorojimas ir garso duomenų apdorojimas, kuris taip pat gali būti atliekamas lygiagrečiai su atvaizdavimu.

Kitas aiškus funkcionalumo panaudojimo pavyzdys – VR sistemose naudojama Asynchronous Time Warp technika, skirta pakeisti išvesties kadrą pagal žaidėjo galvos judesį prieš pat jį išsiunčiant, nutraukiant kito atvaizdavimą. Toks asinchroninis GPU pajėgumų įkėlimas leidžia padidinti jo vykdymo vienetų naudojimo efektyvumą.

Šie darbo krūviai sukuria du naujus GPU naudojimo scenarijus. Pirmasis iš jų apima persidengiančias apkrovas, nes daugelio tipų užduotys nevisiškai išnaudoja GPU galimybes, o kai kurie ištekliai yra nenaudojami. Tokiais atvejais galite tiesiog vykdyti dvi skirtingas užduotis tame pačiame GPU, atskirdami jo vykdymo vienetus, kad galėtumėte efektyviau naudoti, pavyzdžiui, PhysX efektus, kurie veikia kartu su 3D kadro atvaizdavimu.

Siekiant pagerinti šio scenarijaus veikimą, Pascal architektūra įdiegė dinaminį apkrovos balansavimą. Ankstesnėje Maxwell architektūroje persidengiantys darbo krūviai buvo įgyvendinti kaip statinis GPU išteklių paskirstymas tarp grafikos ir skaičiavimo. Šis metodas yra veiksmingas, jei dviejų darbo krūvių pusiausvyra apytiksliai atitinka išteklių paskirstymą ir užduotys atliekamos vienodai laiku. Jei negrafiniai skaičiavimai užtrunka ilgiau nei grafiniai, ir abu laukia bendro darbo pabaigos, dalis GPU likusį laiką neveiks, o tai sumažins bendrą našumą ir panaikins visus privalumus. Kita vertus, aparatinės įrangos dinaminis apkrovos balansavimas leidžia panaudoti atsilaisvinusius GPU resursus, kai tik jie atsiranda – kad suprastumėte, pateiksime iliustraciją.

Taip pat yra užduočių, kurioms reikia laiko, ir tai yra antrasis asinchroninio skaičiavimo scenarijus. Pavyzdžiui, VR asinchroninio laiko iškraipymo algoritmo vykdymas turi būti baigtas prieš nuskaitant, kitaip kadras bus atmestas. Tokiu atveju GPU turi palaikyti labai greitą užduočių pertraukimą ir perjungimą į kitą užduotį, kad atimtų ne tokią svarbią užduotį nuo vykdymo GPU, atlaisvindamas jos išteklius svarbioms užduotims atlikti – tai vadinama išankstine užduočių atlikimu.

Vienoje žaidimo variklio atvaizdavimo komandoje gali būti šimtai piešimo iškvietimų, o kiekviename piešimo iškvietime savo ruožtu yra šimtai pateiktų trikampių, kurių kiekviename yra šimtai taškų, kuriuos reikia apskaičiuoti ir nupiešti. Tradicinis GPU metodas naudoja tik aukšto lygio užduočių pertraukimą, o grafikos vamzdynas turi palaukti, kol bus baigtas visas darbas, prieš perjungdamas užduotis, todėl delsa yra labai didelė.

Norėdami tai ištaisyti, Pascal architektūra pirmiausia pristatė galimybę pertraukti užduotį pikselių lygiu – Pixel Level Preemption. Pascal GPU vykdymo blokai gali nuolat stebėti atvaizdavimo užduočių eigą, o paprašius pertraukti, gali sustabdyti vykdymą, išsaugodami kontekstą vėlesniam užbaigimui greitai perjungdami į kitą užduotį.

Skaičiavimo operacijų gijos lygio pertraukimas ir perjungimas veikia panašiai kaip pikselių lygio pertraukimas grafiniam skaičiavimui. Skaičiavimo darbo krūviai susideda iš kelių tinklelių, kurių kiekvienoje yra kelios gijos. Kai gaunamas pertraukimo prašymas, daugiaprocesoriuje veikiančios gijos nutraukia jų vykdymą. Kiti blokai išsaugo savo būseną, kad ateityje galėtų tęsti nuo to paties taško, o GPU persijungia į kitą užduotį. Visas užduočių perjungimo procesas užtrunka mažiau nei 100 mikrosekundžių po to, kai išjungiamos veikiančios gijos.

Žaidimų darbo krūviams pikselių lygio pertraukimų grafikai ir gijos lygio pertraukimų skaičiavimo užduotims derinys suteikia Pascal architektūros GPU galimybę greitai perjungti užduotis su minimaliais laiko nuostoliais. O atliekant skaičiavimo užduotis CUDA, taip pat galima pertraukti su minimaliu detalumu - instrukcijų lygiu. Šiuo režimu visos gijos iš karto sustabdo vykdymą ir iškart pereina prie kitos užduoties. Šis metodas reikalauja išsaugoti daugiau informacijos apie kiekvienos gijos visų registrų būklę, tačiau kai kuriais negrafinių skaičiavimų atvejais tai yra gana pagrįsta.

Greito pertraukimo ir užduočių perjungimo naudojimas atliekant grafines ir skaičiavimo užduotis buvo įtrauktas į Pascal architektūrą, kad grafinės ir negrafinės užduotys galėtų būti pertraukiamos atskirų instrukcijų lygmeniu, o ne ištisomis gijomis, kaip buvo Maxwell ir Kepler atveju. . Šios technologijos gali pagerinti asinchroninį įvairių GPU darbo krūvių vykdymą ir pagerinti reagavimą vykdant kelias užduotis vienu metu. „Nvidia“ renginyje jie demonstravo asinchroninių skaičiavimų darbą, naudodami fizinių efektų skaičiavimo pavyzdį. Jei be asinchroninių skaičiavimų našumas buvo 77–79 FPS, tai įtraukus šias funkcijas kadrų dažnis padidėjo iki 93–94 FPS.

Jau pateikėme pavyzdį, kaip vieną iš galimybių naudoti šią funkcionalumą žaidimuose kaip asinchroninį laiko iškraipymą VR. Iliustracijoje parodytas šios technologijos veikimas su tradiciniu pertraukimu (išankstiniu būdu) ir greitai. Pirmuoju atveju asinchroninio laiko iškraipymo procesą stengiamasi atlikti kuo vėliau, bet prieš pradedant atnaujinti vaizdą ekrane. Tačiau algoritmo darbas turi būti atliktas GPU keliomis milisekundėmis anksčiau, nes be greito pertrūkio nėra galimybės tiksliai atlikti darbo reikiamu laiku, o GPU kurį laiką neveikia.

Tikslaus pertraukimo pikselių ir gijos lygiu atveju (parodyta dešinėje), ši galimybė suteikia didesnį tikslumą nustatant pertraukimo momentą, o asinchroninį laiko deformavimą galima pradėti daug vėliau, pasitikint, kad darbas bus baigtas prieš ekrane pradedama atnaujinti informacija. Ir kurį laiką tuščiąja eiga pirmuoju atveju GPU galima apkrauti papildomu grafiniu darbu.

Vienalaikė kelių projektavimo technologija

Naujasis GP104 GPU palaiko naują vienalaikio kelių projektavimo (SMP) technologiją, kuri leidžia GPU efektyviau pateikti duomenis šiuolaikinėse rodymo sistemose. SMP leidžia vaizdo lustui vienu metu rodyti duomenis keliose projekcijose, todėl reikėjo įvesti naują aparatinės įrangos bloką GPU kaip „PolyMorph“ variklio dalį geometrinio vamzdyno pabaigoje prieš rastrizacijos bloką. Šis blokas yra atsakingas už darbą su keliomis vieno geometrijos srauto projekcijomis.

Kelių projekcijų variklis vienu metu apdoroja geometrinius duomenis 16 iš anksto sukonfigūruotų projekcijų, kurios sujungia projekcijos tašką (kameros), šias projekcijas galima nepriklausomai pasukti arba pakreipti. Kadangi kiekvienas geometrijos primityvas gali pasirodyti vienu metu keliose projekcijose, SMP variklis suteikia šią funkciją, leidžiančią programai nurodyti vaizdo lustui atkartoti geometriją iki 32 kartų (16 projekcijų dviejuose projekcijų centruose) be papildomo apdorojimo.

Visas apdorojimo procesas yra pagreitintas aparatine įranga, o kadangi daugiaprojektavimas veikia po geometrijos variklio, nereikia kartoti visų geometrijos apdorojimo etapų kelis kartus. Sutaupyti ištekliai yra svarbūs, kai atvaizdavimo greitį riboja geometrijos apdorojimas, pvz., teseliacija, kai kiekvienai projekcijai kelis kartus atliekamas tas pats geometrinis darbas. Atitinkamai, didžiausiu atveju kelių projektavimas gali sumažinti geometrijos apdorojimo poreikį iki 32 kartų.

Bet kam viso to reikia? Yra keletas gerų pavyzdžių, kai kelių projektavimo technologija gali būti naudinga. Pavyzdžiui, kelių monitorių sistema, susidedanti iš trijų ekranų, sumontuotų kampu vienas kito atžvilgiu pakankamai arti vartotojo (erdvinio garso konfigūracija). Įprastoje situacijoje scena perteikiama vienoje projekcijoje, o tai lemia geometrinius iškraipymus ir neteisingą geometrijos atvaizdavimą. Tinkamas būdas yra trys skirtingos kiekvieno monitoriaus projekcijos, atsižvelgiant į kampą, kuriuo jie yra.

Naudojant vaizdo plokštę luste su Pascal architektūra, tai galima padaryti vienu geometrijos praėjimu, nurodant tris skirtingas projekcijas, kurių kiekviena skirta skirtingam monitoriui. Taip vartotojas galės keisti monitorių išdėstymo kampą vienas kito atžvilgiu ne tik fiziškai, bet ir virtualiai – sukdamas šoninių monitorių projekcijas, kad 3D scenoje gautų teisingą perspektyvą. pastebimai platesnis žiūrėjimo kampas (FOV). Tiesa, čia yra apribojimas – tokiam palaikymui aplikacija turi sugebėti atvaizduoti sceną plačiu FOV ir jai nustatyti naudoti specialius SMP API iškvietimus. Tai yra, jūs negalite to padaryti kiekviename žaidime, jums reikia specialios paramos.

Bet kokiu atveju, vienos projekcijos viename plokščiame monitoriuje laikai baigėsi, dabar yra daugybė kelių monitorių konfigūracijų ir lenktų ekranų, kuriuose taip pat galima naudoti šią technologiją. Jau nekalbant apie virtualios realybės sistemas, kuriose tarp ekranų ir vartotojo akių naudojami specialūs lęšiai, reikalaujantys naujų 3D vaizdo projektavimo į 2D techniką. Daugelis šių technologijų ir technikų vis dar kuriamos, svarbiausia, kad senesni GPU negali efektyviai naudoti daugiau nei vienos plokštumos projekcijos. Jie reikalauja kelių atvaizdavimo procedūrų, daugkartinio tos pačios geometrijos apdorojimo ir pan.

Maxwell lustai turėjo ribotą daugialypės raiškos palaikymą, kad padėtų padidinti efektyvumą, tačiau Pascal SMP gali padaryti daug daugiau. Maxwellas galėjo pasukti projekciją 90 laipsnių kampu, kad būtų sudarytas kubas arba skirtinga projekcijos skiriamoji geba, tačiau tai buvo naudinga tik kai kuriose programose, pvz., VXGI.

Kitos SMP naudojimo galimybės apima atvaizdavimą skirtingomis raiškomis ir vieno žingsnio stereo atvaizdavimą. Pavyzdžiui, norint optimizuoti našumą, žaidimuose galima naudoti skirtingų skiriamųjų gebų atvaizdavimą (Multi-Res Shading). Kai taikoma, kadro centre naudojama didesnė skiriamoji geba, o periferijoje ji sumažinama, kad būtų didesnis atvaizdavimo greitis.

Vieno žingsnio stereo perteikimas naudojamas VR, jis jau buvo įtrauktas į VRWorks paketą ir naudoja kelių projektavimo funkciją, kad sumažintų geometrinio darbo, reikalingo VR atvaizdavimui, kiekį. Jei naudojama ši funkcija, GeForce GTX 1080 GPU scenos geometriją apdoroja tik vieną kartą, kiekvienai akiai generuodamas po dvi projekcijas iš karto, o tai per pusę sumažina GPU geometrinę apkrovą, taip pat sumažina tvarkyklės ir OS nuostolius.

Dar pažangesnė VR atvaizdavimo efektyvumo gerinimo technika yra „Lens Matched Shading“, kuri naudoja kelias projekcijas, kad imituotų geometrinius iškraipymus, reikalingus VR atvaizdavimui. Šis metodas naudoja daugialypį projekciją, kad 3D scena būtų atvaizduojama ant paviršiaus, kuris prilygsta objektyvu sureguliuotam paviršiui, kai atvaizduojamas VR ausinių išvestis, taip išvengiant daugybės papildomų pikselių periferijoje, kurie būtų atmesti. Lengviausias būdas suprasti metodo esmę yra iliustruojant – prieš kiekvieną akį naudojamos keturios šiek tiek išplėstos projekcijos (Paskalyje galite naudoti 16 projekcijų kiekvienai akiai – kad tiksliau imituotumėte išlenktą lęšį), o ne viena:

Šis metodas gali žymiai sutaupyti našumą. Pavyzdžiui, įprastas „Oculus Rift“ vaizdas vienai akiai yra 1,1 megapikselio. Tačiau dėl projekcijų skirtumo, norint jį pateikti, originalus vaizdas yra 2,1 megapikselio - 86% daugiau nei reikia! Pascal architektūroje įdiegtas kelių projekcijų naudojimas leidžia sumažinti pateikiamo vaizdo skiriamąją gebą iki 1,4 megapikselio, 1,5 karto sutaupant pikselių apdorojimo greitį, taip pat taupo atminties pralaidumą.

Ir kartu su dvigubu geometrijos apdorojimo greičio sutaupymu dėl vieno žingsnio stereo atvaizdavimo, GeForce GTX 1080 grafikos procesorius gali žymiai padidinti VR atvaizdavimo našumą, o tai labai reikalauja geometrijos apdorojimo greičio ir dar daugiau. pikselių apdorojimas.

Vaizdo išvesties ir apdorojimo blokų patobulinimai

Be našumo ir naujų funkcijų, susijusių su 3D atvaizdavimu, būtina išlaikyti gerą vaizdo išvesties lygį, taip pat vaizdo dekodavimą ir kodavimą. Ir pirmasis Pascal architektūros grafikos procesorius nenuvylė – palaiko visus šiuolaikinius šia prasme standartus, įskaitant aparatinį HEVC formato dekodavimą, kuris reikalingas 4K vaizdo įrašams žiūrėti kompiuteryje. Be to, būsimi „GeForce GTX 1080“ vaizdo plokščių savininkai savo sistemose galės mėgautis srautiniu 4K vaizdo įrašu iš „Netflix“ ir kitų tiekėjų.

Kalbant apie ekrano išvestį, „GeForce GTX 1080“ palaiko HDMI 2.0b su HDCP 2.2 ir „DisplayPort“. Kol kas DP 1.2 versija buvo sertifikuota, tačiau GPU paruoštas sertifikavimui naujesnėms standarto versijoms: DP 1.3 Ready ir DP 1.4 Ready. Pastarasis leidžia rodyti 4K ekranus 120 Hz dažniu, o 5K ir 8K – 60 Hz, naudojant porą DisplayPort 1.3 laidų. Jei GTX 980 maksimali palaikoma skiriamoji geba buvo 5120x3200 esant 60Hz, tai naujajam GTX 1080 modeliui ji išaugo iki 7680x4320 prie 60Hz. Referencinis „GeForce GTX 1080“ turi tris „DisplayPort“ išvestis, vieną HDMI 2.0b ir vieną skaitmeninį „Dual-Link“ DVI.

Naujasis Nvidia vaizdo plokštės modelis taip pat gavo patobulintą bloką vaizdo duomenims dekoduoti ir koduoti. Taigi, GP104 lustas atitinka aukštus PlayReady 3.0 (SL3000) standartus, skirtus srautiniam vaizdo atkūrimui, o tai leidžia būti tikriems, kad kokybiško žinomų tiekėjų, tokių kaip Netflix, turinio atkūrimas bus aukščiausios kokybės ir energiją taupantis. . Išsami informacija apie įvairių vaizdo formatų palaikymą koduojant ir dekoduojant pateikta lentelėje, naujasis produktas yra akivaizdžiai geresnis nei ankstesni sprendimai:

Tačiau dar įdomesnė naujovė yra vadinamųjų didelio dinaminio diapazono (HDR) ekranų palaikymas, kurie netrukus pradės plisti rinkoje. Televizoriai parduodami jau 2016 m. (tikimasi, kad per vienerius metus bus parduoti keturi milijonai HDR televizorių), o monitoriai – kitais metais. HDR yra didžiausias per pastaruosius metus ekranų technologijos proveržis, suteikiantis dvigubai daugiau spalvų tonų (75 % matomo spektro, palyginti su 33 % RGB), ryškesnius ekranus (1000 nitų) su didesniu kontrastu (10000:1) ir sodrias spalvas.

Atsiradus galimybei žaisti turinį su didesniu ryškumo skirtumu ir sodresnėmis bei sodresnėmis spalvomis vaizdas ekrane bus priartintas prie tikrovės, juoda spalva taps gilesnė, ryški šviesa akins, kaip ir realiame pasaulyje. . Atitinkamai, vartotojai matys daugiau detalių šviesiose ir tamsiose vaizdų srityse, palyginti su standartiniais monitoriais ir televizoriais.

Norint palaikyti HDR ekranus, GeForce GTX 1080 turi viską, ko reikia – 12 bitų spalvų išvestį, BT.2020 ir SMPTE 2084 standartų palaikymą ir HDMI 2.0b 10/12 bitų 4K HDR išvestį. Maksvelas. Be to, Pascal pridėjo palaikymą HEVC formato dekodavimui 4K raiška esant 60 Hz ir 10 arba 12 bitų spalvoms, kuri naudojama HDR vaizdo įrašams, taip pat koduoti tą patį formatą tais pačiais parametrais, bet tik 10 -bitas, skirtas HDR vaizdo įrašymui arba srautiniam perdavimui. Taip pat naujovė paruošta DisplayPort 1.4 standartizavimui, skirta HDR duomenų perdavimui per šią jungtį.

Beje, ateityje gali prireikti HDR vaizdo kodavimo, kad būtų galima perkelti tokius duomenis iš namų kompiuterio į SHIELD žaidimų konsolę, galinčią žaisti 10 bitų HEVC. Tai yra, vartotojas galės transliuoti žaidimą iš kompiuterio HDR formatu. Palaukite, kur galėčiau gauti žaidimų su tokiu palaikymu? „Nvidia“ nuolat bendradarbiauja su žaidimų kūrėjais, kad įgyvendintų šį palaikymą, suteikdama jiems viską, ko reikia (tvarkyklių palaikymą, kodo pavyzdžius ir kt.), kad būtų galima tinkamai pateikti HDR vaizdus, ​​suderinamus su esamais ekranais.

Vaizdo plokštės, GeForce GTX 1080, išleidimo metu tokie žaidimai kaip Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle ir Shadow Warrior 2 palaiko HDR išvestį. Tačiau šis sąrašas yra toks. artimiausiu metu tikimasi papildyti .

Kelių lustų SLI atvaizdavimo pakeitimai

Taip pat buvo keletas pakeitimų, susijusių su patentuota SLI kelių lustų atvaizdavimo technologija, nors niekas to nesitikėjo. SLI naudoja kompiuterinių žaidimų entuziastai, kad padidintų našumą iki kraštutinumo, kartu paleisdami galingiausias vieno lusto vaizdo plokštes, arba norėdami gauti labai didelį kadrų dažnį apsiribodami keliais vidutinės klasės sprendimais, kurie kartais yra pigesni nei vienas aukščiausios klasės (kontroversiškas sprendimas, bet jie tai daro). Turėdami 4K monitorius, žaidėjai beveik neturi kitų galimybių, kaip tik įsidiegti porą vaizdo plokščių, nes net ir geriausi modeliai tokiomis sąlygomis dažnai negali užtikrinti patogaus žaidimo maksimaliais nustatymais.

Vienas iš svarbių Nvidia SLI komponentų yra tiltai, jungiantys vaizdo plokštes į bendrą vaizdo posistemį ir padedantys organizuoti skaitmeninį duomenų perdavimo tarp jų kanalą. „GeForce“ vaizdo plokštėse tradiciškai buvo dvigubos SLI jungtys, kurios buvo naudojamos sujungti dvi ar keturias vaizdo plokštes 3 krypčių ir 4 krypčių SLI konfigūracijose. Kiekviena vaizdo plokštė turėjo būti prijungta prie kiekvienos, nes visi GPU siuntė kadrus, kuriuos jie pateikė į pagrindinį GPU, todėl kiekvienoje plokštėje reikėjo dviejų sąsajų.

Pradedant nuo „GeForce GTX 1080“, visos „Pascal“ pagrindu sukurtos „Nvidia“ vaizdo plokštės turi dvi SLI sąsajas, sujungtas kartu, kad padidintų duomenų perdavimo tarp vaizdo plokščių našumą, o šis naujasis dviejų kanalų SLI režimas pagerina našumą ir patogumą, kai vaizdinė informacija rodoma labai aukštai. - raiškos ekranai arba kelių monitorių sistemos.

Šiam režimui taip pat reikėjo naujų tiltų, vadinamų SLI HB. Jie sujungia porą GeForce GTX 1080 vaizdo plokščių per du SLI kanalus vienu metu, nors naujosios vaizdo plokštės yra suderinamos ir su senesniais tiltais. 1920 × 1080 ir 2560 × 1440 pikselių skiriamoji geba, esant 60 Hz atnaujinimo dažniui, gali būti naudojami standartiniai tilteliai, tačiau sudėtingesniais režimais (4K, 5K ir kelių monitorių sistemose) tik nauji tilteliai suteiks geresnių rezultatų. sklandaus rėmo keitimo, nors senieji veiks, bet kiek prasčiau.

Be to, naudojant SLI HB tiltus, GeForce GTX 1080 duomenų sąsaja veikia 650 MHz dažniu, palyginti su 400 MHz įprastų SLI tiltų senesniuose GPU. Be to, kai kuriems seniems kietiems tiltams, naudojant Pascal architektūros vaizdo lustus, galima pasiekti didesnį duomenų perdavimo greitį. Padidinus duomenų perdavimo spartą tarp GPU per dvigubą SLI sąsają su padidintu veikimo dažniu, taip pat užtikrinamas sklandesnis kadrų atvaizdavimas ekrane, lyginant su ankstesniais sprendimais:

Taip pat reikėtų pažymėti, kad kelių lustų atvaizdavimo palaikymas naudojant DirectX 12 šiek tiek skiriasi nuo to, kas buvo įprasta anksčiau. Naujausioje grafinės API versijoje „Microsoft“ padarė daug pakeitimų, susijusių su tokių vaizdo sistemų veikimu. DX12 programinės įrangos kūrėjams siūlomos dvi kelių GPU parinktys: kelių ekranų adapterio (MDA) ir susieto ekrano adapterio (LDA) režimai.

Be to, LDA režimas turi dvi formas: numanomą LDA (kurią Nvidia naudoja SLI) ir aiškią LDA (kai žaidimo kūrėjas imasi užduoties valdyti kelių lustų atvaizdavimą. MDA ir Explicit LDA režimai buvo ką tik įdiegti DirectX 12 m. kad žaidimų kūrėjai turėtų daugiau laisvės ir galimybių naudojant kelių lustų vaizdo sistemas. Skirtumas tarp režimų aiškiai matomas šioje lentelėje:

LDA režimu kiekvieno GPU atmintis gali būti prijungta prie kito ir rodoma kaip didelė bendra apimtis, žinoma, su visais našumo apribojimais, kai duomenys paimami iš „svetimos“ atminties. MDA režimu kiekvieno GPU atmintis veikia atskirai, o skirtingi GPU negali tiesiogiai pasiekti duomenų iš kito GPU atminties. LDA režimas skirtas panašaus našumo kelių lustų sistemoms, o MDA režimas yra mažiau ribojantis ir gali veikti kartu su atskirais ir integruotais GPU arba atskirais sprendimais su skirtingų gamintojų lustais. Tačiau šis režimas taip pat reikalauja daugiau kūrėjų dėmesio ir darbo programuojant bendradarbiavimą, kad GPU galėtų bendrauti tarpusavyje.

Pagal numatytuosius nustatymus „GeForce GTX 1080“ pagrįsta SLI sistema palaiko tik du GPU, o trijų ir keturių GPU konfigūracijos oficialiai nebenaudojamos, nes šiuolaikiniuose žaidimuose tampa vis sunkiau pasiekti didesnį našumą pridedant trečią ir ketvirtą GPU. Pavyzdžiui, daugelis žaidimų remiasi sistemos centrinio procesoriaus galimybėmis valdant kelių lustų vaizdo sistemas, o naujuose žaidimuose vis dažniau naudojami laikinieji (laikiniai) metodai, naudojantys duomenis iš ankstesnių kadrų, kurių metu efektyvus kelių GPU veikimas vienu metu. tiesiog neįmanoma.

Tačiau sistemų veikimas kitose (ne SLI) kelių lustų sistemose išlieka įmanomas, pavyzdžiui, MDA arba LDA Explicit režimai „DirectX 12“ arba dviejų lustų SLI sistema su specialiu trečiuoju GPU, skirtu „PhysX“ fiziniams efektams. Bet kaip dėl etalonų rekordų, ar „Nvidia“ tikrai jų visiškai atsisako? Ne, žinoma, kad ne, bet kadangi pasaulyje tokių sistemų paklausos kone keli vartotojai, tokiems itin entuziastams buvo išrastas specialus Enthusiast Key, kurį galima atsisiųsti iš Nvidia svetainės ir atrakinti šią funkciją. Norėdami tai padaryti, pirmiausia turite gauti unikalų GPU ID paleisdami specialią programą, tada paprašyti entuziasto rakto svetainėje ir jį atsisiuntę įdiegti raktą sistemoje, taip atrakinant 3 krypčių ir 4 krypčių raktą. SLI konfigūracijos.

Greito sinchronizavimo technologija

Kai kurie pakeitimai įvyko sinchronizavimo technologijose, kai informacija rodoma ekrane. Žvelgiant į ateitį, „G-Sync“ nėra nieko naujo, taip pat nepalaikoma „Adaptive Sync“ technologija. Tačiau „Nvidia“ nusprendė pagerinti išvesties sklandumą ir sinchronizavimą žaidimams, kurie rodo labai didelį našumą, kai kadrų dažnis gerokai viršija monitoriaus atnaujinimo dažnį. Tai ypač svarbu žaidimams, kuriems reikalingas minimalus delsimas ir greitas atsakas, ir kurie yra kelių žaidėjų mūšiai ir varžybos.

Greitas sinchronizavimas yra nauja vertikaliojo sinchronizavimo alternatyva, kuri neturi vaizdinių artefaktų, atsirandančių dėl vaizdo plyšimo, ir nėra susieta su fiksuotu atnaujinimo dažniu, o tai padidina delsą. Kokia vertikalaus sinchronizavimo problema tokiuose žaidimuose kaip Counter-Strike: Global Offensive? Šis žaidimas galinguose šiuolaikiniuose GPU veikia kelių šimtų kadrų per sekundę greičiu, o žaidėjas gali pasirinkti, ar įjungti v-sync, ar ne.

Kelių žaidėjų žaidimuose vartotojai dažniausiai vejasi minimalių vėlavimų ir išjungia „VSync“, gaudami aiškiai matomą vaizdo plyšimą, o tai itin nemalonu net esant dideliam kadrų dažniui. Jei įjungsite v-sync, žaidėjas patirs reikšmingą uždelsimą tarp savo veiksmų ir vaizdo ekrane, kai grafikos vamzdynas sulėtės iki monitoriaus atnaujinimo dažnio.

Taip veikia tradicinis vamzdynas. Tačiau „Nvidia“ nusprendė atskirti vaizdo atvaizdavimo ir rodymo ekrane procesą naudojant „Fast Sync“ technologiją. Tai leidžia GPU daliai, kuri atkuria kadrus visu greičiu, ir toliau dirbti maksimaliai efektyviai, saugodama tuos kadrus specialiame laikinajame paskutiniame atvaizdavimo buferyje.

Šis metodas leidžia pakeisti rodymo metodą ir išnaudoti visas „VSync On“ ir „VSync Off“ režimų galimybes, gaunant mažą delsą, bet be vaizdo artefaktų. Naudojant Fast Sync, nėra kadrų srauto valdymo, žaidimo variklis veikia sinchronizavimo išjungimo režimu ir jam nėra liepta laukti, kol nupieš kitą, todėl delsos yra beveik tokios pat mažos kaip VSync Off režimu. Tačiau kadangi greitasis sinchronizavimas savarankiškai pasirenka buferį, skirtą rodyti ekrane, ir rodo visą kadrą, vaizdo pertraukų taip pat nėra.

Greitasis sinchronizavimas naudoja tris skirtingus buferius, iš kurių pirmieji du veikia panašiai kaip dvigubas buferis klasikiniame dujotiekyje. Pirminis buferis (Front Buffer - FB) yra buferis, kurio informacija rodoma ekrane, pilnai atvaizduotas kadras. Atgalinis buferis (Back Buffer – BB) yra buferis, kuris gauna informaciją atvaizduojant.

Kai naudojamas vertikalus sinchronizavimas didelio kadrų dažnio sąlygomis, žaidimas laukia, kol bus pasiektas atnaujinimo intervalas, kad pakeistų pirminį buferį su antriniu buferiu, kad ekrane būtų rodomas vieno kadro vaizdas. Tai sulėtina darbą, o pridėjus daugiau buferių, pvz., tradicinio trigubo buferio, vėlavimas tik padidins.

Naudojant greitąjį sinchronizavimą, pridedamas trečiasis paskutinis atvaizduojamas buferis (LRB), kuris naudojamas visiems ką tik atvaizduotiems kadrams saugoti antriniame buferyje. Buferio pavadinimas kalba pats už save, jame yra paskutinio pilnai atvaizduoto kadro kopija. Ir kai ateina laikas atnaujinti pirminį buferį, šis LRB buferis nukopijuojamas į pirminį buferį visas, o ne dalimis, kaip iš antrinio buferio su išjungta vertikalia sinchronizacija. Kadangi informacijos kopijavimas iš buferių yra neefektyvus, jie tiesiog sukeičiami (arba pervadinami, kaip bus patogiau suprasti), o nauja buferių keitimo logika, įdiegta GP104, valdo šį procesą.

Praktiškai įtraukus naują sinchronizavimo metodą Greitasis sinchronizavimas vis dar suteikia šiek tiek didesnį delsą, palyginti su visiškai išjungta vertikalia sinchronizacija – vidutiniškai 8 ms daugiau, tačiau jis monitoriuje rodo visus kadrus, be nemalonių artefaktų ekrane, suplėšyti vaizdą. Naująjį metodą galima įjungti iš Nvidia valdymo skydelio grafikos nustatymų vertikaliojo sinchronizavimo valdymo skyriuje. Tačiau numatytoji reikšmė išlieka programų valdymas, o greito sinchronizavimo įjungti visose 3D programose tiesiog nereikia, geriau pasirinkti šį metodą žaidimams su dideliu FPS.

Virtualios realybės technologija Nvidia VRWorks

Šiame straipsnyje ne kartą palietėme aktualią VR temą, tačiau daugiausia buvo kalbama apie kadrų dažnio padidinimą ir mažo delsos užtikrinimą, o tai labai svarbu VR. Visa tai labai svarbu ir progresas tikrai yra, tačiau kol kas VR žaidimai neatrodo taip įspūdingai kaip geriausi iš „įprastų“ šiuolaikinių 3D žaidimų. Taip atsitinka ne tik todėl, kad pirmaujantys žaidimų kūrėjai dar nėra ypač įsitraukę į VR programas, bet ir dėl to, kad VR yra reiklesnis kadrų dažniui, o tai neleidžia tokiuose žaidimuose naudoti daugybę įprastų technikų dėl didelių reikalavimų.

Siekdama sumažinti VR žaidimų ir įprastų žaidimų kokybės skirtumą, „Nvidia“ nusprendė išleisti visą paketą susijusių VRWorks technologijų, į kurias buvo įtraukta daug API, bibliotekų, variklių ir technologijų, galinčių žymiai pagerinti žaidimo kokybę ir našumą. VR- programos. Kaip tai susiję su pranešimu apie pirmąjį žaidimų sprendimą Pascal? Tai labai paprasta – į ją įdiegtos kai kurios technologijos, padedančios didinti produktyvumą ir gerinti kokybę, apie kurias jau rašėme.

Ir nors tai susiję ne tik su grafika, pirmiausia mes šiek tiek pakalbėsime apie tai. VRWorks Graphics technologijų rinkinys apima anksčiau minėtas technologijas, tokias kaip Lens Matched Shading, naudojant kelių projekcijos funkciją, kuri pasirodė GeForce GTX 1080. Naujasis produktas leidžia 1,5–2 kartus padidinti našumą, palyginti su sprendimus, kurie neturi tokios paramos. Taip pat paminėjome kitas technologijas, pvz., „MultiRes Shading“, skirtą kadro centre ir jo pakraščiuose pateikti skirtinga raiška.

Tačiau daug netikėčiau buvo paskelbta apie VRWorks Audio technologiją, skirtą kokybiškam garso duomenų skaičiavimui 3D scenose, o tai ypač svarbu virtualios realybės sistemose. Įprastuose varikliuose garso šaltinių padėtis virtualioje aplinkoje apskaičiuojama gana teisingai, jei priešas šaudo iš dešinės, tai iš šios garso sistemos pusės garsas yra stipresnis, o toks skaičiavimas nėra per daug reikalaujantis skaičiavimo galios. .

Tačiau iš tikrųjų garsai eina ne tik į grotuvą, bet į visas puses ir atsimuša į įvairias medžiagas, panašiai kaip atsimuša šviesos spinduliai. Ir iš tikrųjų mes girdime šiuos atspindžius, nors ir ne taip aiškiai, kaip tiesiogines garso bangas. Šie netiesioginiai garso atspindžiai dažniausiai imituojami specialiais reverb efektais, tačiau tai labai primityvus požiūris į užduotį.

„VRWorks Audio“ naudoja garso bangų atvaizdavimą, panašų į spindulių sekimą, kai šviesos spindulių kelias atsekamas iki daugybės atspindžių nuo objektų virtualioje scenoje. VRWorks Audio taip pat imituoja garso bangų sklidimą aplinkoje, kai sekamos tiesioginės ir atspindėtos bangos, priklausomai nuo jų kritimo kampo ir atspindinčių medžiagų savybių. Savo darbe VRWorks Audio naudoja didelio našumo Nvidia OptiX spindulių sekimo variklį, žinomą dėl grafinių užduočių. OptiX galima naudoti atliekant įvairias užduotis, pvz., netiesioginio apšvietimo skaičiavimą ir šviesos žemėlapių sudarymą, o dabar taip pat garso bangų sekimui VRWorks Audio.

„Nvidia“ įdiegė tikslų garso bangų skaičiavimą savo „VR Funhouse“ demonstracijoje, kuri naudoja kelis tūkstančius spindulių ir apskaičiuoja iki 12 objektų atspindžių. O norint išmokti technologijos privalumus naudojant aiškų pavyzdį, siūlome žiūrėti vaizdo įrašą apie technologijos veikimą rusų kalba:

Svarbu, kad „Nvidia“ požiūris skirtųsi nuo tradicinių garso variklių, įskaitant aparatūros pagreitintą metodą nuo pagrindinio konkurento, naudojant specialų bloką GPU. Visi šie metodai suteikia tik tikslią garso šaltinių padėties nustatymą, tačiau neapskaičiuoja garso bangų atspindžių nuo objektų 3D scenoje, nors jie gali tai imituoti naudodami reverb efektą. Tačiau spindulių sekimo technologijos naudojimas gali būti daug tikroviškesnis, nes tik toks požiūris leis tiksliai imituoti įvairius garsus, atsižvelgiant į objektų dydį, formą ir medžiagas scenoje. Sunku pasakyti, ar toks skaičiavimo tikslumas reikalingas įprastam žaidėjui, tačiau galime tvirtai pasakyti: VR jis gali suteikti vartotojams to tikroviškumo, kurio vis dar trūksta įprastuose žaidimuose.

Na, o mums belieka papasakoti tik apie VR SLI technologiją, kuri veikia ir OpenGL, ir DirectX. Jo principas yra labai paprastas: dviejų GPU vaizdo sistema VR programoje veiks taip, kad kiekvienai akiai būtų skirtas atskiras GPU, priešingai nei SLI konfigūracijoms pažįstamas AFR atvaizdavimas. Tai labai pagerina bendrą našumą, o tai labai svarbu virtualios realybės sistemoms. Teoriškai galima naudoti daugiau GPU, tačiau jų skaičius turi būti lygus.

Šis metodas buvo reikalingas, nes AFR nėra gerai pritaikytas VR, nes jo pagalba pirmasis GPU nubraižys lygų kadrą abiem akims, o antrasis – nelyginį, o tai nesumažina uždelsimų, kurie yra būtini virtualiai. realybės sistemos. Nors kadrų dažnis bus gana didelis. Taigi VR SLI pagalba darbas su kiekvienu kadru yra padalintas į du GPU – vienas dirba dalį kadro kairiajai akiai, antras – dešinei, o tada šios kadro pusės sujungiamos į visumą.

Padalijus tokį darbą tarp GPU poros, našumas padidėja 2 kartus, o tai leidžia pasiekti didesnį kadrų dažnį ir mažesnę delsą, palyginti su sistemomis, pagrįstomis vienu GPU. Tiesa, norint naudoti šį mastelio keitimo metodą, norint naudoti VR SLI, reikalingas specialus programos palaikymas. Tačiau VR SLI technologija jau integruota į VR demonstracines programas, tokias kaip „Valve's The Lab“ ir „ILMxLAB's Trials on Tatooine“, ir tai tik pradžia – „Nvidia“ žada greitai pasirodyti ir kitų programų, taip pat pristatyti technologiją į „Unreal Engine 4“, „Unity“ ir „Max“. Žaisti.

Ansel žaidimo ekrano kopijos platforma

Vienas iš įdomiausių pranešimų, susijusių su programine įranga, buvo aukštos kokybės ekrano kopijų fiksavimo žaidimų programose technologijos išleidimas, pavadintas vieno garsaus fotografo Ansel vardu. Žaidimai jau seniai tapo ne tik žaidimais, bet ir žaismingų rankų panaudojimo vieta įvairioms kūrybingoms asmenybėms. Kažkas pakeičia žaidimų scenarijus, kažkas išleidžia aukštos kokybės žaidimų tekstūrų rinkinius, o kažkas daro gražias ekrano kopijas.

„Nvidia“ nusprendė padėti pastariesiems, pristatydama naują platformą aukštos kokybės kadrams iš žaidimų kurti (būtent sukurti, nes tai nėra toks paprastas procesas). Jie tiki, kad Ansel gali padėti sukurti naują šiuolaikinio meno rūšį. Galų gale, jau yra nemažai menininkų, kurie didžiąją gyvenimo dalį praleidžia prie kompiuterio, kurdami gražias ekrano kopijas iš žaidimų, ir jie vis tiek neturėjo tam patogaus įrankio.

Ansel leidžia ne tik užfiksuoti vaizdą žaidime, bet ir keisti jį taip, kaip reikia kūrėjui. Naudodami šią technologiją galite perkelti kamerą aplink sceną, pasukti ir pakreipti ją bet kuria kryptimi, kad gautumėte norimą kadro kompoziciją. Pavyzdžiui, žaidimuose, tokiuose kaip pirmojo asmens šaudyklės, galite tik perkelti grotuvą, nieko daugiau pakeisti negalite, todėl visos ekrano nuotraukos yra gana monotoniškos. Naudodami nemokamą „Ansel“ fotoaparatą galite pasiekti daug daugiau nei žaidimų kameros, pasirinkdami kampą, kurio reikia gerai nuotraukai, arba net užfiksuoti visą 360 laipsnių stereo vaizdą iš reikiamo taško ir didelės raiškos, kad vėliau galėtumėte žiūrėti VR šalmas.

Ansel veikia gana paprastai – specialios „Nvidia“ bibliotekos pagalba ši platforma yra įterpta į žaidimo kodą. Norėdami tai padaryti, jo kūrėjui tereikia pridėti nedidelę kodo dalį prie savo projekto, kad „Nvidia“ vaizdo tvarkyklė galėtų perimti buferio ir atspalvio duomenis. Darbo liko labai mažai, todėl Ansel įtraukimas į žaidimą užtrunka mažiau nei vieną dieną. Taigi, šios funkcijos įtraukimas į „The Witness“ užtruko apie 40 kodo eilučių, o „The Witcher 3“ – apie 150 kodo eilučių.

Ansel ateis su atviru kūrimo paketu – SDK. Svarbiausia, kad vartotojas su savimi gautų standartinį nustatymų rinkinį, leidžiantį keisti kameros padėtį ir kampą, pridėti efektų ir pan. Ansel platforma veikia taip: pristabdo žaidimą, įjungia nemokamą kamerą. ir leidžia pakeisti kadrą į norimą vaizdą, įrašant rezultatą įprastos ekrano kopijos, 360 laipsnių vaizdo, stereo poros ar tiesiog didelės raiškos panoramos pavidalu.

Vienintelis įspėjimas yra tas, kad ne visi žaidimai gaus palaikymą visoms Ansel žaidimo ekrano kopijų platformos funkcijoms. Kai kurie žaidimų kūrėjai dėl vienokių ar kitokių priežasčių nenori į savo žaidimus įtraukti visiškai nemokamos kameros – pavyzdžiui, dėl galimybės, kad sukčiai naudojasi šia funkcija. Arba jie nori apriboti žiūrėjimo kampo pasikeitimą dėl tos pačios priežasties – kad niekas negautų nesąžiningo pranašumo. Na, arba tam, kad vartotojai nematytų apgailėtinų spraitų fone. Visa tai yra gana normalus žaidimų kūrėjų noras.

Viena įdomiausių Ansel savybių yra tiesiog didžiulės raiškos ekrano kopijų kūrimas. Nesvarbu, kad žaidimas palaiko, pavyzdžiui, raišką iki 4K, o vartotojo monitorius yra Full HD. Naudodami ekrano kopijų platformą galite užfiksuoti daug aukštesnės kokybės vaizdą, kurį riboja disko tūris ir našumas. Platforma lengvai fiksuoja iki 4,5 gigapikselių ekrano kopijas, sujungtas iš 3600 vienetų!

Aišku, kad tokiose nuotraukose matosi visos detalės, iki teksto ant tolumoje gulinčių laikraščių, jei toks detalumo lygis iš principo numatytas žaidime – Ansel taip pat gali valdyti detalumo lygį, nustatymą maksimalus lygis, kad gautumėte geriausią vaizdo kokybę. Tačiau vis tiek galite įjungti supersampling. Visa tai leidžia kurti vaizdus iš žaidimų, kuriuos galite saugiai spausdinti ant didelių reklamjuosčių ir būti ramiems dėl jų kokybės.

Įdomu tai, kad dideliems vaizdams susiūti naudojamas specialus aparatinės įrangos pagreitintas kodas, pagrįstas CUDA. Juk jokia vaizdo plokštė negali perteikti kelių gigapikselių vaizdo ištisai, o gali tai padaryti gabalais, kuriuos vėliau tereikia derinti, atsižvelgiant į galimą apšvietimo, spalvų skirtumą ir pan.

Po tokių panoramų susiuvimo naudojamas specialus viso kadro tolesnis apdorojimas, taip pat pagreitintas GPU. O norėdami užfiksuoti didesnio dinaminio diapazono vaizdus, ​​galite naudoti specialų vaizdo formatą – EXR, atvirą Industrial Light and Magic standartą, kurio spalvų reikšmės kiekviename kanale įrašomos 16 bitų slankiojo kablelio formatu. (FP16).

Šis formatas leidžia keisti vaizdo ryškumą ir dinaminį diapazoną atliekant papildomą apdorojimą, atkuriant jį iki pageidaujamo kiekvienam konkrečiam ekranui taip pat, kaip tai daroma naudojant RAW formatus iš fotoaparatų. Ir vėlesniam tolesnio apdorojimo filtrų naudojimui vaizdo apdorojimo programose šis formatas yra labai naudingas, nes jame yra daug daugiau duomenų nei įprastuose vaizdo formatuose.

Bet pačioje Ansel platformoje yra daug papildomo apdorojimo filtrų, o tai ypač svarbu, nes turi prieigą ne tik prie galutinio vaizdo, bet ir prie visų žaidimo naudojamų buferių atvaizduojant, kuriuos galima panaudoti labai įdomiems efektams. , kaip lauko gylis. Norėdami tai padaryti, „Ansel“ turi specialią papildomo apdorojimo API, o bet kuris iš efektų gali būti įtrauktas į žaidimą, palaikydamas šią platformą.

Ansel papildomi filtrai apima: spalvų kreives, spalvų erdvę, transformaciją, desaturaciją, ryškumą / kontrastą, plėvelės grūdėtumą, žydėjimą, objektyvo blyksnį, anamorfinį blizgesį, iškraipymą, karščio efektą, žuvies akis, spalvų aberaciją, tonų atvaizdavimą, objektyvo nešvarumus, šviesos velenus, vinjetę, gama korekcija, konvoliucija, aštrinimas, briaunų aptikimas, suliejimas, sepija, triukšmas, FXAA ir kt.

Kalbant apie Ansel palaikymo atsiradimą žaidimuose, teks šiek tiek palaukti, kol kūrėjai jį įdiegs ir išbandys. Tačiau „Nvidia“ žada, kad toks palaikymas netrukus pasirodys tokiuose žinomuose žaidimuose kaip „The Division“, „The Witness“, „Lawbreakers“, „The Witcher 3“, „Paragon“, „Fortnite“, „Obduction“, „No Man's Sky“, „Unreal Tournament“ ir kituose.

Nauja 16 nm FinFET proceso technologija ir architektūros optimizavimas leido GP104 GPU pagrindu sukurtai GeForce GTX 1080 vaizdo plokštei net ir etaloninėje formoje pasiekti aukštą 1,6-1,7 GHz taktinį dažnį, o naujoji karta žaidimuose garantuoja aukščiausius įmanomus dažnius. GPU Boost technologijos. Kartu su padidėjusiu vykdymo vienetų skaičiumi, šie patobulinimai daro tai ne tik visų laikų našiausią vieno lusto vaizdo plokštę, bet ir efektyviausią energiją taupantį sprendimą rinkoje.

„GeForce GTX 1080“ yra pirmoji vaizdo plokštė, turinti naują GDDR5X grafikos atmintį – naujos kartos didelės spartos lustus, pasiekiančius labai didelį duomenų perdavimo spartą. Modifikuoto GeForce GTX 1080 atveju šio tipo atmintis veikia efektyviu 10 GHz dažniu. Kartu su patobulintais kadrų buferio glaudinimo algoritmais, šio GPU efektyvusis atminties pralaidumas padidėjo 1,7 karto, palyginti su jo tiesioginiu pirmtaku GeForce GTX 980.

„Nvidia“ išmintingai nusprendė neleisti visiškai naujos architektūros visiškai naujai proceso technologijai, kad nesusidurtų su nereikalingomis problemomis kuriant ir gaminant. Vietoj to, jie rimtai patobulino ir taip gerą ir labai efektyvią Maxwell architektūrą, pridėdami keletą funkcijų. Dėl to su naujų GPU gamyba viskas tvarkoje, o GeForce GTX 1080 modelio atveju inžinieriai pasiekė labai aukštą dažnio potencialą – iš partnerių overclocked versijose GPU dažnis numatomas iki 2 GHz! Toks įspūdingas dažnis tapo realybe dėl tobulo techninio proceso ir kruopštaus Nvidia inžinierių darbo kuriant Pascal GPU.

Ir nors Pascal yra tiesioginis Maxwell pasekėjas, o šios grafikos architektūros iš esmės nesiskiria viena nuo kitos, „Nvidia“ įdiegė daug pakeitimų ir patobulinimų, įskaitant rodymo galimybes, vaizdo kodavimo ir dekodavimo variklį, patobulintą asinchroninį įvairių tipų skaičiavimų vykdymą. GPU, atliko kelių lustų atvaizdavimo pakeitimus ir pristatė naują sinchronizavimo metodą Fast Sync.

Neįmanoma neišskirti Simultaneous Multi-Projection technologijos, kuri padeda pagerinti virtualios realybės sistemų veikimą, gauti teisingesnį siužetų atvaizdavimą kelių monitorių sistemose bei diegti naujas našumo optimizavimo technikas. Tačiau VR programos greičiausiai padidins greitį, kai palaikys kelių projektavimo technologiją, kuri padeda sutaupyti GPU išteklių per pusę apdorojant geometrinius duomenis ir pusantro karto skaičiuojant pikseliui.

Iš grynai programinių pakeitimų išsiskiria žaidimų ekrano kopijų kūrimo platforma „Ansel“ – bus įdomu ją praktiškai išbandyti ne tik daug žaidžiantiems, bet ir tiems, kurie tiesiog domisi kokybiška 3D grafika. . Naujovė leidžia pakelti ekrano kopijų kūrimo ir retušavimo meną į naują lygį. Na, o tokie žaidimų kūrėjams skirti paketai kaip GameWorks ir VRWorks, Nvidia tik žingsnis po žingsnio tobulėja – taigi pastarajame atsirado įdomi galimybė kokybiškai apskaičiuoti garsą, atsižvelgiant į daugybę garso bangų atspindžių naudojant aparatūros spindulį. sekimas.

Apskritai, „Nvidia GeForce GTX 1080“ vaizdo plokštės pavidalu į rinką pateko tikras lyderis, turintis visas tam reikalingas savybes: didelį našumą ir platų funkcionalumą, taip pat naujų funkcijų ir algoritmų palaikymą. Ankstyvieji šios grafikos plokštės naudotojai daugelį šių privalumų galės patirti iš karto, o kitos sprendimo savybės bus atskleistos kiek vėliau, kai gausis programinės įrangos palaikymas. Svarbiausia, kad „GeForce GTX 1080“ pasirodė labai greitas ir efektyvus, ir, kaip mes tikrai tikimės, „Nvidia“ inžinieriams pavyko išspręsti kai kurias problemines vietas (tie patys asinchroniniai skaičiavimai).

Grafikos greitintuvas GeForce GTX 1070

ParametrasReikšmė
Lusto kodo pavadinimasGP104
Gamybos technologija16 nm FinFET
Tranzistorių skaičius7,2 mlrd
Pagrindinė sritis314 mm²
ArchitektūraSuvienodintas su daugybe įprastų procesorių, skirtų daugelio tipų duomenų srautui apdoroti: viršūnes, pikselius ir kt.
„DirectX“ techninės įrangos palaikymas„DirectX 12“ su 12_1 funkcijų lygio palaikymu
Atminties magistralė256 bitų: aštuoni nepriklausomi 32 bitų atminties valdikliai, palaikantys GDDR5 ir GDDR5X atmintį
GPU dažnis1506 (1683) MHz
Skaičiavimo blokai15 aktyvių (iš 20 mikroschemoje) srautinio perdavimo kelių procesorių, įskaitant 1920 (iš 2560) skaliarinių ALU, skirtų slankiojo kablelio skaičiavimams pagal IEEE 754-2008 standartą;
Tekstūriniai blokeliai120 aktyvių (iš 160 mikroschemoje) tekstūros adresavimo ir filtravimo vienetų su FP16 ir FP32 komponentų tekstūrų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Rastrinių operacijų vienetai (ROP)8 platūs ROP (64 pikseliai) su įvairių anti-aliasing režimų palaikymu, įskaitant programuojamus ir su FP16 arba FP32 kadrų buferio formatu. Blokai susideda iš konfigūruojamų ALU masyvo ir yra atsakingi už gylio generavimą ir palyginimą, kelių mėginių ėmimą ir maišymą.
Monitoriaus palaikymasIntegruotas palaikymas iki keturių monitorių, prijungtų per Dual Link DVI, HDMI 2.0b ir DisplayPort 1.2 (1.3/1.4 Ready)

GeForce GTX 1070 pamatinės grafikos specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1506 (1683) MHz
Universalių procesorių skaičius1920
Tekstūros blokų skaičius120
Maišymo blokų skaičius64
Efektyvus atminties dažnis8000 (4×2000) MHz
Atminties tipasGDDR5
Atminties magistralė256 bitų
Atmintis8 GB
Atminties juostos plotis256 GB/s
Skaičiavimo našumas (FP32)apie 6,5 teraflopo
Teorinis maksimalus užpildymo greitis96 gigapikseliai/s
Teorinė tekstūros atrankos sparta181 gigatekselis/s
PadangaPCI Express 3.0
JungtysVienas „Dual Link“ DVI, vienas HDMI ir trys „DisplayPort“.
energijos suvartojimasiki 150W
Papildomas maistasViena 8 kontaktų jungtis
Sistemos korpuse užimtų lizdų skaičius2
Rekomenduojama kaina379–449 USD (JAV), 34 990 (Rusija)

Vaizdo plokštė GeForce GTX 1070 taip pat gavo loginį pavadinimą, panašų į tą patį sprendimą iš ankstesnės GeForce serijos. Nuo tiesioginio pirmtako GeForce GTX 970 jis skiriasi tik pakeistos kartos figūra. Naujovė tampa laipteliu žemiau dabartinio geriausio sprendimo GeForce GTX 1080 dabartinėje bendrovės linijoje, kuris tapo laikinu naujos serijos flagmanu iki dar galingesnių GPU sprendimų išleidimo.

Rekomenduojamos naujos geriausios „Nvidia“ vaizdo plokštės kainos yra atitinkamai 379 USD ir 449 USD už įprastą „Nvidia Partners“ ir „Founders Edition“. Palyginti su geriausiu modeliu, tai yra labai gera kaina, atsižvelgiant į tai, kad GTX 1070 blogiausiu atveju atsilieka apie 25%. O paskelbimo ir išleidimo metu GTX 1070 tampa geriausiu našumo sprendimu savo klasėje. Kaip ir GeForce GTX 1080, GTX 1070 neturi tiesioginių AMD konkurentų ir gali būti lyginamas tik su Radeon R9 390X ir Fury.

GP104 GPU GeForce GTX 1070 modifikacijoje nusprendė palikti pilną 256 bitų atminties magistralę, nors naudojo ne naujo tipo GDDR5X atmintį, o labai greitą GDDR5, kuris veikia dideliu efektyviu 8 GHz dažniu. Vaizdo plokštėje su tokia magistrale įdiegtos atminties kiekis gali būti 4 arba 8 GB, o siekiant užtikrinti maksimalų naujojo sprendimo veikimą aukštų nustatymų ir atvaizdavimo raiškos sąlygomis, buvo komplektuojamas ir GeForce GTX 1070 vaizdo plokštės modelis. su 8 GB vaizdo atminties, kaip ir vyresnioji sesuo. Šio tūrio pakanka kelerius metus paleisti bet kokias 3D programas su maksimaliais kokybės nustatymais.

GeForce GTX 1070 Founders Edition

Gegužės pradžioje paskelbus „GeForce GTX 1080“, buvo paskelbtas specialus vaizdo plokštės leidimas „Founders Edition“, kurio kaina didesnė nei įprastų kompanijos partnerių vaizdo plokščių. Tas pats pasakytina ir apie naujovę. Šiame straipsnyje vėl kalbėsime apie specialų GeForce GTX 1070 vaizdo plokštės leidimą, pavadintą Founders Edition. Kaip ir senesnio modelio atveju, „Nvidia“ nusprendė šią gamintojo referencinės vaizdo plokštės versiją išleisti už didesnę kainą. Jie teigia, kad daugelis žaidėjų ir entuziastų, perkančių brangias aukščiausios klasės vaizdo plokštes, nori turėti tinkamą „premium“ išvaizdą ir jausmą.

Atitinkamai, būtent tokiems vartotojams į rinką bus išleista vaizdo plokštė GeForce GTX 1070 Founders Edition, kuri yra sukurta ir pagaminta Nvidia inžinierių iš aukščiausios kokybės medžiagų ir komponentų, tokių kaip GeForce GTX 1070 Founders Edition aliuminio dangtelis, taip pat. kaip žemo profilio galinė plokštė, dengianti PCB galinę dalį ir gana populiari tarp entuziastų.

Kaip matote iš plokštės nuotraukų, GeForce GTX 1070 Founders Edition paveldėjo lygiai tokį patį pramoninį dizainą iš etaloninės GeForce GTX 1080 Founders Edition versijos. Abiejuose modeliuose naudojamas radialinis ventiliatorius, kuris išpučia įkaitintą orą, o tai labai naudinga tiek mažuose korpusuose, tiek kelių lustų SLI konfigūracijose su ribota fizine erdve. Išpūsdami įkaitintą orą, o ne cirkuliuodami korpuso viduje, galite sumažinti šiluminį įtampą, pagerinti įsijungimo rezultatus ir pailginti sistemos komponentų tarnavimo laiką.

Po GeForce GTX 1070 etaloninės aušinimo sistemos dangteliu yra specialios formos aliuminio radiatorius su trimis įmontuotais variniais šilumos vamzdeliais, kurie šalina šilumą iš paties GPU. Šilumos vamzdžių išsklaidytą šilumą tada išsklaido aliuminio radiatorius. Na, o žemo profilio metalinė plokštė plokštės gale taip pat skirta geresnei šiluminei charakteristikai. Jame taip pat yra ištraukiama dalis, užtikrinanti geresnį oro srautą tarp kelių SLI konfigūracijų vaizdo plokščių.

Kalbant apie plokštės maitinimo sistemą, „GeForce GTX 1070 Founders Edition“ turi keturių fazių maitinimo sistemą, optimizuotą stabiliam maitinimo šaltiniui. „Nvidia“ teigia, kad specialių komponentų naudojimas „GTX 1070 Founders Edition“ pagerina energijos vartojimo efektyvumą, stabilumą ir patikimumą, palyginti su „GeForce GTX 970“, ir užtikrina geresnį įsijungimo našumą. Pačios įmonės testuose GeForce GTX 1070 GPU nesunkiai pralenkė 1,9 GHz dažnį, o tai artima senesnio GTX 1080 modelio rezultatams.

„Nvidia GeForce GTX 1070“ vaizdo plokštę mažmeninės prekybos parduotuvėse bus galima įsigyti nuo birželio 10 d. Rekomenduojamos „GeForce GTX 1070 Founders Edition“ ir partnerių sprendimų kainos skiriasi, ir tai yra pagrindinis šio specialaus leidimo klausimas. Jei „Nvidia“ partneriai parduoda savo „GeForce GTX 1070“ vaizdo plokštes nuo 379 USD (JAV rinkoje), tada „Nvidia“ standartinio dizaino „Founders Edition“ kainuos tik 449 USD. Ar yra daug entuziastų, kurie yra pasirengę permokėti už, pripažinkime, abejotinus referencinės versijos pranašumus? Laikas parodys, bet manome, kad orientacinis mokestis yra įdomesnis kaip galimybė, kurią galima įsigyti pačioje išpardavimų pradžioje, o vėliau jo įsigijimo taškas (ir net už didelę kainą!) jau sumažėja iki nulio.

Belieka pridurti, kad etaloninės GeForce GTX 1070 spausdintinė plokštė yra panaši į senesnės vaizdo plokštės, ir abi jos skiriasi nuo ankstesnių įmonės plokščių įrenginio. Tipinė naujojo gaminio energijos suvartojimo vertė yra 150 W, tai yra beveik 20% mažesnė nei GTX 1080 vertė ir artima ankstesnės kartos GeForce GTX 970 vaizdo plokštės energijos suvartojimui. Nvidia atskaitos plokštė turi pažįstamą rinkinį jungčių, skirtų vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort. Be to, palaikomos naujos HDMI ir DisplayPort versijos, apie kurias rašėme aukščiau GTX 1080 modelio apžvalgoje.

Architektūriniai pokyčiai

„GeForce GTX 1070“ yra pagrįstas GP104 lustu, pirmuoju naujos kartos „Nvidia“ Pascal grafikos architektūra. Ši architektūra buvo paremta dar Maxwell sukurtais sprendimais, tačiau turi ir funkcinių skirtumų, apie kuriuos išsamiai rašėme aukščiau – dalyje, skirtoje aukščiausiajai GeForce GTX 1080 vaizdo plokštei.

Pagrindinis naujosios architektūros pokytis buvo technologinis procesas, kuriuo bus vykdomi visi nauji GPU. 16 nm FinFET gamybos proceso naudojimas GP104 gamyboje leido žymiai padidinti lusto sudėtingumą išlaikant santykinai mažą plotą ir kainą, o pats pirmasis Pascal architektūros lustas turi žymiai didesnį vykdymo skaičių. vienetų, įskaitant tuos, kurie teikia naujas funkcijas, palyginti su panašios padėties Maxwell lustais.

GP104 vaizdo lustas savo dizainu yra panašus į panašius Maxwell architektūros sprendimus, o išsamios informacijos apie šiuolaikinių GPU dizainą galite rasti mūsų ankstesnių Nvidia sprendimų apžvalgose. Kaip ir ankstesni GPU, naujos architektūros lustai turės skirtingą grafikos apdorojimo klasterio (GPC), srautinio daugiaprocesoriaus (SM) ir atminties valdiklių konfigūraciją, o kai kurie pakeitimai jau įvyko GeForce GTX 1070 – dalis lusto buvo užrakinta. ir neaktyvus (paryškintas pilkai):

Nors GP104 GPU apima keturias GPC grupes ir 20 SM kelių procesorių, „GeForce GTX 1070“ versijoje jis gavo sumažintą modifikaciją, kai viena GPC klasteris buvo išjungtas dėl aparatinės įrangos. Kadangi kiekvienas GPC klasteris turi skirtą rastrizacijos variklį ir apima penkis SM, o kiekvieną daugiaprocesorių sudaro 128 CUDA branduoliai ir aštuoni tekstūros TMU, šioje GP104 versijoje ir 160 fizinių tekstūrų vienetų yra aktyvūs 1920 CUDA branduolių ir 120 TMU iš 2560 srauto procesorių.

Grafikos procesorius, kurio pagrindu sukurtas GeForce GTX 1070, turi aštuonis 32 bitų atminties valdiklius, todėl bendra 256 bitų atminties magistralė – lygiai taip pat, kaip ir senesnio GTX 1080 modelio atveju. Atminties posistemis nebuvo apkarpytas eilės tvarka užtikrinti pakankamai didelio pralaidumo atmintį su sąlyga, kad GeForce GTX 1070 naudojama GDDR5 atmintis. Kiekvienas atminties valdiklis turi aštuonis ROP ir 256 KB L2 talpyklos, todėl šios modifikacijos GP104 lustas taip pat turi 64 ROP ir 2048 KB L2 talpyklos lygis.

Dėl architektūrinių optimizacijų ir naujos proceso technologijos GP104 GPU tapo iki šiol energiją taupančiu GPU. „Nvidia“ inžinieriai, pereidami prie naujo proceso, sugebėjo padidinti laikrodžio dažnį labiau nei tikėjosi, dėl kurio teko sunkiai dirbti, kruopščiai patikrinant ir optimizuojant visas ankstesnių sprendimų kliūtis, kurios neleido dirbti didesniu dažniu. Atitinkamai, „GeForce GTX 1070“ taip pat veikia labai aukštu dažniu, daugiau nei 40% didesniu nei „GeForce GTX 970“ pamatinė vertė.

Kadangi GeForce GTX 1070 iš esmės yra tik šiek tiek mažiau produktyvus GTX 1080 su GDDR5 atmintimi, jis palaiko absoliučiai visas technologijas, kurias aprašėme ankstesniame skyriuje. Norėdami gauti daugiau informacijos apie Pascal architektūrą ir jos palaikomas technologijas, pvz., patobulintus išvesties ir vaizdo apdorojimo įrenginius, „Async Compute“ palaikymą, „Simultaneous Multi-Projection“ technologiją, SLI kelių lustų atvaizdavimo pakeitimus ir naują „Fast Sync“ sinchronizavimo tipą. , verta perskaityti su skyriumi apie GTX 1080.

Didelio našumo GDDR5 atmintis ir efektyvus jos naudojimas

Aukščiau rašėme apie GP104 GPU atminties posistemio pokyčius, kuriais remiasi GeForce GTX 1080 ir GTX 1070 modeliai – šiame GPU esantys atminties valdikliai palaiko tiek naujo tipo GDDR5X vaizdo atmintį, kuri išsamiai aprašyta GTX 1080 apžvalgą, taip pat seną gerą GDDR5 atmintį, kurią žinome jau keletą metų.

Kad jaunesniame GTX 1070, palyginti su senesniu GTX 1080, neprarastų per daug atminties pralaidumo, jame buvo palikti aktyvūs visi aštuoni 32 bitų atminties valdikliai, gaunantys pilną 256 bitų bendrą vaizdo atminties sąsają. Be to, vaizdo plokštė buvo aprūpinta greičiausia rinkoje GDDR5 atmintimi – efektyviu 8 GHz veikimo dažniu. Visa tai suteikė 256 GB / s atminties pralaidumą, priešingai nei 320 GB / s senesniam sprendimui - skaičiavimo galimybės buvo sumažintos maždaug tiek pat, kad būtų išlaikytas balansas.

Atminkite, kad nors didžiausias teorinis pralaidumas yra svarbus GPU veikimui, turite atkreipti dėmesį ir į jo efektyvumą. Atvaizdavimo proceso metu daug skirtingų kliūčių gali apriboti bendrą našumą, neleidžiant naudoti viso turimo atminties pralaidumo. Siekiant sumažinti šias kliūtis, GPU naudoja specialų duomenų glaudinimą be nuostolių, kad pagerintų duomenų skaitymo ir rašymo efektyvumą.

Pascal architektūroje jau buvo įdiegtas ketvirtos kartos delta buferio informacijos glaudinimas, kuris leidžia GPU efektyviau išnaudoti turimas vaizdo atminties magistralės galimybes. GeForce GTX 1070 ir GTX 1080 atminties posistemė naudoja patobulintus senus ir keletą naujų be nuostolių duomenų glaudinimo metodų, skirtų sumažinti pralaidumo reikalavimus. Tai sumažina į atmintį įrašytų duomenų kiekį, pagerina L2 talpyklos efektyvumą ir sumažina duomenų, siunčiamų tarp skirtingų GPU taškų, pvz., TMU ir kadrų buferio, kiekį.

GPU Boost 3.0 ir įsijungimo funkcijos

Daugelis „Nvidia“ partnerių jau paskelbė apie gamyklinius „overclocked“ sprendimus, pagrįstus „GeForce GTX 1080“ ir „GTX 1070“. Daugelis vaizdo plokščių gamintojų taip pat kuria specialias įsijungimo programas, kurios leidžia naudotis naujomis GPU Boost 3.0 technologijos funkcijomis. Vienas iš tokių paslaugų pavyzdžių yra EVGA Precision XOC, kuriame yra automatinis skaitytuvas, skirtas įtampos ir dažnio kreivei nustatyti – šiuo režimu kiekvienai įtampai, atliekant stabilumo testą, randamas stabilus dažnis, kuriam esant GPU užtikrina našumo padidėjimas. Tačiau šią kreivę galima keisti ir rankiniu būdu.

Gerai žinome GPU Boost technologiją iš ankstesnių Nvidia vaizdo plokščių. Savo GPU jie naudoja šią aparatinės įrangos funkciją, kuri yra skirta padidinti GPU veikimo taktinį dažnį režimuose, kai jis dar nepasiekė energijos suvartojimo ir šilumos išsklaidymo ribų. Pascal GPU šis algoritmas patyrė keletą pakeitimų, iš kurių pagrindinis yra smulkesnis turbo dažnių nustatymas, priklausomai nuo įtampos.

Jei anksčiau skirtumas tarp bazinio dažnio ir turbo dažnio buvo fiksuotas, tai „GPU Boost 3.0“ tapo įmanoma kiekvienai įtampai atskirai nustatyti turbo dažnio poslinkius. Dabar kiekvienai atskirai įtampos vertei galima nustatyti turbo dažnį, o tai leidžia visiškai išspausti visas GPU įsijungimo galimybes. Apie šią funkciją išsamiai rašėme „GeForce GTX 1080“ apžvalgoje, o tam galite naudoti „EVGA Precision XOC“ ir „MSI Afterburner“ programas.

Kadangi, išleidus vaizdo plokštes su GPU Boost 3.0 palaikymu, kai kurios smulkmenos pasikeitė įjungimo metodikoje, „Nvidia“ turėjo pateikti papildomų paaiškinimų naujų produktų įsijungimo instrukcijose. Yra įvairių įsijungimo būdų su skirtingomis kintamomis charakteristikomis, kurios turi įtakos galutiniam rezultatui. Kiekvienai konkrečiai sistemai konkretus metodas gali būti tinkamesnis, tačiau pagrindai visada yra maždaug tokie patys.

Daugelis greitintuvų naudoja Unigine Heaven 4.0 etaloną, kad patikrintų sistemos stabilumą, kuris gerai apkrauna GPU, turi lanksčius nustatymus ir gali būti paleistas lango režimu kartu su šalia esančiu įsijungimo ir stebėjimo paslaugų langu, pvz., EVGA Precision arba MSI Afterburner. Tačiau tokio patikrinimo užtenka tik pirminiams įvertinimams, o norint tvirtai patvirtinti įsijungimo stabilumą, jį reikia patikrinti keliose žaidimų programose, nes skirtingi žaidimai reikalauja skirtingų GPU funkcinių vienetų apkrovų: matematinės, tekstūrinės, geometrinės. „Heaven 4.0“ etalonas patogus ir įsijungimui, nes turi kilpinį veikimo režimą, kuriame patogu keisti įsijungimo nustatymus, taip pat yra greičio padidėjimo įvertinimo etalonas.

„Nvidia“ pataria naudoti „Heaven 4.0“ ir „EVGA Precision XOC“ langus kartu, kai įjungiama naujosios „GeForce GTX 1080“ ir „GTX 1070“ vaizdo plokštės. Iš pradžių pageidautina nedelsiant padidinti ventiliatoriaus greitį. O rimtam įsijungimui galima iš karto nustatyti greičio reikšmę į 100%, dėl to vaizdo plokštė labai garsiai skambės, tačiau ji maksimaliai vėsins GPU ir kitus vaizdo plokštės komponentus sumažindama temperatūrą iki žemiausios galimos lygiu, užkertant kelią droseliui (dažnių sumažėjimas dėl GPU temperatūros padidėjimo virš tam tikros vertės).

Tada taip pat turite nustatyti maksimalią tikslinės galios vertę (Power Target). Šis nustatymas suteiks GPU maksimalią galią, padidindamas energijos suvartojimo lygį ir tikslinę GPU temperatūrą (GPU Temp Target). Tam tikrais tikslais antrąją reikšmę galima atskirti nuo Power Target pakeitimo, o tada šiuos nustatymus galima reguliuoti individualiai – kad, pavyzdžiui, būtų pasiektas mažesnis vaizdo lusto įkaitimas.

Kitas žingsnis yra padidinti GPU Clock Offset reikšmę – tai reiškia, kiek didesnis turbo dažnis bus veikimo metu. Ši vertė padidina visų įtampų dažnį ir pagerina veikimą. Kaip įprasta, įsijungdami, turite patikrinti stabilumą didinant GPU dažnį mažais žingsneliais – nuo ​​10 MHz iki 50 MHz per žingsnį, kol nepastebėsite pakibimo, tvarkyklės ar programos klaidos ar net vaizdinių artefaktų. Pasiekę šią ribą, turėtumėte sumažinti dažnio vertę žingsniu žemyn ir dar kartą patikrinti stabilumą ir našumą įsijungimo metu.

Be GPU dažnio, galima padidinti ir vaizdo atminties dažnį (Memory Clock Offset), o tai ypač svarbu, kai „GeForce GTX 1070“ aprūpintas GDDR5 atmintimi, kuri dažniausiai puikiai įsijungia. Procesas atminties dažnio atveju tiksliai pakartoja tai, kas daroma ieškant stabilaus GPU dažnio, skirtumas tik tas, kad žingsnius galima padaryti didesnius – prie bazinio dažnio iš karto pridėti 50-100 MHz.

Be minėtų veiksmų, galite padidinti ir Overvoltage limitą, nes aukštesnis GPU dažnis dažnai pasiekiamas esant padidintai įtampai, kai nestabilios GPU dalys gauna papildomos galios. Tiesa, galimas trūkumas didinant šią vertę yra galimybė sugadinti vaizdo lustą ir pagreitėjęs jos gedimas, todėl įtampos didinimą reikia naudoti itin atsargiai.

Overclocking entuziastai naudoja kiek kitokias technikas, keičia parametrus kita tvarka. Pavyzdžiui, kai kurie overclockeriai dalijasi eksperimentais, kaip rasti stabilų GPU ir atminties dažnį, kad jie netrukdytų vienas kitam, o tada išbando bendrą vaizdo lusto ir atminties lustų įsijungimą, tačiau tai jau nereikšmingos individualaus požiūrio detalės. .

Sprendžiant iš nuomonių forumuose ir straipsnių komentarų, kai kuriems vartotojams nepatiko naujasis GPU Boost 3.0 algoritmas, kai GPU dažnis iš pradžių pakyla labai aukštai, dažnai virš turbo dažnio, o vėliau, padidėjus GPU temperatūra arba padidėjęs energijos suvartojimas virš nustatytos ribos, jis gali nukristi iki daug žemesnių verčių. Tai tik atnaujinto algoritmo specifika, reikia priprasti prie naujos dinamiškai besikeičiančio GPU dažnio elgesio, tačiau tai neturi jokių neigiamų pasekmių.

GeForce GTX 1070 yra antrasis modelis po GTX 1080 naujoje Nvidia grafikos procesorių linijoje, pagrįstoje Pascal šeima. Naujasis 16 nm FinFET gamybos procesas ir architektūros optimizavimas leido šiai grafinei plokštei pasiekti didelį taktinį dažnį, kurį palaiko naujos kartos GPU Boost technologija. Nors funkcinių blokų srauto procesorių ir tekstūrų modulių pavidalu sumažėjo, jų skaičius išlieka pakankamas, kad GTX 1070 taptų pelningiausiu ir energiją taupančiu sprendimu.

GDDR5 atminties įdiegimas į jauniausią iš išleistų Nvidia vaizdo plokščių modelių GP104 luste, skirtingai nei naujo tipo GDDR5X, išskiriantis GTX 1080, netrukdo jam pasiekti aukštų našumo rodiklių. Pirma, „Nvidia“ nusprendė nekarpyti „GeForce GTX 1070“ modelio atminties magistralės ir, antra, į ją įdėjo greičiausią GDDR5 atmintį, kurios efektyvusis dažnis yra 8 GHz, o tai yra tik šiek tiek mažesnis nei 10 GHz, kai naudojamas GDDR5X. senesnis modelis. Be to, naudojant patobulintus deltos glaudinimo algoritmus, efektyvus GPU atminties pralaidumas tapo didesnis nei tas pats parametras panašiam ankstesnės kartos GeForce GTX 970 modeliui.

GeForce GTX 1070 yra geras tuo, kad siūlo labai didelį našumą ir naujų funkcijų bei algoritmų palaikymą už daug mažesnę kainą, lyginant su kiek anksčiau paskelbtu senesniu modeliu. Jei keli entuziastai gali sau leisti įsigyti GTX 1080 už 55 000, tai kur kas didesnis potencialių pirkėjų ratas galės sumokėti 35 000 vos už ketvirtadalį mažiau produktyvaus, lygiai tokias pat galimybes turinčio sprendimo. Tai buvo palyginti žemos kainos ir didelio našumo derinys, dėl kurio „GeForce GTX 1070“ buvo bene pelningiausias pirkinys jo išleidimo metu.

Grafikos greitintuvas GeForce GTX 1060

ParametrasReikšmė
Lusto kodo pavadinimasGP106
Gamybos technologija16 nm FinFET
Tranzistorių skaičius4,4 mlrd
Pagrindinė sritis200 mm²
ArchitektūraSuvienodintas su daugybe įprastų procesorių, skirtų daugelio tipų duomenų srautui apdoroti: viršūnes, pikselius ir kt.
„DirectX“ techninės įrangos palaikymas„DirectX 12“ su 12_1 funkcijų lygio palaikymu
Atminties magistralė192 bitų: šeši nepriklausomi 32 bitų atminties valdikliai, palaikantys GDDR5 atmintį
GPU dažnis1506 (1708) MHz
Skaičiavimo blokai10 srautinio perdavimo kelių procesorių, įskaitant 1280 skaliarinių ALU, skirtų slankiojo kablelio skaičiavimams pagal IEEE 754-2008 standartą;
Tekstūriniai blokeliai80 tekstūrų adresavimo ir filtravimo vienetų su FP16 ir FP32 tekstūrų komponentų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Rastrinių operacijų vienetai (ROP)6 platūs ROP (48 pikseliai) su įvairių anti-aliasing režimų palaikymu, įskaitant programuojamus ir su FP16 arba FP32 kadrų buferio formatu. Blokai susideda iš konfigūruojamų ALU masyvo ir yra atsakingi už gylio generavimą ir palyginimą, kelių mėginių ėmimą ir maišymą.
Monitoriaus palaikymasIntegruotas palaikymas iki keturių monitorių, prijungtų per Dual Link DVI, HDMI 2.0b ir DisplayPort 1.2 (1.3/1.4 Ready)

GeForce GTX 1060 pamatinės grafikos specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1506 (1708) MHz
Universalių procesorių skaičius1280
Tekstūros blokų skaičius80
Maišymo blokų skaičius48
Efektyvus atminties dažnis8000 (4×2000) MHz
Atminties tipasGDDR5
Atminties magistralė192 bitų
Atmintis6 GB
Atminties juostos plotis192 GB/s
Skaičiavimo našumas (FP32)apie 4 teraflopus
Teorinis maksimalus užpildymo greitis72 gigapikseliai/s
Teorinė tekstūros atrankos sparta121 gigatekselis/s
PadangaPCI Express 3.0
JungtysVienas „Dual Link“ DVI, vienas HDMI ir trys „DisplayPort“.
Tipiškas energijos suvartojimas120 W
Papildomas maistasViena 6 kontaktų jungtis
Sistemos korpuse užimtų lizdų skaičius2
Rekomenduojama kaina249 USD (299 USD) JAV ir 18 990 Rusijoje

Vaizdo plokštė GeForce GTX 1060 taip pat gavo pavadinimą, panašų į tą patį ankstesnės GeForce serijos sprendimą, nuo tiesioginio pirmtako GeForce GTX 960 pavadinimo besiskiriantį tik pasikeitusiu pirmuoju kartos skaitmeniu. Naujovė dabartinėje bendrovės linijoje tapo vienu laipteliu žemesnė už anksčiau išleistą GeForce GTX 1070 sprendimą, kuris pagal greitį naujoje serijoje yra vidutiniškas.

Rekomenduojamos naujosios „Nvidia“ vaizdo plokštės kainos yra atitinkamai 249 USD ir 299 USD už įprastas įmonės partnerių versijas ir specialųjį „Founder's Edition“. Lyginant su dviem senesniais modeliais, tai labai palanki kaina, kadangi naujasis GTX 1060 modelis, nors ir nusileidžia aukščiausios klasės pagrindinėms plokštėms, niekur nėra pigesnis. Paskelbimo metu naujovė neabejotinai tapo geriausiu savo klasės sprendimu ir vienu pelningiausių pasiūlymų šioje kainų kategorijoje.

Šis Nvidia „Pascal“ šeimos vaizdo plokštės modelis pasirodė atremtas naujam konkuruojančios kompanijos AMD sprendimui, kuri kiek anksčiau išleido Radeon RX 480. Galite palyginti naują „Nvidia“ vaizdo plokštę su šia vaizdo plokšte, nors ir ne visai tiesiogiai, nes jie vis tiek labai skiriasi kaina. „GeForce GTX 1060“ yra brangesnis (249–299 USD, palyginti su 199–229 USD), tačiau jis taip pat yra akivaizdžiai greitesnis nei jo konkurentas.

GP106 grafikos procesorius turi 192 bitų atminties magistralę, todėl į vaizdo plokštę su tokia magistrale įdiegtos atminties kiekis gali būti 3 arba 6 GB. Atvirai kalbant, mažesnės vertės šiuolaikinėmis sąlygomis nepakanka, o daugeliui žaidimų projektų, net ir Full HD raiškos, trūks vaizdo atminties, o tai labai paveiks atvaizdavimo sklandumą. Siekiant užtikrinti maksimalų naujojo sprendimo veikimą esant aukštiems nustatymams, GeForce GTX 1060 modelyje buvo sumontuota 6 GB vaizdo atmintis, kurios pakanka paleisti bet kokias 3D programas su bet kokiais kokybės nustatymais. Be to, šiandien tiesiog nėra skirtumo tarp 6 ir 8 GB, o toks sprendimas leis šiek tiek sutaupyti.

Tipinė naujojo gaminio energijos suvartojimo vertė yra 120 W, o tai yra 20% mažesnė nei GTX 1070 vertė ir prilygsta ankstesnės kartos GeForce GTX 960 vaizdo plokštės, kurios našumas ir pajėgumai yra daug mažesni, energijos suvartojimui. Nuorodų plokštėje yra įprastas jungčių rinkinys vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort. Be to, buvo palaikomos naujos HDMI ir DisplayPort versijos, apie kurias rašėme GTX 1080 modelio apžvalgoje.

GeForce GTX 1060 atskaitos plokštės ilgis yra 9,8 colio (25 cm), o iš skirtumų nuo senesnių variantų atskirai pažymime, kad GeForce GTX 1060 nepalaiko SLI kelių lustų atvaizdavimo konfigūracijos ir neturi speciali tam skirta jungtis. Kadangi plokštė sunaudoja mažiau energijos nei senesni modeliai, papildomai maitinimui ant plokštės buvo sumontuota viena 6 kontaktų PCI-E išorinė maitinimo jungtis.

GeForce GTX 1060 vaizdo plokštės rinkoje nuo paskelbimo dienos pasirodė kompanijos partnerių produktų pavidalu: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Ribotu kiekiu bus išleistas specialus pačios „Nvidia“ gaminamas „GeForce GTX 1060 Founder's Edition“ leidimas, kuris išskirtinai „Nvidia“ svetainėje bus parduodamas už 299 USD, o Rusijoje nebus oficialiai pristatomas. „Founder's Edition“ išsiskiria tuo, kad jis pagamintas iš aukštos kokybės medžiagų ir komponentų, įskaitant aliuminio korpusą, ir naudoja efektyvią aušinimo sistemą, taip pat mažos varžos maitinimo grandines ir specialiai sukurtus įtampos reguliatorius.

Architektūriniai pokyčiai

Vaizdo plokštė GeForce GTX 1060 sukurta remiantis visiškai nauju grafikos procesoriaus modeliu GP106, kuris funkciškai niekuo nesiskiria nuo Pascal architektūros pirmagimio GP104 lusto pavidalu, ant kurio buvo aprašyti GeForce GTX 1080 ir GTX 1070 modeliai. Ši architektūra buvo pagrįsta sprendimais, sukurtais Maxwell, tačiau ji taip pat turi tam tikrų funkcinių skirtumų, apie kuriuos išsamiai rašėme anksčiau.

GP106 vaizdo lustas savo dizainu yra panašus į aukščiausios klasės Pascal lustą ir panašius Maxwell architektūros sprendimus, o išsamios informacijos apie šiuolaikinių GPU dizainą galite rasti mūsų ankstesnių Nvidia sprendimų apžvalgose. Kaip ir ankstesniuose GPU, naujosios architektūros lustai turi skirtingą grafikos apdorojimo klasterio (GPC), srautinio daugiaprocesoriaus (SM) ir atminties valdiklių konfigūraciją:

GP106 grafikos procesoriuje yra du GPC klasteriai, susidedantys iš 10 srautinių kelių procesorių (Streaming Multiprocessor – SM), tai yra lygiai pusė GP104. Kaip ir senesniame GPU, kiekviename iš kelių procesorių yra 128 branduoliai, 8 TMU tekstūros vienetai, 256 KB registro atminties, 96 KB bendros atminties ir 48 KB L1 talpyklos. Dėl to „GeForce GTX 1060“ iš viso yra 1280 skaičiavimo branduolių ir 80 tekstūrų vienetų, perpus mažiau nei GTX 1080.

Tačiau GeForce GTX 1060 atminties posistemis nebuvo perpus sumažintas, palyginti su geriausiu sprendimu, jame yra šeši 32 bitų atminties valdikliai, suteikiantys galutinę 192 bitų atminties magistralę. Esant efektyviam GeForce GTX 1060 GDDR5 vaizdo atminties dažniui, lygiam 8 GHz, pralaidumas siekia 192 GB / s, o tai yra gana geras sprendimas šiame kainų segmente, ypač turint omenyje aukštą jos naudojimo Pascal efektyvumą. Kiekvienas atminties valdiklis turi aštuonis ROP ir 256 KB L2 talpyklos, taigi iš viso pilnoje GP106 GPU versijoje yra 48 ROP ir 1536 KB L2 talpyklos.

Siekiant sumažinti atminties pralaidumo reikalavimus ir efektyviau išnaudoti turimą Pascal architektūrą, buvo toliau patobulintas duomenų glaudinimas be nuostolių lustuose, kuris gali suspausti duomenis buferiuose, taip padidindamas efektyvumą ir našumą. Visų pirma, į naują lustų šeimą buvo įtraukti nauji 4:1 ir 8:1 delta suspaudimo metodai, kurie, palyginti su ankstesniais Maxwell šeimos sprendimais, padidina pralaidumo efektyvumą 20%.

Bazinis naujojo GPU dažnis yra 1506 MHz – dažnis iš esmės neturėtų nukristi žemiau šios žymos. Įprastas turbo laikrodis (Boost Clock) yra daug didesnis – 1708 MHz, o tai yra tikrojo dažnio, kuriuo GeForce GTX 1060 grafikos lustas veikia įvairiuose žaidimuose ir 3D programose, vidurkis. Tikrasis padidinimo dažnis priklauso nuo žaidimo ir sąlygų, kuriomis vyksta bandymas.

Kaip ir kiti „Pascal“ šeimos sprendimai, „GeForce GTX 1060“ modelis ne tik veikia dideliu laikrodžio dažniu, užtikrindamas aukštą našumą, bet ir turi neblogą ribą įsijungimui. Pirmieji eksperimentai rodo galimybę pasiekti 2 GHz dažnius. Nenuostabu, kad kompanijos partneriai ruošia ir gamyklines perlaikytas GTX 1060 vaizdo plokštės versijas.

Taigi pagrindinis naujos architektūros pokytis buvo 16 nm FinFET procesas, kurio panaudojimas gaminant GP106 leido žymiai padidinti lusto sudėtingumą išlaikant santykinai mažą 200 mm² plotą. taigi šis Pascal architektūros lustas turi žymiai didesnį vykdymo vienetų skaičių, palyginti su panašaus padėties nustatymo Maxwell lustu, pagamintu naudojant 28 nm proceso technologiją.

Jei 227 mm² ploto GM206 (GTX 960) turėjo 3 milijardus tranzistorių ir 1024 ALU, 64 TMU, 32 ROP ir 128 bitų magistralę, tai naujajame GPU buvo 4,4 milijardo tranzistorių, 1280 ALU. 200 mm², 80 TMU ir 48 ROP su 192 bitų magistrale. Be to, beveik pusantro karto didesniu dažniu: 1506 (1708) prieš 1126 (1178) MHz. Ir tai yra naudojant tą patį 120 vatų energijos suvartojimą! Dėl to GP106 GPU kartu su GP104 tapo vienu efektyviausiai energiją naudojančių GPU.

Naujos Nvidia technologijos

Viena įdomiausių bendrovės technologijų, kurią palaiko GeForce GTX 1060 ir kiti Pascal šeimos sprendimai, yra technologija. „Nvidia“ vienalaikė daugialypė projekcija. Apie šią technologiją jau rašėme „GeForce GTX 1080“ apžvalgoje, ji leidžia panaudoti keletą naujų technikų atvaizdavimui optimizuoti. Visų pirma - vienu metu projektuoti VR vaizdą dviem akims vienu metu, žymiai padidinant GPU naudojimo virtualioje realybėje efektyvumą.

SMP palaikymui visi Pascal šeimos GPU turi specialų variklį, kuris yra „PolyMorph Engine“ geometrinio vamzdyno gale prieš rasterizatorių. Su juo GPU vienu metu gali projektuoti geometrinį primityvą į kelias projekcijas iš vieno taško, o šios projekcijos gali būti stereofoninės (ty vienu metu palaikoma iki 16 arba 32 projekcijų). Ši galimybė leidžia Pascal GPU tiksliai atkurti lenktą paviršių VR atvaizdavimui, taip pat teisingai rodyti kelių monitorių sistemose.

Svarbu, kad „Simultaneous Multi-Projection“ technologija jau integruojama į populiarius žaidimų variklius („Unreal Engine“ ir „Unity“) bei žaidimus, o iki šiol buvo paskelbta apie technologijos palaikymą daugiau nei 30 kuriamų žaidimų, įskaitant tokius gerai žinomus. tokie projektai kaip „Unreal Tournament“, „Poolnation VR“, „Everest VR“, „Obduction“, „Adr1ft“ ir „Raw Data“. Įdomu tai, kad nors „Unreal Tournament“ nėra VR žaidimas, jis naudoja SMP, kad būtų pasiektas geresnis vaizdas ir našumas.

Kita ilgai laukta technologija yra galingas įrankis, leidžiantis kurti ekrano kopijas žaidimuose. Nvidia Ansel. Šis įrankis leidžia kurti neįprastas ir labai kokybiškas ekrano kopijas iš žaidimų, su anksčiau nepasiekiamomis funkcijomis, jas išsaugoti itin didelės raiškos ir papildyti įvairiais efektais bei dalintis savo kūryba. „Ansel“ leidžia tiesiogine prasme sukurti ekrano kopiją taip, kaip to nori menininkas, leidžiant bet kurioje scenos vietoje sumontuoti fotoaparatą su bet kokiais parametrais, pritaikyti galingus vaizdo filtrus ar net padaryti 360 laipsnių kadrą, kad galėtumėte peržiūrėti virtualios realybės šalmas.

„Nvidia“ standartizavo „Ansel“ vartotojo sąsajos integravimą į žaidimus ir tai padaryti taip paprasta, kaip pridėti kelias kodo eilutes. Jums nebereikia laukti, kol ši funkcija atsiras žaidimuose, Anselio gebėjimus galite įvertinti jau dabar „Mirror’s Edge: Catalyst“, o kiek vėliau ji bus pasiekiama ir „Witcher 3: Wild Hunt“. Be to, kuriama daug žaidimų projektų su Ansel, įskaitant tokius žaidimus kaip Fortnite, Paragon ir Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky ir kt.

Naujasis GeForce GTX 1060 GPU taip pat palaiko įrankių rinkinį Nvidia VRWorks, kuri padeda kūrėjams kurti įspūdingus projektus virtualiai realybei. Šiame pakete yra daug paslaugų ir įrankių kūrėjams, įskaitant VRWorks Audio, kuris leidžia atlikti labai tikslius garso bangų atspindžių iš scenos objektų skaičiavimus naudojant GPU spindulių sekimą. Paketas taip pat apima integraciją į VR ir PhysX fizikos efektus, kad būtų užtikrintas fiziškai teisingas objektų elgesys scenoje.

Vienas iš įdomiausių VR žaidimų, kuriais galima pasinaudoti VRWorks, yra VR Funhouse, pačios Nvidia VR žaidimas, kurį nemokamai galima įsigyti „Valve“ „Steam“ paslaugoje. Šis žaidimas sukurtas naudojant Unreal Engine 4 (Epic Games) ir veikia GeForce GTX 1080, 1070 ir 1060 vaizdo plokštėse kartu su HTC Vive VR ausinėmis. Be to, šio žaidimo šaltinio kodas bus prieinamas viešai, o tai leis kitiems kūrėjams panaudoti paruoštas idėjas ir kodą jau savo VR atrakcijose. Laikykitės mūsų žodžio – tai vienas įspūdingiausių virtualios realybės galimybių demonstravimo.

Įskaitant SMP ir VRWorks technologijas, GeForce GTX 1060 GPU naudojimas VR programose užtikrina našumą, kurio visiškai pakanka pradinio lygio virtualiai realybei, o atitinkamas GPU atitinka minimalų reikalingą aparatinės įrangos lygį, įskaitant SteamVR, tampa vienas sėkmingiausių įsigijimų, skirtų naudoti sistemose su oficialiu VR palaikymu.

Kadangi GeForce GTX 1060 modelis yra pagrįstas GP106 lustu, kuris niekuo nenusileidžia GP104 grafikos procesoriui, tapusiam senesnių modifikacijų pagrindu, jis palaiko absoliučiai visas aukščiau aprašytas technologijas.

„GeForce GTX 1060“ yra trečiasis „Nvidia“ naujos „Pascal“ šeimos grafikos procesorių linijos modelis. Naujoji 16 nm FinFET proceso technologija ir architektūros optimizavimas leido visoms naujoms vaizdo plokštėms pasiekti aukštą taktinį dažnį ir į GPU įdėti daugiau funkcinių blokų srauto procesorių, tekstūrų modulių ir kitų pavidalu, lyginant su ankstesnės kartos vaizdo lustais. Štai kodėl GTX 1060 tapo pelningiausiu ir energiją taupančiu sprendimu savo klasėje ir apskritai.

Ypač svarbu, kad „GeForce GTX 1060“ pasiūlytų pakankamai aukštą našumą ir palaikytų naujas funkcijas bei algoritmus už daug mažesnę kainą, palyginti su senesniais sprendimais, paremtais GP104. Naujajame modelyje naudojamas GP106 grafikos lustas užtikrina geriausią savo klasėje našumą ir energijos vartojimo efektyvumą. „GeForce GTX 1060“ yra specialiai sukurtas ir puikiai tinka visiems šiuolaikiniams žaidimams esant dideliems ir maksimaliems grafiniams nustatymams, esant 1920 x 1080 raiškai ir netgi naudojant viso ekrano anti-aliasing, įgalintą įvairiais metodais (FXAA, MFAA arba MSAA).

O tiems, kurie nori dar didesnio našumo su itin didelės raiškos ekranais, „Nvidia“ turi aukščiausios klasės „GeForce GTX 1070“ ir „GTX 1080“ vaizdo plokštes, kurios taip pat yra gana geros našumo ir energijos vartojimo efektyvumo požiūriu. Ir vis dėlto žemos kainos ir pakankamo našumo derinys gana palankiai išskiria GeForce GTX 1060 iš senesnių sprendimų. Palyginti su konkuruojančiu „Radeon RX 480“, „Nvidia“ sprendimas yra šiek tiek greitesnis, mažiau sudėtingas ir mažiau grafinio procesorius, o energijos vartojimo efektyvumas yra žymiai geresnis. Tiesa, ji parduodama kiek brangiau, tad kiekviena vaizdo plokštė turi savo nišą.

Nauja vietoje

>

Populiariausias