Hem Druva Nvidia geforce gtx 260 driftstemperatur. Normal temperatur på grafikkortet. Testplattformskonfiguration och testmetodik

Nvidia geforce gtx 260 driftstemperatur. Normal temperatur på grafikkortet. Testplattformskonfiguration och testmetodik

Det verkar som att en spelvideoadapter med en DDR3-buss, som länge har ersatts av en snabbare och modernare typ av DDR5-minne, kan överraska en användare. Ingenting, om inte denna videoadapter är Nvidia 260, vars egenskaper kan konkurrera med många moderna enheter med en förbättrad teknisk process och många innovationer.

Mycket dyr produktion

Att döma av det faktum att avvisningsgraden i produktionen av GT200-chips översteg 50%, var priset för videoadaptrar i denna serie klart överskattat på marknaden. Men vilken köpare som helst visste att han inte hade andra konsumtionsvaror från en känd tillverkare i lager, utan praktiskt taget en av de bästa produkterna från den vita församlingen. Och vi pratar om ett spelvideokort GeForce GTX 260. Kännetecknet för en utmärkt montering är bara en av en hel lista med egenskaper som denna videoadapter besitter.

Minskningen av kostnaden för enheten på marknaden beror på den använda typen av DDR3-buss. Tillverkare ansåg att detta minne inte kommer att spela en stor roll i överföringen av betydande mängder information, eftersom adaptern har många andra intressanta tekniker som kan förbättra dess prestanda. Men besparingarna är uppenbara, chippet var billigare att tillverka än ett liknande med DDR5-minne.

Gentleman's set

Därmed inte sagt att för topplinjen, som GeForce GTX 260 tillhör, är egenskaperna idealiska och överträffar konkurrenterna med marginal. Det är tvärtom. Ta åtminstone den tekniska processen - 65 nm med en kärnyta på 576 kvm. mm. Vilken spelare som helst kommer att berätta att detta är det senaste århundradet. En annan sak är intressant - videominnets bandbredd, som är den viktigaste egenskapen för en spelvideoadapter. Det är 112 gigabyte per sekund. Detta är en mycket stor siffra, även för moderna spelvideokort.

Hög prestanda hos videoadaptern tillhandahålls av 448-bitars minnesbussen. Tydligen, på grund av den dyra bussen och priset på enheten är klart överskattat, eftersom Nvidia nyligen bestämde sig för att installera 384-bitars bussar i toppmodeller, vilket ökar minnesbandbredden genom att överklocka kärnorna, men det är inte känt hur länge de kommer att ha tillräckligt med potential.

Något är fel här

En mycket märklig egenskap för Nvidia GTX 260 är mängden minne. Det är trots allt brukligt på marknaden att ställa in storleken i multiplar av 512 megabyte, men här är det 896 MB. Allt handlar om bitdjupet: den icke-standardiserade bussen uppnåddes genom att inaktivera flera styrenheter på videoadapterkortet, detta påverkade minskningen av den totala minnesstorleken.

Och om man fördjupar sig i undersökningen kan man ta reda på att GTX 260-chippet är ett förkastande av den äldre modellen från samma GTX 280-linje. Den har bara en vanlig 512-bitars buss och 1024 MB minne ombord. För att nå prestanda hos sin äldre bror kommer det inte att vara möjligt att programmässigt förbättra egenskaperna hos GeForce GTX 260, förutom att löda de saknade styrenheterna. Maximalt kan du öka kärnfrekvensen genom att höja spänningen på den. För att göra detta behöver du NVFlash-programmet, där du istället för standardspänningen på 1,12 volt måste byta till 1,18 volt och fylla i ändringarna i videoadapterns BIOS.

Några godsaker

Behagar 260 egenskaper hos videoutgångar. Alla enheter på marknaden har identiska kontakter. Du kan ansluta vilken enhet som helst, det spelar ingen roll om den är digital eller analog - från den uråldriga D-Sub-porten till den moderna HDMI-standarden. Det finns till och med en TV-utgång, som är implementerad i form av S-video, men de medföljande adaptrarna låter dig ansluta enheter med en komponentingång.

Alla Nvidia GTX 260-grafikkort har oklanderlig kylprestanda. Kylning kan inte bara regleras automatiskt, utan orsakar inte heller obehag under drift på grund av dess höga byggkvalitet. Vilket är ganska ovanligt på marknaden för videoadapter.

Bästa erbjudande

XFX är känt bland spelare som en av de bästa videoadaptrarna i branschen. Inga konsumtionsvaror, bara kraftfulla spelenheter under detta varumärke. Därför har introduktionen av GeForce GTX 260 Black Edition under detta varumärke uppmärksammat många XFX-fans på produkten.

Att bara en låda är värd. Storleksmässigt kan den konkurrera med storleken på moderkortet. Många adaptrar, tillbehör, märkesskivor med drivrutiner och detaljerade instruktioner kommer knappast att överraska någon, men Far Cry 2 var skyldig att bli en belöning för en användare som bara använder licensierad programvara.

Det gotiska utseendet på ett spelvideokort är lite läskigt till en början, men sedan väcker det respekt. Inte alla användare har ett sådant mästerverk. Naturligtvis är kylsystemet på toppnivå, i detta avseende finns det inga frågor om XFX GTX 260. Strömförbrukningsegenskaperna är lite pinsamma - 236 W, som i den äldre GTX 280-modellen. ...

Inte utan Zotac

Men varumärket Zotac, välkänt bland spelare, som ganska nyligen tog upp chips från topplinjen, gav upp sina positioner lite när det lanserade produktionen av enheter i lågprissegmentet. Produkten GeForce GTX 260, vars tekniska egenskaper uppenbarligen lockade tillverkaren, satte Zotac på transportören.

En märkeslåda, utmärkt förpackning i en anti-chockpåse, många kablar och adaptrar, CD-skivor med drivrutiner och instruktioner är en standarduppsättning för alla toppenheter. Tittar man noga på adaptern får man en känsla av att det här är samma XFX, bara med ett nytt dragonklistermärke från Zotac. Även i GTX 260 är kylprestandan identisk.

På fabriken bestämde de sig tydligen för att inte ändra egenskaperna hos chipsetet och lämnade allt som det är. Detta bevisas av prestandaindikatorer, minne och kärnfrekvenser, såväl som max.Men i priskategorin tar grafikkortet en av de första platserna, där haken är, är okänd.

Att bryta grunden

Tillverkarna Gainward, Palit och Gigabyte är mer konsumentinriktade, åtminstone finns en sådan åsikt. Tydligen var de intresserade av prestandaegenskaperna för Nvidia GTX 260, och de släppte några mycket kraftfulla enheter som snabbt hittade sina köpare.

Att döma av de många recensionerna av konsumenter i media finns det inga klagomål på dessa tre tillverkare alls. Vilken utrustning, vilken montering, vilken prestanda - de är oklanderliga. Naturligtvis var köparna också nöjda med priset, eftersom dessa tillverkare har satt ett mycket attraktivt pris för spelvideokort.

Det finns dock frågor om videoadaptern från MSI. Enheten presenteras utan några proprietära modifieringar - ett omärkligt grafikkort GTX 260. Kylsystemets egenskaper har alltid varit i första hand för MSI, det är alltid lätt att hitta det på hyllan vid Cyclone-kylaren.

En märklig aktör på marknaden

Konstruktörerna och formgivarna av företaget GALAXY, vars mästerverk ofta kan hittas på marknaden i form av grafikkort med ett stort antal kylare i kylsystemet, lämnade standardkylaren i GTX 260. Kännetecknet för låga temperaturer på kärnan och minneskretsen är fördelen för vilken köpare går för att handla och köpa en GALAXY-produkt.

Ändå gjorde tillverkaren något med videoadaptern, eftersom den, med chipets fabriksegenskaper, visar sig utmärkt i tester och lämnar bakom sig de flesta tillverkarna av chippet med samma namn. Intressant nog är kärn- och minnestemperaturerna normala.

Till sist

Som ett resultat av recensionen kan vi dra slutsatsen att GTX 260-videoadaptern, vars egenskaper är mycket imponerande när det gäller prestanda på marknaden för spelenheter, är ganska konkurrenskraftig i toppklassen. Förvirrad av något helt annat - alla tillverkare, utan undantag, har installerat nästan samma kylsystem. Användaren kommer inte att se någon proprietär teknologi från MSI eller GALAXY. Denna märklighet antyder att grafikkortet är helt olämpligt för överklockning - det finns ingen potential. På grund av detta är det ingen mening att installera förbättrad kylning. En ökning av spänningen på kärnan ger ingen ökning i spel, det ökar bara strömförbrukningen och värmeavledningen.

För en tid sedan, i vårt testlabb, testade vi flera videoadaptrar tillverkade av GIGABYTE. Men dessa var grafikkort baserade på referensgrafikchip från NVIDIA. Den här gången försågs vi med överklockade grafikkort, det vill säga med fabriksöverklockat minne och grafikkärnfrekvenser, som kallas Super Over Clock, nämligen GIGABYTE GeForce GTX 275 (GV-N275SO-18I) och GIGABYTE GeForce GTX260 (GV- N26SO- 896I). I den här artikeln kommer vi att presentera resultaten av deras testning, och för tydlighetens skull kommer vi att lägga till testresultaten från den tidigare modellen av GIGABYTE GeForce GTX 275 (GV-N275UD-896I) grafikkort (versionen utan överklockning) och, naturligtvis, referensvideokortet GIGABYTE GeForce GTX 295 (GV-N295-18I).

GIGABYTE GeForce GTX260 Super Over Clock (GV-N26SO-896I)

GIGABYTE GeForce GTX260 Super Over Clock är baserad på nVIDIA GeForce GTX 260 GPU (GT200-chip), men har ett antal skillnader från referensvideokortet. Först och främst är dessa naturligtvis modellens modifierade tekniska egenskaper. Det yttre utseendet på grafikkortet, såväl som designen av kylsystemet, har inte genomgått nästan några förändringar och skiljer sig utåt inte på något sätt från kylsystemet installerat på referensmodellen Geforce GTX260. Det är värt att notera att, enligt GIGABYTE, ändras fläkthastigheten automatiskt beroende på den aktuella temperaturen på GPU:n, men själva principen för detta beroende, jämfört med referensmodellen, har ändrats. Kylsystemet är baserat på en massiv aluminiumradiator placerad i ett plasthölje, som täcker hela grafikkortets kretskort.

I viloläge för GIGABYTE GeForce GTX260 Overclock Edition överstiger inte GPU-temperaturen (enligt GPU-Z 0.3.4-verktyget) 49 ° C. Samtidigt är fläkthastigheten 1381 rpm och ändras inte upp till 85 ° C. I referensmodellen börjar fläkthastigheten ändras från 72 °C. Och eftersom grafikkortet vanligtvis inte är 100% laddat, ger det nya RPM kontra temperatur användaren ett tystare grafikkort.

För att bestämma den maximala fläkthastigheten, samt mäta modellens maximala strömförbrukning, använde vi FurMark 1.7.0-verktyget, designat för stressbelastning av grafikkort, och en hårdvaruwattmätare. Vid testning visade det sig att den maximala fläkthastigheten på GIGABYTE GeForce GTX260 Overclock Edition är 2910 rpm. Samtidigt går inte temperaturen på grafikprocessorn över 86 ° C-linjen, vilket kan anses vara en bra indikator, med tanke på att grafikkortet har ökade frekvensegenskaper hos grafikminnet och processorn. Så frekvensen för GPU-kärnan är 680 MHz, frekvensen för shader-enheten är 1500 MHz och videominnesfrekvensen är 1250 MHz. Kom ihåg att för referensvideokortet är frekvensen för grafikkärnan 576 MHz, shader-enheten är 1242 MHz och minnesfrekvensen är 999 MHz.

Som du kan se är alla huvudkomponenter på grafikkortet något överklockade, och därför bör dess prestanda åtminstone något överstiga referensvideokortets prestanda.

När det gäller resten av egenskaperna hos GIGABYTE GeForce GTX260 Overclock Edition, skiljer de sig inte från egenskaperna hos referensmodellen, med undantag för ett faktum. Videokortet är utrustat med 896 MB GDDR3-minne, och minnesbussbredden är 448 bitar, medan minnesbandbredden är 130 GB/s.

55nm 55nm (487mm 2-matris) NVIDIA GeForce GTX 260 GPU (kodnamnet GT200) har 216 shader-unified-processorer och 28 rasteroperationsenheter (ROPs). I tidigare versioner av grafikkort baserade på detta chip användes endast 192 unified shader-processorer.

Det återstår att tillägga att GIGABYTE GeForce GTX260 Overclock Edition har en DVI-I-utgång, HDMI-utgång och VGA (D-Sub)-utgång, medan referensvideokortet var utrustat med endast en DVI- och VGA-kontakt. Icke desto mindre tillåter modellen vi testade, liksom alla modeller av grafikchip, inte att ansluta tre bildskärmar samtidigt, och tre utgångar tillhandahålls för användaren så att han har ett val. Denna modell, liksom alla de senaste grafikkorten baserade på kraftfulla grafikkretsar, upptar två platser i systemenheten och är kompatibel med API Direct X10 (SM 4.0). Man skulle naturligtvis också kunna komma ihåg stödet för alla möjliga egenutvecklade teknologier som CUDA, PhysX, etc., men låt oss separera rena marknadsföringsteknologier från vad användarna verkligen behöver.

GIGABYTE GeForce GTX275 Super Over Clock (GV-N275SO-18I)

GIGABYTE GeForce GTX275 Super Over Clock, liksom den andra modellen i våra tester från GIGABYTE, drivs av en NVIDIA GeForce GT200 GPU. Dessutom talar vi i det här fallet om en överklockad version av grafikkretsen NVIDIA GeForce GTX275, som endast är sämre prestanda än grafikkort baserade på grafikprocessorerna NVIDIA GeForce GTX285 och GeForce GTX295 (detta gäller naturligtvis grafikkortsbaserade på marker från detta företag). I detta grafikkort har alla frekvensegenskaper också ändrats - frekvenserna för minnet, grafikkretsen och frekvensen för de förenade processorerna. Om för referensmodellen (GIGABYTE GeForce GTX275 (GV-N275UD-896I)) minnesfrekvensen är 1200 MHz, då för GIGABYTE GeForce GTX275 Super Over Clock - 1260 MHz. Grafikkärnan i detta nya grafikkort arbetar på 715 MHz, medan referensfrekvensen för kort baserade på detta chip är 633 MHz. Driftsfrekvensen för shaderenheten, det vill säga enhetliga processorer, är 1550 MHz, medan referensmodellen har 1404 MHz. Dessutom använder GIGABYTE GeForce GTX275 Super Over Clock 896 MB GDDR3-minne med 448-bitars minnesbussbredd.

Ris. 1. Jämförelse av grafikkortens egenskaper

Kylsystemet som används på GIGABYTE GeForce GTX275 Super Over Clock är en referens, men som i fallet med ovanstående grafikkort baserat på GeForce GTX260-chipet har det genomgått en förändring.

I det obelastade tillståndet för GPU:n är dess temperatur 43 ° C och fläkthastigheten är 1500 rpm. Med den maximala belastningen av GPU:n stiger dess temperatur till 91 ° C och fläkten roterar med 2150 RPM. Jämförande egenskaper hos GIGABYTE GeForce GTX275 Super OverClock-modellen och referensvideokortet visas i tabellen.

Precis som det andra grafikkortet vi testade upptar GIGABYTE GeForce GTX275 Super Over Clock två platser i systemenheten, har ett PCIExpress 2.0-gränssnitt och tre bildskärmsutgångar - DVI-I, VGA och HDMI. Det återstår att tillägga att denna modell under testningen kännetecknades av ganska frekventa fel under drift. Naturligtvis beror detta just på de överskattade klockfrekvenserna, men det är troligt att detta beteende orsakades av någon form av tillverkningsfel.

Testteknik

Metodiken för att testa grafikkort beskrivs i detalj i artikeln "Ny metod för att testa processorer, datorer och grafikkort" som publicerades i septembernumret av tidningen, och därför kommer vi inte att upprepa oss själva och bara kortfattat påminna om dess huvudpunkter. Det är värt att notera att vi i denna testning använde det nya operativsystemet Windows 7 Ultimate som operativsystem. Referensresultat erhölls även på ett nytt operativsystem med den senaste versionen av NVIDIA ForceWare 190.62-drivrutinen när detta skrivs.

För att testa grafikkort använder vi ComputerPress Game Benchmark Script v.4.0 testskript, som låter dig automatisera hela testprocessen och välja spel för testning, skärmupplösningen som de körs med, spelinställningar för maximal bildkvalitet eller maximal prestanda, samt ställa in antalet körningar för varje spel.

ComputerPress Game Benchmark Script v.4.0 innehåller följande spel och riktmärken:

  • Quake 4 (Patch 1.42);
  • S.T.A.L.K.E.R .: Shadow of Chernobyl (Patch 1.005);
  • S.T.A.L.K.E.R .: Clear Sky (Patch 1.007);
  • Half-Life: Avsnitt 2;
  • Crysis v.1.2.1;
  • Lämnade 4 döda;
  • Call of Juares Demo Benchmark v. 1.1.1.0;
  • 3DMark06 v. 1.1.0;
  • 3DMark Vantage v. 1.0.1.

Vid testning kördes alla spel (med undantag för 3DMark Vantage v. 1.0.1) med fyra olika skärmupplösningar: 1280x800 (eller 1280x720), 1440x900, 1680x1050 och 1920x1200. Benchmark 3DMark Vantage v. 1.0.1 kördes i var och en av fyra förinställningar (Entry, Performance, High och Extreme).

Alla spel lanserades i två lägen: maximal prestanda och maximal kvalitet. Inställningsläget för maximal prestanda uppnås genom att inaktivera effekter som anisotropisk filtrering av texturer och skärmkantutjämning, samt ställa in låga bilddetaljer, etc. Det vill säga, detta läge syftar till att få maximalt möjliga resultat (maximalt FPS-värde).

Inställningsläget för maximal kvalitet uppnås genom användning av höga detaljer, olika effekter, anisotropisk filtrering av texturer och skärmkantutjämning. I detta inställningsläge beror resultatet mer på grafikkortets prestanda och i mindre utsträckning på processorns prestanda.

Baserat på resultaten av alla körningar, beräknades det aritmetiska medelvärdet för varje test. Dessutom bestämdes en integrerad prestandaindikator baserat på testresultaten för varje grafikkort. För att göra detta beräknades initialt, för varje spel i varje inställningsläge, det viktade genomsnittliga resultatet över alla upplösningar med hjälp av formeln.

Därefter beräknades det geometriska medelvärdet mellan resultaten beräknade med ovanstående formel för läget för maximal kvalitet och läget för maximal produktivitet. Resultatet som hittades på detta sätt var en integrerad uppskattning av prestandan i ett enda spel.

För att få en integrerad prestandauppskattning i 3DMark Vantage-testet, beräknades det geometriska medelvärdet mellan resultaten för alla förinställningar med hjälp av formeln.

Vidare normaliserades de integrerade uppskattningarna av prestanda i varje enskilt spel till liknande resultat för referensvideokortet och det geometriska medelvärdet beräknades för alla normaliserade integralresultat. För att underlätta presentationen av resultaten multiplicerades det erhållna värdet med 1000. Detta var en integrerad bedömning av grafikkortets prestanda. För referensvideokortet är det integrerade prestandaresultatet 1000 poäng.

Ett GeForce GTX295 grafikkort användes som referensvideokort. Stativet för att testa grafikkort hade följande konfiguration:

  • processor - Intel Core i7 Extreme 965 (klockhastighet 3,2 GHz);
  • moderkort - ASUS RAMPAGE II EXTREME;
  • moderkortskretsuppsättning - Intel X58 Express;
  • Intel Chipset Device Software - 9.1.0.1007;
  • minne - DDR3-1066 (Qimonda IMSH1GU03A1F1C-10F PC3-8500);
  • minnesstorlek - 3 GB (tre moduler, 1024 MB vardera);
  • minnesdriftläge - DDR3-1333, trekanalsläge;
  • minnestider - 7-7-7-20;
  • hårddisk - Western Digital WD2500JS;
  • operativsystem: Microsoft Windows 7 Ultimate;
  • videodrivrutin - ForceWare 190.62.

De absoluta testresultaten visas i fig. 2-20, och de integrerade prestandaindikatorerna för de testade grafikkorten visas i Fig. 21.

Ris. 2. Testresultat
i spelet Quake IV (Patch 1.42)

Ris. 3. Testresultat
i spelet Quake IV (Patch 1.42)

Ris. 4. Testresultat
i spelet Half-Life: Episode 2
när den är inställd på maximal kvalitet

Ris. 5. Testresultat
i spelet Half-Life: Episode 2
när den är inställd på lägsta kvalitet

Ris. 6. Testresultat i testet
när den är inställd på maximal kvalitet

Ris. 7. Testresultat i testet
Call of Juares DX10 Benchmark v.1.1.1.0
när den är inställd på lägsta kvalitet

Ris. 8. Testresultat i spelet
när den är inställd på maximal kvalitet

Ris. 9. Testresultat i spelet
S.T.A.L.K.E.R .: Shadow of Chernobyl (Patch 1.005)
när den är inställd på lägsta kvalitet

I den här artikeln kommer vi att fokusera på det en gång ett av de bästa spelvideokorten nVidia GeForce GTX 260. Modellen skapades 2009 och anses vara en avskalad version av GTX 280 - mer om skillnaden kommer att diskuteras i artikel. Med tanke på syftet med grafikkortet kan vi säga att det är avsett för spelare. Ett annat trevligt fynd är att grafikkortet kör spel från 2015-2017 med utmärkta fps, så det kan med rätta anses vara en riktig "dinosaurie" i detta produktionsområde. Men först till kvarn.

Viktigaste egenskaperna

  • Teknik: 65 Nm
  • Kärnfrekvens: 576 MHz
  • Minnestyp: GDDR3
  • Minnesfrekvens: 999 MHz
  • Inbyggd videoadapterstorlek: 896 MB
  • Minnesbuss: 448 bitar
  • Rastereringsenheter: 28
  • Texturenheter: 64
  • Antal verkställande processorer: 192
  • Videominnes bandbredd: 112 GB/sek

Tillverkare

Referens från nVidia

Den första och viktigaste grafikkortstillverkaren är NVIDIA.

Det är intressant att denna modell var ett äktenskap med NVIDIA GeForce GTX 280, främst på grund av det minskade antalet grafikkortskontrollmoduler, i samband med vilka GTX 260 hade så att säga en icke-standardiserad mängd minne - 896 MB , vilket strider mot standarderna för mängden videominne på videokort, enligt vilka det måste vara lika med två i viss mån. I GTX 280, i denna riktning, är allt konsekvent på grund av en komplett uppsättning kontrollenheter och dess minneskapacitet är 1024 megabyte, det vill säga två till tionde kraften. Dessutom har den avskalade versionen, det vill säga GTX 260, mindre:

  • Videominnesfrekvens (1998 MHz mot 2214 MHz för GTX 280),
  • Minnesbussbredd (448 bitar vs 512)
  • GPU klockhastighet (575 MHz vs 602)

Dessutom har grafikkortet ett mindre antal unified shader-processorer (192 mot 240), texturenheter (64 mot 80), högre strömförbrukning (500 watt mot 550), etc.

På grund av allt detta vinner GeForce GTX 280 naturligtvis i prestanda, även om den förlorar i strömförbrukning, värmeavledning (uppvärmning med 100 grader Celsius för GTX 280 mot 80 grader för GTX 260), avsevärt i kostnad (den priset på GTX 280 är $ 500 vid den tiden som GTX 260 är $ 200 billigare!).

Modifiering av XFX GeForce GTX 260 från XFX

För att vara ärlig har ingenting ändrats i de tekniska egenskaperna, men grafikkortet var inramat i en låda med en vacker design, många nya tillbehör i förhållande till NVIDIA-modellen, såväl som den fullständiga versionen av Assasins Creed-spelet. Grafikkortet åtföljs också av instruktioner för installation och drift, och på själva lådan finns minimikrav för driften av grafikkortet, såsom en 500 W strömförsörjning med en ström på 36 Ampere vid en spänning på 12 volt, och så vidare. Baksidan av kartongen beskriver grafikkortets olika fördelar.

Modifiering av ZOTAC GeForce GTX 260 AMP2! Upplaga av ZOTAC

När företaget introducerade den första modifieringen av GTX 260 (AMP1!), var det svårt att nämna dess skillnader från XFX-modifieringen, förutom en annan låda med ett drakmönster och det medföljande spelet (GRID), men ZOTAC rehabiliterade sig själv och i den nya versionen introducerades ett förbättrat grafikkort med 216 -yu verkställande processorer, vilket utan tvekan förbättrar växelkursen för grafikkortet med RAM och följaktligen högre prestanda. Dessutom finns det en annan skillnad från konkurrenternas produkter, nämligen närvaron av 2 kablar för att ansluta ytterligare ström (konkurrenter har bara en), annars är allt detsamma som i liknande GTX 260s.

Jämförelse med analoger

Jättarnas eviga kamp: nVidia GeForce GTX 260 vs ATi Radeon HD 4870

När dessa grafikkort var de mest kraftfulla inom spel, kostade de ungefär lika mycket - $ 300. Men många människor känner till AMD:s djävulsk-må-vård-attityd till sina produkter, och detta var inte utan det, eftersom AMD var likgiltig för stödet från sin idé och inte postade nya drivrutiner för Radeon HD 4870, orsakade detta mycket negativt feedback, det fanns också problem med överdriven strömförbrukning för detta grafikkort i förhållande till det som specificerades vid utgivningen, och därför har dess kostnad sjunkit och för närvarande kostar grafikkortet cirka 6 500 rubel, medan GTX 260 praktiskt taget inte har sjunkit i pris sedan 2009 och för närvarande är kostnaden för videoadaptern 17 000 rubel.

Skillnader mellan grafikkort GeForce GTX 260 och Radeon HD 4870

nVidia GeForce GTX 260 ATi Radeon HD 4870
Teknologisk process 65 Nm 55 Nm
Antal transistorer 956 miljoner 1400 miljoner
GPU-frekvens 750 MHz 602 MHz
Videominnesfrekvens 3600 MHz 2214 MHz
Videominnets storlek 512/1024 MB 896 MB
Minnestyp som stöds GDDR5 GDDR3
Minnesbuss bredd 256 bitar 512 bitar
Antal verkställande processorer 800 240
Antal texturenheter 40 80
Antal ROP-enheter 16 32
Bandbredd 115 GB/sek 141 GB/sek

Trots skillnaderna i egenskaper är prestandan för de två grafikkorten praktiskt taget lika, vilket visades av deras jämförelse i benchmarks och vissa spel. Men samtidigt, glöm inte problemet med energiförbrukning från ett Radion-kort och bristen på dess stöd, därför, trots skillnaderna i kostnad och ungefär lika prestanda, skulle jag fortfarande föredra nVidia GeForce GTX 260 när jag köper.

Tester

Testar i benchmarks, spel under överklockningnVidia GeForce GTX260 och utan.

Vid test beter sig grafikkortet ganska självsäkert och visar bra resultat både i benchmarks och i spel. Om vi ​​pratar om den så kallade optimeringen av grafikkortet genom att byta ut kylsystemet och överklocka GTX 260, så är det definitivt inte värt att göra detta. Prestandan kommer inte att öka mycket, vilket kommer att visas tydligt nedan, och kostnaderna för detta kommer att vara förgäves. Samtidigt ökar risken för överhettning fortfarande, eftersom temperaturen på grafikkortet redan är 80 grader Celsius, och under överklockning kommer den att växa till en kritisk sådan, vilket gör att GTX 260 helt enkelt kommer att brinna ut. Här är vad som kom ut i tester med olika riktmärken med och utan överklockning av nVidia GeForce GTX 260.

Konfiguration av den testade systemenheten:

  • MP: ASUSTek P5K Deluxe / WiFi-AP (Intel P35), LGA 775, BIOS v0812
  • Processor: Intel Core 2 Extreme QX9650, 3,0 GHz, 1,25 V, L2 2 x 6 MB, FSB: 333 MHz x 4, (Yorkfield, C0)
  • CPU-kylningssystem: Thermalright SI-128 SE (Scythe Ultra Kaze, ~ 1250 rpm);
  • RAM: 2 x 1024 MB DDR2 Corsair Dominator TWIN2X2048-9136C5D (Spec: 1142 MHz / 5-5-5-18 / 2,1 V) + 2 x 1024 MB DDR2 CSX DIABLO CSXO-XAC-12KIT2-Spec: 12KIT2-Spec: MHz / 5-5-5-16 / 2,4V);
  • Enheter: SATA-II 500 GB, Samsung HD501LJ, 7200 rpm, 16 MB, NCQ;
  • Diskenhet: SATA-II DVD RAM & DVD ± R / RW & CD ± RW Samsung SH-S183L;
  • Strömförsörjningsenhet: Enermax Galaxy DXX (EGA1000EWL) 1000 Watt (standardfläktar: 135 mm för blåsning, 80 mm för blåsning).
  • Bildskärm: 24 tum BenQ (Wide LCD, 1920 x 1200/60 Hz)

För att utesluta möjligheten av beroende av prestanda hos GTX 260 på hastigheten på resten av PC-hårdvaran, beslutades det att överklocka processorn till en klockfrekvens på 4 GHz och öka dess spänning till 1,6 volt. OS för testning var Win Vista Ultimate Edition x64 preSP1. I själva grafikkortet höjdes GPU-frekvensen från 602 till 738 MHz och videominnesfrekvensen från 2214 till 2484 MHz. Inställningarna i spel var inställda på höga, testning utfördes med en upplösning på 1920 x 1200.

Resultat:

GeForce GTX 260 GeForce GTX 260 (överklockad)
3DMark 2006 10000 11681
3DMark Vantage 4138 4989
S.T.A.L.K.E.R. - Shadow of Chernobyl 67 fps 80 fps
Call of Duty 4: Modern Warfare 98 fp 110 fps
Crysis 35 fps 42 fps

Baserat på resultaten ovan kan vi dra slutsatsen: när den är överklockad ger GeForce GTX 260 ingen hög prestandaökning i riktmärken, även om den i spel visar en utmärkt prestandavinst, närmar sig GTX 280 när det gäller prestanda, men om det är värt risken för överhettning av grafikkortet är upp till dig.

P.S. I vissa moderna spel från 2013-2017 visar 2009 nVidia GeForce GTX 260 utmärkt prestanda! Till exempel, i GTA 5 45 fps vid medium inställningar, 33 fps i Skyrim vid medium, 100 fps i CS: GO vid medium, 40 fps i Dota 2 högst.

Grafikkortet är den mest trafikerade komponenten i din dator när det kommer till spel. Den bearbetar miljontals instruktioner för att utföra olika operationer under spel, och på grund av detta blir det varmt. I likhet med processorn kan överhettning av grafikkortets grafikkort uppstå, vilket kan leda till en mängd olika problem, inklusive fel på grafikkortet. I ett grafikkort är GPU:n huvudkomponenten där överhettning kan uppstå. Minnet på ditt grafikkort kan också värmas upp, men det överstiger inte risknivån. Överhettning kan minska livslängden på GPU:n och kan också orsaka omedelbar skada på grafikkortet.

Vad är den normala temperaturen på grafikkortet?

Svaret på denna fråga beror både på tillverkaren och på den specifika modellen av grafikkortet, men i allmänhet är allt över 80 grader Celsius ett tecken på oro. Om temperaturen på ditt grafikkorts GPU är över 80 ° C, bör du vidta lämpliga åtgärder för att sänka den, helst inom intervallet 70 ° C - 75 ° C eller lägre.

Om du har några problem med din dators prestanda, speciellt när du redigerar video, bearbetar video eller när du spelar en video, börjar den stamma, sakta ner, frysa, då är det första du behöver göra grafikkortet och jämföra det med avläsningarna i tabellen nedan.

Tillåtet temperatur NVIDIA grafikkort

VideokortTemperatur tomgångTillåten temperaturMaximal temperatur
GeForce GTX 1080 Ti42 55-80 91
GeForce GTX 108042 60-84 94
GeForce GTX 107041 83 94
GeForce GTX 106038 55-75 94
GeForce GTX 1050 Ti35 55-80 97
GeForce GTX 105035 55-80 97
GeForce GT 103035 65-82 97
GeForce GTX TITAN X42 83 91
GeForce GTX TITAN (Z, svart)41 81 95
GeForce GTX 980 Ti42 85 92
GeForce GTX 98042 81 98
GeForce GTX 97044 73 98
GeForce GTX 96037 50-78 98
GeForce GTX 95030-35 75 95
GeForce GTX 780 Ti42 83 95
GeForce GTX 78043 83 95
GeForce GTX 77036 60-77 98
GeForce GTX 76036 82 97
GeForce GTX 750 Ti33 55-70 95
GeForce GTX 75033 76 95
GeForce GTX 69034 77 98
GeForce GTX 68037 80 98
GeForce GTX 67036 55-80 97
GeForce GTX 660 Ti34 78 97
GeForce GTX 66032 63 97
GeForce GTX 650 Ti Boost38 69 97
GeForce GTX 65035 66 98
GeForce GTX 645- - 97
GeForce GT 64034 75 102
GeForce GT 63035 75 98
GeForce GT 620- - 98
GeForce GTX 59037 81 97
GeForce GTX 58042 81 97
GeForce GTX 57044 81 97
GeForce GTX 560 Ti33 76 99
GeForce GTX 56034 76 99
GeForce GTX 550 Ti36 67 100
GeForce GT 52037 75 102
GeForce GTX 48044 96 105
GeForce GTX 47030-40 92 105
GeForce GTX 465- 90 105
GeForce GTX 46030 65-80 104
GeForce GTS 450- 65-80 100
NVIDIA TITAN Xp- 80 94
NVIDIA TITAN X- 80 94

Åtgärder för att minska GPU-temperaturen

Här är alla möjliga steg du kan ta för att sänka temperaturen på din GPU.

Inaktivera GPU-överklockning

Om du har överklockning på ditt grafikkort måste du återställa GPU:n till dess ursprungliga inställningar för att förhindra att den ökar GPU-temperaturen. Om du planerar att överklocka igen måste du se till att kortet håller sig i ett säkert temperaturområde i framtiden. Nedan kan du läsa hur du förhindrar överhettning av kortet.

Rengör fläkt och kylfläns

Damm kan byggas upp på kylflänsen och fläkten, vilket minskar deras prestanda och effektivitet. Öppna PC-fodralet och ta sedan bort grafikkortet. Efter det, använd en liten borste och dammsugare för att försiktigt ta bort dammet från grafikkortet. Sätt på grafikkortet igen och övervaka sedan temperaturen med GPU-övervakningsverktyg.

Byt termisk pasta

Det termiska fettet mellan GPU:n och kylflänsen kan ha torkat ut och spruckit och därmed förlorat sin effektivitet. Du måste ta bort fläkten och kylflänsen, och ta bort resterna av den gamla termiska pastan och försiktigt applicera den nya termiska pastan. Läs mer om hur du korrekt byter ut termisk pasta.

Felaktig fläkt

Om grafikkortsfläkten inte fungerar som den ska eller om den snurrar väldigt långsamt kan det bero på en ökning av GPU-temperaturen. Här är det enda du kan göra att byta ut den trasiga grafikkortsfläkten mot en ny, eller ge det ett försök.

Installera ett mer effektivt kylsystem

Du kan också installera en bra, bättre presterande Aftermarket GPU-kylare från tredje part på ditt grafikkort. Och om du tycker att lagerkylaren / kylflänsfläkten (HSF) inte fungerar tillräckligt bra, kan du installera ett vattenkylningssystem för kortet för att få ner GPU-temperaturen.

Obs: Eftermarknadskylare fungerar endast med referensgrafikkort eller grafikkort med standard PCB-storlek.

Öka luftflödet inuti PC-fodralet

Felaktigt eller dåligt luftflöde inuti datorhöljet kan också göra att temperaturen på grafikkortet stiger. För att förbättra luftflödet inuti PC-fodralet kan du installera ytterligare frånluftsfläktar.

Nytt på sajten

>

Mest populär