Vandaag draaien we onze horloges terug tot november 2010 om de eens zo krachtige GeForce GTX 580 opnieuw te bezoeken, die de overgang markeert van 55nm naar 40nm voor Nvidia's high-end GPU's en het bedrijf hielp om Fermi-centric te verbeteren. GeForce GTX 480 onder het tapijt.

Weet je nog, de GTX 480 en 470 (GF100) werden in maart 2010 uitgebracht, slechts acht maanden vóór de GTX 580, waardoor gamers de mogelijkheid kregen om een ​​grafische kaart van $ 500 te kopen die zou kunnen verdubbelen als het George Foreman-raster. Met een TDP van 250 watt trok de GTX 480 niet al te veel wenkbrauwen op en op dat moment was AMD veel kleiner Radeon HD 5870 Met een vermogen van 228 watt, dronk de dubbele GPU 5970 de meeste voedingen met 294 watt.

Hoewel de Radeon HD 5870 en GeForce GTX 480 op hetzelfde 40nm-productieproces waren gebouwd, was de GeForce enorm. Zijn dood was meer dan 50%. Nvidia wilde een GPU creëren die zowel krachtige gaming als krachtige computerprestaties biedt, waardoor de GF100 een waanzinnige 529 mm2 meet.

De reus van deze mal veroorzaakte problemen voor het 40nm-proces van TSMC dat op dat moment nog aan het rijpen was, wat resulteerde in inefficiëntie en lekkende transistors. Voor gamers was de GTX 480 te heet om te hanteren - je kon hem zelfs 10 minuten na het uitschakelen niet aanraken - en hij was verre van stil.




Fermi viel als een van de slechtste creaties van Nvidia in de geschiedenis en het bedrijf wist dat ze een echte eikel in hun handen hadden, dus gingen ze terug naar de tekentafel en keerden terug om Fermi opnieuw op te starten als de GTX 580. TSMC had de verwarring weggenomen vanwege het 40nm-proces en we kregen 7% meer kernen in een iets kleinere matrijs. Het was natuurlijk niet alleen TSMC om dingen uit te zoeken, want Nvidia repareerde ook wat er mis was met de GF100 toen het de GF110 creëerde (Fermi refresh).




Op basis van onze eigen tests in 2010 werd het stroomverbruik met ten minste 5% verminderd en de laadtemperaturen van referentiekaarten met 15% gedaald. Wat deze resultaten indrukwekkender maakt, is dat de GTX 580 ~ 25% sneller was dan de 480.




Dit zorgt voor een aanzienlijke prestatieverbetering in hetzelfde releasejaar en dezelfde periode, terwijl er ook energie wordt bespaard. De GTX 480 was echt slecht. Ik vond het niet leuk bij aankomst, maar totdat de 580 acht maanden later arriveerde, realiseerde ik me hoe belachelijk het eigenlijk was. Ik heb mijn GTX 580-scope afgemaakt door het volgende te zeggen ...




"De GeForce GTX 580 is de snelste grafische kaart met één GPU die momenteel beschikbaar is en biedt een betere prijs dan elke andere high-end grafische kaart. Dit is echter niet de enige optie voor degenen die $ 500 willen uitgeven. Dual Radeon HD 6870s blijven veel $ 500. en biedt in de meeste titels meer prestaties dan een enkele GeForce GTX 580. Multi-GPU-technologie is echter niet zonder valkuilen en we zullen altijd kiezen voor een enkele high-end grafische kaart gezien de keuze.

Nvidia's GeForce GTX 580 is misschien de huidige koning van de heuvel, maar het kan volgende maand veranderen wanneer AMD de nieuwe Radeon HD 6900-serie lanceert. Oorspronkelijk werd verwacht dat AMD de Cayman XT en Pro-gebaseerde Radeon HD 6970 en 6950 grafische kaarten ergens in november zou leveren, maar ze hebben hun aankomst tot half december uitgesteld om onbekende redenen. Als u het niet erg vindt om een ​​paar korte weken uit te stellen, afhankelijk van wat AMD voor ons heeft gereserveerd, is het wachten misschien wat besparingen of mogelijk meer prestaties waard voor dezelfde besparingen. "




Voor degenen die zich afvragen, Radeon HD 6970 Het viel een beetje tegen, ver onder de GTX 580 en daardoor GTX 570Het stelde Nvidia in staat om de prestatiepiek de komende jaren zonder debat te behouden. Het zou interessant zijn om te zien hoe deze twee vandaag samenkomen, misschien iets waar we in de toekomst naar kunnen kijken.

We ontdekten dus dat de GTX 580 in 2010 het gezicht van Nvidia kon redden, en dat 28nm GPU's de prestatiekroon behielden en de grafische strijd enkele jaren heroverden voordat ze in 2012 arriveerden. Wat we nu willen zien, is hoe goed de 520mm2 tubby-matrijs vandaag presteert.




Kunnen GTX 580 en 512 CUDA-cores werken op 772 MHz? Zeker, er is GDDR5-geheugen in een vrij grote 384-bits bus die een indrukwekkende 192 GB pompt, maar de meeste modellen hebben in ieder geval slechts 1,5 GB. Er zweefden varianten van 3 GB, maar de meeste mensen kregen de originele versie van 1,5 GB.

Om te zien hoe het werkt Radeon HD 7950 met degenen die net zijn vrijgegeven GeForce GTX 1050, 1050 Ti ve Radeon RX 560. Laten we deze resultaten bekijken voordat we naar een echt spel gaan kijken.

Experimenten

Battlefield 1, Dawn of War III, DiRT 4, For Honor

Ten eerste hebben we onze Battlefield 1-resultaten met de GTX 580 en de voorinstelling van ultra-kwaliteit, wat een slechte keuze is voor de gemeten framebuffer van 1,5 GB. Maak je geen zorgen, ik zal de spelprestaties laten zien met meer geschikte instellingen nadat ik alle afbeeldingen heb bekeken. Voorlopig zien we dat de 580 het hier niet snijdt en niet biedt wat ik afspeelbare prestaties noem die 30% langzamer zijn dan de Radeon HD 7950.

Vervolgens hebben we Dawn of War III getest met de handiger voorinstelling van gemiddelde kwaliteit. Hier zien we gemiddeld een redelijke 41 fps, maar desalniettemin wordt de GTX 580 achtervolgd door deze beperkte VRAM-buffer, aangezien de minimale framesnelheid daalt tot slechts 23 fps. Dit betekende dat stotteren een probleem was.

De Dirt 4 werd ook getest met instellingen van gemiddelde kwaliteit en had hier zeker een behoorlijk goede ervaring met de GTX 580, hij was absoluut speelbaar en meestal erg soepel op 1080p.

We gaan door voor de glorie en hier vonden we een voornamelijk speelbare ervaring als het logisch is. Soms zakten we onder de 30 fps en deze game is een stuk schokkeriger geworden dan de RX 560 of HD 7950. Het is ook interessant om op te merken dat de GTX 1050 definitief het vlaggenschip van 2010 heeft vernietigd.