De komst van GPU's voor algemeen gebruik

Tot de komst van DirectX 10 had het geen zin om onnodige complexiteit toe te voegen door het matrijsgebied uit te breiden, waardoor de hoekarceringsfunctionaliteit werd vergroot en de drijvende-komma-precisie van pixel-shaders werd verhoogd om aan de vereisten van 24-bits naar 32-bits te voldoen. . top operaties. Met de komst van DX10 behielden vertex- en pixel-shaders een brede gemeenschappelijke functie, dus het overschakelen naar een uniforme arceringboog voorkwam dat de procesblokken onnodig werden gedupliceerd. De eerste GPU die deze architectuur gebruikte, was de iconische G80 van Nvidia.

Vier jaar van ontwikkeling en $ 475 miljoen produceerden 681 miljoen transistors, een gigantische 484 mm² - eerst 8800 GTX vlaggenschip en 8800 GTS 640MB op 8 november. De 8800 Ultra, een overgeklokte GTX, vertegenwoordigde het hoogtepunt van de G80 en was ingeklemd tussen de lanceringen van twee kleinere producten: de 320 MB GTS in februari en de gelimiteerde GTS 640 MB / 112 Core op 19 november 2007.

Met de hulp van het nieuwe Coverage Example Anti-Aliasing (CSAA) -algoritme, was Nvidia verheugd om te zien dat elke enkele en dubbele grafische concurrent van zijn GTX direct ineenstortte in prestaties. Ondanks dit succes daalde het bedrijf in het vierde kwartaal met drie punten in marktaandeel voor discrete graphics - AMD nam de macht over van OEM-contracten.

MSI's GeForce 8800 GTX-versie

De overige componenten van de bedrijfsstrategie van Nvidia voor de G80 kwamen in februari en juni 2007 uit. Het op C-taal gebaseerde CUDA-platform SDK (Software Development Kit) is uitgebracht in bèta-indeling om een ​​ecosysteem te bieden dat profiteert van de sterk parallelle aard van GPU's. Nvidia's PhysX-fysica-engine en gedistribueerde computerprojecten, professionele virtualisatie en Nvidia's ray tracing-engine OptiX zijn toepassingen met een hoger profiel die CUDA gebruiken.

Zowel Nvidia als ATI (nu AMD) integreerden steeds grotere computerfunctionaliteit in de grafische lijn. Terwijl ATI / AMD ervoor koos om voor het OpenCL-pad te vertrouwen op ontwikkelaars en commissies, had Nvidia meer directe plannen met betrekking tot CUDA en high-performance computing.




Daartoe bracht Nvidia in eerste instantie ten minste twee (en mogelijk drie) grote foutopsporingsoefeningen uit, AMD bracht in mei de R600 uit, gebaseerd op dezelfde G80-kern die de GeForce en Quadro FX 4600/5600 aandrijft.




Met de hulp van het nieuwe Coverage Example Anti-Aliasing (CSAA) -algoritme, was Nvidia verheugd om te zien dat elke enkele en dubbele grafische concurrent van zijn GTX direct ineenstortte in prestaties.

Er werd lang uitgekeken naar de mediahype voor de lancering als AMD's antwoord op de 8800 GTX, maar HD 2900 XT Het viel enorm tegen. Dit was een kaart uit de hogere middenklasse die verenigde met het stroomverbruik van een enthousiast bord dat meer stroom verbruikt dan welke andere moderne oplossing dan ook.




De omvang van de misstap van de R600 had ingrijpende gevolgen voor ATI en leidde tot strategiewijzigingen om toekomstige deadlines te halen en de lanceringsmogelijkheden te maximaliseren. Applicatie ontwikkeld met RV770 (Evergreen) en Noord- en Zuid-eilanden.




De R600 was niet alleen de grootste ATI / AMD GPU tot nu toe met 420 mm², maar bevatte ook een aantal GPU's. AMD's eerste DirectX 10-chip, de eerste en enige GPU met een 512-bits geheugenbus, was de eerste desktopchip van de leverancier met een tessellator-eenheid (grotendeels ongebruikt vanwege de onverschilligheid van de game-ontwikkelaar en het gebrek aan DirectX-ondersteuning), de eerste GPU die geïntegreerde ondersteuning audio via HDMI, evenals 8000 De eerste VLIW-architectuur, een architectuur die bij AMD bleef tot zijn serie. Hij merkte ook op dat ATI / AMD voor het eerst sinds de Radeon 7500 geen topkaart installeerde met betrekking tot de prijs en prestaties van de concurrentie.

Naast het vervangen van de 512-bit bidirectionele geheugenringbus door een meer standaard 256-bit, heeft AMD de R600 geüpdatet naar de RV670 door de GPU te verkleinen van TSMC's 80nm-proces naar een 55nm-node. Hierdoor werd het matrijsgebied van de R600 gehalveerd, terwijl bijna 600 transistors werden verpakt (700 miljoen versus 666 miljoen in de R600). AMD heeft ook de GPU bijgewerkt voor DX10.1 en ondersteuning toegevoegd voor PCI HD 2.0, die allemaal goed genoeg waren om de HD 2000-serie te schrappen en te concurreren met de reguliere GeForce 8800 GT en andere kleinere kaarten.




Bij gebrek aan een high-end GPU bracht AMD in januari 2008 twee dubbele GPU-kaarten uit, samen met de op RV620 / 635 gebaseerde budgetkaarten. De HD 3850 X2 is in april en de laatste All-In-Wonder-merkkaart, de HD 3650, is in juni. Uitgebracht met een briljant stuurprogrammapakket, maakten de dubbele GPU-kaarten direct indruk bij recensenten en het kopende publiek. HD 3870 X2 Het was comfortabel de snelste enkele kaart en de HD 3850 X2 was niet veel langzamer. In tegenstelling tot de SLI-oplossing van Nvidia, bood AMD ondersteuning voor Crossfiring-kaarten met een gemeenschappelijke ASIC.

De Radeon HD 3870 X2 bevat twee GPU's in één kaart

Gezien het succes van de G80, ontving Nvidia op 29 oktober de G92 als 8800 GT, vooral van technologiesites vanwege de zeer concurrerende prijzen. De kaart van 512 MB, variërend van $ 199 tot $ 249, bood een prestatie die de op de G80 gebaseerde 8800 GTS ongeldig maakte. Het maakte optimaal gebruik van de HD 2900 XT en HD 3870, die meestal drie weken na de GT starten en meestal 80% van de GTX bedragen. Het is niet verwonderlijk dat dit binnen enkele weken een tekort aan 8800 GT veroorzaakte. De sterke vraag naar de nieuwe concurrent van Nvidia en zijn 8600 GS / GT-broers en zussen hielpen het bedrijf tegen het einde van het jaar naar een apart marktaandeel van 71% te brengen.

Nvidia zit de GT hard op de hielen, Op G92 gebaseerde 8800 GTS 512 MB Hoewel de GTS over het algemeen leed aan prestaties per dollar, was de goedmaker van de GTS het gebruik van betere dubbele GPU's, die bij overklokken in wezen gelijk zijn aan de GTX en de dure 8800 Ultra.




Het verhaal van de GeForce 8-serie zou niet compleet zijn zonder de toevoeging van het ongelukkige postscript met een hoog loodsoldeergebruik in de BGA van bepaalde G86, G84, G73, G72 / 72M GPU's en C51 en MCP67 grafische chipsets. Dit, gecombineerd met ondervulling bij lage temperatuur, onvoldoende koeling en een intens regime van warme / koude cycli, resulteerde in talloze grafische fouten.

Als de 8-serie een technologische overwinning was voor Nvidia, begon de 9-serie een recessie.

Nvidia schakelde over op een Hitachi eutectisch (hoog tin) soldeer zoals gebruikt door AMD halverwege 2008 en veranderde het referentieontwerp met één sleuf van de koeler van de 8800 GT, voegde meer ventilatorbladen toe en veranderde de mantel om een ​​hogere luchtstroom mogelijk te maken. Er werd ook vermoed dat de G92 werd getroffen door de underfill-kwestie, maar de dual-slot-ontwerpen op de 8800 GTS 512M en kaarten die niet met referentiekoelers zijn uitgerust, leken niet overdreven te worden beïnvloed.

Bedrijf $ 475,9 miljoen geabsorbeerd De beschuldigingen over de kwestie leidden tot zware reacties van klanten tegen OEM's van Nvidia-laptops die het probleem al een tijdje kenden voordat het openbaar werd. De plaats van Nvidia in de branche zal voor altijd verbonden zijn met dit dieptepunt in haar geschiedenis.

Als de 8-serie een technologische overwinning was voor Nvidia, begon de 9-serie een recessie. Het hoogtepunt van de reeks was het eerste model dat in februari 2008 werd gelanceerd. De 9600 GT was gebaseerd op de "nieuwe" G94, weinig meer dan een G92-drop van het voorgaande jaar gebouwd op hetzelfde 65nm TSMC-proces.

AMD's agressieve prijsverlagingen op de HD 3870 en HD 3850 en lagere prijzen van Nvidia's eigen 8800 GS en GT's hielden de rest van de 9-serie bijna volledig onder de rebrandingsvlag.

De eerste 9800 GT werd omgedoopt tot de 8800 GT, terwijl de 8800 GTS (G92) evolueerde naar een 9800 GTX. TSMC's overgang naar het 55nm-proces schraapte 20% van de ruimte in de G92 en klokte om de GTS 250 te produceren, die vijftien maanden na de oorspronkelijke frequentie het retailkanaal binnenkwam, evenals de 9800 GTX +, dezelfde OEM GTS 150 en de GTS 250 die het retailkanaal binnenkwamen, lieten een kleine stijging in frequentie toe. serie kaart.

Vanwege de late aankomst van het vlaggenschip GT200 en AMD's HD 3870 X2, nu de beste hond in de single-card gun race, heeft Nvidia zijn toevlucht genomen tot de traditie van het verdubbelen van GPU's door twee 9800 GT's samen te voegen om de 9800 te maken. GX2. Bij het winnen van de benchmarkrace realiseerden de meeste waarnemers zich dat de verkoop van een paar 9800 GT's voor de prijs van drie afzonderlijke 9800 GT's de beste beperkte aantrekkingskracht had.

Nvidia G200 GPU op GTX 260-kaart

Tot juni voegde Nvidia de GTX 260 en GTX 280 toe, een deel van 576 mm² dat de grootste productie-GPU tot nu toe vertegenwoordigt (Intel's Larrabee wordt geschat op 600-700 mm²), de GT200 GPU en elk vervaardigd door TSMC. Gelanceerd met de grootste productiechip van alle soorten.

De GT200 herhaalde de wens van Nvidia om de GPGPU in de schijnwerpers te zetten door eigen dual precision (FP64) en computerhardware in het ontwerp op te nemen. De game-georiënteerde architecturale veranderingen waren bescheidener, maar dat weerhield Nvidia er niet van om de 280 te prijzen voor een opvallende $ 649 of om 3D Vision-stuurprogramma's (3D-game en video) samen met een 3D-sluiterbril en een IR-zender te lanceren. erg duur pakket.

Nvidia GTX 200-serie technologiedemo

Nadat de HD 4870 en 4850 arriveerden, daalde de prijs aanzienlijk, de GTX 280 daalde met 38% tot $ 400 en de GTX 260 met 25% tot $ 299.

AMD reageerde op de GT200 en G92 met RV770. De eerste kaart, de lagere mainstream HD 4730, werd gelanceerd op 8 juni, de mainstream- en prestatiemarkt begon met de HD 4850 en 4870 na 25 juni. Lancering, specificatielekkage en opslag een week voordat de HD 4850 een geheimhoudingsverklaring verloopt - nu gebruikelijk, maar minder gebruikelijk in 2008.

De 4870 en 4850 waren de eerste grafische kaarten voor consumenten die gebruik maakten van GDDR5-geheugen, dat Nvidia na anderhalf jaar implementeerde met de GT215-gebaseerde GT 240.

De HD 4870 en 4850 kregen lovende recensies voor hun uitgebreide lijst met functies, waaronder 7.1 LPCM-audio via HDMI, algehele prestaties en multi-GPU-schaalbaarheid, en natuurlijk de prijs. Het enige nadeel van het bord was de neiging om hoge lokale temperaturen te genereren tussen spanningsregulerende componenten in referentieborden, wat resulteerde in onevenredige uitvalpercentages en vastlopen, vooral bij het gebruik van schrijfsoftware zoals Furmark.

In lijn met de "noodzaak" om de twee maanden durende heerschappij van de vorige generatie en de GTX 280 te verminderen, lanceerde AMD in augustus de HD 4870 X2. De kaart stond al snel bovenaan de beoordelingsbenchmarks in de meeste categorieën, inclusief prestaties, maar ook in de categorie geluidsproductie en warmteopwekking dankzij de referentie-ventilator.

Radeon HD 4870 X2 (hierboven) en Radeon HD 4870

In januari 2009 werd alleen een incrementele afstemming van de Nvidia-serie geïntroduceerd toen de GT 200 werd overgezet naar het 55 nm-proces van de TSMC. De 55nm werd voor het eerst gebruikt in B3-revisiechips die in september dienden als de Core 216-versie van de GTX 260. Het bedrijf introduceerde de GTX 295 met twee interrupts (ROP en geheugenbus) GT200-B3.​

De enige GPU-variant van de kaart werd in april uitgebracht als de GTX 275. Maar AMD's antwoord: de herziene HD 4890 met RV790XT-ondersteuning, evenals de HD 4770 (RV740), AMD's eerste 40nm-bord.

Hoewel de HD 4770 op zichzelf geen groot product was, gaf het AMD een onmetelijke ervaring met het problematische 40nm-proces dat grote verschillen in stroomlekkage en hoge uitvalpercentages veroorzaakte als gevolg van ontbrekende verbindingen tussen metaallagen in de GPU-mal van TSMC. Met deze praktische kennis was AMD in staat om de problemen met het gietproces te verbeteren waarmee Nvidia te maken kreeg met de Fermi-architectuur - problemen die zich niet manifesteerden met Nvidia's eerste kleine 40nm GPU's.

Nvidia lanceerde in juli zijn eerste 40 nm-producten. De instap GT216 en GT218 kwamen in de vorm van GeForce 205, 210 en GT 220; dit waren allemaal OEM-producten tot oktober, toen de laatste in de detailhandel ging. Nvidia's eerste DX10.1-kaarten - iets wat AMD heeft bereikt met de HD 4870/4850 - en zijn opmerkelijk voor het verbeteren van de audiomogelijkheden met 7.1-geluid, lossless LPCM-audio, Dolby TrueHD / DTS-HD / -HD. -Audio via MA en HDMI. De serie was bedoeld voor de thuisbioscoopmarkt en werd uiteindelijk in februari 2010 omgedoopt tot de 300-serie.

Het onrustige 40nm-proces van TSMC trof AMD's vermogen om het aanbod met veel vraag te overtreffen, gebruikmakend van Nvidia's Fermi-no-show.

In de vier maanden tussen september 2009 en februari 2010 voltooide AMD een volledige lancering van vier GPU's (Cypress, Juniper, Redwood en Cedar), waaronder de Evergreen-familie, te beginnen met de high-end HD 5870. dan met de hoge middenklasse HD 5850.

Het onrustige 40nm-proces van TSMC trof AMD's vermogen om het aanbod met veel vraag te overtreffen, gebruikmakend van Nvidia's Fermi-no-show. Dit stelde AMD grotendeels in staat om de lancering van Evergreen met Windows 7 te timen en DirectX 11 te gebruiken.

Hoewel de DX11 de tijd nam om aanzienlijke waarde te tonen met Evergreen, had een andere functie van de HD 5000 onmiddellijk impact in het Eyefinity-formaat op basis van de flexibiliteit van DisplayPort om zes weergavepijplijnen voor elk paneel mogelijk te maken. Deze worden doorgestuurd naar een regel-DAC of een combinatie van interne TMDS-zenders en DisplayPort.

Eerdere grafische kaarten gebruikten vaak een combinatie van VGA, DVI en soms HDMI, die elk een eigen klokbron per uitgang nodig hadden. Dit voegde complexiteit, grootte en aantal pinnen toe aan de GPU. DisplayPort is verantwoordelijk voor het leveren van de gebruikerservaring van de software, terwijl het de noodzaak voor onafhankelijke klokbewaking elimineert en de weg vrijmaakt voor AMD om tot zes weergavepijplijnen in hun hardware te integreren. Dit omvat frame-compensatie en spreiding van het scherm over panelen met optimale resolutie.

Eyefinity: ATI's schaalbare multi-display-technologie (bron: Tekzilla)

De Evergreen-serie is over de hele linie toonaangevend geworden (problemen met textuurfiltering), de HD 5850 en HD 5770 hebben een groot percentage van de prijsbewuste gamingbroederschap aangetrokken, en de HD 5870 en dubbele GPU HD 5970 bieden een ongeëvenaard niveau van prestaties en efficiëntie.

Nvidia lanceerde eindelijk de eerste Fermi-kaarten op 12 april via de GTX 470 en 480 (soft) zes maanden later. Geen van de bedrijven was volledig functioneel, zoals de GF104 hieronder - dus de kernsnelheden van Fermi zijn nogal conservatief om het stroomverbruik en de geheugenbandbreedte te verminderen vanwege Nvidia's onervarenheid met GDDR5 I / O.

Terwijl de GTX 480 lauw werd onthaald, was Nvidia's belangrijkste GF104 tweede Fermi-chip in de GTX 460 een monumentaal succes.

De minder dan optimale doorvoer in het 40nm-proces van TSMC, dat leveringsproblemen veroorzaakte voor AMD, groeide aanzienlijk dankzij de malafmeting van de GF100 Fermi van 529 mm². Omdat de grootte, efficiëntie, stroomvereiste en warmteafgifte onlosmakelijk met elkaar verbonden zijn, betaalde de 400-serie van Nvidia een hoge boete voor spelprestaties in vergelijking met de rang van AMD.

Quadro- en Tesla-varianten van de GF100 hebben weinig geleden in de markt, dankzij het in-situ ecosysteem in professionele markten. Een van de niet-teleurstellende aspecten van de lancering was de implementatie van transparantie supersampling anti-aliasing (TrSSAA), die zal worden bemonsterd met in situ sampling AA (CSAA).

De GTX 480 werd begroet met een warme reactie, terwijl Nvidia's tweede Fermi-chip, de mainstream GF104 GTX 460was een monumentaal succes. 192bit / 768 MB voor $ 199 en 256bit / 1 GB voor $ 229 boden goede prestaties voor een uitstekende prijs. Ze hebben talloze off-reference en in de fabriek overgeklokte kaarten gelanceerd vanwege conservatieve referentieklokken die door Nvidia zijn gekozen om het stroomverbruik te helpen verminderen.

Een deel van de positieve ontvangst van de 460 was te danken aan de rustige vooruitzichten na de komst van de GF100. De GF104 werd geschat op niet meer dan de helft van een GF100 en zou vreselijk lijden naast AMD's Cypress GPU. Dit klopte niet. Een tweede verrassing wachtte bloggende "experts" naast AMD toen Nvidia in november een vernieuwde versie van de GF100 (GF110) uitbracht.

Het bijgewerkte deel kreeg wat zijn voorganger niet kon: dat wil zeggen, het activeerde de hele chip. De resulterende GTX 570 en 580 zouden de originele 400-serie zijn.

Barts, de eerste GPU van de AMD Northern Islands-serie, arriveerde in oktober. Barts, dat meer een evolutie is van Evergreen, is ontworpen om de productiekosten na de dood van Cypress te verlagen. In plaats van een aanzienlijke prestatieverbetering te bieden, leek de GPU gelijk te zijn aan de vorige HD 5830 en HD 5850, maar met aanzienlijke besparingen in GPU-grootte. AMD wees het aantal streamprocessors (shaders) toe, veranderde en verkleinde de fysieke grootte van de geheugencontroller (en de bijbehorende geheugensnelheidsreductie) en verwijderde de mogelijkheid om computers met dubbele precisie uit te voeren. Barts had echter een upgrade van de mozaïekpatroon op de Evergreen.

Hoewel de prestatieverbeteringen niet dramatisch zijn, heeft AMD de functies van de weergavetechnologie geüpgraded. DisplayPort 1.2 (meerdere monitoren vanaf één poort, 120Hz verversing en audiostreaming voor beeldschermen met hoge resolutie) werd verplaatst van HDMI naar 1.4a (3D 1080p videoweergave, 4K schermresolutie) en het bedrijf voegde een bijgewerkte video toe met DivX-ondersteuningscode-oplosmiddel.

AMD verbeterde ook de drivercapaciteit door morfologische anti-aliasing (MLAA) toe te voegen, de functionaliteit - vooral bij de lancering - een filter voor onscherpte na verwerking dat zwaar werd geraakt of gemist.

De introductie van de HD 6970 en HD 6950 voegde een traditionele AA-modus toe aan de Catalyst-driver met EQAA (Enhanced Quality AA), terwijl AMD ook embryonale HD3D-ondersteuning en Dynamic power handling implementeerde, geprofileerd met PowerTune.​

Over het algemeen waren Cayman-onderdelen beter dan de eerste generatie Fermi-chips. Ze moesten ze afschrikken, maar liepen een paar procent achter op de tweede generatie (GTX 500's), en stuurprogrammaversies die na beide kampen kwamen, voegden meer variantie toe.

De lancering van Cayman in november werd een maand uitgesteld met de lancering van de HD 6970 en 6950 op 15 december, wat een (korte) afwijking betekent van de VLIW5-architectuur die ATI / AMD sinds de R300-serie consequent heeft gebruikt. In plaats daarvan gebruikte het bedrijf VLIW4, waardoor de vijfde Custom Function (of Transcendentale) uitvoeringseenheid in elk streamverwerkingsblok werd geschrapt.

Dit was bedoeld om buitensporige bronnen naar DX9 (en oudere) games te trekken en een meer computationele reorganisatie van de grafische pijplijn mogelijk te maken.

De geïntegreerde grafische kaart van de APU's uit de Trinity- en Richland-serie zijn slechts andere VLIW4-onderdelen en zijn gebaseerd op AMD's nieuwste grafische architectuur GCN (Graphics Core Next), terwijl de VLIW5 in de HD 8000-serie leeft als merken van Evergreen GPU's op instapniveau.

Om de vooruitgang van de GF100 / GF110 te weerspiegelen, arriveerde de opvolger van de GTX 460, de GTX 560 Ti, in januari 2011. Het op GF114 gebaseerde bord bevatte een volledig functionele herziene GF104 en bleek net zo robuust en veelzijdig te zijn als zijn voorganger. Hij deed in de fabriek talloze aanbiedingen voor overgeklokte en overgeklokte niet-gerefereerde opmerkingen.

AMD reageerde door onmiddellijk de kosten van de HD 6950 en 6870 te verlagen, zodat het prijs / prestatievoordeel van de GTX 560 Ti verloren ging, zelfs toen de recensies werden geschreven. Via de post tegen kortingen die door veel boardpartners worden aangeboden, heeft de HD 6950 - vooral de 1GB-versie - een aantrekkelijkere aankoop gedaan.

Nvidia GeForce GTX 590-referentiekaart

Nvidia's tweede grote lancering van 2011, meer bepaald op 26 maart, begon met een knal. De GTX 590 heeft twee volledig functionele GF110's gecombineerd met een enkele printplaat. PR-fall-out begon onmiddellijk.

De kaarten draaiden een drive die was gekoppeld aan een BIOS die de stroombeperking niet in de juiste mate mogelijk maakte en hoge spanningen mogelijk maakte. Deze bewaking zorgde ervoor dat een agressieve overspanning de MOSFETS begon te blazen. Nvidia loste de situatie op met een beperkter BIOS en stuurprogramma, maar de evenementen op de lanceringsdag veroorzaakten enkele enge recensies en ten minste één populaire YouTube-video. De GTX 590 behaalde niet meer dan prestatiepariteit met AMD's eigen dubbele kaart, de twee weken oude HD 6990.

Producten die geen duidelijke scheiding kregen tussen benchmarks, multi-GPU-schaling, voorraadbeschikbaarheid, benchmark-relevantie, testmethodologie en onder de sterk groeiende 590's zorgden voor een eindeloze stroom van discussies in de forums.

AMD Northern Islands-opvolgers Southern Islands startten vanaf 9 januari met een gefaseerd lanceringsprogramma van de serie met het vlaggenschip HD 7970. TSMC was AMD's eerste PCI-E 3.0-kaart op basis van 28nm en de eerste ontvanger van de AMD GCN-architectuur. proces knooppunt. Slechts drie weken later voegde zich een tweede op Tahiti gebaseerde kaart toe aan de 7970, de HD 7950, gevolgd door generieke Kaapverdische kaarten op 15 februari. Prestaties Pitcairn GPU-gebaseerde kaarten liggen een maand later in maart in de schappen.

De kaarten waren prima, maar boden geen wereldschokkende spelverbeteringen op eerdere 40nm-kaarten. Dit, in combinatie met minder concurrerende prijskaartjes, geen WHQL-driver gedurende twee maanden en een niet-functionele Video Codec Engine (VCE) die de AMD-hoofdbestanddeel is sinds de HD 2000-serie, wekte het enthousiasme van veel potentiële gebruikers en recensenten.

Een voordeel van Tahiti-onderdelen was dat werd bevestigd dat AMD veel ongebruikte prestaties heeft vrijgegeven door overklokken. Dit was een balans tussen stroomverbruik en warmteafgifte versus kloksnelheid, maar heeft geresulteerd in een conservatieve kern- en geheugenfrequentie. Nvidia's behoefte aan en onderschatting van de op Kepler gebaseerde GTX 680/670 om de doorvoer te maximaliseren, kan ook in de vergelijking zijn terechtgekomen.

Nvidia bleef zijn mogelijkheden in GPU's diversifiëren door de Kepler-architectuur te introduceren.

In eerdere generaties nam Nvidia het voortouw met de meest complexe chip om de high-end gaming-gemeenschap tevreden te stellen en het lange verificatieproces voor professionele (Tesla / Quadro) modellen te starten. Deze aanpak heeft het bedrijf de afgelopen generaties niet bijzonder goed gediend, en daarom hadden de kleinere GK107 en de prestatiegerichte GK104 voorrang op de monster GK110.

De GK107 was waarschijnlijk nodig omdat Nvidia aanzienlijke OEM-mobiele contracten moest uitvoeren en de GK104 nodig had voor de premium desktopmarkt. Beide GPU's worden geleverd als A2-revisiechips. Mobiele GK107's (GT 640M / 650M, GTX 660M) werden in februari naar OEM's verzonden en Nvidia werd officieel aangekondigd op 22 maart, toen het de op de GK104 gebaseerde GTX 680 lanceerde.

In een andere afwijking van het nieuwste GPU-ontwerp van Nvidia, liep de shader-klok op dezelfde frequentie als de kern. Sinds de GeForce 8-serie heeft Nvidia een shader gebruikt die minstens tweemaal de kernfrequentie werkt - 2,67 keer de kern in de 9-serie en precies twee keer op 400 en 500.

Nvidia merkte op dat meer cores die op lagere snelheden draaiden efficiënter waren voor parallelle workloads dan minder cores die tweemaal zo vaak werkten.

De reden voor de verandering was gebaseerd op de verschuiving van Nvidia van focus (op desktop / mobiel voor consumenten) naar prestaties per watt. Meer cores die op lagere snelheden draaien, zijn efficiënter voor parallelle workloads dan minder cores die tweemaal zo vaak draaien. In feite was het de versterking van de GPU ten opzichte van het CPU-paradigma (veel cores, lagere frequentie, hogere bandbreedte en minder cores versus latentie, hogere frequentie, lagere bandbreedte en latentie).

Het verkleinen van de shader-klok heeft ook het voordeel dat het stroomverbruik wordt verminderd, en Nvidia is verder bespaard in het ontwerp door de bestaande dubbele precisie-eenheden van de dobbelsteen aanzienlijk te verkleinen, evenals de busbreedte te verkleinen tot een meer algemene 256 bit. Deze veranderingen, gecombineerd met een relatief bescheiden basissnelheid, verhoogd door een dynamische ondersteuningsfunctie (overklokken op aanvraag), leverden een veel evenwichtiger product op ten koste van de rekencapaciteit. Maar als Nvidia de computerfunctionaliteit en het bandbreedte-ontwerp van Fermi had behouden, zou het belachelijk zijn gemaakt omdat het een groot, warm, energie-hongerig ontwerp had geproduceerd. De wetten van de fysica maakten van chipontwerp opnieuw een kunst van compromissen.

Nvidia heeft wederom dubbele GPU-kaarten geproduceerd. Door het verbeterde vermogen van de GK104 is de GTX 690 eigenlijk twee GTX 680's in de SLI. Het enige verschil is dat de maximale kernfrequentie (boost) van de 690 52 MHz lager is. Hoewel de prestaties zich nog in de SLI-profileringsfase van de bestuurder bevinden, is de functionaliteit van de kaart van topklasse en verdient een beperkt aantal merken waar hij esthetiek draagt.

De GK 110 geeft aan dat Nvidia een GPU-initialisatie-oefening eerst achterlaat onder de GeForce-vlag. Oorspronkelijk gezien als de Tesla K20, heeft de kaart talloze verzoeken ontvangen voor supercompute-contracten, met meer dan 22.000 vereist voor ORNL's Cray XK7 Titan, NCSA's Blue Waters, Zwitserse CSCS Todi en Piz Daint-systemen.

Consumenten moesten zes maanden wachten voordat de GK110 arriveerde als GeForce. Dubben GTX TitanDe afwezigheid van een numeriek modelnummer versterkt de wens van Nvidia om de kaart te zien als een apart model van de huidige (en mogelijk latere) Kepler-line-up. Met $ 999 is Titan gericht op ultra-enthousiastelingen en benchmarkingtools. Nvidia breidde de aantrekkingskracht uit op onderzoekers en professionals met een beperkt budget, aangezien het bedrijf voor het eerst verklaarde dat het met een GeForce-kaart dezelfde computerfunctionaliteit kan behouden als zijn professionele broers Tesla en Quadro.

Nvidia GeForce GTX Titan

De kaart verdiende de status van tophond in de gamingbenchmarks, vooral duidelijk in resoluties met meerdere monitoren met supersampled anti-aliasing. De niet-geregistreerde OpenCL-stuurprogrammaondersteuning van Nvidia en de opkomst van recente gametitels in combinatie met AMD's Gaming Evolved-programma hebben echter de impact van Titan getemperd, evenals het exorbitante prijskaartje.

In juni werd AMD's "ik ook" gespeeld door de HD 7970 GHz Edition aan te bieden - een 75 MHz sprong in de kernfrequentie, met een verdere toename van 50 MHz (in tegenstelling tot de dynamisch afgestemde versie die wordt aangeboden door Nvidia). Het vertegenwoordigde de frequentie die in de maand zou moeten beginnen. van de maand.

Helaas voor AMD heeft de doelmarkt voor deze SKU vastgesteld dat het standaardmodel over het algemeen dezelfde (zo niet betere) prestaties levert door overklokken tegen een aanzienlijk lagere prijs en een lagere kernspanning. AMD volgde de HD 7970 GHz Edition met HD 7950 Boost.

Het heden en de toekomst van pc-graphics in een notendop

Tot dusverre heeft 2013 de strijd van Nvidia en AMD om een ​​discreet marktaandeel voor pc-graphics geëscaleerd, aangezien game-ontwikkeling en schermresolutie niet overeenkwamen met de stappen die geïntegreerde graphics deden.

Begin 2002 had Intel een marktaandeel van 14% op de grafische markt voor pc's. Met de komst van Extreme Graphics (830 tot 865 chipsets) steeg het aandeel van het bedrijf tot 33%, vervolgens 38% met de derde en vierde generatie DX 9-chipsets en nu meer dan 50% met de DX10 GMA 4500-serie. Door de GPU in de CPU te integreren, is Intel nu verantwoordelijk voor het verzenden van ongeveer 60% van de pc-graphics.

JPR: GPU-marktaandeel in het vierde kwartaal van 2012
  Marktaandeel in dit kwartaal Marktaandeel in het laatste kwartaal Eenheidswijziging per kwartaal Verschil per kwartaal per kwartaal Marktaandeel vorig jaar
AMD 19.7% 21.0% -13.6% -1.2% 24.8%
Intel 63.4% 60.0% -2.9% 3.4% 59.2%
Nvidia 16.9% 18.6% -16.7% -1.73% 15.7%
Via / S3 0.0% 0.4% -100% 0.0% 0.4%
Totaal 100.0% 100.0% -8.2%   100.2%

De behoefte aan nieuwe grafische producten wordt bij elke volgende generatie minder duidelijk. De meeste titels zijn gebaseerd op een tien jaar oude API (DX gelanceerd op 9 december 2002), dus de weergaveverbeteringen in games richten zich minder op GPU-belasting en dan meer op post-processing filtering - iets dat waarschijnlijk niet eens zal veranderen op DX11 -compatibele consoles van de volgende generatie. We zullen blijven vertrouwen op rastering, aangezien ray tracing een moeilijke noot blijkt te zijn om te doorbreken.

Dit alles wijst helaas op hardwareverslaafden die in de toekomst minder betrokken zullen zijn, tenzij er een fundamentele evolutie is in game-engines of betaalbare displays met ultrahoge resolutie. Wat er de komende maanden en jaren ook gebeurt, zorg ervoor dat we doorgaan Bekijk aankomende GPU's TECH NIEUWS.