Android

Grafikkort - allt du behöver veta

Innehållsförteckning:

Anonim

Under speldatorns tid har grafikkortet fått lika mycket eller nästan större betydelse än CPU. Faktum är att många användare undviker att köpa kraftfulla CPU: er för att investera pengar i denna viktiga komponent som ansvarar för att bearbeta allt som har att göra med texturer och grafik. Men hur mycket vet du om den här hårdvaran? Tja här förklarar vi allt, eller något mindre allt vi anser vara viktigast.

Innehållsindex

Grafikkortet och spelet

Utan tvekan är den mest använda termen för att namnge GPU: er för ett grafikkort, även om det inte är exakt samma och vi kommer att förklara det. En GPU- eller grafikbearbetningsenhet är i princip en processor byggd för att hantera grafik. Termen låter uppenbarligen mycket lik CPU, så det är viktigt att skilja mellan de två elementen.

När vi pratar om ett grafikkort talar vi verkligen om den fysiska komponenten. Detta är byggt från en PCB oberoende av moderkortet och försedd med ett kontaktdon, normalt PCI-Express, med vilket det kommer att anslutas till själva moderkortet. På denna PCB har vi GPU installerat, och även det grafiska minnet eller VRAM tillsammans med komponenter som VRM, anslutningsportar och kylflänsen med dess fläktar.

Spel skulle inte existera om det inte vore för grafikkort, särskilt om vi talar om datorer eller datorer. I början kommer alla att veta att datorer inte hade ett grafiskt gränssnitt, vi hade bara en svart skärm med en promp för att ange kommandon. Dessa grundläggande funktioner är långt ifrån nu i spelåldern, där vi har utrustning med ett perfekt grafiskt gränssnitt och i enorma upplösningar som gör att vi kan hantera miljöer och karaktärer nästan som om det verkliga livet.

Varför separera GPU och CPU

För att prata om proprietära grafikkort måste vi först veta vad de ger oss och varför de är så viktiga idag. Idag kunde vi inte tänka oss en speldator utan en fysiskt separat CPU och GPU.

Vad gör CPU: n

Här har vi det ganska enkelt, eftersom vi alla kan få en uppfattning om vad mikroprocessorn gör på en dator. Det är den centrala behandlingsenheten, genom vilken alla instruktioner som genereras av programmen och en stor del av de som skickas av kringutrustning och användaren själv passerar igenom. Programmen bildas av en följd av instruktioner som kommer att köras för att generera ett svar baserat på en inmatningsstimul, det kan vara ett enkelt klick, ett kommando eller själva operativsystemet.

Nu kommer en detalj som vi måste komma ihåg när vi ser vad GPU är. CPU består av kärnor och vi kan säga en stor storlek. Var och en av dem kan utföra en instruktion efter den andra, desto fler kärnor, eftersom fler instruktioner kan utföras på samma gång. Det finns många typer av program på en PC, och många typer av instruktioner som är mycket komplexa och indelade i flera steg. Men sanningen är att ett program inte genererar ett stort antal av dessa instruktioner parallellt. Hur ser vi till att CPU "förstår" något program vi installerar? Det vi behöver är få kärnor, väldigt komplexa och som är mycket snabba för att utföra instruktionerna snabbt, så vi kommer att märka att programmet är flytande och svarar på det vi ber det.

Dessa grundläggande instruktioner reduceras till matematiska operationer med heltal, logiska operationer och även några flytande punktoperationer. De senare är de mest komplicerade eftersom de är mycket stora reella antal som måste representeras i mer kompakta element med hjälp av vetenskaplig notation. Att stödja CPU är RAM, snabb lagring som sparar löpande program och deras instruktioner för att skicka dem över en 64-bitars buss till CPU.

Och vad gör GPU: n

Precis GPU är nära besläktad med dessa flytande punktoperationer som vi har talat om tidigare. Faktum är att en grafikprocessor praktiskt taget lägger ner all sin tid på att utföra dessa typer av operationer, eftersom de har mycket att göra med grafiska instruktioner. Av denna anledning kallas det ofta en matematisk samarbetare, det finns faktiskt en inom CPU, men mycket enklare än GPU.

Vad är ett spel gjort av? Tja, i princip pixelrörelsen tack vare en grafikmotor. Det är inget annat än ett program fokuserat på att efterlikna en digital miljö eller värld där vi rör oss som om det vore vår egen. I dessa program har de flesta av instruktionerna att göra med pixlar och deras rörelse för att bilda strukturer. I sin tur har dessa strukturer färg, 3D-volym och fysiska egenskaper för ljusreflektion. Allt detta är i princip flytande punktoperationer med matriser och geometrier som måste göras samtidigt.

Därför har en GPU inte 4 eller 6 kärnor utan tusentals av dem för att utföra alla dessa specifika operationer parallellt om och om igen. Visst, dessa kärnor är inte lika "smarta" som CPU-kärnorna, men de kan göra mycket fler funktioner av den här typen på en gång. GPU har också sitt eget minne, GRAM, som är mycket snabbare än normalt RAM. Den har en mycket större buss, mellan 128 och 256 bitar för att skicka mycket mer instruktioner till GPU.

I den video som vi lämnar dig länkade emulerar mytjägarna driften av en CPU och en GPU och när det gäller deras antal kärnor när det gäller att måla en bild.

youtu.be/-P28LKWTzrI

Vad CPU och GPU gör tillsammans

Vid denna tidpunkt kanske du redan har tänkt att CPU- spelet påverkar också den slutliga prestandan för spelet och dess FPS. Uppenbarligen, och det finns många instruktioner som är CPU: s ansvar.

CPU är ansvarig för att skicka data i form av vertikaler till GPU, så att den "förstår" vilka fysiska transformationer (rörelser) den måste göra till strukturerna. Detta kallas Vertex Shader eller rörelsefysik. Därefter får GPU information om vilka av dessa toppar som kommer att vara synliga, vilket gör det så kallade pixelklippet genom rasterisering. När vi redan känner till formen och dess rörelse, är det dags att applicera strukturerna, i Full HD, UHD eller vilken upplösning som helst, och deras motsvarande effekter, det skulle vara Pixel Shader- processen .

Av samma anledning, ju mer kraft CPU har, desto mer toppunktinstruktioner kan den skicka till GPU, och desto bättre låser den den. Så den viktigaste skillnaden mellan dessa två element ligger i specialiseringsnivån och graden av parallellitet i behandlingen för GPU.

Vad är en APU?

Vi har redan sett vad en GPU är och dess funktion i en PC och förhållande till processorn. Men det är inte det enda befintliga elementet som kan hantera 3D-grafik, och det är därför vi har APU eller Accelerated Processor Unit.

Denna term uppfanns av AMD för att namnge sina processorer med en GPU integrerad i samma paket. I själva verket innebär detta att vi i processorn själv har ett chip eller bättre sagt, en chipset som består av flera kärnor som kan arbeta med 3D-grafik på samma sätt som ett grafikkort gör. Faktum är att många av dagens processorer har denna typ av processor, som kallas IGP (Integrated Graphics Processor) i sig själv.

Men förstås kan vi i förväg inte jämföra prestanda för ett grafikkort med tusentals interna kärnor med en IGP integrerad i själva CPU: n. Så dess bearbetningskapacitet är fortfarande mycket lägre när det gäller bruttokraft. Till detta lägger vi till faktumet att inte ha ett dedicerat minne så snabbt som GDDR på grafikkorten, det räcker med en del av RAM-minnet för dess grafiska hantering.

Vi kallar oberoende grafikkort dedikerade grafikkort, medan vi kallar IGP interna grafikkort. Intel Core ix-processorerna har nästan alla en integrerad GPU som heter Intel HD / UHD Graphics, förutom modellerna med "F" i slutet. AMD gör samma sak med några av sina CPU: er, särskilt Ryzen i G-serien och Athlon, med grafik som heter Radeon RX Vega 11 och Radeon Vega 8.

Lite historia

De långa är de gamla textdatorer som vi har nu, men om något har funnits i alla åldrar är önskan att skapa allt mer detaljerade virtuella världar för att fördjupa oss inuti.

I den första allmänna konsumentutrustningen med Intel 4004, 8008 och företagsprocessorer hade vi redan grafikkort, eller något liknande. Dessa begränsades bara till att tolka koden och visa den på en skärm i form av ren text på cirka 40 eller 80 kolumner, och naturligtvis i svartvitt. Det första grafikkortet kallades faktiskt MDA (Monocrome Data Adapter). Den hade ett eget RAM-minne på inte mindre än 4 kB, för att göra perfekt grafik i form av ren text vid 80 × 25 kolumner.

Efter detta kom CGA (Color Graphics Adapter) grafikkort, 1981 började IBM marknadsföra det första färggrafikkortet. Den kunde göra 4 färger samtidigt från en intern 16 palett med en upplösning av 320 × 200. I textläge kunde den höja upplösningen till 80 × 25 kolumner eller vad som är lika med 640 × 200.

Vi fortsätter att gå framåt, med HGC eller Hercules grafikkort, lovar namnet! Ett monokrom kort som höjde upplösningen till 720 × 348 och kunde arbeta tillsammans med en CGA för att ha upp till två olika videoutgångar.

Hoppa till kort med rik grafik

Eller snarare EGA, den förstärkta grafikadaptern som skapades 1984. Detta var det första grafikkortet i sig själv, som kan arbeta med 16 färger och upplösningar upp till 720 × 540 för ATI Technologies- modeller, låter det bekant för dig, eller hur?

1987 produceras en ny upplösning, och ISA- videokontakten lämnas för att anta VGA- porten (Video Graphics Array), även kallad Sub15-D, en analog seriell port som har använts tills nyligen för CRT: er och till och med paneler. TFT. De nya grafikkorten höjde sin färgpalett till 256 och VRAM-minnet till 256 kB. Vid denna tidpunkt började datorspel utvecklas med mycket mer komplexitet.

Det var 1989 när grafikkort slutade använda färgpaletter och började använda färgdjup. Med VESA-standarden som anslutning till moderkortet utvidgades bussen till 32 bitar, så de kunde redan arbeta med flera miljoner färger och upplösningar upp till 1024x768p tack vare bildskärmarna med SuperVGA-porten. Kort lika ikoniska som ATI Match 32 eller Match 64 med 64-bitars gränssnitt var bland tidens bästa.

PCI-kortplatsen anländer och därmed revolutionen

VESA-standarden var en hel hel buss, så 1993 utvecklades den till PCI-standarden, den vi har idag med sina olika generationer. Den här tillät oss mindre kort, och många tillverkare gick med i partiet som Creative, Matrox, 3dfx med sina Voodoo och Voodoo 2, och en Nvidia med sina första RIVA TNT- och TNT2-modeller som släpptes 1998. Då dök de första specifika biblioteken för 3D-acceleration upp, till exempel DirectX av Microsoft och OpenGL av Silicon Graphics.

Snart blev PCI-bussen för liten, med kort som kan adressera 16 bitar och 3D-grafik med en upplösning av 800x600p, så AGP (Advanced Graphics Port) -bussen skapades. Denna buss hade ett 32-bitars PCI-liknande gränssnitt men ökade sin buss med ytterligare 8 kanaler för att snabbare kommunicera med RAM. Dess buss fungerade med 66 MHz och 256 Mbps bandbredd, med upp till 8 versioner (AGP x8) upp till 2, 1 GB / s, och som 2004 skulle ersättas av PCIe-bussen.

Här har vi redan mycket väl etablerat de två fantastiska 3D-grafikkortföretagen som Nvidia och ATI. Ett av de första korten som markerade den nya eran var Nvidia GeForce 256, som implementerade T&L-teknik (belysning och geometriberäkningar). Sedan rankning över sina rivaler för att vara den första 3D-polygon grafik accelerator och Direct3D kompatibel. Strax därefter släppte ATI sin första Radeon, och därmed utformade namnen på båda tillverkarna för sina grafikkort för spel som pågår fram till idag, även efter att AMD köpte ATI.

PCI Express-bussen och aktuella grafikkort

Och slutligen kommer vi till den aktuella eraen med grafikkort, då VGA-gränssnittet 2004 inte fungerade längre och ersattes av PCI-Express. Denna nya buss tillät överföringar på upp till 4 GB / s både upp och ner samtidigt (250 MB x16 körfält). Ursprungligen skulle den vara ansluten till norra bron på moderkortet och skulle använda en del av RAM för video, med namnet TurboCaché eller HyperMemory. Men senare med införlivandet av norra bron i själva CPU: n skulle dessa 16 PCIe-banor gå i direkt kommunikation med CPU.

ATI Radeon HD- era och Nvidia GeForce började och blev de ledande exponenterna för grafikkort för spel på datorer på marknaden. Nvidia skulle snart ta ledningen med en GeForce 6800 som stödde DirectX 9.0c kontra en ATI Radeon X850 Pro som var lite bakom. Efter detta fortsatte båda varumärkena att utveckla den enhetliga Shader-arkitekturen med sin Radeon HD 2000 och deras GeForce 8- serie. I själva verket var den kraftfulla Nvidia GeForce 8800 GTX ett av de mest kraftfulla korten i sin generation, och till och med de som kom efter det, var Nvidias definitiva språng till överhöghet. År 2006 var det när AMD köpte ATI och deras kort döptes till AMD Radeon.

Slutligen står vi på kort som är kompatibla med DirectX 12, Open GL 4.5 / 4.6- bibliotek, de första är Nvidia GTX 680 och AMD Radeon HD 7000. Påföljande generationer har kommit från de två tillverkarna, när det gäller Nvidia har vi Maxwell (GeForce 900), Pascal (GeForce 10) och Turing (Geforce 20) arkitekturer, medan AMD har Polaris (Radeon RX), GCN (Radeon Vega) och nu RDNA (Radeon RX 5000).

Delar och hårdvara på ett grafikkort

Vi kommer att se huvuddelarna på ett grafikkort för att identifiera vilka element och tekniker vi måste veta när vi köper ett. Naturligtvis utvecklas tekniken mycket så att vi gradvis kommer att uppdatera det vi ser här.

Chipset eller GPU

Vi vet redan ganska väl vilken funktion grafikprocessorn på ett kort är, men det kommer att vara viktigt att veta vad vi har inuti. Det är kärnan i det, och inuti hittar vi ett stort antal kärnor som ansvarar för att utföra olika funktioner, särskilt i den arkitektur som Nvidia för närvarande använder. Inuti hittar vi respektive kärnor och cacheminnet associerat med chipet, som normalt har L1 och L2.

Inuti en Nvidia GPU hittar vi CUDA- eller CUDA-kärnorna, som så att säga, ansvarar för att utföra de allmänna beräkningarna av flytande punkter. Dessa kärnor i AMD-kort kallas Stream Processors. Samma antal kort från olika tillverkare betyder inte samma kapacitet, eftersom dessa beror på arkitekturen.

Dessutom har Nvidia också Tensorkärnor och RT-kärnor. Dessa kärnor är avsedda för processorn med mer komplexa instruktioner om strålspårning i realtid, en av de viktigaste funktionerna på tillverkarens nya generationskort.

GRAM-minne

GRAM-minnet har praktiskt taget samma funktion som RAM-minnet på vår dator och lagrar strukturer och element som kommer att behandlas i GPU. Dessutom hittar vi mycket stora kapaciteter, med mer än 6 GB för närvarande på nästan alla avancerade grafikkort.

Det är ett minne av DDR-typ, precis som RAM, så dess effektiva frekvens kommer alltid att vara två gånger klockfrekvensen, något att tänka på när det gäller överklockning och specifikationsdata. För närvarande använder de flesta kort GDDR6-teknik, om du hör DDR6, medan de i normalt RAM-minne är DDR4. Dessa minnen är mycket snabbare än DDR4 och når frekvenser på upp till 14 000 MHz (14 Gbps) effektivt med en klocka på 7 000 MHz. Dessutom är deras bussbredd mycket större, ibland når de 384 bitar på Nvidia toppområdet.

Men det finns fortfarande ett andra minne som AMD har använt för sin Radeon VII, när det gäller HBM2. Det här minnet har inte hastigheter så höga som GDDR6, utan ger oss i stället en brutal bussbredd på upp till 2048 bitar.

VRM och TDP

VRM är det element som ansvarar för att leverera ström till alla komponenter på grafikkortet, särskilt GPU och dess GRAM-minne. Det består av samma element som VRM på ett moderkort, med dess MOSFETS fungerar som likströms-likströmsström, dess choker och kondensatorer. På samma sätt är dessa faser indelade i V_core och V-SoC, för GPU och minne.

På TDP-sidan betyder det också exakt samma sak som på en CPU. Det handlar inte om den energi som processorn förbrukar, utan kraften i form av värme som den genererar maximal belastning.

För att driva kortet behöver vi ett strömkontakt. För närvarande används 6 + 2-stiftskonfigurationer för korten, eftersom PCIe-kortplatsen i sig bara kan leverera maximalt 75W, medan en GPU kan konsumera mer än 200W.

Anslutningsgränssnitt

Anslutningsgränssnittet är sättet att ansluta grafikkortet till moderkortet. För närvarande fungerar absolut alla dedikerade grafikkort via PCI-Express 3.0-bussen förutom de nya AMD Radeon XR 5000-korten, som har uppgraderats till PCIe 4.0 Bus.

För praktiska ändamål kommer vi inte att märka någon skillnad, eftersom mängden data som för närvarande utbyts på denna 16-linjebuss är mycket mindre än dess kapacitet. Av nyfikenhet kan PCIe 3.0 x16 bära 15, 8 GB / s upp och ner samtidigt, medan PCIe 4.0 x16 fördubblar kapaciteten till 31, 5 GB / s. Snart kommer alla GPU: er PCIe 4.0, detta är uppenbart. Vi behöver inte oroa oss för att ha ett PCIe 4.0-kort och ett 3.0-kort, eftersom standarden alltid erbjuder bakåtkompatibilitet.

Videoportar

Sist men inte minst har vi videoanslutningarna, de som vi behöver för att ansluta vår bildskärm eller bildskärm för att få bilden. På den nuvarande marknaden har vi fyra typer av videoanslutning:

  • HDMI: High-Definition Multimedia Interface är en kommunikationsstandard för okomprimerade bild- och ljud-multimediaenheter. HDMI-versionen påverkar den bildkapacitet som vi kan få från grafikkortet. Den senaste versionen är HDMI 2.1, som erbjuder en maximal upplösning på 10K, spelar 4K på 120Hz och 8K på 60Hz. Medan version 2.0 erbjuder 4K @ 60Hz i 8 bitar. DisplayPort: Det är också ett seriellt gränssnitt med okomprimerat ljud och bild. Som tidigare kommer versionen av denna port att vara mycket viktig, och vi kommer att behöva den vara minst 1, 4, eftersom den här versionen har stöd för att spela innehåll i 8K vid 60 Hz och i 4K på 120 Hz med inte mindre än 30 bitar. och i HDR. Utan tvekan det bästa i dag. USB-C: USB Type-C når fler och fler enheter på grund av sin höga hastighet och sin integration med gränssnitt som DisplayPort och Thunderbolt 3 vid 40 Gbps. Denna USB har DisplayPort-alternativläge, som är DisplayPort 1.3, med stöd för att visa bilder i 4K-upplösning vid 60 Hz. På samma sätt kan Thunderbolt 3 spela innehåll i UHD under samma förhållanden. DVI: det är en osannolik anslutning att hitta den i nuvarande bildskärmar, det vill säga utvecklingen av VGA till en högupplöst digital signal. Om vi ​​kan undvika det, bättre än bättre, är den vanligaste DVI-DL.

Hur kraftfullt är ett grafikkort

För att referera till grafikkortets kraft är det nödvändigt att känna till några koncept som vanligtvis finns i dess specifikationer och riktmärken. Detta är det bästa sättet att fördjupa grafikkortet som vi vill köpa och också veta hur man kan jämföra det med tävlingen.

FPS-ränta

FPS är Framerate eller Frames per Second. Den mäter frekvensen på vilken skärmen visar bilderna på en video, ett spel eller vad som representeras på den. FPS har mycket att göra med hur vi uppfattar rörelse i en bild. Ju mer FPS, desto mer flytande känsla kommer en bild att ge oss. Med en hastighet av 60 FPS eller högre kommer det mänskliga ögat under normala förhållanden att uppskatta en helt flytande bild, vilket skulle simulera verkligheten.

Men naturligtvis beror inte allt på grafikkortet, eftersom skärmens uppdateringsfrekvens kommer att markera FPS som vi kommer att se. FPS är samma som Hz, och om en skärm är 50 Hz kommer spelet att visas på högst 60 FPS, även om GPU kan spela det på 100 eller 200 FPS. För att veta vad som skulle vara den maximala FPS-hastigheten som GPU skulle kunna representera måste vi inaktivera vertikal synkronisering i spelalternativen.

Arkitektur av din GPU

Innan vi har sett att GPU: er har ett visst antal fysiska kärnor som kan få oss att tro att ju mer, desto bättre prestanda kommer det att ge oss. Men detta är inte exakt så, eftersom, precis som med CPU-arkitekturen, kommer prestanda att variera även med samma hastighet och samma kärnor. Vi kallar detta IPC eller instruktioner per cykel.

Arkitekturen för grafikkort har utvecklats med tiden och har helt enkelt spektakulära föreställningar. De kan stödja 4K-upplösningar över 60Hz eller till och med 8K-upplösningar. Men viktigast av allt är det dess stora förmåga att animera och återge texturer med ljus i realtid, precis som våra ögon gör i verkligheten.

För närvarande har vi Nvidia med sin Turing-arkitektur och använder 12nm FinFET-transistorer för att bygga chipset för den nya RTX. Denna arkitektur har två differentiella element som hittills inte fanns i konsumentutrustning, Ray Tracing- kapaciteten i realtid och DLSS (Deep Learning Super Sampling). Den första funktionen försöker simulera vad som händer i den verkliga världen och beräknar hur ljus påverkar virtuella objekt i realtid. För det andra är det en serie av konstgjorda intelligensalgoritmer med vilka kortet gör strukturerna i en lägre upplösning för att optimera spelets prestanda, det är som en slags antialiasing. Idealet är att kombinera DLSS och Ray Tracing.

Genom AMD har den också släppt arkitektur, även om det är sant att det samexisterar med de omedelbart tidigare för att ha ett brett utbud av kort som, även om det är sant, inte ligger på nivå med toppnivån i Nvidia. Med RDNA har AMD ökat IPC för sina GPU: er med 25% jämfört med CNG-arkitekturen och därmed uppnått 50% mer hastighet för varje konsumerat watt.

Klockfrekvens och turboläge

Tillsammans med arkitekturen är två parametrar mycket viktiga för att se prestandan hos en GPU, som är de för dess basklockfrekvens och ökningen av fabriksturbo eller överklockningsläge. Precis som med CPU: er kan GPU: er också kunna variera sin grafikbehandlingsfrekvens vid behov vid varje given tidpunkt.

Om du tittar är grafikkortens frekvenser mycket lägre än hos processorer, och är cirka 1600-2000 MHz. Detta beror på att det större antalet kärnor tillhandahåller behovet av en högre frekvens för att kontrollera kortets TDP.

Vid denna tidpunkt är det viktigt att veta att vi på marknaden har referensmodeller och personliga kort. De första är modellerna som släppts av tillverkarna själva, Nvidia och AMD. För det andra tar tillverkare i princip GPU: er och minnen för att montera sina egna med högre prestanda komponenter och kylflänsar. Fallet är att dess klockfrekvens också ändras, och dessa modeller tenderar att vara snabbare än referensfrekvenserna.

TFLOPS

Tillsammans med klockfrekvensen har vi FLOPS (Flytande punktoperationer per sekund). Detta värde mäter de flytande punktoperationerna som en processor kan utföra på en sekund. Det är en siffra som mäter bruttoeffekten hos GPU och även CPU: erna. För närvarande kan vi inte bara prata om FLOSP, från TeraFLOPS eller TFLOPS.

Vi bör inte förvirras att tro att fler TFLOPS kommer att innebära att vårt grafikkort är bättre. Detta är normalt fallet, eftersom du borde kunna flytta texturer mer fritt. Men andra element som mängden minne, hastighet och GPU-arkitektur och cache kommer att göra skillnaden.

TMU: er och ROP

Dessa är termer som kommer att visas på alla grafikkort, och de ger oss en god uppfattning om samma arbetshastighet.

TMU står för Texture Mapping Unit. Detta element ansvarar för att dimensionera, rotera och förvränga en bitmappsbild för att placera den i en 3D-modell som kommer att fungera som en struktur. Med andra ord tillämpar det en färgkarta på ett 3D-objekt som a priori kommer att vara tomt. Ju mer TMU, desto högre textureringsprestanda, desto snabbare fylls pixlarna och desto mer FPS får vi. Aktuella TMU: er inkluderar texturriktningsenheter (TA) och texturfilterenheter (TF).

Nu vänder vi oss för att se ROP: er eller Raster-enheter. Dessa enheter behandlar texelinformationen från VRAM-minnet och utför matris- och vektoroperationer för att ge ett slutligt värde till pixeln, vilket kommer att vara dess djup. Detta kallas rasterisering, och i grund och botten styr Antialiasing eller sammanslagning av de olika pixelvärdena som finns i minnet. DLSS är just en utveckling av denna process att generera

Mängd minne, bandbredd och bussbredd

Vi vet att det finns flera typer av teknologier för VRAM-minne, varav den mest använda GDDR5 och GDDR6, med hastigheter upp till 14 Gbps för det senare. Liksom med RAM, desto mer minne desto mer pixel, text och textdata kan vi lagra. Detta påverkar i hög grad upplösningen vi spelar, detaljnivån i världen och tittningsavståndet. För närvarande behöver ett grafikkort minst 4 GB VRAM för att kunna arbeta med den nya generationens spel på Full HD och högre upplösningar.

Minnebussbredden representerar antalet bitar som kan överföras i ett ord eller en instruktion. Dessa är mycket längre än de som används av CPU: er, med längder mellan 192 och 384 bitar, låt oss komma ihåg konceptet med parallellitet vid bearbetning.

Minne bandbredd är mängden information som kan överföras per tidsenhet och mäts i GB / s. Ju större bussbredd och desto större minnesfrekvens, desto mer bandbredd kommer vi att ha, eftersom desto större mängd information som kan färdas genom den. Det är precis som Internet.

API-kompatibilitet

Ett API är i princip en uppsättning bibliotek som används för att utveckla och arbeta med olika applikationer. Det betyder applikationsprogrammering och är det sätt på vilket olika applikationer kommunicerar med varandra.

Om vi ​​flyttar till multimediavärlden har vi också API: er som tillåter drift och skapande av spel och video. Den mest kända av alla kommer att vara DirectX, som är i sin 12: e version sedan 2014, och i de senaste uppdateringarna har den implementerat Ray Tracing, programmerbara MSAA och virtual reality-funktioner. Open source-versionen är OpenGL, som är version 4.5 och används också av många spel. Slutligen har vi Vulkan, ett API särskilt utvecklat för AMD (dess källkod var från AMD och det överfördes till Khronos).

Överklockningsförmåga

Innan vi pratade om turbofrekvensen för GPU: erna, men det är också möjligt att öka den över sina gränser genom att överklocka den. Denna praxis försöker i princip hitta mer FPS i spel, mer flytande för att förbättra vårt svar.

CPU: s överklockningskapacitet är cirka 100 eller 150 MHz, även om vissa kan stödja något mer eller något mindre, beroende på deras arkitektur och maximala frekvens.

Men det är också möjligt att låsa upp GDDR-minnen och också mycket. Ett genomsnittligt GDDR6-minne som arbetar vid 7000 MHz stöder uppladdningar på upp till 900 och 1000 MHz, och når därmed upp till 16 Gbps effektiva. I själva verket är det det element som ökar spelets FPS-hastighet mest, med ökningar på till och med 15 FPS.

Några av de bästa överklockningsprogrammen är Evga Precision X1, MSI AfterBurner och AMD WattMan för Radeons. Även om många tillverkare har sina egna, som AORUS, Färgglada, Asus, etc.

Testvärdena för grafikkort

Benchmarks är stress- och prestandatester som vissa hårdvarutillskott på vår PC genomgår för att utvärdera och jämföra deras prestanda med andra produkter på marknaden. Naturligtvis finns det riktmärken för att utvärdera grafikkortens prestanda och till och med grafik-CPU-uppsättningen.

Dessa tester visar nästan alltid en måttlös poäng, det vill säga den kan bara köpas med de som genereras av det programmet. På motsatt sida är FPS och till exempel TFLOPS. De mest använda programmen för grafikkortets riktmärken är 3DMark, som har ett stort antal olika tester, PassMark, VRMark eller GeekBench. De har alla sina egna statistiktabeller för att köpa vår GPU med tävlingen.

Storlek är viktig… och kylflänsen också

Naturligtvis är det viktigt för vänner, så innan vi köper ett grafikkort är det minsta vi kan göra att gå till dess specifikationer och se vad det mäter. Låt oss sedan gå till vårt chassi och mäta vilket utrymme vi har tillgängligt för det.

Dedikerade grafikkort har mycket kraftfulla GPU: er med TDP på ​​över 100W i alla. Detta innebär att de faktiskt blir ännu varmare än processorer. Av denna anledning har alla stora kylflänsar som upptar nästan hela elektronik-kretskortet.

På marknaden kan vi i princip hitta två typer av kylflänsar.

  • Blåsare: Denna typ av kylfläns är till exempel den som har referensmodellerna AMD Radeon RX 5700 och 5700 XT eller den föregående Nvidia GTX 1000. En enda fläkt suger vertikal luft och får den att flöda genom den finnade kylflänsen. Dessa kylflänsar är väldigt dåliga, eftersom det tar lite luft och passeringshastigheten genom kylflänsen är låg. Axiellt flöde: de är fläktarna under en livstid, placerade vertikalt i kylflänsen och skjuter luft mot fenorna som senare kommer ut från sidorna. Det används i alla anpassade modeller för att vara den som ger bästa prestanda. Även vätskekylning: vissa toppmodeller har kylflänsar som inbäddar ett vätskekylsystem, till exempel Asus Matrix RTX 2080 Ti.

Personliga kort

Vi kallar grafikmodellerna sammansatta av generiska hårdvarutillverkare som Asus, MSI, Gigabyte, etc. Dessa köper direkt grafikchips och minnen från huvudtillverkaren, AMD eller Nvidia, och monterar dem sedan på en PCB gjord av dem tillsammans med en kylfläns som också skapats av dem.

Det bra med det här kortet är att de kommer överklockade från fabriken, med en högre frekvens än referensmodellerna, så att de kommer att utföra lite mer. Dess kylfläns är också bättre och VRM, och till och med många har RGB. Det dåliga är att de vanligtvis är dyrare. En annan positiv aspekt är att de erbjuder många typer av storlekar, för ATX, Micro ATX eller till och med ITX-chassi, med mycket små och kompakta kort.

Hur är GPU eller grafikkort på en spelbärbar dator

Vi undrar säkert på om en bärbar dator också kan ha ett dedikerat grafikkort, och sanningen är att den gör det. I professionell granskning analyserar vi faktiskt ett stort antal bärbara datorer med en dedikerad GPU.

I det här fallet kommer den inte att installeras på ett expansionskort, men chipsetet kommer att lödas direkt på den bärbara datorns huvudsakliga PCB och mycket nära CPU: n. Dessa konstruktioner kallas vanligtvis Max-Q eftersom de inte har en kylfläns och har ett specifikt område i basplattan för dem.

Inom detta område är den obestridda kungen Nvidia med sina RTX och GTX Max-Q. De är chips optimerade för bärbara datorer och som förbrukar 1/3 jämfört med stationära modeller och bara offrar 30% av deras prestanda. Detta åstadkoms genom att minska dess klockfrekvens, ibland genom att ta bort några kärnor och bromsa ner GRAM.

Vilken CPU monterar jag enligt mitt grafikkort

För att spela, liksom att göra alla typer av uppgifter på vår dator, måste vi alltid hitta en balans i våra komponenter för att undvika flaskhalsar. Genom att minska detta till spelvärlden och våra grafikkort måste vi uppnå en balans mellan GPU och CPU, så att ingen av dem kommer till kort och de andra missbrukar för mycket. Våra pengar står på spel, och vi kan inte köpa en RTX 2080 och installera den med en Core i3-9300F.

Den centrala processorn har en viktig roll i arbetet med grafik, som vi redan har sett i tidigare avsnitt. Så vi måste se till att det har tillräckligt med hastighet, kärnor och bearbetningstrådar för att arbeta med fysiken och rörelsen i spelet eller videon och skicka dem till grafikkortet så snabbt som möjligt.

I alla fall har vi alltid möjligheten att ändra grafikinställningarna för spelet för att minska påverkan av en CPU som är för långsam för kraven. När det gäller GPU är det lätt att kompensera för sin brist på prestanda, bara genom att sänka upplösningen kommer vi att uppnå fantastiska resultat. Med CPU: n är det annorlunda, eftersom fysiken och rörelsen förblir nästan densamma, även om det finns färre pixlar, och att sänka kvaliteten på dessa alternativ kan starkt påverka den rätta spelupplevelsen. Här är några alternativ som påverkar CPU och andra på GPU:

De påverkar GPU De påverkar CPU
I allmänhet återgivningsalternativ I allmänhet de fysiska alternativen
antialiasing Karaktärsrörelse
Ray Tracing Objekt som visas på skärmen
strukturer partiklar
mosaikläggning
efterbehandling
upplösning
Miljöklockering

Ser vi detta kan vi göra en mer eller mindre generell balans som klassificerar utrustningen enligt det syfte som de är byggda för. Detta kommer att göra det lättare att uppnå mer eller mindre balanserade specifikationer.

Billig multimedia och kontorsutrustning

Vi börjar med de mest grundläggande, eller åtminstone vad vi anser vara mer grundläggande förutom mini-datorerna med Celeron. Antagligen, om vi letade efter något billigt, skulle det bästa vara att gå till AMDs Athlon-processorer eller Intels Pentium Gold. I båda fallen har vi integrerad grafik på god nivå, till exempel Radeon Vega i första fallet, eller UHD-grafiken för Intel, som stöder höga upplösningar och en anständig prestanda i krävande uppgifter.

På detta område är det helt meningslöst att köpa ett dedikerat grafikkort. Det är CPU: er med två kärnor som inte kommer att ge tillräckligt för att amortera kostnaden för ett kort. Dessutom kommer den integrerade grafiken att ge oss en prestanda som liknar vad en dedikerad GPU på 80-100 euro skulle erbjuda.

Allmän utrustning och avancerad spel

Vi kan betrakta en allmänt utrustning som en som svarar bra under många olika omständigheter. Till exempel surfa, jobba på kontoret, göra små saker i design och till och med redigera videor på amatörnivå och spela ibland i Full HD (vi kan inte komma hit och be om mycket mer).

Inom detta område kommer den 4-kärniga och högfrekventa Intel Core i3 att sticker ut, och särskilt AMD Ryzen 3 3200G och 5 3400G med integrerad Radeon RX Vega 11-grafik och ett mycket justerat pris. Dessa Ryzen kan flytta ett sista generations spel med värdighet i låg kvalitet och Full HD. Om vi ​​vill ha något bättre, låt oss gå vidare till nästa.

Dator med grafikkort för spel i mellan- och högklass

Som spel i mellanklass skulle vi redan ha råd med en Ryzen 5 2600 eller en Core i5-9400F för mindre än 150 euro och lägga till en dedikerad GPU som Nvidia 1650, 1660 och 1660 Ti, eller AMD Radeon RX 570, 580 eller 590. De är inte dåliga alternativ om vi inte vill spendera mer än 250 euro på ett grafikkort.

Men naturligtvis, om vi vill ha mer, måste vi offra, och det är vad det är om vi vill få en optimal spelupplevelse i Full HD eller 2K i hög kvalitet. I det här fallet är de kommenterade processorerna fortfarande ett bra alternativ för att vara 6-kärnor, men vi kan gå upp till Ryzen 5 3600 och 3600X och Intel Core i5-9600K. Med dessa kommer det att vara värt det att uppgradera till Nvidias RTX 2060/2070 Super och AMDs RX 5700/5700 XT.

Entusiastiskt spel- och designteam

Här kommer det att finnas många renderingsuppgifter och spel som körs med filtren maximalt, så vi kommer att behöva en CPU på minst 8 kärnor och ett kraftfullt grafikkort. AMD Ryzen 2700X eller 3700X kommer att vara ett bra alternativ, eller Intel Core i7 8700K eller 9700F. Tillsammans med dem förtjänar vi en Nvidia RTX 2070 Super eller en AMD Radeon RX 5700 XT.

Och om vi vill vara avund från våra vänner, låt oss komma på en RTX 2080 Super, låt oss vänta lite på Radeon 5800, och låt oss få en AMD Ryzen 3900X eller en Intel Core i9-9900K. Threadrippers är inte ett genomförbart alternativ för närvarande, även om Intel X och XE på LGA 2066-plattformen är och deras höga kostnad.

Slutsats om grafikkortet och våra rekommenderade modeller

Hittills kommer det här inlägget där vi förklarar tillräckligt detaljerade grafikkortens aktuella status, såväl som lite av deras historia från början av dem. Det är en av de mest populära produkterna i datorvärlden, eftersom en speldator säkert kommer att prestera mycket mer än en konsol.

Riktiga spelare använder datorer för att spela, särskilt inom e-sport eller konkurrerande spel över hela världen. I dem, försök alltid att uppnå maximal möjlig prestanda, öka FPS, minska responstider och använda komponenter designade för spel. Men ingenting skulle vara möjligt utan grafikkort.

  • Vilket grafikkort köper jag? Bäst på marknaden Bästa grafikkort på marknaden
Android

Redaktörens val

Back to top button