Android

Nvidia 【all information】

Innehållsförteckning:

Anonim

Nvidia Corporation, mer allmänt känt som Nvidia, är ett amerikanskt teknikföretag som är etablerat i Delaware och baserat i Santa Clara, Kalifornien. Nvidia designer grafikbearbetningsenheter för videospel och professionella marknader samt ett chipenhetssystem (SoC) för bilindustrin och mobil datormarknad. Dess kärnproduktsortiment, GeForce, konkurrerar direkt med AMD: s Radeon-produkter.

Vi rekommenderar att du läser våra bästa PC-hårdvara och komponentguider:

Förutom att tillverka GPU: er, tillhandahåller Nvidia parallellbehandlingsfunktioner över hela världen till forskare och forskare, vilket gör det möjligt för dem att köra högpresterande applikationer effektivt. På senare tid har den flyttat in på den mobila datormarknaden, där den producerar Tegra-mobila processorer för videospelkonsoler, surfplattor och autonoma navigations- och fordonsunderhållningssystem. Detta har lett till att Nvidia blivit ett företag med fokus på fyra marknader sedan 2014 : spel, professionell visualisering, datacentra och artificiell intelligens och bilar.

Innehållsindex

Nvidia historia

Nvidia grundades 1993 av Jen-Hsun Huang, Chris Malachowsky och Curtis Priem. Företagets tre grundare antog att den rätta riktningen för datoranvändning skulle gå igenom grafikaccelererad bearbetning och trodde att den här datormodellen skulle kunna lösa problem som datoranvändning inte kunde lösa. De noterade också att videospel är några av de mest beräknande utmaningarna och att de har otroligt höga försäljningsvolymer.

Från ett litet videospelföretag till en artificiell intelligensjätte

Företaget föddes med ett startkapital på 40 000 dollar, hade ursprungligen inget namn och medgrundarna namngav alla sina NV-filer, som i "nästa utgåva." Behovet av att integrera företaget gjorde att grundarna granskade alla orden med dessa två bokstäver, vilket ledde dem till "invidia", det latinska ordet som betyder "avund".

Genom lanseringen av RIVA TNT 1998 konsoliderades Nvidias rykte för att utveckla grafikadaptrar. I slutet av 1999 släppte Nvidia GeForce 256 (NV10), som framför allt introducerade transformations- och belysning på konsumentnivå (T&L) i 3D-hårdvara. Den arbetade vid 120 MHz och innehöll fyra rader pixlar och implementerade avancerad videoacceleration, rörelsekompensation och hårbilsunderbildsblandning. GeForce överträffade befintliga produkter med stor marginal.

På grund av framgången för sina produkter vann Nvidia kontraktet om att utveckla grafikhårdvaran för Microsofts Xbox-spelkonsol, och tjänade Nvidia med 200 miljoner förskott. Projektet tog dock många av sina bästa ingenjörer från andra projekt. På kort sikt spelade detta ingen roll, och GeForce2 GTS skickades sommaren 2000. I december 2000 nådde Nvidia ett avtal om att förvärva de intellektuella tillgångarna till sin enda rivaliserande 3dfx, en pionjär inom 3D-grafikteknik för konsumenten. som ledde fältet från mitten av 1990-talet till 2000. Förvärvsprocessen avslutades i april 2002.

I juli 2002 förvärvade Nvidia Exluna för ett offentligt belopp. Exluna ansvarade för att skapa olika verktyg för återgivning av mjukvara. Senare, i augusti 2003, förvärvade Nvidia MediaQ för cirka 70 miljoner dollar. Och den förvärvade också iReady, en leverantör av högpresterande TCP / IP- och iSCSI-offload-lösningar den 22 april 2004.

Så stor var Nvidias framgång på videospelmarknaden att i december 2004 tillkännagavs att det skulle hjälpa Sony med utformningen av PlayStation 3 RSX-grafikprocessor, den nya generationens videospelkonsol från det japanska företaget som det hade den svåra uppgiften att upprepa framgångarna, historiens bästsäljande.

I december 2006 fick Nvidia citat från det amerikanska justitiedepartementet. När det gäller möjliga antitrustöverträdelser inom grafikkortsbranschen. Vid den tiden hade AMD blivit dess stora rival, efter det senare köpt av ATI. Sedan dess har AMD och Nvidia varit de enda tillverkarna av grafikkort för videospel, och inte glömt Intels integrerade chips.

Forbes utsåg Nvidia till årets bästa företag för 2007 och citerade de framsteg som det gjorde under de senaste fem åren. Den 5 januari 2007 tillkännagav Nvidia att det hade slutfört förvärvet av PortalPlayer, Inc, och i februari 2008 förvärvade Nvidia Ageia, utvecklare av PhysX-fysikmotorn och fysikbehandlingsenheten som kör denna motor. Nvidia meddelade att den planerade att integrera PhysX-teknik i sina framtida GeForce GPU-produkter.

Nvidia mötte stora svårigheter i juli 2008, då den fick en minskning av intäkterna på cirka 200 miljoner dollar efter det att det rapporterades att vissa mobila chipsets och mobila GPU: er som producerats av företaget hade onormala felfrekvenser på grund av tillverkningsfel. I september 2008 blev Nvidia föremål för en stämningsansökan av de drabbade och hävdade att de defekta GPU: erna hade införlivats i vissa modeller av bärbara datorer tillverkade av Apple, Dell och HP. Tvåloperan slutade i september 2010, då Nvidia nådde en överenskommelse om att ägarna till de drabbade bärbara datorerna skulle få ersättning för kostnaderna för reparationer eller i vissa fall produktersättning.

I november 2011 släppte Nvidia sitt ARG Tegra 3-chipsystem för mobila enheter efter att det först presenterade det på Mobile World Congress. Nvidia hävdade att chipet innehöll den första fyrkärniga mobila CPU: n. I januari 2013 introducerade Nvidia Tegra 4, liksom Nvidia Shield, en Android-baserad bärbar spelkonsol som drivs av den nya processorn.

Den 6 maj 2016 introducerade Nvidia GeForce GTX 1080 och 1070 grafikkort, de första baserade på den nya Pascal-mikroarkitekturen. Nvidia hävdade att båda modellerna överträffade sin Maxwell-baserade Titan X-modell. Dessa kort har GDDR5X respektive GDDR5-minne och använder en tillverkningsprocess på 16 nm. Pascal-arkitekturen stöder också en ny hårdvarufunktion, så kallad simultan multipelprojektion (SMP), som är utformad för att förbättra kvaliteten på multi-monitor och virtual reality- rendering. Pascal har möjliggjort tillverkning av bärbara datorer som uppfyller Nvidias Max-Q designstandard.

I maj 2017 tillkännagav Nvidia ett samarbete med Toyota Motor Corp enligt vilket den senare kommer att använda Nvidias Drive X-serie av konstgjord intelligensplattform för sina autonoma fordon. I juli 2017 tillkännagav Nvidia och den kinesiska sökjätten Baidu, Inc. ett kraftfullt AI-partnerskap som inkluderar molnberäkning, autonom körning, konsumentenheter och Baidus AI-ramverk, PaddlePaddle.

Nvidia GeForce och Nvidia Pascal, dominerande spel

GeForce är varumärket för grafikkort baserat på grafikbearbetningsenheter (GPU) skapade av Nvidia från 1999. Hittills har GeForce-serien känt sexton generationer sedan starten. De versioner som är fokuserade på professionella användare av dessa kort kommer under namnet Quadro och innehåller vissa differentierande funktioner på förarens nivå. GeForces direkta tävling är AMD med sina Radeon-kort.

Pascal är kodnamnet för den senaste GPU-mikroarkitekturen som utvecklats av Nvidia som har kommit in på videospelmarknaden, som en efterföljare till den tidigare Maxwell-arkitekturen. Pascal-arkitekturen introducerades först i april 2016 med lanseringen av Tesla P100 för servrar den 5 april 2016. För närvarande används Pascal främst i GeForce 10-serien, där GeForce GTX 1080 och GTX är De första 1070 videospelkorten släpptes med denna arkitektur den 17 maj 2016 respektive 10 juni 2016. Pascal tillverkas med TSMC: s 16nm FinFET-process, vilket gör att den kan erbjuda mycket överlägsen energieffektivitet och prestanda jämfört med Maxwell, som tillverkades på 28 nm FinFET.

Pascal-arkitekturen är organiserad internt i så kallad streaming multiprocessor ( SM), funktionella enheter som består av 64 CUDA-kärnor, som i sin tur är uppdelade i två processblock med 32 CUDA-kärnor vardera av dem och åtföljs av en instruktionsbuffert, en varpplanerare, 2 strukturmappningsenheter och 2 utsändningsenheter. Dessa SM-enheter motsvarar AMD: s CU: er.

Nvidias Pascal-arkitektur har utformats för att vara den mest effektiva och avancerade i spelvärlden. Nvidias ingenjörsteam har lagt ned mycket arbete på att skapa en GPU-arkitektur som kan ha mycket höga klockhastigheter och samtidigt upprätthålla en strömförbrukning. För att uppnå detta har en mycket noggrann och optimerad design valts i alla dess kretsar, vilket resulterar i att Pascal kunde nå en frekvens som är 40% högre än Maxwell, vilket är mycket högre än processen skulle ha tillåtit vid 16 nm utan alla optimeringar på designnivå.

Minne är ett viktigt element i prestanda för ett grafikkort, GDDR5-tekniken tillkännagavs 2009, så det har redan blivit föråldrat för dagens kraftfullaste grafikkort. Av detta skäl stöder Pascal GDDR5X-minne, som var den snabbaste och mest avancerade minnesgränssnittsstandarden i historien vid lanseringen av dessa grafikkort, och når överföringshastigheter på upp till 10 Gbps eller nästan 100 picosekunder mellan bitar. av data. GDDR5X-minne tillåter också grafikkortet att använda mindre effekt jämfört med GDDR5, eftersom driftsspänningen är 1, 35V, jämfört med 1, 5V eller ännu mer som de snabbare GDDR5-chipen behöver. Denna spänningsminskning innebär 43% högre driftsfrekvens med samma effektförbrukning.

En annan viktig Pascal-innovation kommer från minneskomprimeringstekniker utan förlust av prestanda, vilket minskar efterfrågan på bandbredd av GPU. Pascal inkluderar den fjärde generationen av delta-färgkomprimeringsteknologi. Med delta-färgkomprimering analyserar GPU scener för att beräkna pixlar vars information kan komprimeras utan att ge avkall på scenens kvalitet. Medan Maxwell-arkitekturen inte kunde komprimera data relaterade till vissa element, till exempel vegetation och delar av bilen i Project Cars-spelet, kan Pascal komprimera det mesta av informationen om dessa element, vilket är mycket effektivare än Maxwell. Som en konsekvens kan Pascal minska antalet byte som måste extraheras från minnet avsevärt. Denna minskning av byte översätter till ytterligare 20% av effektiv bandbredd, vilket resulterar i en ökning med 1, 7 gånger bandbredden med användning av GDDR5X-minne jämfört med GDDR5 och Maxwell-arkitekturen.

Pascal erbjuder också viktiga förbättringar i förhållande till Asynchronous Computing, något mycket viktigt eftersom arbetsbelastningarna för närvarande är mycket komplexa. Tack vare dessa förbättringar är Pascal- arkitekturen mer effektiv när det gäller att fördela lasten mellan alla dess olika SM-enheter, vilket innebär att det knappast finns några oanvända CUDA-kärnor. Detta gör att optimeringen av GPU kan bli mycket större, vilket utnyttjar alla resurser som den har bättre.

Följande tabell sammanfattar de viktigaste funktionerna för alla Pascal-baserade GeForce-kort.

NVIDIA GEFORCE PASCAL GRAPHICS Cards

CUDA Kärnor Frekvenser (MHz) minne Minnesgränssnitt Minne bandbredd (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bitar 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bitar 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bitar 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Konstgjord intelligens och Volta-arkitektur

Nvidias GPU: er används allmänt inom områdena djup inlärning, artificiell intelligens och snabbare analys av stora mängder data. Företaget utvecklade djup inlärning baserad på GPU-teknik för att använda konstgjord intelligens för att hantera problem som cancerupptäckt, väderprognoser och autonoma körfordon, såsom den berömda Tesla.

Nvidias mål är att hjälpa nätverk att lära sig att "tänka ". Nvidias GPU: er fungerar exceptionellt bra för djupinlärningsuppgifter eftersom de är utformade för parallell datoranvändning, och de fungerar bra för att hantera vektor- och matrisoperationerna som råder i djup inlärning. Företagets GPU: er används av forskare, laboratorier, teknikföretag och företag. 2009 deltog Nvidia i det som kallades big bang för djupinlärning, eftersom djupa lärande neurala nätverk kombinerades med företagets grafikbehandlingsenheter. Samma år använde Google Brain Nvidias GPU: er för att skapa djupa neurala nätverk med kapacitet för maskininlärning, där Andrew Ng bestämde sig för att de skulle kunna öka hastigheten för djupa inlärningssystem med 100 gånger.

I april 2016 introducerade Nvidia den 8-GPU-klusterbaserade DGX-1 superdatorn för att förbättra användarnas förmåga att använda djup inlärning genom att kombinera GPU: er med specifikt designad programvara. Nvidia utvecklade också de GPU-baserade Nvidia Tesla K80 och P100 virtuella maskiner, tillgängliga via Google Cloud, som Google installerade i november 2016. Microsoft lade till servrar baserade på Nvidias GPU-teknik i en förhandsvisning av sin N-serie, baserat på Tesla K80-kortet. Nvidia samarbetade också med IBM för att skapa ett programvarukit som ökar AI-kapaciteten för sina GPU: er. Under 2017 kom Nvidias GPU: er också med online på RIKEN Center for Advanced Intelligence Project för Fujitsu.

I maj 2018 insåg forskare vid Nvidi a: s artificiella avdelning möjligheten att en robot kunde lära sig att göra ett jobb genom att helt enkelt observera personen som gjorde samma jobb. För att uppnå detta har de skapat ett system som efter en kort granskning och test nu kan användas för att kontrollera nästa generations universella robotar.

Volta är kodnamnet för den mest avancerade GPU-mikroarkitekturen som utvecklats av Nvidia, det är Pascal's efterträdararkitektur och tillkännagavs som en del av en framtida ambition för färdplanen i mars 2013. Arkitekturen är uppkallad efter Alessandro Volta, fysikern, kemisten och uppfinnaren av det elektriska batteriet. Volta- arkitekturen har inte nått spelbranschen, även om den har gjort det med Nvidia Titan V-grafikkort, fokuserat på konsumentbranschen och som också kan användas i spelutrustning.

Denna Nvidia Titan V är ett GV100-baserat grafikkort och tre HBM2-minnestackar, allt i ett paket. Kortet har totalt 12 GB HBM2-minne som fungerar genom ett 3072-bitars minnesgränssnitt. GPU innehåller över 21 miljoner transistorer, 5 120 CUDA-kärnor och 640 Tensorkärnor för att ge 110 TeraFLOPS-prestanda i djup inlärning. Dess driftsfrekvenser är 1200 MHz bas och 1455 MHz i turboläge, medan minnet fungerar på 850 MHz och erbjuder en bandbredd på 652, 8 GB / s. En CEO Edition-version har nyligen tillkännagivits som ökar minnet upp till 32 GB.

Det första grafikkortet som tillverkades av Nvidia med Volta-arkitekturen var Tesla V100, som är en del av Nvidia DGX-1-systemet. Tesla V100 använder GV100-kärnan som släpptes 21 juni 2017. Volta GV100 GPU är inbyggd i en 12nm FinFET- tillverkningsprocess med 32 GB HBM2-minne som kan leverera upp till 900 GB / s bandbredd.

Volta väcker också den senaste Nvidia Tegra SoC, kallad Xavier, som tillkännagavs den 28 september 2016. Xavier innehåller 7 miljarder transistorer och 8 anpassade ARMv8-kärnor, tillsammans med en Volta GPU med 512 CUDA-kärnor och en TPU av öppen källkod (Tensor Processing Unit) som kallas DLA (Deep Learning Accelerator). Xavier kan koda och avkoda video i 8K Ultra HD-upplösning (7680 × 4320 pixlar) i realtid, allt med en TDP på ​​20-30 watt och en formstorlek uppskattad till cirka 300 mm2 tack vare 12 tillverkningsprocessen. nm FinFET.

Volta- arkitekturen kännetecknas av att den är den första som inkluderade Tensor Core, kärnor som är speciellt utformade för att erbjuda mycket överlägsen prestanda i djupa inlärningsuppgifter jämfört med vanliga CUDA-kärnor. En Tensor Core är en enhet som multiplicerar två FP16 4 × 4-matriser och sedan lägger till en tredje FP16- eller FP32-matris till resultatet med användning av sammanslagna adderings- och multiplikationsoperationer och erhåller ett FP32-resultat som eventuellt kan nedgraderas till ett FP16-resultat. Tensorkärnor är avsedda att påskynda neuralt nätverksträning.

Volta sticker också ut för att inkludera det avancerade proprietära NVLink-gränssnittet, som är ett trådbaserat kommunikationsprotokoll för kortdistans halvledarkommunikation utvecklad av Nvidia, som kan användas för datakodöverföring och styrning i processorsystem baserade på CPU och GPU och de som endast baseras på GPU. NVLink anger en punkt-till-punkt-anslutning med datahastigheter på 20 och 25 Gb / s per datafält och per adress i dess första och andra versioner. De totala datahastigheterna i verkliga system är 160 och 300 GB / s för den totala summan av in- och utgångsdataströmmar. NVLink-produkter introducerade hittills fokuserar på det högpresterande applikationsutrymmet. NVLINK tillkännagavs först i mars 2014 och använder en proprietär höghastighetssignalförbindelse som utvecklats och utvecklats av Nvidia.

Följande tabell sammanfattar de viktigaste funktionerna i Volta-baserade kort:

NVIDIA VOLTA GRAFIKKORT

CUDA Kärnor Core Tensor Frekvenser (MHz) minne Minnesgränssnitt Minne bandbredd (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 bit 900 250

Nvidias framtid går genom Turing och Ampere

De två framtida Nvidia-arkitekturerna kommer att vara Turing och Ampere enligt alla rykten som har framträtt hittills, det är möjligt att när du läser detta inlägg har en av dem redan officiellt tillkännagivits. För närvarande är inget känt med säkerhet om dessa två arkitekturer, även om det sägs att Turing skulle vara en förenklad version av Volta för spelmarknaden, och förväntas i själva verket komma med samma tillverkningsprocess vid 12 nm.

Ampere låter som Turings efterföljarearkitektur, även om det också kan vara Volta efterföljare till den konstgjorda intelligenssektorn. Absolut ingenting är känt om detta, även om det verkar logiskt att förvänta sig att det kommer fram till 7 nm. Rykten tyder på att Nvidia kommer att tillkännage sina nya GeForce-kort på Gamecom nästa månad i augusti, först då lämnar vi tvivel om vad Turing eller Ampere kommer att bli, om de verkligen kommer till.

NVIDIA G-Sync, avslutar problem med synkronisering av bilder

G-Sync är en egenutvecklad adaptiv synk-teknik utvecklad av Nvidia, vars huvudmål är att eliminera skärmavrivning och behovet av alternativ i form av programvara som Vsync. G-Sync eliminerar rivning av skärmen genom att tvinga den att anpassa sig till frameraten på utgångsenheten, grafikkortet, snarare än att utgångsenheten anpassar sig till skärmen, vilket resulterar i bildrivning skärmen.

För att en bildskärm ska vara G-Sync-kompatibel måste den innehålla en hårdvarumodul som säljs av Nvidia. AMD (Advanced Micro Devices) har släppt en liknande teknik för skärmar, kallad FreeSync, som har samma funktion som G-Sync men inte kräver någon specifik hårdvara.

Nvidia skapade en speciell funktion för att undvika möjligheten att en ny ram är klar när man ritade ett duplikat på skärmen, något som kan generera fördröjning och / eller stam, modulen förutser uppdateringen och väntar på att nästa ram ska slutföras. Pixelöverbelastning blir också vilseledande i ett icke-fast uppdateringsscenario, och lösningarna förutsäger när nästa uppdatering kommer att äga rum, därför måste överdrivvärde implementeras och justeras för varje panel för att undvika spökeffekt.

Modulen är baserad på en Altera Arria V GX-familj FPGA med 156K logiska element, 396 DSP-block och 67 LVDS-kanaler. Den produceras i TSMC 28LP-processen och kombineras med tre chips för totalt 768 MB DDR3L DRAM för att uppnå en viss bandbredd. Den använda FPGA har också ett LVDS-gränssnitt för att kontrollera bildskärmspanelen. Denna modul är avsedd att ersätta vanliga klättrare och enkelt integreras av monitortillverkare, som bara behöver ta hand om strömförsörjningskortet och ingångsanslutningar.

G-Sync har ställts inför en del kritik på grund av sin egenutvecklade karaktär, och det faktum att det fortfarande marknadsförs när det finns fria alternativ, till exempel VESA Adaptive-Sync-standarden, som är en valfri funktion i DisplayPort 1.2a. Medan AMDs FreeSync är baserad på DisplayPort 1.2a, kräver G-Sync en Nvidia-tillverkad modul istället för den vanliga skärmbilden för att Nvidia GeForce-grafikkort ska fungera ordentligt och vara kompatibla med Kepler, Maxwell, Pascal och mikroarkitekturer. Volta.

Nästa steg har tagits med G-Sync HDR-teknik, som, som namnet antyder, lägger till HDR-kapacitet för att förbättra bildskvaliteten på bildskärmen kraftigt. För att möjliggöra detta har ett betydande språng i hårdvara behövts göras. Denna nya version G-Sync HDR använder en Intel Altera Arria 10 GX 480 FPGA, en mycket avancerad och mycket programmerbar processor som kan kodas för ett brett spektrum av applikationer, som åtföljs av 3 GB 2400 MHz DDR4-minne tillverkat av Micron. Detta gör priset på dessa skärmar dyrare.

Här slutar vårt inlägg om allt du behöver veta om Nvidia. Kom ihåg att du kan dela det på sociala nätverk så att det når fler användare. Du kan också lämna en kommentar om du har något förslag eller något att lägga till.

Android

Redaktörens val

Back to top button