Nvidia g

Innehållsförteckning:
- Allt om Nvidia G-Sync HDR-teknik
- Svårigheterna med att implementera G-Sync HDR och dess höga kostnader
- Nvidia G-Sync HDR förbättrar spelupplevelsen
4K-, G-Sync- och HDR-teknologier har revolutionerat sättet vi spelar med våra datorer, även om vi användare har haft ett tagg fast i en god tid, eftersom det inte var möjligt att hitta en bildskärm som kombinerade alla dessa tekniker i en enda produkt. Något som äntligen har förändrats tack vare G-Sync HDR- och Nvidia-tekniken, detta är den senaste tekniken för bildskärmar från grafikkortsjätten, vilket sätter spelupplevelsen på den nivå vi alltid har drömt om.
Innehållsindex
Allt om Nvidia G-Sync HDR-teknik
Fram till G-Sync HDRs ankomst måste användarna möta ett tufft beslut när de köpte en ny bildskärm för att spela, eftersom det inte var möjligt att få tag på en enhet som hade en högkvalitativ panel med 4K-upplösning och stor fluiditet. spel tillhandahålls av G-Sync. G-Sync HDR föddes för att avsluta detta problem, eftersom vi för första gången kan skaffa en skärm med en 4K-panel av bästa kvalitet, stöd för HDR och med G-Sync-teknik.
Nvidia G-Sync föddes med syftet att lösa ett av de stora problemen med PC-spel, oförmågan hos grafikkort att upprätthålla ett antal bilder per sekund, vilket sammanfaller med skärmens uppdateringsfrekvens. Det här problemet gör att grafikkortet och bildskärmen inte kan synkroniseras, vilket resulterar i bildfel som kallas Stutter (mikro stammar) och rivning (skärning av bilden).
Vi rekommenderar att du läser vårt inlägg om hur man väljer en gamermonitor?
G-Sync är en teknik som ansvarar för att anpassa skärmens uppdateringsfrekvens till antalet bilder per sekund som grafikkortet skickar den, vilket ger perfekt synkronisering. Detta resulterar i en väldigt smidig spelupplevelse, utan stam eller bildskärningar. Nästa steg var att lägga till HDR för att få den ultimata upplevelsen.
Svårigheterna med att implementera G-Sync HDR och dess höga kostnader
Det var inte lätt att skapa denna G-Sync HDR-teknik, för att göra det möjligt var det nödvändigt att ta till Intel och en av dess FPGA. Speciellt används en Intel Altera Arria 10 GX 480, en mycket avancerad och mycket programmerbar processor som kan kodas för ett brett spektrum av applikationer. Detta Intel Altera Arria 10 GX 480 åtföljs av 3 GB DDR4 2400MHz-minne tillverkat av Micron, en komponent som för närvarande är mycket dyr. Allt detta innebär att implementeringen av G-Sync HDR inte är billig alls, eftersom det beräknas att det lägger till en extra kostnad på $ 500 till samma bildskärm, men utan denna teknik.
En annan svårighet att implementera G-Sync HDR är relaterad till bandbreddbegränsningen i DisplayPort 1.4 och HDMI 2.0b-specifikationerna. En 4K 144 Hz-bild med HDR och G-Sync genererar en volym av information som överskrider kapaciteten för dessa standarder, och de är de mest avancerade som finns. För att lösa detta var det nödvändigt att minska Chroma-underprovningen från 4: 4: 4 till 4: 2: 2. Detta innebär en liten förlust av färgtroskap, även om tillverkarna försäkrar att den är minimal och fördelarna överväger långt denna lilla nackdel. Om vi inte vill drabbas av denna förlust av Chroma-subprovtagning måste vi nöja oss med en uppdateringshastighet på 120 Hz.
Nvidia G-Sync HDR förbättrar spelupplevelsen
Nvidia har arbetat hårt med huvudmonitortillverkarna för att optimera denna teknik maximalt, med detta kommer vi att garantera att den bildkvalitet som erbjuds oss är den maximala möjliga med nuvarande teknik. Denna förlust av Chroma-subprovtagning elimineras när vi har de nya specifikationerna HDMI 2.1 och DisplayPort 5 tillgängliga.
Vi rekommenderar att du läser vårt inlägg om Asus ROG Swift PG27UQ Review på spanska (full analys)
En annan stor nackdel är kraften som krävs för att flytta de ledande spelen till 4K och 144 Hz, det finns helt enkelt inget grafikkort som kan göra det. Detta skapar en situation där det är nödvändigt att ta till sig SLI-konfigurationer, det vill säga att sätta ihop flera kort på samma dator. SLI-konfigurationer är dyra, särskilt om vi förlitar oss på de kraftfullaste grafikkorten som Nvidia GeForce GTX 1080 Ti, vars pris är nästan 800 euro. Det andra problemet med att sätta ihop två kort är den stora mängden värme som genereras, vilket gör det nödvändigt att ha ett stort kylsystem i datorn. Vi har redan en uppfattning om hur dyrt det blir att använda G-Sync HDR.
Den andra stora svårigheten har varit att implementera HDR på dessa bildskärmar, vanligtvis maximalt 32 tum. Här talar vi om en riktig HDR-upplevelse, som kräver en ljusstyrka på minst 1000 nits, för vilken det har varit nödvändigt att installera 384 belysningszoner på monitorn, vilket ger en exceptionellt hög ANSI-kontrast. Att implementera så många belysningszoner på en 32-tums skärm är inte lätt när du vill uppnå bästa möjliga resultat.
Här slutar vårt inlägg på G-Sync HDR: Vad det är och vad det är för. Om du har några frågor kan du lämna en kommentar nedan eller om du behöver känna till åsikten och erfarenheten av ett mycket bra hårdvarusamhälle, kan du registrera dig gratis i vårt specialiserade hårdvaruforum. Vi vill veta din åsikt!
Nvidia jetson tx1, nvidia går med i artificiell intelligens

Nvidia går med i den artificiella intelligenssektorn och presenterar sitt Nvidia Jetson TX1-kort med stora möjligheter inom robotik
▷ Nvidia gtx vs nvidia quadro vs nvidia rtx

Du vet inte vilket grafikkort du ska välja. Med jämförelsen Nvidia GTX vs Nvidia Quadro vs Nvidia RTX ✅ kommer du att ha detaljer, egenskaper och användningsområden
Nvidia rtx 2060 vs nvidia gtx 1060 vs nvidia gtx 1070 vs gtx 1080

Vi gjorde den första jämförelsen av Nvidia RTX 2060 vs Nvidia GTX 1060 vs Nvidia GTX 1070 vs GTX 1080, prestanda, pris och funktioner