Grafikkort

Ati-teknologier inc: historia, modeller och utveckling

Innehållsförteckning:

Anonim

ATI Technologies var ett viktigt företag i grafikkortens historia. Inuti berättar vi dig hela dess historia. Vill du veta det?

Persondatorns historia markeras av företag som ATI Technologies eftersom de lyckades utveckla vad som tidigare var datorer. I det här fallet ägnades ATI åt att tillverka grafikkort och världen av 3D-grafik i ett sammanhang markerat av andra tillverkare som 3dfxactive eller Nvidia. Senare slutade det att absorberas av AMD och dess namn skulle bli AMD Radeon 2010.

Därefter har du till ditt förfogande historien om en av de bästa grafikkortstillverkarna i historien: ATI Technologies.

Innehållsindex

1985, året för grundandet

ATI grundas av Lee Ka Lau, Kwok Yuen Ho, Francis Lau och Benny Lau i Kanada. Sedan skulle det kallas Array Technology Inc och det skulle vara en "enkel" tillverkare av utrustning, särskilt integrerade grafikkort. I detta avseende arbetade IBM och Commodore också med samma sak; faktiskt var IBM en av de mest kraftfulla tillverkarna i världen.

I oktober samma år använde ATI ASIC- teknik för att utveckla sin första grafikstyrenhet, som skulle vara den första integrerade grafiken.

Det hela började med " Small Wonder ".

1987, EGA Wonder

När du läser kommer du att se att grafikkorten kommer att markeras av skärmarnas teknik. Dessutom kan man säga att utvecklingen av grafikkort och bildskärmar går hand i hand.

Just nu släpper ATI sitt första grafikkort: EGA Wonder. Det kallades på detta sätt eftersom bildskärmar från slutet av 1980 - talet införlivade EGA- grafik. Detta kort fungerade med alla grafiska gränssnitt, operativsystem eller monitor.

Denna tillverkare var intresserad av persondatorer, så han försökte ge snabbare grafik till dem.

1988, VGA Wonder

På ATI undrade de fortfarande hur grafikkortens värld skulle se ut, men den här gången med VGA Wonder. Den hade två versioner: en med 256 kB DRAM och den andra med 512 kB DRAM. Den här grafiken var ett 16-bitars ISA-kort som kördes i ett 8-bitars ISA-kortplats.

Det hade ett chip som heter ATI 18800 och det stödde SVGA- grafikläge. Dessutom synkroniseras den automatiskt med monitorn.

Detta företag började visa sitt huvud i en knepig sektor med mycket konkurrens. Jag visste emellertid inte att kriget för 3D- grafik hotade på 90-talet.

1990 ATI Mach 8

Denna grafik som släpptes på 90-talet var början på 2D-grafikacceleratorer på persondatorer. Mach8 var som en expansion av Wonder och de bar ett klonat chipIBM 8514 / A med utvidgningar. Detta var en av de första 2D-grafikaccelerationschips på marknaden.

Emellertid krävdes ytterligare ett VGA- tilläggskort för att använda Mach8. Detta skulle göra priset för att njuta av 2D-grafik mycket dyrt eftersom du var tvungen att köpa ett VGA-kort och Mach8. Denna ATI ansluten till ISA- eller MCA- porten, reproducerade 8-bitars färger och hade två versioner:

  • 512 kB . 1 MB.

Mach8-chipet skulle användas i senare modeller och skulle vara en grafik som kunde bearbeta grafik utan CPU.

1992 Mach32

Med Mach32 började saker och ting bli allvarliga eftersom vi började se mer än anständiga kort på marknaden. Då fanns det MS-DOS, så Mach32 införlivade en 32-bitars GUI- accelerator för detta operativsystem. Dessutom var minnesgränssnittet 64-bitars och vi hade två modeller: en 1 MB och den andra 2 MB.

Mach32 integrerade en VGA-processor så att det var tillräckligt för sig själv att fungera. Som senaste data använde jag fortfarande ISA och MCA, men också PCI… en plats som skulle vara mycket känd på 90-talet. Dessutom var den kompatibel med nya färglägen: 15 bbp, 16 bbp och 24 bbp, som med IBM 8514 chip / A.

1993 skulle ATI Technologies Inc. noteras på börserna Toronto och NASDAQ. Som nyfikenhet skulle dess handelssymbol inte vara ATI, utan ATY.

1994 Mach 64

I år lanserade ATI ett av de senaste grafikkorten i "Mach" -familjen. Vi började komma in i ingressen till 3D-grafik. Samtidigt gör ATI sin egen sak:

  • 64-bitars GUI- accelerator. 1 MB upp till 8 MB videominne DRAM, VRAM eller SGRAM, ett minne för grafikadaptrar som hade ytterligare funktioner. 64-bitars minnegränssnitt. ISA-, VLB- och PCI- portar.

Mach64-chipet var helt nytt och var ett av de första grafikkorten som påskyndade video under resan. Detta chip skulle vara huvudpersonen i 3DRage, som vi kommer att se senare.

Samma år lanserar ATI flerspråkiga programvara kompatibla med 13 olika språk. Den här grafiken skulle ge liv till Graphics Xpression eller Graphics Pro Turbo.

1996, 3D Rage I, II

3D-grafik kom till persondatorer från 3dfx Interactive, nVidia och ATI. Specifikt kombinerade 3D Rage 3D- acceleration, videoacceleration och 2D-acceleration. Förutom att den var efterföljaren till Mach-serien, använde den samma chip som Mach 64.

3D Rage släpptes i april 1996 och skulle använda 3D Xpression, eftersom det skulle vara kompatibelt med MPEG-1. Det var det första 3D-chipet i grafikkortens historia, vilket innebar mer än 1 miljon sålda chips.

Men detta hade bara börjat.

Rage II

3D Rage 2 böjde nästan sin föregångare när det gäller 3D-grafik. Den inkluderade ett mach64-chip omstrukturerat för bättre 2D-prestanda. Det är faktiskt kompatibelt med sin äldre syster, Rage 1.

Denna graf förbättrade den föregående generationen i nästan allt:

  • PCI- kompatibel. 20% ökning av 2D- prestanda. MPEG-2- drivrutiner stöd för Direct3D, Criterion RenderWare, Reality Lab och QuickDraw, bland andra. Stöd för professionella lösningar, såsom AutoCAD. Kompatibel med Windows 95, Mac OS, Windows NT, OS / 2 och Linux. Support DirectX 5.0.

Dessutom gick dess kärna vid 60 MHz, dess SGRAM- minne upp till 83 MHz och hade en bandbredd480 MB / s. Det var en utmärkt produkt, när den finns i många personliga datorer, till exempel Macintosh G3.

1997 Rage Pro och kriget började

Vi säger att kriget serveras eftersom vi befinner oss i ett mycket konkurrenskraftigt 1997 när det gäller 3D-grafik med den nya nVidia RIVA 128 och Voodoo från 3dfx. Rage Pro var lösningen mot dessa två, men ATI gjorde flera misstag: de överträffade inte sina rivaler och inte heller stödde OpenGL.

Vid den tiden var OpenGL viktigt för att njuta av de bästa videospel. ATI försöker igen med Rage Pro Turbo, men misslyckas igen mot sina rivaler eftersom dess prestanda inte är som annonseras och Turbo inte förbättrades mycket på Pro.

Därför hittar vi en ATI som en stark tillverkare av grafikkort för att ha slutna kontrakt med företag som Apple för integration av grafikMac. Dessutom arbetar han för att ta med grafikchips till tv. Inte att glömma att det introducerar det första 3D-chipet för bärbara datorer, som skulle ha namnet Rage LT.

Konkurrensen om 3D-grafik skulle dock vara tuffare än tidigare trott, för trots att Rage hade en Direct3D 6- gaspedal med DVD- acceleration verkade de inte fly mot sina rivaler.

1999 Rage 128 och Rage 128 PRO

Rage 128 var kompatibel med Direct3D 6 och OpenGL 1.2. Det förde nyheten med IDCT, ATI: s första dubbla texturer. Vi fick också känna till deras processor som kunde reproducera 32-bitarsfärger, som 16-bitars, även om det är oförklarligt värre i det här läget.

Detta grafikkort var avsett att tävla mot RIVA TNT och Voodoo 3, ett dekadent kort. Å andra sidan kom Matrox i vägen med sina G200 och G400. Slutligen kunde den tävla mot dem och det gjorde riktigt bra eftersom Voodoo 3 inte stödde 32-bitars.

För att avsluta beskrivningen inkluderade den 250 MHz RAMDAC- och 2 AGP- portar.

Rage 128 PRO

Lanserade i augusti 1999 och integrerade 250nm chips och stödde DirectX 6.0. Det var efterträdaren till Rage 128 och dess chip hade förbättringar relaterade till DirectX- komprimering, bättre texturfiltrering, DVI- stöd och fler AGP- portar. Denna grafik framkom för att konkurrera mot Voodoo 3 2000, TNT2 och Matrox 6400.

Sanningen är att det inte var en produkt som kunde konkurrera från dig till dig med de nämnda modellerna eftersom klockan var långsammare. Visst nog lyckades ATI bryta alla riktmärken, men när det kom till det besviken dess videospelprestanda.

Nästa serie skulle kallas Rage 6, men den skulle ändra namn till Radeon, ett av de mest ihågkommen namnen på grafikkort.

2000, ATI Radeon DDR

Från Rage skulle vi åka till Radeon, en linje som skulle ge mycket att prata om under hela 2000- talet. Denna nya serie skulle anlända i april 2000, då Radeon DDR skulle presenteras. Inför fortsatta misslyckanden mot nVidia ville ATI inte misslyckas, så det tog DDR väldigt allvarligt.

För att klargöra sammanhanget var vi i eraen Pentium 4 och AMD Athlon, så det fanns en del 3D-grafik markerade av spel som Quake.

Introducerade den här serien, låt oss gå vidare för att komma in i DDR. Det byggdes på 180nm chips tillverkade av TSMC. Det stödde DirectX 7.0 och förde nyheterna om 2 pixel-skuggare och 1 toppskärm tillsammans med 6 TMU och 2 ROP. Det var också kompatibelt med OpenGL 1.3. Slutligen skulle det ge HyperX- teknik och integrera det första chipet i serien: R100.

Vi hade två modeller: 32MB och 64MB. Den sista har en snabbare klocka (183 MHz) och med LIVE- kapacitet. Dess viktigaste rival var nVidias GeForce- serie, men ATI gjorde inte världen galet med sina Radeons, även om det var en produkt som fungerade mycket bra.

2001 Radeon 8500

2001 tog ATI vägen mot kvalitets - prisförhållandet, eftersom det inte lyckades sätta nVidia. Inom detta område var det svårt att slå ATI eftersom det gjorde ett bra affärsrörelse.

ATI Radeon 8500 släpptes den 14 augusti 2001. Den använde 150nm chips och var fokuserad för de flesta spelare . Inom denna serie skulle vi ha tre kort:

  • 8500, de avancerade. De inkluderade 4x, 64 MB eller 128 MB AGP, 250MHz och ett 8 GB / s bredband. 8500LE, de mellanklassiga. De levererades med 4x, 64 mb eller 128 mb AGP, 275 MHz och ett 8, 8 GB / s 8500XT bredband, det entusiastiska sortimentet. Den startade inte utan skulle bära 4x, 128 MB, 300 MHz AGP och ett bredband på 9, 6 GB / s

XT avbröts eftersom bara 300 MHz skulle ha krossats av GeForce 4 Ti4600. Så ATI fokuserade på mellanområdet och den nedre änden.

2002 Radeon 9000

Samma år släppte ATI 8500 All-In-Wonder, vilket var en framgång för att den hade en analog TV-mottagare och FM-radio. Inom multimediasektorn förstörde den utan komplex.

Radeon 9000 ingår i 3D-grafik och tillhör R300- serien och lanserades i augusti 2002. Det är en GPU som gav Direct3D 9.0 och OpenGL 2.0-stöd. Det var också kompatibelt med Windows 98, 98SE, Me, 2000 och XP.

Den hade 64 MB eller 128 MB DDR, 200 MHz kärna och 500 MHz minne. Slutligen var bandbredden 8 GB / s. Det var en något lätt grafik, eftersom den hade lägre specifikationer än 8500.

2003 Radeon 9600 Pro

Det blir allvarligt när Radeon 9600 Pro släpptes den 1 oktober 2003. Med 130nm chips och 128 MB minne kunde den leverera en bandbredd9, 6 GB / s. Det stödde OpenGL 2.0 och DirectX 9.0. Det hade DVI-, VGA- och S- videoutgångar. Det monterade RV360- chipet.

Det är sant att 9600 Pro hade uppdraget att ersätta 9500 Pro, men det gjorde det inte, även om det var mycket billigare. Vi fick in en 600 MHz- klocka med fokus på en mellanklass som gav spektakulära prestanda.

Den enda nackdelen var att den inte stödde Shader Model 3.0. Å andra sidan måste vi lyfta fram det framsteg som Mobility Radeon 9600 representerade i grafik för bärbara datorer.

9800XT

ATI förvånade dock med 9800XT på samma år, ett kort som var skrämmande. Det var en grafik som hade 256 MB minne, en bandbredd på 23, 36 GB / s och en GPU- klocka412 MHz, som en minnesklocka på 365 MHz, kapabel till 730 MHz.

ATI återvände till ringen och tävlade från dig till dig med Nvidia. Naturligtvis till ett mycket högt pris.

2004 Radeon X700

Den nya Radeon R420- serien skulle vara markerad med X700- och X800- grafiken. X700 hade inte en bra post eftersom den inte var kompatibel med Shader Pixel 3.0, trots att det hade ett mycket överkomligt pris. GeForce 6600 och 6800 tog katten i vattnet. PCI - Express började användas.

ATI fortsatte att släppa hög-, medel- och lågmodeller. I det här fallet X700 SE, X700 LE, X700, X700 Pro och den som aldrig kom ut: X700XT. Denna serie slutade inte, så vi måste vänta ytterligare ett år.

VI rekommenderar AMD sänker priset på sina grafikkort

I år såg vi Nvidia SLI- plattformen (lämplig från 3dfx), men ATI svarade med Crossfire, som var en mycket liknande plattform som kombinerade kraften i sin x2, x3 eller x4 grafik, beroende på grafiken som var installerad.

2005 Radeon X850 XT

Nvidia släppte FX 5800 Ultra, så ATI tävlade mot den med sin nya modell: X850 XT.

Den här grafen var riktigt snabb, men situationen med Shader Model 3.0 förvärrades eftersom det fanns många spel som inte fungerade på AMD-utrustning. Så vi hade en spektakulär grafik, men det berodde på en användare av användare att "hacka" spelet i fråga och kunna spela det.

X850 XT hade 256 MB GDDR3, en bandbredd på 34, 56 GB / s, en 520 MHz klocka och minne som kunde nå 1080 MHz. Dess stora nackdel: Shader Model 2.0b.

Det måste sägas att ATI besegrade Nvidia i andra intervall, som hände med GeForce 6800 GT.

2005 startade ATI igen med X1300 Pro. Trots sin kompatibilitet med Shader Model 3.0… besegrades den ännu en gång av Nvidia.

2006 X1650 Pro

Vi är i R520- serien som utvecklades av ATI och producerade TSMC. All denna serie skulle ha Direct3D 9.0c, Shader Model 3.0 och OpenGL 2.0. Detta skulle inte räcka, även om det kan tävla mot Nvidia.

X1650 Pro använde en RV535- kärna, vilket gjorde den svalare och effektivare. Vi var på DDR2, 256 MB, 800 MHz frekvens och en bandbredd12, 8 GB / s. Den tävlade bra i mellanklassen, men inget mer.

X1950 XTX, ett slag på bordet

Bara namnet var skrämmande, och det var inte mindre för att X1950XTX besegrade Geforce 7 och kastade kungariket till Nvidia. Det var väldigt dyrt, en spis, men väldigt snabbt. Det presenterades den 23 augusti 2006.

Det stödde GDDR4- minne, arbetade vid 1 GHz och gav 64 GB / s bandbredd. Inte bara det, den hade en Core 650 MHz GPU och 512 MB videominne.

2007 HD 2900 XT

Vi bytte till R600-serien, som släpptes 28 juni 2007. Det var HD 2000-grafikkort som skulle tävla med GeForce 8. Som en framstående modell var HD 2900 XT extrem även i sin design av silverflammor i sitt röda hölje.

Dess prestanda var brutalt, men det förbättrades ytterligare med drivrutinsuppdateringen. Den inkluderade en fläkt som gjorde mer buller än kriget och som var otillräcklig för att hålla grafiken fräsch. Även om det ryktes att det skulle innehålla 1 GB minne, var de äntligen 512 Mb.

HD 3850

ATI var tvungen att fokusera på andra nischer eftersom den nya GeForce lämnade kontrollen. På detta sätt framkom HD 3850, grafikkort som fungerade mycket bra och blev populära för sin prestanda i medelhöga intervall.

2008, återkomsten till tronen

Nvidia dominerade avancerad grafik och ATI verkade Rocky Balboa yr, vilket gav exakta hukningar under de sista omgångarna. De båda markerna prickade nådelöst.

HD 3870 X2

Du behöver aldrig ge upp. ATI kämpade var 8: e månad för att få ut något som kan tävla med Nvidia. Den här gången satte de mycket brute kraft, eftersom det var två grafikkort i 1.

Inte överraskande att kraven var brutala och du måste redovisa strömförsörjningen (och elräkningen). Hur som helst, den här grafen återföll tronen tack vare dess fantastiska prestanda.

HD 4670

ATI visste att dess största tillgång var mellanklassen eftersom den kunde sälja mycket bra grafikkort till ett måttligt pris. Vi var i en era där HD regerade och 720p ockuperade alla datorer. Denna 512 MB GDDR3- grafik fungerade mycket bra och var kompatibel med DirectX 10.1, OpenGL 3.3 och Shader Model 4.1.

Den minigrafiken var perfekt för multimediautrustning eller små datorer (HTPC) Tänkte ATI!

HD 4870, den mest populära av alla

Det blev snabbt populärt eftersom det var det bästa värdet för pengarna grafikkort på marknaden. Han kastade Nvidia igen med en rund grafik på alla sätt. Det mest lockade var dess billiga pris, 299 $. Den släpptes den 25 juni 2008.

Dess specifikationer var magnifika:

  • PCIe 2.0. 1 GB eller 512 MB GDDR5. GPU-klocka: 750 MHz. Minneklocka: 3600 MHz vid maximal prestanda. Det krävde 350 W av strömförsörjningen.

ATI släppte en X2-version för den mest krävande. Det verkar dock som om förarna kunde ha utnyttjat sin prestanda bättre.

2009, HD 4890, HD 5770 och HD 5970

HD 5770

Vi befinner oss i ATIs sista år som ett oberoende grafikkortsföretag. Praktiskt taget ingen visste detta, men det har inte varit en brutal förändring idag.

Från och med HD 4890 var det en omväxling av HD 4870 och hade inte den framgång som ATI förväntade sig av det. Den hade goda specifikationer och bra prestanda i Full HD, men ingenting var längre från verkligheten: Nvidia dominerade återigen starkt med sin GTX.

Av denna anledning skulle samma år HD 5770 presenteras, ett mellanklasskort som erövrade många hem. Dess huvudsakliga skäl:

  • Låg konsumtion Mycket ekonomisk Mycket bra prestanda

Detta företag hade förflyttats till det nedre mellersta sortimentet, så ingen förväntade sig en ny hit vid bordet, som de gjorde med HD 4870 eller X1950XTX. Under detta år var AMD redan närvarande i företaget, så förvärvet var en öppen hemlighet.

2009 skulle avslutas för ATI med två senaste utgåvor: HD 5780 och HD 5970. Det var grafikkort som låg i det höga intervallet för pris, men inte för prestanda. Missförstå mig inte, prestandan var bra, men den matchade inte det bästa av Nvidia, vars modeller var värda mycket mer pengar.

HD 5970 var en X2-grafik, som de vi var vana att se. ATI återvände för att svara på Nvidia med detta fantastiska grafikkort, men konsumtionen distanserade varje köpare.

2010, slutet av ATI

Slutet på ATI skulle komma hand i hand med sin senaste utgåva: HD 5670. Denna grafik öppnade en ny möjlighet för mellanklassen på marknaden eftersom den gav mycket bra specifikationer till ett konkurrenskraftigt pris. Trots köpet av AMD 2006 försvann ATI- varumärket 2010. Den första AMD- grafiken skulle vara HD 6850, en ganska bra och kontinuerlig grafik.

Så slutar de sorgliga berättelserna. ATI hade mycket goda tider på 90-talet, men 2000-talet var uppåt. Nvidia-saken hade mycket meriter eftersom den inte behövde ta monströs grafik som ATI för att få bästa prestanda inom videospel. Dess FoU var bättre än ATI: s utan debatt.

Vi rekommenderar att du läser de bästa grafikkorten

Vad tyckte du om ATI: s historia? Dela dina intryck!

Grafikkort

Redaktörens val

Back to top button