Handledningar

Intel pentium 4: historia, vad jag menar på datorn och dess inflytande

Innehållsförteckning:

Anonim

Intel Pentium 4 var en radikal förändring i PC-världen och är att i slutet av ett helt decennium som lurar runt hörnet är detta ett idealiskt ögonblick inom en portal som Professional Review för att ta reda på vad som har lett oss dit vi träffas idag.

Fordonet för denna resa kommer att vara hoppet från Netburst till Nehalem på Intel-processorer; eller vad är detsamma, avsked från Pentium 4-processorerna, som går igenom Core 2 (och Core 2 Quad) före den nuvarande Intel Core. En resa på mer än två decennier och vars grund vi kanske inte ser snart. Inte överraskande sägs berättelsen vara en oöverträffad start igen.

Innehållsindex

Intel Pentium 4: The Decade of a Decade

Lanseringen av Conroe (2007) var en riktig milstolpe för Intel. Det var avsked på skrivbordet från Netburst (mikroarkitektur), som fram till nu hade formulerat den mytiska Pentium 4; liksom återkomsten (på ett sätt) till P6-mikroarkitekturen, på vilken den första Intel Core skulle baseras. Även om hoppet inträffade tidigare genom Pentium M på bärbara datorer.

Övergången av Netburst förde med sig övergivandet av dess höga frekvenser, liksom teknologierna som utvecklats för det (som Hyper-Threading ) på kort sikt; men detta var inte ett godtyckligt beslut.

Pentium 4. Bild: Flickr, JiahuiH

Fördelarna med Pentium 4 drunknades genom dess allvarliga temperatur- och skalbarhetsproblem, vilket gjorde Netburst-mikroarkitekturen omöjlig för bärbara datorer och servrar, två marknader lika kraftfulla vid den tiden som idag.

Intel Pentium 4 med Netburst och datasegmentering

Dessa problem som Netburst presenterade härstammade främst från den enorma datapipeline som mikroarkitekturen fungerade genom och från problemen med förutsägelse av instruktioner.

Grovt sagt är instruktionssegmentering ( datapipeline på engelska) en metod för att sönderdela exekveringen av en processorinstruktion i steg och därmed öka hastigheten. Utan denna segmentering skulle vi behöva vänta på att avsluta en instruktion innan vi startar nästa, en mycket långsam process. Med denna segmentering kan vi börja varje steg när det slutar.

Netburst hade en instruktionspipeline på mer än 20 segment (31 i senare recensioner) som ständigt höll processorn upptagen och gav upphov till de höga frekvenserna som gjorde Pentium 4 berömd.

Tyvärr var en så lång rad mycket skadlig för den redan nämnda instruktionsprognosen, eftersom om denna förutsägelse misslyckades var antalet steg som processorn måste göra om stort. Dessutom medförde ett sådant temperaturproblem ineffektivt att hålla så höga frekvenser ineffektivt. Intel stötte på en fysisk vägg som inte kunde hoppa med denna arkitektur.

Kärnarkitektur genom Conroe

Det var som ett resultat av dessa problem att vi såg födelsen av Core- mikroarkitekturen. Intel tog ett steg tillbaka och tänkte om sin utvecklingsstrategi; De skulle inte längre söka efter högsta möjliga frekvenser, men maximal effektivitet genom en liten och funktionell uppsättning.

De fann denna effektivitet genom att utveckla experimentet som utfördes med Pentium M-processorn, härledd från den redan nämnda P6-mikroarkitekturen, Netbursts föregångare.

DIE interiör i en Core 2 Duo.

Pentium M delar många likheter med vad som senare skulle bli Core, som instruktionsuppsättningen i 12 steg (ökad till 14) eller L2-minneslayouten (därefter ökad). Dessutom ökade antalet exekveringsenheter till fyra och introducerade ny teknik med fokus på dess skalbarhet, till exempel Micro-Core.

Intel släppte under Conroe 2007 Intel Core 2 Duo-processorerna och lyfte fram modellerna E6400, E6600 och X6800 i extremområdet; liksom olika iterationer av arkitekturen för olika ändamål, där Merom sticker ut för den bärbara marknaden och Kentsfield för sina fyrkärniga processorer, Core 2 Quad (markerar Q6600).

Nehalem: "tac" efter "tic"

2007 introducerade Intel den nyfikna "tic-tac" -modellen. Långsiktig planering (vanligtvis kallad färdplaner ) för utveckling och lansering av dina arkitekturer. I denna modell motsvarar "tic" förbättringen i tillverkningsprocessen (reduktion av DIE), medan "tac" tillskrivs förändringar i arkitekturen.

Tacet efter Conroes lansering var Nehalem, arkitekturen som skulle leva upp de första moderna Intel Core-processorerna till liv, samt välkomna i3, i5 och i7 märken.

Ett generationssprång i Intel-serien

Conroe levde flera revisioner under sina två levnadsår: Wolfdale, Yorkfield eller Woodcrest är några exempel, men den första generationens hopphopp inom Intel Core skulle vara Nehalem.

Denna arkitektur följde samma principer om effektivitet och skalbarhet som Intel sökte efter att flytta från Netburst, men den räddade några av de egenskaper som definierade denna mikroarkitektur.

Intel Pentium inuti Nehalem

Det inre av Nehalem. Bild: Appaloosa (Wikimedia Commons)

Med Nehalem skulle rörledningarna med mer än tjugo steg tillbaka, liksom tekniker som Hyper-Threading ; men förutsägelseproblemen försvann också tack vare användningen av en andra nivå-prediktor och förbättringen av andra relaterade tekniker, t.ex. slingdetektorn. Dessutom bibehölls några av de egenskaper som definierade Conroe genom att dra baserna i denna arkitektur med den.

För att undvika tidigare problem började Intel tillämpa en proportionsregel från själva arkitekturutvecklingen, alla funktioner i arkitekturen som ökar processorns konsumtion bör ha en dubbel inverkan på dess prestanda.

Dessutom var det en arkitektur som utvecklats med modularitet i åtanke. Kärnorna som utgör varje chip var oberoende och replikerbara, vilket gjorde det enkelt att skapa processorer med olika kärnkonfigurationer och utöka arkitekturen till den portabla marknaden eller servervärlden.

Vi rekommenderar att du läser följande guider och handledning:

Med Nehalem var Intel medveten om att inte falla i samma Netburst-problem. Ett mål som vi tror att han kunde uppnå.

RetailEdge-teckensnitt

Handledningar

Redaktörens val

Back to top button