▷ Intel xeon 【all information】

Innehållsförteckning:
Bland de stora katalogerna med Intel kan vi hitta Intel Xeon-processorer, som är de minst kända av användare för att de inte är inriktade på den inhemska sektorn. I denna artikel förklarar vi vad dessa processorer är och vad som är skillnaderna med de inhemska.
Innehållsindex
Vad är Intel Xeon?
Xeon är ett märke av x86-mikroprocessorer designade, tillverkade och marknadsförda av Intel med inriktning på arbetsstations-, server- och inbäddade systemmarknader. Intel Xeon-processorer introducerades i juni 1998. Xeon-processorer är baserade på samma arkitektur som vanliga stationära CPU: er, men har några avancerade funktioner som ECC-minnessupport, högre antal kärnor, stöd för stora mängder RAM., ökat cacheminne och mer tillhandahållande av företagskvalitetssäkerhet, tillgänglighet och servicefunktioner som ansvarar för att hantera hårdvaruundantag genom maskincheckarkitekturen. De kan ofta fortsätta körningen där en normal processor inte kan bero på deras ytterligare RAS-egenskaper, beroende på typ och svårighetsgrad för undantag från maskinverifiering. Vissa är också kompatibla med fleruttagssystem med 2, 4 eller 8 uttag med hjälp av Quick Path Interconnect-bussen.
Vi rekommenderar att du läser vårt inlägg om AMD Ryzen - De bästa processorerna tillverkade av AMD
Vissa brister som gör Xeon-processorer olämpliga för de flesta konsumentdatorer inkluderar lägre frekvenser för samma pris eftersom servrar kör fler uppgifter parallellt än stationära datorer, kärnantal är viktigare än frekvenser för titta, i allmänhet frånvaron av ett integrerat GPU-system, och brist på support för överklockning. Trots dessa nackdelar har Xeon-processorer alltid varit populära bland stationära användare, främst spelare och extrema användare, främst på grund av en högre kärnantalspotential och ett mer attraktivt pris / prestandaförhållande än Core i7 i termer av den totala datorkraften för alla kärnor. De flesta Intel Xeon-processorer saknar en integrerad GPU, vilket innebär att system byggda med dessa processorer kräver antingen ett diskret grafikkort eller en separat GPU om skärmutgång önskas.
Intel Xeon är en annan produktlinje än Intel Xeon Phi, som har samma namn. Den första generationen Xeon Phi är en helt annan typ av enhet som är mer jämförbar med ett grafikkort, eftersom den är designad för ett PCI Express-kortplats och är avsett att användas som en multikärnig samarbetare, till exempel Nvidia Tesla. I den andra generationen blev Xeon Phi en huvudprocessor mer lik Xeon. Den passar i samma uttag som en Xeon-processor och är kompatibel med x86; jämfört med Xeon betonar dock Xeon Phis designpunkt fler kärnor med högre bandbredd för minnet.
Vad är Intel Xeon Scalable?
Stora förändringar pågår i företagets datacenter. Många organisationer genomgår en omfattande omvandling baserad på onlinedata och -tjänster, och utnyttjar dessa data för kraftfulla Artificial Intelligence- och analysapplikationer som kan förvandla det till idéer som förändrar verksamheten och sedan implementera verktyg och tjänster som får dessa idéer att fungera.. Detta kräver en ny typ av server- och nätverksinfrastruktur, optimerad för artificiell intelligens, analys, massiva datamängder med mera, drivs av en revolutionerande ny CPU. Det är där Intels Xeon Scalable- linje kommer in.
Intel Xeon Scalable representerar kanske den största stegförändringen på tjugo år med Xeon CPU. Det är inte bara en snabbare Xeon eller Xeon med fler kärnor, utan en familj av processorer utformade kring en synergi mellan dator-, nätverks- och lagringsfunktioner, vilket ger nya funktioner och prestandaförbättringar för alla tre.
Medan Xeon Scalable erbjuder en 1, 6x genomsnittlig prestandaökning jämfört med tidigare generationens Xeon-CPU: er, fördelarna går utöver standarder för att täcka verkliga optimeringar för analys, säkerhet, AI och bildbehandling. Det finns mer kraft att köra högpresterande komplex. När det gäller datacentret är det en vinst på alla sätt.
Den kanske största och mest uppenbara förändringen är att ersätta den gamla ringbaserade Xeon-arkitekturen, där alla processorkärnor var anslutna via en enda ring, med en ny nät- eller nätarkitektur. Detta justerar kärnorna plus tillhörande cache, RAM och I / O, i rader och kolumner som ansluts vid varje korsning, vilket gör att data kan röra sig mer effektivt från en kärna till en annan.
Om du föreställer dig det i fråga om ett vägtransportsystem, var den antika Xeon-arkitekturen som en höghastighetscirkulär, där data som rör sig från en kärna till en annan skulle röra sig runt ringen. Den nya nätarkitekturen är mer som ett motorvägsnät, bara en som gör att trafiken kan flöda med maximal punkt-till-punkt-hastighet utan trängsel. Detta optimerar prestanda på flera gängade uppgifter där olika kärnor kan dela data och minne, samtidigt som energieffektiviteten ökar. I den mest grundläggande meningen är det ett arkitektursyfte som skapats för att flytta stora mängder data runt en processor som kan ha upp till 28 kärnor. Dessutom är det en struktur som utvidgas mer effektivt, oavsett om vi talar om flera processorer eller nya processorer med ännu fler kärnor senare.
Om nätarkitekturen handlar om att flytta data mer effektivt försöker de nya AVX-512-instruktionerna optimera hur de behandlas. Med utgångspunkt i det arbete som Intel började med sina första SIMD-tillägg 1996, möjliggör AVX-512 ännu fler dataobjekt att bearbetas samtidigt än med nästa generations AVX2, vilket fördubblar bredden på varje post och lägger till ytterligare två för att förbättra prestandan. AVX-512 tillåter dubbelt så många flytande punktoperationer per sekund per klockcykel och kan behandla dubbelt så många dataobjekt som AVX2 kan ha i samma klockcykel.
Ännu bättre är dessa nya instruktioner specifikt utformade för att påskynda prestanda i komplexa, datakrävande arbetsbelastningar som vetenskaplig simulering, ekonomisk analys, djup inlärning, bild-, ljud- och videobearbetning och kryptografi.. Detta hjälper en Xeon Scalable-processor att hantera HPC-uppgifter mer än 1, 6 gånger snabbare än föregående generations ekvivalent, eller påskynda artificiell intelligens och djup inlärning med 2, 2x.
AVX-512 hjälper också till med lagring, påskynda viktiga funktioner som deduplicering, kryptering, komprimering och dekomprimering så att du kan utnyttja dina resurser mer effektivt och stärka säkerheten för lokala och privata molntjänster.
I detta avseende fungerar AVX-512 hand i hand med Intel QuickAssist (Intel QAT) -teknologi. QAT möjliggör maskinvaruacceleration för datakryptering, autentisering och komprimering och dekomprimering, vilket ökar prestandan och effektiviteten hos processer som ställer höga krav på dagens nätverksinfrastruktur, och som bara ökar när du implementerar fler tjänster och digitala verktyg.
Används i samband med SDI (Software Defined Infrastructure), kan QAT hjälpa dig att återställa förlorade CPU-cykler som används på säkerhets-, komprimerings- och dekomprimeringsuppgifter så att de är tillgängliga för beräkningsintensiva uppgifter som ger verkligt värde till företag. Eftersom en QAT-aktiverad CPU kan hantera höghastighetskomprimering och dekomprimering, nästan gratis, kan applikationer arbeta med komprimerad data. Detta har inte bara ett mindre lagringsfotavtryck utan kräver mindre tid att överföra från en applikation eller ett system till ett annat.
Intel Xeon skalbara processorer integreras med Intels chipset i C620-serien för att skapa en plattform för balanserad systemomfattande prestanda. Intel Ethernet-anslutning med iWARP RDMA är inbyggd och erbjuder 4x10GbE-kommunikation med låg latens. Plattformen erbjuder 48 linjer PCIe 3.0-anslutning per CPU, med 6 kanaler DDR4-RAM per CPU med stödkapacitet upp till 768 GB vid 1, 5 TB per CPU och hastigheter upp till 2666MHz.
Lagring får samma generösa behandling. Det finns plats för upp till 14 SATA3-enheter och 10 USB3.1-portar, för att inte tala om CPU: s inbyggda virtuella NMMe RAID-kontroll. Stöd för nästa generations Intel Optane- teknik ökar ytterligare lagringsprestanda med dramatiska positiva effekter på databas i minnet och analytiska arbetsbelastningar. Och med Intel Xeon Scalable, kommer Intels Omni-Path-tygstöd inbyggt utan behov av ett diskret gränssnittskort. Som ett resultat är Xeon skalbara processorer redo för applikationer med hög bandbredd, låg latens i HPC-kluster.
Med Xeon Scalable har Intel levererat en rad processorer som uppfyller behoven hos nästa generations datacenter, men vad betyder all denna teknik i praktiken? För det första, servrar som kan hantera större analytiska arbetsbelastningar med högre hastigheter och få snabbare insikter från större datamängder. Intel Xeon Scalable har också lagrings- och datorkapacitet för avancerade applikationer för djupt lärande och maskininlärning, vilket gör att system kan träna på timmar, inte dagar eller "dra" betydelsen av ny data med högre hastighet och noggrannhet genom bearbeta bilder, tal eller text.
Potentialen för databas- och analysapplikationer i minne, som SAP HANA, är enorm, med prestanda upp till 1, 59 gånger högre när du kör arbetsmängder i minnet på nästa generations Xeon. När ditt företag förlitar sig på att samla in information från stora datauppsättningar i realtidskällor kan det vara tillräckligt för att ge dig en konkurrensfördel.
Xeon Scalable har prestanda och minne och systembandbredd för att vara värd för större och mer komplexa HPC-applikationer och hittar lösningar för mer komplexa affärs-, vetenskapliga och tekniska problem. Det kan erbjuda snabbare, högkvalitativ videokodning medan du strömmar video till fler kunder.
En ökning av virtualiseringskapaciteten kan göra det möjligt för organisationer att köra fyra gånger fler virtuella maskiner på en Xeon Scalable-server än på en nästa generations system. Med nästan nollkostnad för komprimering, dekomprimering och kryptering av data i vila kan företag använda sin lagring mer effektivt och samtidigt stärka säkerheten. Det handlar inte bara om riktmärken, det handlar om teknik som förvandlar hur ditt datacenter fungerar och därmed också ditt företag.
Vad är ECC-minne?
ECC är en metod för att upptäcka och sedan korrigera minnesfel med en bit. Ett enda bitminnefel är ett datafel vid produktion eller produktion av servern, och förekomsten av fel kan ha en stor inverkan på serverns prestanda. Det finns två typer av enstaka minnesfel: hårda fel och mjuka fel. Fysiska fel orsakas av fysiska faktorer, såsom överdriven temperaturvariation, stressstress eller fysisk stress som uppstår på minnesbitar.
Mjuka fel uppstår när data skrivs eller läses annorlunda än vad som ursprungligen var avsett, till exempel variationer i moderkortets spänning, kosmiska strålar eller radioaktivt sönderfall som kan få bitar i minnet att komma tillbaka flyktiga. Eftersom bitarna behåller sitt programmerade värde i form av en elektrisk laddning kan denna typ av störningar förändra belastningen på minnesbiten och orsaka fel. På servrar finns det flera platser där fel kan uppstå: i lagringsenheten, i CPU-kärnan, genom en nätverksanslutning och i olika typer av minne.
För arbetsstationer och servrar där fel, datakorruption och / eller systemfel måste undvikas till varje pris, till exempel i finanssektorn, är ECC-minne ofta minnets val. Så här fungerar ECC-minnet. Vid beräkning mottas och överförs data via bitar, den minsta dataenheten i en dator, som uttrycks i binär kod med en eller noll.
När bitarna är grupperade skapar de binär kod, eller "ord", som är dataenheter som dirigeras och rör sig mellan minne och CPU. Till exempel är en 8-bitars binär kod 10110001. Med ECC-minne finns det en extra ECC-bit, som är känd som en paritetsbit. Denna extra paritetsbit gör att den binära koden läser 101100010, där den sista noll är paritetsbiten och används för att identifiera minnesfel. Om summan av alla 1: er i en kodrad är ett jämnt tal (inte inklusive paritetsbiten), kallas kodraden jämn paritet. Felfri kod har alltid jämn paritet. Paritet har emellertid två begränsningar: den kan bara upptäcka udda antal fel (1, 3, 5, etc.) och tillåter jämna antal fel att passera (2, 4, 6, etc.). Paritet kan inte korrigera fel heller, det kan bara upptäcka dem. Det är där ECC-minne kommer in.
ECC-minne använder paritetsbitar för att lagra krypterad kod när man skriver data till minnet, och ECC-kod lagras på samma gång. När data läses jämförs den lagrade ECC-koden med ECC-koden som genererades när data lästes. Om den lästa koden inte stämmer överens med den lagrade koden, dekrypteras den av paritetsbitarna för att bestämma vilken bit som var fel, då korrigeras den här biten omedelbart. När data bearbetas skannar ECC-minnet ständigt kod med en speciell algoritm för att upptäcka och korrigera enkelbitsminnesfel.
I uppdragskritiska branscher som finanssektorn kan ECC-minne göra en stor skillnad. Föreställ dig att du redigerar informationen på ett konfidentiellt kundkonto och sedan utbyter denna information med andra finansiella institutioner. När du skickar uppgifterna, låt oss säga att en binär siffra vänds av någon form av elektrisk störning. ECC-serverminne hjälper till att bevara integriteten i dina data, förhindrar datakorruption och förhindrar systemkrasch och -fel.
Vi rekommenderar att du läser:
Detta slutar vår artikel om Intel Xeon och allt du behöver veta om dessa nya processorer, kom ihåg att dela den på sociala medier så att den kan hjälpa fler användare som behöver det.
Intel optane vs ssd: all information

Vi granskar den nya Intel Optane lagringstekniken och vad vi kan förvänta oss i framtiden tack vare den.
▷ Intel socket 1155-processorer: all information? sandstrand

Med Intel socket 1155 började en minnesvärd cykel för spelvärlden. Därför visar vi dig all information om honom ✔️ ✔️
▷ Intel celeron och Intel Pentium 【all information】

Vi förklarar historien och modellerna för Intel Celeron- och Intel Pentium-processorerna ✅ Funktioner, design, användning och deras användning i grundläggande datorer.