Android

▷ Intel xeon 【wszystkie informacje】

Spisu treści:

Anonim

Wśród obszernego katalogu Intela znajdziemy procesory Intel Xeon, które są najmniej znane użytkownikom z tego, że nie koncentrują się na sektorze krajowym. W tym artykule wyjaśniamy, czym są te procesory i jakie są różnice w porównaniu z procesorami krajowymi.

Indeks treści

Co to jest Intel Xeon?

Xeon to marka mikroprocesorów x86 zaprojektowanych, wyprodukowanych i sprzedawanych przez firmę Intel, przeznaczonych na rynek stacji roboczych, serwerów i systemów wbudowanych. Procesory Intel Xeon zostały wprowadzone w czerwcu 1998 r. Procesory Xeon są oparte na tej samej architekturze co zwykłe procesory stacjonarne, ale mają pewne zaawansowane funkcje, takie jak obsługa pamięci ECC, większa liczba rdzeni, obsługa dużych ilości pamięci RAM., zwiększona pamięć podręczna i więcej funkcji zapewniających niezawodność, dostępność i łatwość serwisowania klasy korporacyjnej odpowiedzialne za obsługę wyjątków sprzętowych za pośrednictwem architektury Machine Check. Często są w stanie bezpiecznie kontynuować wykonywanie tam, gdzie normalny procesor nie może tego zrobić z powodu ich dodatkowych właściwości RAS, w zależności od rodzaju i ważności wyjątku weryfikacji maszyny. Niektóre również kompatybilne z systemami z wieloma gniazdami z 2, 4 lub 8 gniazdami za pomocą magistrali Quick Path Interconnect.

Zalecamy przeczytanie naszego postu o AMD Ryzen - Najlepsze procesory produkowane przez AMD

Niektóre niedociągnięcia, które powodują, że procesory Xeon są nieodpowiednie dla większości komputerów osobistych, obejmują niższe częstotliwości za tę samą cenę, ponieważ serwery wykonują więcej zadań równolegle niż komputery stacjonarne, liczba rdzeni jest ważniejsza niż częstotliwości obserwuj, ogólnie brak zintegrowanego systemu GPU i brak obsługi podkręcania. Pomimo tych wad procesory Xeon zawsze były popularne wśród użytkowników komputerów stacjonarnych, przede wszystkim graczy i użytkowników ekstremalnych, głównie ze względu na wyższy potencjał liczby rdzeni oraz bardziej atrakcyjny stosunek ceny do wydajności niż Core i7 pod względem całkowitej mocy obliczeniowej wszystkich rdzeni. Większość procesorów Intel Xeon nie ma zintegrowanego procesora graficznego, co oznacza, że ​​systemy zbudowane z tych procesorów wymagają oddzielnej karty graficznej lub osobnego procesora graficznego, jeśli wymagane jest wyjście monitora.

Intel Xeon to inna linia produktów niż Intel Xeon Phi, która nosi podobną nazwę. Xeon Phi pierwszej generacji to zupełnie inny typ urządzenia, bardziej porównywalny z kartą graficzną, ponieważ jest przeznaczony do gniazda PCI Express i ma być używany jako koprocesor wielordzeniowy, taki jak Nvidia Tesla. W drugiej generacji Xeon Phi stał się głównym procesorem bardziej podobnym do Xeon. Pasuje do tego samego gniazda co procesor Xeon i jest kompatybilny z x86; jednak w porównaniu z Xeon punkt konstrukcyjny Xeon Phi podkreśla większą liczbę rdzeni o większej przepustowości pamięci.

Co to jest Intel Xeon Scalable?

W centrum danych firmy trwają duże zmiany. Wiele organizacji przechodzi szeroko zakrojoną transformację opartą na danych i usługach online, wykorzystując te dane w potężnych aplikacjach do sztucznej inteligencji i analiz, które mogą przekształcić je w pomysły, które zmieniają biznes, a następnie wdrażają narzędzia i usługi, które sprawiają, że te pomysły działają.. Wymaga to nowego typu infrastruktury serwerowej i sieciowej, zoptymalizowanej pod kątem sztucznej inteligencji, analiz, ogromnych zestawów danych i innych, zasilanych przez rewolucyjny nowy procesor. Właśnie tam pojawia się linia skalowalnych procesorów Intel Xeon.

Intel Xeon Scalable to prawdopodobnie największa zmiana od dwudziestu lat procesora Xeon. To nie jest po prostu szybszy Xeon lub Xeon z większą liczbą rdzeni, ale rodzina procesorów zaprojektowana wokół synergii między możliwościami obliczeniowymi, sieciowymi i pamięciami masowymi, oferująca nowe funkcje i ulepszenia wydajności dla wszystkich trzech.

Podczas gdy Xeon Scalable oferuje średnio 1, 6-krotny wzrost wydajności w porównaniu z procesorami Xeon poprzedniej generacji, korzyści wykraczają poza standardy i obejmują rzeczywiste optymalizacje w zakresie analizy, bezpieczeństwa, sztucznej inteligencji i przetwarzania obrazu. Jest więcej mocy do uruchamiania kompleksów o wysokiej wydajności. Jeśli chodzi o centrum danych, jest to zwycięstwo pod każdym względem.

Być może największą i najbardziej oczywistą zmianą jest zastąpienie starej architektury Xeon opartej na pierścieniu, w której wszystkie rdzenie procesora zostały połączone za pomocą jednego pierścienia, z nową architekturą siatki lub siatki. To wyrównuje rdzenie plus powiązaną pamięć podręczną, pamięć RAM i operacje we / wy w rzędach i kolumnach, które łączą się na każdym skrzyżowaniu, umożliwiając bardziej wydajne przenoszenie danych z jednego rdzenia na drugi.

Jeśli wyobrażasz to sobie jako system transportu drogowego, starożytna architektura Xeon była jak szybki kołowy, w którym dane przenoszone z jednego rdzenia na drugi powinny się przemieszczać wokół pierścienia. Nowa architektura siatki przypomina bardziej sieć autostrad, która umożliwia przepływ ruchu z maksymalną prędkością punkt-punkt bez zatorów. Optymalizuje to wydajność zadań wielowątkowych, w których różne rdzenie mogą współużytkować dane i pamięć, jednocześnie zwiększając wydajność energetyczną. W najbardziej podstawowym znaczeniu jest to cel architektury stworzony do przenoszenia dużych ilości danych wokół procesora, który może mieć do 28 rdzeni. Co więcej, jest to struktura, która jest rozszerzana bardziej efektywnie, niezależnie od tego , czy mówimy o wielu procesorach, czy o nowych procesorach z jeszcze większą liczbą rdzeni później.

Jeśli w architekturze siatki chodzi o wydajniejsze przenoszenie danych, nowe instrukcje AVX-512 próbują zoptymalizować sposób ich przetwarzania. Opierając się na pracy, jaką Intel rozpoczął od swoich pierwszych rozszerzeń SIMD w 1996 roku, AVX-512 pozwala przetwarzać jeszcze więcej elementów danych jednocześnie niż w AVX2 nowej generacji, podwajając szerokość każdego rekordu i dodając dwa kolejne w celu poprawy wydajności. AVX-512 pozwala dwa razy więcej operacji zmiennoprzecinkowych na sekundę na cykl zegara i może przetwarzać dwa razy więcej elementów danych niż AVX2 w tym samym cyklu zegara.

Co więcej, te nowe instrukcje zostały zaprojektowane specjalnie w celu przyspieszenia wydajności w złożonych obciążeniach wymagających dużej ilości danych, takich jak symulacja naukowa, analiza finansowa, głębokie uczenie się, przetwarzanie obrazów, audio i wideo oraz kryptografia.. Pomaga to procesorowi Xeon Scalable obsługiwać zadania HPC ponad 1, 6 razy szybciej niż odpowiednik poprzedniej generacji lub przyspieszyć operacje sztucznej inteligencji i głębokiego uczenia się 2, 2x.

AVX-512 pomaga również w przechowywaniu, przyspieszaniu kluczowych funkcji, takich jak deduplikacja, szyfrowanie, kompresja i dekompresja, dzięki czemu możesz bardziej efektywnie wykorzystywać swoje zasoby i zwiększać bezpieczeństwo lokalnych i prywatnych usług w chmurze.

W tym sensie AVX-512 współpracuje z technologią Intel QuickAssist (Intel QAT). QAT umożliwia przyspieszenie sprzętowe do szyfrowania danych, uwierzytelniania oraz kompresji i dekompresji, zwiększając wydajność i wydajność procesów, które stawiają wysokie wymagania dzisiejszej infrastrukturze sieci, a to wzrośnie tylko w miarę wdrażania większej liczby usług i narzędzia cyfrowe.

Używany w połączeniu z Software Defined Infrastructure (SDI), QAT może pomóc w odzyskaniu utraconych cykli procesora spędzonych na zadaniach bezpieczeństwa, kompresji i dekompresji, dzięki czemu są one dostępne dla zadań intensywnie obliczeniowych, które wnoszą rzeczywistą wartość do firma Ponieważ procesor z włączoną funkcją QAT może obsługiwać szybką kompresję i dekompresję, prawie bezpłatnie, aplikacje mogą pracować ze skompresowanymi danymi. Ma to nie tylko mniejszą pojemność, ale wymaga mniej czasu na przeniesienie z jednej aplikacji lub systemu do drugiej.

Skalowalne procesory Intel Xeon integrują się z chipsetami serii C620 Intela, tworząc platformę dla zrównoważonej wydajności całego systemu. Łączność Intel Ethernet z iWARP RDMA jest wbudowana, oferując komunikację 4x10GbE o niskim opóźnieniu. Platforma oferuje 48 linii łączności PCIe 3.0 na procesor, z 6 kanałami pamięci DDR4 RAM na procesor, o pojemnościach wsparcia do 768 GB przy 1, 5 TB na procesor i prędkościach do 2666 MHz.

Magazynowanie jest traktowane tak samo hojnie. Jest miejsce na maksymalnie 14 napędów SATA3 i 10 portów USB3.1, nie wspominając o wbudowanym wirtualnym sterowaniu RAID NMMe procesora. Obsługa technologii Intel Optane nowej generacji dodatkowo zwiększa wydajność pamięci masowej, co ma dramatyczny pozytywny wpływ na bazę danych w pamięci i obciążenia analityczne. Dzięki technologii Intel Xeon Scalable obsługa technologii Omni-Path firmy Intel jest wbudowana bez potrzeby stosowania oddzielnej karty interfejsu. W rezultacie skalowalne procesory Xeon są gotowe na aplikacje o dużej przepustowości i niskim opóźnieniu w klastrach HPC.

Dzięki Xeon Scalable Intel dostarczył linię procesorów, które spełniają potrzeby centrów danych nowej generacji, ale co w praktyce oznacza cała ta technologia? Na początek, serwery, które potrafią obsługiwać większe obciążenia analityczne przy wyższych prędkościach, uzyskując szybszy wgląd z większych zestawów danych. Intel Xeon Scalable ma również pojemność pamięci i obliczeń dla zaawansowanych aplikacji do głębokiego uczenia się i uczenia maszynowego, umożliwiając systemom szkolenie w ciągu godzin, a nie dni lub „wywnioskowanie” znaczenia nowych danych z większą szybkością i dokładnością dzięki przetwarzać obrazy, mowę lub tekst.

Potencjał baz danych w pamięci i aplikacji analitycznych, takich jak SAP HANA, jest ogromny, z wydajnością do 1, 59 razy wyższą przy uruchamianiu obciążeń w pamięci w Xeon nowej generacji. Gdy Twoja firma polega na gromadzeniu informacji z rozległych zestawów danych ze źródeł w czasie rzeczywistym, może to wystarczyć do uzyskania przewagi konkurencyjnej.

Xeon Scalable ma wydajność, pamięć i przepustowość systemu do obsługi większych i bardziej złożonych aplikacji HPC oraz znajduje rozwiązania dla bardziej złożonych problemów biznesowych, naukowych i inżynieryjnych. Może oferować szybsze transkodowanie wideo o wyższej jakości podczas przesyłania strumieniowego wideo do większej liczby klientów.

Zwiększenie możliwości wirtualizacji może pozwolić organizacjom na uruchomienie czterokrotnie większej liczby maszyn wirtualnych na serwerze Xeon Scalable niż na systemie nowej generacji. Przy prawie zerowym obciążeniu kompresją, dekompresją i szyfrowaniem danych w spoczynku firmy mogą efektywniej korzystać z pamięci, jednocześnie zwiększając bezpieczeństwo. Nie chodzi tylko o testy porównawcze, ale o technologię, która zmienia sposób działania centrum danych, a tym samym również Twoją firmę.

Co to jest pamięć ECC?

ECC to metoda wykrywania, a następnie korygowania błędów pamięci jednobitowej. Jednobitowy błąd pamięci to błąd danych w produkcji lub produkcji serwera, a obecność błędów może mieć duży wpływ na wydajność serwera. Istnieją dwa rodzaje błędów pamięci jednobitowej: błędy twarde i błędy miękkie. Błędy fizyczne są spowodowane czynnikami fizycznymi, takimi jak nadmierne zmiany temperatury, stres lub stres fizyczny występujący na bitach pamięci.

Błędy miękkie pojawiają się, gdy dane są zapisywane lub odczytywane inaczej niż pierwotnie planowano, takie jak zmiany napięcia płyty głównej, promieni kosmicznych lub rozpadu radioaktywnego, które mogą powodować powrót bitów w pamięci lotny. Ponieważ bity zachowują zaprogramowaną wartość w postaci ładunku elektrycznego, ten rodzaj interferencji może zmienić obciążenie bitu pamięci, powodując błąd. Na serwerach istnieje kilka miejsc, w których mogą wystąpić błędy: w jednostce pamięci, w rdzeniu procesora, przez połączenie sieciowe i w różnych typach pamięci.

W przypadku stacji roboczych i serwerów, na których za wszelką cenę należy unikać błędów, uszkodzeń danych i / lub awarii systemu, na przykład w sektorze finansowym, pamięć ECC jest często pamięcią z wyboru. Tak działa pamięć ECC. W obliczeniach dane są odbierane i przesyłane za pomocą bitów, najmniejszej jednostki danych w komputerze, które są wyrażane w kodzie binarnym za pomocą jednego lub zera.

Gdy bity są zgrupowane razem, tworzą kod binarny lub „słowa”, które są jednostkami danych, które są kierowane i przemieszczają się między pamięcią a procesorem. Na przykład 8-bitowy kod binarny to 10110001. W przypadku pamięci ECC istnieje dodatkowy bit ECC, znany jako bit parzystości. Ten dodatkowy bit parzystości powoduje odczyt kodu binarnego 101100010, gdzie ostatnie zero jest bitem parzystości i służy do identyfikowania błędów pamięci. Jeśli suma wszystkich 1 w wierszu kodu jest liczbą parzystą (bez bitu parzystości), to wiersz kodu nazywany jest parzystością parzystą. Bezbłędny kod ma zawsze parzystość. Jednak parzystość ma dwa ograniczenia: jest w stanie wykryć nieparzystą liczbę błędów (1, 3, 5 itd.) I pozwala na przejście parzystej liczby błędów (2, 4, 6 itd.). Parzystość nie może również poprawić błędów, może je tylko wykryć. Właśnie tam pojawia się pamięć ECC.

Pamięć ECC wykorzystuje bity parzystości do przechowywania zaszyfrowanego kodu podczas zapisywania danych w pamięci, a kod ECC jest przechowywany w tym samym czasie. Podczas odczytu danych zapisany kod ECC jest porównywany z kodem ECC wygenerowanym podczas odczytu danych. Jeśli odczytany kod nie pasuje do zapisanego kodu, jest on odszyfrowywany przez bity parzystości w celu ustalenia, który bit był błędny, wówczas bit ten jest natychmiast korygowany. Podczas przetwarzania danych pamięć ECC stale skanuje kod za pomocą specjalnego algorytmu do wykrywania i korygowania błędów pamięci jednobitowej.

W branżach o kluczowym znaczeniu, takich jak sektor finansowy, pamięć ECC może mieć duże znaczenie. Wyobraź sobie, że edytujesz informacje na poufnym koncie klienta, a następnie wymieniasz te informacje z innymi instytucjami finansowymi. Gdy wysyłasz dane, powiedzmy, że cyfra binarna jest odwracana przez jakieś zakłócenia elektryczne. Pamięć serwera ECC pomaga zachować integralność danych, zapobiega uszkodzeniu danych oraz zapobiega awariom i awariom systemu.

Zalecamy przeczytanie:

To kończy nasz artykuł na temat Intel Xeon i wszystkiego, co musisz wiedzieć o tych nowych procesorach, pamiętaj, aby udostępnić go w mediach społecznościowych, aby mógł pomóc większej liczbie użytkowników, którzy go potrzebują.

Android

Wybór redaktorów

Back to top button