Poradniki

Intel Pentium 4: historia, co mam na myśli na komputerze i jego wpływ

Spisu treści:

Anonim

Intel Pentium 4 był radykalną zmianą w świecie komputerów i jest taki, że wraz z końcem dekady czai się za rogiem, jest to idealny moment w portalu takim jak Professional Review, aby podsumować, co doprowadziło nas do tego, gdzie spotykamy się dzisiaj.

Pojazdem do tej podróży będzie skok z Netburst do Nehalem na procesorach Intel; lub co to samo, pożegnanie procesorów Pentium 4, przechodząc przez Core 2 (i Core 2 Quad) przed obecnym Intel Core. Podróż trwająca ponad dwie dekady i której fundamentów możemy się wkrótce nie zobaczyć. Nic dziwnego, że mówi się, że historia jest kadzidłem, aby zacząć od nowa.

Indeks treści

Intel Pentium 4: Koniec dekady

Wprowadzenie Conroe (2007) było prawdziwym kamieniem milowym dla Intela. Było to pożegnanie na pulpicie Netburst (mikroarchitektura), która do tej pory wypowiadała się na temat mitycznego Pentium 4; a także powrót (w pewnym sensie) do mikro-architektury P6, na której będzie oparty pierwszy Intel Core. Chociaż skok miał miejsce wcześniej przez Pentium M na laptopach.

Rezygnacja z Netburst pociągnęła za sobą rezygnację z wysokich częstotliwości, a także technologii opracowanych dla niego (takich jak Hyper-Threading ) w krótkim okresie; ale to nie była arbitralna decyzja.

Pentium 4. Zdjęcie: Flickr, JiahuiH

Zalety Pentium 4 zostały zagłuszone poważnymi problemami związanymi z temperaturą i skalowalnością, co sprawiło, że mikrotechnika Netburst stała się niewykonalna dla laptopów i serwerów, dwóch rynków tak potężnych jak obecnie.

Intel Pentium 4 z Netburst i segmentacją danych

Te problemy, które przedstawił Netburst, wynikały głównie z ogromnego potoku danych, przez który działała mikroarchitektura, oraz problemów z przewidywaniem instrukcji.

Z grubsza segmentacja instrukcji ( potok danych w języku angielskim) jest metodą dekompozycji etapowej wykonywania instrukcji procesora, a tym samym zwiększenia jej szybkości. Bez tej segmentacji musielibyśmy poczekać na zakończenie wykonywania jednej instrukcji przed rozpoczęciem następnej, bardzo powolnego procesu. Dzięki tej segmentacji możemy rozpocząć każdy etap po jego zakończeniu.

Netburst miał potok instrukcji składający się z ponad 20 segmentów (31 w późniejszych recenzjach) stale utrzymujących procesor w ruchu i powodujących wysokie częstotliwości, które uczyniły Pentium 4 sławnym.

Niestety, tak długa linia była bardzo szkodliwa dla już nazwanej prognozy instrukcji, ponieważ jeśli ta prognoza się nie powiedzie, liczba etapów, które procesor musiał powtórzyć, była ogromna. Ponadto utrzymywanie tak wysokich częstotliwości nieefektywnie niesie ze sobą poważny problem temperaturowy. Intel wpadł na fizyczną ścianę, która nie była w stanie skoczyć z tą architekturą.

Architektura rdzenia poprzez Conroe

W wyniku tych problemów narodziliśmy się z mikro-architekturą Core. Intel cofnął się o krok i przemyślał swoją strategię rozwoju; Nie będą już poszukiwać najwyższych możliwych częstotliwości, ale maksymalną wydajność dzięki niewielkiemu i funkcjonalnemu zestawowi.

Tę efektywność osiągnęli, opracowując eksperyment przeprowadzony z procesorem Pentium M, wywodzącym się z już nazwanej mikroarchitektury P6, poprzednika Netburst.

UMIERAJ wnętrze Core 2 Duo.

Pentium M ma wiele podobieństw z tym, co później stanie się rdzeniem, takim jak 12-etapowy zestaw instrukcji (zwiększony do 14) lub układ pamięci L2 (następnie zwiększony). Ponadto zwiększył liczbę jednostek wykonawczych do czterech i wprowadził nowe technologie skoncentrowane na jego skalowalności, takie jak Micro-Core.

Intel wydał pod Conroe w 2007 roku procesory Intel Core 2 Duo, podkreślając modele E6400, E6600 i X6800 w ekstremalnym zakresie; a także różne iteracje architektury do różnych celów, w których Merom wyróżnia się na rynku urządzeń przenośnych, a Kentsfield - dzięki czterordzeniowym procesorom - Core 2 Quad (podkreślając Q6600).

Nehalem: „tac” po „tic”

W 2007 roku Intel wprowadził ciekawy model „kółko i krzyżyk”. Planowanie długoterminowe (powszechnie nazywane mapami drogowymi ) dotyczące rozwoju i uruchamiania architektur. W tym modelu „tic” odpowiada poprawie procesu produkcyjnego (redukcja DIE), podczas gdy „tac” przypisuje się zmianom w architekturze.

Tac po premierze Conroe to Nehalem, architektura, która ożywi pierwsze nowoczesne procesory Intel Core, a także powitanie marek i3, i5 i i7.

Skok pokoleniowy w serii Intel

Conroe przeżył kilka zmian w ciągu dwóch lat swojego życia: Wolfdale, Yorkfield lub Woodcrest to tylko niektóre przykłady, ale skokiem pierwszej generacji w Intel Core byłby Nehalem.

Architektura ta opierała się na tych samych zasadach wydajności i skalowalności, których Intel dążył do odejścia od Netburst, ale uratował niektóre cechy, które zdefiniowały tę mikroarchitekturę.

Intel Pentium w Nehalem

Wnętrze Nehalem. Zdjęcie: Appaloosa (Wikimedia Commons)

W przypadku Nehalem powrócą rurociągi z ponad dwudziestoma etapami, a także technologie, takie jak Hyper-Threading ; ale problemy z prognozowaniem również zniknęły dzięki zastosowaniu predyktora drugiego poziomu i ulepszeniu innych powiązanych technologii, takich jak detektor pętli . Ponadto niektóre cechy definiujące Conroe zostały zachowane, przeciągając wraz z nim podstawy tej architektury.

Aby uniknąć problemów z przeszłości, Intel zaczął stosować zasadę proporcjonalności od samego rozwoju architektury, wszystkie funkcje architektury, które zwiększają zużycie procesora, powinny mieć podwójny wpływ na jego wydajność.

Co więcej, była to architektura opracowana z myślą o modułowości. Rdzenie, z których składa się każdy układ, były niezależne i dające się replikować, co ułatwia tworzenie procesorów o różnych konfiguracjach rdzenia i rozszerzanie architektury na rynek przenośny lub świat serwerów.

Zalecamy przeczytanie następujących przewodników i samouczków:

W przypadku Nehalem Intel był świadomy, że nie wpadł w te same problemy Netburst. Cel, który naszym zdaniem był w stanie osiągnąć.

Czcionka RetailEdge

Poradniki

Wybór redaktorów

Back to top button