Poradniki

Ghz: co to jest i co jest gigahercem w informatyce

Spisu treści:

Anonim

Jeśli wchodzisz w świat komputerów i szukasz procesorów do kupienia, będziesz czytał GHz, Gigahertz lub Gigahertzio wiele razy. Wszystko to jest dokładnie takie samo i nie, nie jest to przyprawa do jedzenia, to środek, który jest bardzo często stosowany w informatyce i inżynierii.

Indeks treści

W tym momencie możemy przynajmniej wyjaśnić, co mierzy ten środek i dlaczego jest tak często używany. Być może po tym staniesz się bardziej zrozumiały na temat wielu rzeczy, które napotykasz na co dzień w świecie elektroniki.

Co to jest GHz lub Gigaherc

GHz jest skrótem od pomiaru używanego w elektronice zwanego po hiszpańsku gigahercem, chociaż możemy go również znaleźć jako gigaherc. I tak naprawdę nie jest to miara podstawowa, ale jest wielokrotnością Hertza, konkretnie mówimy o 10, 9 miliona Hertza.

Tak naprawdę to, co będziemy musieli zdefiniować, to Hertz, pomiar podstawowy i skąd pochodzą Kiloherc (kHz), Megaherc (Mhz) i Gigaherc (GHz). Cóż, ten środek został wymyślony przez Heinricha Rudolfa Hertza, od którego nazwiska pochodzi nazwa miary. Był niemieckim fizykiem, który odkrył, w jaki sposób fale elektromagnetyczne rozprzestrzeniają się w kosmosie. Tak naprawdę pomiar ten pochodzi ze świata fal, a nie wyłącznie z komputerów.

Hertz reprezentuje jeden cykl na sekundę, w rzeczywistości do 1970 r., Hertz nie był nazywany cyklami. Jeśli nie wiesz, cykl to po prostu powtórzenie zdarzenia na jednostkę czasu, którym w tym przypadku będzie ruch fali. Następnie Hertz mierzy liczbę powtórzeń fali w czasie, które mogą być dźwiękowe lub elektromagnetyczne. Ale jest to również rozszerzalne na wibracje ciał stałych lub fale morskie.

Jeśli spróbujemy wysadzić papier równolegle do jego powierzchni, zauważymy, że zaczyna on falować powtarzając wzór co jakiś czas, w sekundach lub tysięcznych sekundy, jeśli mocno uderzymy. To samo dzieje się z falami i przy tej wielkości nazywamy to częstotliwością (f) i jest odwrotnością okresu mierzonego w wyraźnych sekundach. Jeśli zbierzemy to wszystko razem, możemy zdefiniować Hertza jako częstotliwość drgań cząstki (fali, papieru, wody) w okresie ubezpieczenia.

Tutaj widzimy kształt fali i sposób, w jaki powtarza się ona w danym okresie. W pierwszym mamy pomiar 1 Hz, ponieważ w jednej sekundzie doznał tylko jednej oscylacji. Na drugim zdjęciu w ciągu jednej sekundy oscylowało 5 pełnych razy. Wyobraź sobie, ile by to było 5 GHz.

Imię Symbol Wartość (Hz)
Mikroherc µHz 0, 000001
Millihertz MHz 0, 001
Herc Hz 1
Decaherc daHz 10
Hectoertium hHz 100
Kiloherc kHz 1000
Megaherc MHz 1 000 000
Gigaherc GHz 1 000 000 000

GHz w informatyce

Teraz, gdy naprawdę wiemy, czym jest Hertz i skąd pochodzi, czas zastosować go w komputerach.

Hertz mierzy częstotliwość układu elektronicznego, dla nas najbardziej znanym jest procesor. Więc przenosząc do niego definicję, Hertz to liczba operacji, które procesor może wykonać w ciągu jednej sekundy. Tak mierzona jest prędkość procesora.

Procesor komputera (i innych elementów elektronicznych) to urządzenie odpowiedzialne za wykonywanie niektórych operacji wysyłanych z pamięci głównej w formie instrukcji generowanych przez programy. Następnie każdy program jest podzielony na zadania lub procesy, a następnie na instrukcje, które będą wykonywane jeden po drugim przez procesor.

Im więcej herców ma procesor, tym więcej operacji lub instrukcji może wykonać w ciągu sekundy. Wspólnie możemy też nazwać tę częstotliwość „ szybkością zegara ”, ponieważ cały system jest zsynchronizowany sygnałem zegara, dzięki czemu każdy cykl trwa o tej samej godzinie, a przesyłanie informacji jest idealne.

CPU rozumie tylko sygnały elektryczne

Jak zrozumiesz, element elektroniczny rozumie tylko napięcia i wzmacniacze, sygnał / brak sygnału, więc wszystkie instrukcje muszą być przetłumaczone na zera i jedynki. Obecnie procesory mogą pracować jednocześnie z ciągami do 64 zer i jedynek, zwanymi bitami, i reprezentuje obecność lub brak sygnału napięcia.

Procesor otrzymuje tylko szereg sygnałów, które jest w stanie interpretować dzięki swojej strukturze wewnętrznych bramek logicznych, które z kolei składają się z tranzystorów odpowiedzialnych za przekazywanie lub nieprzekazywanie sygnałów elektrycznych. W ten sposób można nadać człowiekowi „zrozumiałe znaczenie” w postaci operacji matematycznych i logicznych: dodawanie, odejmowanie, mnożenie, dzielenie, AMD, OR, NOT, NOR, XOR. Wszystko to i jeszcze więcej to operacje wykonywane przez procesor, które widzimy na naszym komputerze w postaci gier, programów, obrazów itp. Ciekawy, prawda?

Ewolucja GHz

Nie zawsze mieliśmy Gigaherca w zupie, w rzeczywistości prawie 50 lat temu inżynierowie po prostu marzyli, aby w ten sposób nazywać częstotliwość swoich procesorów.

Początek też nie był zły, pierwszym mikroprocesorem zaimplementowanym na jednym układzie był Intel 4004, mały karaluch wynaleziony w 1970 roku, który zrewolucjonizował rynek po tych ogromnych komputerach z zaworami próżniowymi, które nawet nie miały oświetlenia RGB. Wyobraź sobie, że był czas, kiedy RGB nie istniał. Faktem jest, że ten układ był w stanie przetwarzać 4-bitowe ciągi przy częstotliwości 740 KHz, przy okazji.

Osiem lat później, po kilku modelach, pojawił się Intel 8086, procesor nie mniejszy niż 16 bitów, który działał od 5 do 10 MHz i nadal miał kształt karalucha. Był to pierwszy procesor, który wdrożył architekturę x86, którą obecnie mamy na procesorach, niesamowite. Ale ta architektura była tak dobra w obsłudze instrukcji, że była przed i po przetwarzaniu. Istnieją również inne, takie jak IBM Power9 dla serwerów, ale niewątpliwie 100% komputerów osobistych nadal korzysta z x86.

Ale był to procesor DEC Alpha, pierwszy układ z instrukcjami RISC, który osiągnął barierę 1 GHz w 1992 r., Następnie AMD przybyło ze swoim Athlonem w 1999 r. Iw tym samym roku Pentium III osiągnęły te częstotliwości.

CPI procesora

W obecnej erze mamy procesory, które są w stanie osiągnąć do 5 GHz (5 000 000 000 operacji na sekundę), a na dodatek mają nie tylko jeden, ale nawet 32 ​​rdzenie na jednym chipie. Każdy rdzeń jest w stanie wykonać jeszcze więcej operacji na cykl, więc pojemność się zwiększa.

Liczba operacji na cykl jest również nazywana CPI (nie mylić z indeksem cen konsumpcyjnych). IPC jest wskaźnikiem wydajności procesora, obecnie bardzo modne jest mierzenie IPC procesorów, ponieważ określa to, jak dobry jest procesor.

Pozwól mi wyjaśnić, dwa podstawowe elementy procesora to rdzenie i ich częstotliwość, ale czasami posiadanie większej liczby rdzeni nie oznacza posiadania większej liczby IPC, więc możliwe jest, że 6-rdzeniowy procesor jest mniej wydajny niż 4-rdzeniowy procesor.

Instrukcje programu są podzielone na wątki lub etapy i są wprowadzane do procesora, aby idealnie wykonać pełną instrukcję w każdym cyklu zegara, byłoby to IPC = 1. W ten sposób w każdym cyklu przychodziła i odchodziła kompletna instrukcja. Ale nie wszystko jest tak idealne, ponieważ instrukcje zależą w dużej mierze od budowy programu i rodzaju operacji, które należy wykonać. Dodawanie nie jest tym samym, co mnożenie, ani nie jest tym samym, jeśli program ma wiele wątków jako tylko jeden.

Istnieją programy do pomiaru IPC procesora w warunkach jak najbardziej podobnych. Programy te uzyskują średnią wartość IPC poprzez obliczenie czasu potrzebnego procesorowi do uruchomienia programu. Serie takie jak ta:

Wniosek i bardziej interesujące linki

To naprawdę bardzo interesujący temat, ten dotyczący Hertza i tego, jak mierzona jest szybkość procesora. To naprawdę daje wiele tematów do omówienia, ale nie możemy też napisać artykułu takiego jak powieści.

Przynajmniej mamy nadzieję, że znaczenie Hertza, częstotliwość, cykle na sekundę i CPI zostały dobrze wyjaśnione. Teraz pozostawiamy kilka interesujących samouczków związanych z tym tematem.

Jeśli masz jakieś pytania na ten temat lub chcesz coś wskazać, zostaw nam komentarz w polu.

Poradniki

Wybór redaktorów

Back to top button