Dyski twarde ewoluują już od blisko 70 lat. W tym czasie z monstrualnych, horrendalnie drogich urządzeń stały się nośnikami informacji o wymiarach wizytówki i cenie kilkudziesięciu dolarów. Sprawdź, co działo się w ciągu siedmiu dekad ewolucji dysków twardych?
W tym wpisie:
- Pierwsze dyski twarde
- Rewolucja dysków twardych w latach 80.
- Dyski twarde z lat 90.
- Interfejs SATA i dyski SSD
- Współczesne dyski twarde
Dyski twarde są elementami nie tylko komputerów stacjonarnych, laptopów, czy serwerów, ale również wielu innych urządzeń. Od samego początku służą do przechowywania danych w postaci elektronicznej. Zobacz, jak i dlaczego ich konstrukcja ewoluowała?
Pierwsze dyski twarde
Pierwszy dysk twardy opracowano w 1956 r. jako alternatywę dla kart perforowanych, czyli kartoników z otworami, służących do programowania ówczesnych komputerów. Dysk twardy IBM 350 posiadał aż 50 magnetycznych talerzy o średnicy 24 cali, które wirowały z prędkością 1200 obrotów na minutę. Był olbrzymi, bowiem mierzył 172x152x74 cm i ważył blisko tonę. Dysponował oszałamiającą ówcześnie pojemnością 5 MB, więc nie zmieściłby nawet jednego zdjęcia ze współczesnego smartfonu. Cena IBM 350 wynosiła 160 000 dolarów, co obecnie odpowiada kwocie 1,2 mln $. Jednak nie zmienia to faktu, że do 1961 roku firma sprzedała 1000 tych nośników.
W ciągu kolejnych 20 lat wzrastały pojemności dysków twardych. Zmiany konstrukcyjne (np. osobna głowica dla każdego talerza) znacznie skróciły czas dostępu do danych (dla IBM 350 wynosił on ponad 600 ms). W 1965 r. opracowano IBM 2310. Magazynował on dane na wymiennych kartridżach o pojemności 1MB, które można było przenosić. Ale na pierwszy prawdzie przenośny dysk twardy trzeba było czekać jeszcze 15 lat. W latach 70. zwiększały się co prawda dostępne pojemności, ale gabaryty urządzeń wcale nie zmalały.
Ciekawostka: w 1976 r. w firmie Dataram opracowano nośnik Bulk Core, który nie posiadał żadnych ruchomych części, ponieważ do przechowywania danych używał pamięci ferrytowych. Bulk Core uważany jest więc za protoplastę dysków SSD.
Rewolucja dysków twardych w latach 80.
Rok 1980 r. zapoczątkował przełom w konstrukcji dysku twardego. Firma Shugart Technology, czyli dzisiejszy… Seagate, wypuściła na rynek model ST-506. Dysponował taką samą pojemnością, jak IBM 350 (5 MB), ale ważył zaledwie 3,2 kg, a jego wymiary nie przekraczały 5.25 cala. Trzy lata później w Szkocji powstał Rodime RO352, którego twórcy upchnęli 10 MB pojemności w obudowie o formacie 3,5 cala, tworząc tym samym standard dysków twardych, który obowiązuje do dziś w komputerach desktopowych oraz urządzeniach sieciowych.
W połowie lat 80. ubiegłego stulecia powstały standardy przesyłu danych SCSI oraz IDE, a Toshiba zaczęła eksperymenty z półprzewodnikowymi pamięciami NAND flash. Wreszcie w 1988 roku wyprodukowano dysk twardy PrairieTek 220 o pojemności 20 MB i formacie 2,5 cala. Format stał się standardem nośników dla komputerów przenośnych, a współcześnie także dysków SSD z interfejsem SATA III.
Dyski twarde z lat 90.
W latach 90. z modelu na model dyski twarde oferowały coraz większe pojemności. Szybciej również wirowały talerze. W 1992 r. w modelu ST12400 o formacie 3,5 cala firma Seagate osiągnęła 2,1 GB przy prędkości 7200 obrotów na minutę. Dwa lata później w M-System powstał nośnik w technologii FFD (Fast Flash Disk), który pozbawiony elementów mechanicznych bazował na pamięciach flash NAND. Chociaż był drogi, ze względu na udaroodporność zaczęto stosować go m.in. w rejestratorach parametrach lotu, czyli czarnych skrzynkach.
O firmie Seagate głośno zrobiło się także w 1996 roku z powodu rodziny dysków Cheetah. Pierwsze egzemplarze rozpędzały talerze do 10 000 obrotów na minutę. Natomiast w 2000 roku w dysku Cheetah X15 wirowały z prędkościami już 15 000 RPM (dla porównania: tarcza szlifierki kątowej osiąga ok. 11 000 RPM). Dyski z rodziny Cheetah okazały się najszybszymi i najbardziej wydajnymi nośnikami z interfejsem IDE. Ich główną wadą pozostawała jednak wyjątkowo głośna praca.
Interfejs SATA i dyski SSD
Pierwsza generacja interfejsu SATA ujrzała światło dzienne w 2002 r. i szybko zdobyła uznanie użytkowników. Oferowała bowiem nie tylko większą przepustowość, ale również możliwość łączenia dysków w macierze RAID, które zwiększały bezpieczeństwo danych. Każda kolejna generacja SATA przynosiła podwojenie prędkości, z jaką można było zapisywać i odczytywać dane na nośniku. Dzięki temu wzrastała wygoda pracy z coraz większymi dyskami.
W 2007 roku firma Hitachi przekroczyła barierę 1 TB, ale od roku na rynku obecne były już dyski SSD. Ich popularności sprzyjały spadki cen pamięci półprzewodnikowych. Wypuszczony na rynek w 2009 roku standard SATA 3, który zapewnia przepustowość na poziomie 6 Gb/s, błyskawicznie został zaadoptowany w kolejnych generacjach dysków półprzewodnikowych.
Współczesne dyski twarde
Współcześnie na rynku obecne są zarówno magnetyczne dyski twarde, czyli HDD, jak i nośniki półprzewodnikowe (Solid State Drive), których najnowsza generacja korzysta ze złącza M.2. Przewagą HDD jest zdecydowanie stosunek pojemności do ceny nośnika, natomiast dyski półprzewodnikowe imponują prędkością pracy. Nowoczesne dyski SSD M.2, korzystające z technologii NVMe oferują przepustowość aż 64 000 MB/s, która w SATA III wynosi maksymalnie 600 MB/s. Dlatego wielu użytkowników zadaje sobie pytanie, czy wybrać dysk HDD czy SSD?
Pod względem oferowanych pojemności magnetyczne dyski wciąż pozostają bezkonkurencyjne. Co prawda rekordowe 100TB wciąż kosztuje tyle, co średniej klasy samochód. Ale już dysk HDD 4TB, który obecnie wydaje się całkiem wystarczający dla zdecydowanej większości użytkowników, można kupić w cenie poniżej 500 zł. Ponadto odzyskiwanie danych z dysku HDD zwykle jest tańsze, niż w przypadku nośników półprzewodnikowych.