Podsystem dyskowy komputera. Wydajność podsystemu dyskowego - krótki program edukacyjny. Niektóre wymagania dotyczące nowoczesnego dysku twardego
Podsystem dyskowy komputera nazywany jest urządzeniami służącymi do codziennego przechowywania i odczytywania danych. Tradycyjnie obejmuje dyskietki i dyski twarde. W ostatnie czasy obejmuje to urządzenia do pracy z płytami kompaktowymi.
Napędy dyskietek to „weterani” wśród urządzeń dyskowych. Odczytują dane z dyskietek (nośników informacji) i zapisują na nich. Typ napędu jest określony przez typ używanej dyskietki (FloppyDisk). Obecnie szeroko stosowane są dyskietki 3,5" z obsługą dwustronnego nagrywania wysokiej gęstości (DSHD). Pojemność takiej dyskietki to tradycyjnie 1,44 MB, choć przy użyciu specjalnego oprogramowania można ją zwiększyć do 2,8 MB lub , odwrotnie, dyskietki 5,25 "są praktycznie nieużywane.
Obecnie dyskietki nie są głównym sposobem przechowywania danych i programów i zwykle służą do przesyłania małych plików z jednego komputera na drugi. To właśnie ta okoliczność zadecydowała o przetrwaniu bardziej kompaktowych i łatwych w transporcie dyskietek 3,5". Standardem dla komputera jest obecność jednego dysku 3,5", który jest najczęściej produkowany w wersji wewnętrznej (istnieją również opcje w osobnej sprawie).
Producenci stacji dysków: Teac, NEC, Mitsumi, Panasonic, Epson… Producenci dyskietek: Verbatim, BASF, Sony, TDK, FujiFilm… Szczególnie chcielibyśmy wspomnieć o dyskietkach Verbatim, które są uważane za najbardziej niezawodne i mają różne wersje, m.in. z powłoką teflonową.
Dysk twardy (Hard Disk) został po raz pierwszy zaimplementowany w komputerach PC w 1983 roku i od tego czasu stał się głównym urządzeniem pamięci masowej. Zasada przechowywania danych dyski twarde tak samo jak na dyskietkach: namagnesowanie odcinków cienkiej warstwy ferromagnetycznej osadzonej na powierzchni nośnika. Tylko dyski twarde wykorzystują bardziej zaawansowane, cienkie i wielowarstwowe powłoki nakładane na idealnie płaskie i gładkie dyski aluminiowe lub szklane. Zwykle Dysk twardy ma 4 naleśniki, czyli nośniki powlekane dwustronnie.
Głównym parametrem dysku twardego jest jego pojemność. Pierwszy dysk twardy, nazwany przez twórców „dyskiem twardym”, miał pojemność 10 MB. Od tego czasu parametr ten znacznie wzrósł i sięga 160 GB. Nowoczesne komputery stacjonarne są wyposażone w dyski twarde o pojemności 20, 40 i 60 GB, komputery przenośne często mają urządzenia o mniejszej pojemności.
Główną rezerwą wydajności i pojemności dysku jest zwiększenie gęstości zapisu informacji na warstwie magnetycznej nośnika (płyty). Według naukowców granica gęstości dla obecnej technologii zapisu magnetycznego wynosi 40-50 Gb/sq.in. Obecnie masowo produkowane są dyski o gęstości zapisu 14-15 Gb / cal kw., chociaż istnieją opcje 22,5 Gb / cal kw.. Oto jak ewoluował:
Dysk twardy współdziała z resztą komputera za pośrednictwem kontrolera i ma dwa interfejsy: EIDE i SCSI. Dysk EIDE (często nazywany IDE) jest bardziej powszechny i tańszy, ma zintegrowany kontroler na płycie głównej, ale obciąża procesor, co spowalnia wykonywanie poleceń. Interfejs SCSI to droższe rozwiązanie, które pozwala znacznie zwiększyć szybkość pracy z dyskiem twardym i zmniejszyć obciążenie procesora. To wymaga dodatkowa instalacja płyty kontrolera.
Kolejnym parametrem dysku twardego jest częstotliwość jego obrotu. Właściwie obraca blok dysków umieszczony wewnątrz uszczelnionej obudowy. Większość tarcz używa 5400 i 7200 obr./min, chociaż dostępne są modele 10000 i 15000 obr./min. Zwiększenie prędkości obrotowej poprawia wydajność dysku twardego, ale zwiększa hałas podczas pracy.
Wszystkie nowoczesne dyski twarde mają pamięć podręczną bufora danych, której wielkość waha się od 512 KB do 2 MB dla dysków IDE i do 16 MB dla dysków SCSI.
Maksymalna wewnętrzna prędkość sekwencyjnego odczytu danych (przesyłania) wynosi obecnie 30...48 Mb/s. Istnieją zmiany z prędkością odczytu 1 Gb / s.
Średni czas wyszukiwania podczas czytania / pisania (wyszukiwania) waha się od 15 ms do 3,9 ms. Średni czas wyszukiwania sąsiedniego utworu podczas odczytu/zapisu wynosi 2…0,8 ms.
Nowoczesne dyski twarde wykorzystują UltraATA/33, UltraATA/66 lub
UltraATA/100, zapewniająca prędkość odczytu dysku zewnętrznego wynoszącą odpowiednio 0,33, 66 lub 100 Mb/s. Opracowano nowy interfejs UltraATA/133, który nie znalazł jeszcze odpowiedniego wsparcia ze strony producentów. Oczekuje się, że dyski Serial ATA wyjdą z prędkością 1,5 Gb/s, którą można dodatkowo przyspieszyć czterokrotnie.
Podsumowując, zauważamy tak specyficzny parametr dysku twardego, jak odporność na uderzenia, który wynosi 10 ... 60 Gs w stanie roboczym i 100 ... 400 Gs w stanie niepracującym.
Główny producenci sztywnych dyski: Seagate, Fujitsu, IBM, WesternDigital, Quantum, Maxtor, Samsung…
Podsystem dyskowy komputera jako ważne narzędzie do obróbki grafiki rastrowej. Która opcja jest szybsza?
W procesy technologiczne Istotną rolę odgrywa wydajność komputera do przetwarzania obrazu prepress. Po pierwsze, istnieją pewne minimum wymagania systemowe do profesjonalnych prac graficznych. Na przykład przygotowanie wysokiej jakości, pełnokolorowego układu drukowanej publikacji przy użyciu 14-calowego monitora i karty graficznej, która nie jest w stanie wyświetlić 24-bitowego koloru, jest prawie niemożliwe. Po drugie, dopasuj swoją platformę roboczą do tych minimalne wymagania nie oznacza, że praca z dużymi plikami graficznymi będzie wygodna. Aby zwiększyć wydajność pracy z komputerem, musi on mieć margines wydajności. Pozwala to na wykonywanie nawet operacji wymagających dużej ilości zasobów (skalowanie, nakładanie filtrów na obraz itp.) wystarczająco szybko, a najlepiej - w czasie rzeczywistym. Znaczący udział w ogólnej wydajności stacji graficznej ma jej podsystem dyskowy. Staje się „wąskim gardłem” systemu podczas przetwarzania plików, których objętość jest porównywalna z ilością pamięci RAM na komputerze.
Sytuacja z dyskami twardymi dla platformy Wintel zawsze wyglądała tak: istniały dyski twarde SCSI skierowane do sektora Hi-End, a równolegle oferowano tańsze opcje IDE do instalacji w innych systemach. W ciągu ostatnich kilku lat nastąpił prawdziwy przełom technologiczny w dziedzinie dysków IDE - wystarczy powiedzieć, że jeśli pod koniec 1998 roku dysk twardy 4,3 GB był uważany za przeciętny pod każdym względem, z prędkością obrotową wrzeciona 5400 rpm i gęstości zapisu 2 GB na talerz, pod koniec 2000 roku do średniej kategorii należy 40-45 GB/7200 rpm/15-20 GB na talerz. W tym przypadku normą staje się zastosowanie standardu ATA-100 i redukcja hałasu dysku roboczego do wartości rzędu 30 dB.
W obszarze dyski twarde SCSI nigdy nie doświadczyło takiego skoku wydajności – do tej pory średnia pojemność dysków tego standardu jest na poziomie 18 GB przy gęstości zapisu około 6 GB na talerz. Wyższość wydajności nad napędami IDE jest zachowana dzięki innym ważnym parametrom - dużej prędkości wrzeciona (10 000 obr./min to norma), dużej ilości wbudowanego bufora (od 4 do 8 MB wobec 0,5-2 MB dla modeli IDE) , a także w dużej mierze ze względu na ogólne właściwości technologii SCSI.
Jednak współczesne dyski twarde IDE dosłownie depczą po piętach swoim drogim odpowiednikom SCSI. Najbardziej ważkie argumenty przemawiające za wersją IDE podsystemu dyskowego twojego komputera są niezwykle niska cena(2-4 razy mniej niż SCSI) o dużej pojemności, niskim poziomie ciepła i hałasie.
Sytuację dodatkowo pogarsza fakt, że w ostatnim czasie popularne stały się macierze RAID w standardzie IDE. Wcześniej technologie RAID były używane głównie w podsystemach dysków SCSI. Pojawienie się na rynku stosunkowo niedrogich kontrolerów IDE RAID pozwoliło dyskom twardym IDE na dalsze rozszerzenie ich niszy rynkowej. Standard RAID 1 (Mirror) pozwala na zwiększenie niezawodności podsystemu dyskowego proporcjonalnie do liczby nadmiarowych dysków twardych. Tak więc, budując macierz RAID w trybie Mirror z dwóch identycznych dysków twardych, podwajamy niezawodność przechowywania naszych informacji (są duplikowane) i jednocześnie uzyskujemy fajny bonus w postaci nieco zwiększonej prędkości odczytu z macierzy dyskowej (jest to możliwe dzięki sekwencyjnemu odczytywaniu bloków informacji z dwóch dysków twardych i porządkowaniu ich w jeden strumień; odbywa się to na poziomie sprzętowym przez kontroler RAID) . W przypadku wykorzystania RAID 0 (tryb STRIPE) uzyskujemy wzrost szybkości naszego podsystemu dyskowego proporcjonalnie do ilości dysków tworzących macierz – informacja jest dzielona na małe bloki i „rozrzucana” po dyskach . Zatem czysto teoretycznie możliwe byłoby zwiększenie szybkości podsystemu dyskowego o współczynnik równy liczbie dysków twardych w macierzy. Niestety w praktyce wzrost prędkości nie jest aż tak duży, ale o tym przeczytasz poniżej, oceniając wyniki testu. Nie sposób nie zauważyć głównej wady trybu RAID 0 (Stripe) - niezawodność przechowywania informacji zmniejsza się dokładnie tyle razy, ile jest używanych dysków twardych. Tryb RAID 0+1 został zaprojektowany specjalnie po to, aby wyeliminować ten nieprzyjemny efekt - rodzaj „mieszanki” trybów Mirror i Stripe. Macierz RAID 0+1 wymaga co najmniej 4 dysków twardych. Rezultatem jest niezawodność pojedynczego dysku oraz podwojenie pojemności i zwiększona wydajność.
Koncepcje wydajności różne rodzaje dyski twarde dla wielu użytkowników są często chaotyczne. Większość ludzi wie tylko, że „SCSI jest strasznie fajny, znacznie szybszy niż IDE”, niektórzy „zaawansowani” szczerze wierzą, że macierz RAID dwóch dysków w trybie Stripe jest dokładnie dwa razy szybsza niż pojedynczy dysk twardy. W rzeczywistości narosło w tej dziedzinie wiele mitów, często zupełnie nieprawdziwych. Ten artykuł jest próbą wyjaśnienia sprawy poprzez dokładny pomiar wydajności. różne rodzaje podsystemy dyskowe. Chciałbym zwrócić szczególną uwagę na to, że do oceny wydajności wykorzystywano nie syntetyczne zestawy testów (które z reguły mało się przydają), ale najbardziej praktyczne zadania z arsenału osób zawodowo zajmujących się grafiką na PC .
Przetestowano więc następujące warianty podsystemów dyskowych:
IDE- przestarzały dysk twardy (5400 obr./min, 512 kb cache, 4 GB na talerz) z interfejsem ATA-33 - Fujitsu MPD3130AT; płyta główna - i440BX z wbudowanym kontrolerem ATA-33. |
IDE- dysk twardy nowej serii (7200 rpm, 2048 KB cache, 20 GB na talerz) z interfejsem ATA-33 - Western Digital WD200; i440BX, ATA-33 (wbudowany). |
IDE- dysk twardy nowej serii (7200 rpm, 2048 KB cache, 20 GB na talerz) z interfejsem ATA-100 - Western Digital WD200; Kontroler RAID Promise FastTrak100 (SPAN). |
NALOT-macierz dwóch nowoczesnych dysków IDE w trybie Stripe - 2xWestern Digital WD200; Kontroler RAID Highpoint Technologies HPT370 UDMA/ATA 100 (STRIPE). |
SCSI- wysokiej klasy dysk twardy (10 000 obr./min, 4096 KB pamięci podręcznej, 6 GB na talerz) z Interfejs SCSI Ultra160 — Fujitsu MAJ 3182 MP; Kontroler SCSI - Adaptec 29160N. |
Dla czystości eksperymentu każda wersja podsystemu dyskowego została zainstalowana w systemie absolutnie „od zera”. Dysk (lub macierz dyskowa) został podzielony przez program FDISK na trzy logiczne. W tym samym czasie głośność partycja rozruchowa(dysk logiczny C:\) był zawsze ustawiony na 3 GB. Reszta miejsca została równo podzielona między dyski D:\ i E:\. System operacyjny został zainstalowany na dysku C:\, plik stronicowania programu Photoshop znajdował się na dysku D:\; były też pliki testowe. System plików to FAT32.
Aby zapewnić dobre obciążenie podsystemu dyskowego i tym samym ocenić jego wydajność, ilość pamięci RAM została ograniczona do 128 MB (pomimo tego, że w systemach tej klasy przeznaczonych do pracy z grafiką rastrową 256 MB jest poziom podstawowy). Ilość dostępnej pamięci Photoshop 5,5, ustalono na 50% całkowitej wolnej. Objętość ta wynosiła około 57 MB. Wszystkie testy przeprowadzono na dwóch plikach o różnych rozmiarach – rozmiar pierwszego wynosił 1/5 ilości pamięci dostępnej dla Photoshopa, rozmiar drugiego był 1,5 raza większy (). Umożliwiło to uzyskanie danych o szybkości wykonania danej operacji w dwóch przypadkach: gdy przetwarzany plik mieści się w pamięci RAM z marginesem oraz gdy gwarantuje się, że nie zmieści się tam w całości. Muszę powiedzieć, że dla pliku o mniejszym rozmiarze wyniki uzyskane na różnych podsystemach dyskowych są prawie identyczne, co wcale nie jest zaskakujące - główne przetwarzanie odbywało się w pamięci RAM. Różnice w tym przypadku są zauważalne tylko w operacjach odczytu / zapisu - podczas otwierania i zapisywania pliku. Zupełnie inny obraz zaobserwowano podczas przetwarzania dużego pliku. Ponieważ plik nie mieścił się całkowicie w pamięci RAM, program Photoshop aktywnie korzystał z podsystemu dysku komputera. Wyniki tych testów, jako najbardziej odkrywcze, przedstawione są w formie wykresów. Pełne wyniki, w tym testy z mniejszym plikiem, a także testy z większą ilością potężny procesor, można zobaczyć w tabeli podsumowującej nr 2.
Zainteresowani mogą powtórzyć wszystkie testy z tego artykułu na innych systemach, ponieważ wszystkie użyte ustawienia są wymienione w tabeli. Pliki testowe zostały utworzone w następujący sposób: CMYK balloons.tif został pobrany z katalogu ... \Adobe\Photoshop5.5\Goodies\Samples\. Po konwersji do RGB został przeskalowany do 2240x1680 i 6400x4800 pikseli, co dało dwa pliki TIFF RGB o wielkości odpowiednio 10,7 i 89,7 MB. Wszystkie operacje zostały przeprowadzone na otrzymanych plikach. Po każdej operacji wynik był anulowany poleceniem Cofnij. Ostatnia operacja (Save) została wykonana w formacie CMYK. Każdy test wykonywano trzykrotnie, a wyniki uśredniano. Po każdym teście system uruchamiał się ponownie.
System nr 1: Fujitsu MPD3130AT; i440BX, ATA-33
Dysk twardy z serii Fujitsu MPD to zasłużony weteran. Półtora roku temu dyski twarde takiej klasy jak Fujitsu MPD, Quantum CR i ich inne analogi były najszybsze w sektorze dysków twardych w standardzie IDE. Ten dysk twardy ma trzy talerze 4,32 GB, 6 głowic odczytu/zapisu i wbudowany bufor 512 KB. Średni czas wyszukiwania - 9,5 / 10,5 ms (odczyt/zapis), prędkość obrotowa wrzeciona - 5400 obr/min, poziom hałasu - 36 dB. Obsługiwany jest standard ATA-66, ale to nic innego jak chwyt marketingowy, gdyż szybkość przesyłania danych mieści się w zakresie 14,5-26,1 MB/s, co w pełni wpisuje się w możliwości standardu ATA-33 (33,3 MB / s).
Fujitsu MPD3130AT okazał się niezawodnym, cichym dyskiem twardym. Podczas pracy odgłos obracającego się wrzeciona jest prawie niesłyszalny, ale odgłos głowic pozycjonujących jest wyraźnie wyczuwalny. Dysk nagrzewa się bardzo mało – nawet przy dłuższym użytkowaniu obudowa pozostaje chłodna lub ledwo ciepła.
W testach MPD3130AT znacznie przegrywa ze wszystkimi pozostałymi uczestnikami, co wcale nie jest zaskakujące, biorąc pod uwagę różnicę w charakterystyce z najbliższym konkurentem WD200 (prędkość obrotowa - odpowiednio 5400 i 7200 obr./min, gęstość zapisu - 4,3 GB na talerz w porównaniu z 20 GB ).
Testowanie na dwóch różnych systemach operacyjnych przyniosło nieco sprzeczne wyniki: Windows 98 jest znacznie szybszy niż operacje otwierania i zapisywania plików, podczas gdy Windows 2000 jest znacznie szybszy niż wszystko inne. W przeciwnym razie żadnych niespodzianek.
System nr 2: Western Digital WD200; i440BX, ATA-33.
WD200 to przedstawiciel nowej generacji dysków twardych. Główne parametry to 7200 rpm, wewnętrzna pamięć podręczna zwiększona do 2048 KB, gęstość zapisu to 20 GB na talerz. Płyta ma jeden talerz i dwie głowice. Średni czas wyszukiwania deklarowany przez producenta to 8,9/10,9 ms, co nie odbiega zbytnio od charakterystyki Fujitsu MPD3130AT. Jednak WD200 jest zauważalnie szybszy. Po pierwsze, wpływa na większą objętość wbudowanego bufora. Po drugie, kurs wymiany w sekcji „buffer-to-surface” sięga imponujących 30,5-50 MB/s – w końcu 20 GB na talerz to poważna gęstość zapisu.
W działaniu dysk pokazał się od samego pozytywna strona- mimo zwiększonej prędkości wrzeciona okazał się cichszy od Fujitsu MPD (deklarowany poziom hałasu - 30 dB). Ruchy głowy są prawie niesłyszalne.
Z rozpraszaniem ciepła sytuacja jest gorsza, ale całkiem do przyjęcia. Po godzinie intensywnej pracy dysk twardy rozgrzał się do 45 stopni, czyli był ciepły w dotyku, ale nie gorący.
Ogólnie podana konfiguracja pozostawił bardzo pozytywne wrażenie i jest niekwestionowanym mistrzem pod względem stosunku ceny do wydajności. Oceń sam - w cenie około 130 USD ten dysk twardy stanowi kompletne rozwiązanie ze zintegrowanym kontrolerem ATA-33 chipsetu 440VX. I żadnych problemów z Windows 98, jak to widać w przypadku korzystania z ATA-100.
System #3: Western Digital WD200; ATA-100 Obietnica FastTrak100 (HISZPANIA).
Testy ujawniły bardzo ciekawy punkt - podczas korzystania z interfejsu ATA-100 w Windows 98 wydajność podsystemu dyskowego była w większości przypadków niższa niż przy użyciu ATA-33. W niektórych przypadkach nastąpił tylko katastrofalny (5-10-krotny) spadek wydajności! Ponieważ wyniki w systemie Windows 2000 były absolutnie przewidywalne (czyli ATA-100 okazał się szybszy niż ATA-33, zgodnie z oczekiwaniami), daje to powód do podejrzeń, że kombinacja Windows 98 + ATA-100 nie działa poprawnie . Być może powód leży w konkretny model kontroler - Promise FastTrak100. Ponadto większość testów przebiegała szybciej w systemie Windows 2000.
Z tego wszystkiego możemy wyciągnąć logiczny wniosek – Windows 98 nie nadaje się do poważnej pracy z grafiką. Jeśli chcesz korzystać z najnowszych osiągnięć w dziedzinie IDE, a mianowicie interfejsu ATA-100 lub macierzy RAID w trybie STRIPE, lepiej pracować z systemami operacyjnymi z rodziny NT (Windows NT 4.0 lub Windows 2000), które zachowują się bardziej poprawnie w takich trybach.
W przypadku korzystania z systemu Windows 2000 następuje zysk z przejścia z ATA-33 na ATA-100, ale nie jest on duży.
System #4: dwa dyski Western Digital WD200 + HPT370 UDMA/ATA 100 z kontrolerem RAID (STRIPE).
I wreszcie, macierz RAID dwóch identycznych dysków twardych została przetestowana w trybie paskowych bloków danych (STRIPE). Jako najbardziej optymalny (według innych niezależnych testów) przyjęto rozmiar bloku 64 KB. Teoretycznie prędkość takiego podsystemu dyskowego może być 2 razy większa niż pojedynczego dysku. Ale wyniki testu nie pozostawiają powodów do optymizmu. W zdecydowanej większości zadań wzrost wydajności wynosi 5-15% w porównaniu z pojedynczym dyskiem z interfejsem ATA-100.
Jednym słowem wyniki są rozczarowujące. Budowanie macierzy RAID 0 może być zalecane tylko tym, którzy chcą uzyskać maksymalną wydajność z technologii IDE, pomimo wszystkich wad opisanych powyżej. Ale może to być konieczne tylko dla tych, którzy zajmują się wprowadzaniem nieskompresowanego wideo na komputerze.
System nr 5: Fujitsu MAJ 3182 MP + kontroler Adaptec 29160N SCSI.
Ostatni uczestnik „konkursu” to bardzo wysokiej klasy dysk twardy SCSI. Muszę powiedzieć, że MAJ 3182 został wybrany jako „górny pasek” ten test. Cóż, ten dysk twardy zdołał wyraźnie zademonstrować swoją wyższość – w niemal wszystkich testach idzie „łeb w łeb” ze swoim głównym rywalem – macierzą RAID w trybie STRIPE.
Wyobrażenie o potencjalnych możliwościach Fujitsu MAJ 3182 MP może dać również jego charakterystyka. Prędkość obrotowa wrzeciona - 10 025 obr/min, ilość dysków - 3, głowice - 5, średni czas wyszukiwania - 4,7/5,2 ms, wielkość wbudowanego bufora - 4096 KB. Wykorzystywany jest interfejs SCSI Ultra160, który zapewnia synchroniczną szybkość przesyłania danych w sekcji „kontroler-bufor” 160 MB/s.
Wszystkie te imponujące parametry wpłynęły na zużycie energii i hałas dysku twardego. Fujitsu MAJ 3182 MP nagrzewa się po prostu okropnie - temperatura obudowy po dłuższym czasie pracy wzrasta do 60°C, jeśli nie więcej - obudowa wyraźnie pali palce. Poziom hałasu podczas pracy również nie jest mały - 40 dB. A największym minusem jest cena. W chwili pisania tego tekstu zestaw dysku twardego i kontrolera SCSI-160 kosztował w Moskwie około 500 dolarów.
Wyniki
Na podstawie wyników testów chciałbym więc wyciągnąć kilka wniosków, które przydadzą się tym, którzy zamierzają uaktualnić podsystem dyskowy swojej stacji graficznej.
- Dyski poprzednich generacji o niskiej gęstości zapisu i niewielkim wbudowanym buforze znacznie przegrywają z nowoczesnymi modelami we wszystkich głównych parametrach - szybkości, pojemności i bezgłośności. Zapraszam do wymiany starego dysku twardego Fujitsu klasy MPD na nowy szybki dysk twardy o zwiększonej gęstości zapisu (15-20 GB na talerz) i dużej pamięci podręcznej (2 MB). Wzrost wydajności może wynosić 100 procent lub więcej. Co więcej, wszystkie powyższe informacje pozostają aktualne nawet w przypadku korzystania z interfejsu ATA-33.
- Przejście z ATA-33 na ATA-100 nie zapewnia dużego wzrostu wydajności. Kupowanie osobnego kontrolera ATA-100, choć niedrogiego (około 30 USD), moim zdaniem nie jest tego warte. Odpowiednią opcją jest obecność na płycie głównej „darmowego” wbudowanego kontrolera tego standardu.
- Macierz RAID w trybie STRIPE wykazała się bardzo dobrą wydajnością - na poziomie "dziesięciotysięcznika" SCSI, a często nawet wyższym. Jednocześnie trzeba liczyć się z bardzo atrakcyjnym kosztem takiej konfiguracji, ponieważ dwa dyski twarde tworzące macierz wraz z niedrogim kontrolerem RAID firmy Highpoint kosztują mniej niż jeden dysk twardy SCSI bez kontrolera! (130+130+30 = 290 USD). A do tego dostajemy ogromną, w porównaniu z wersją SCSI, pojemność 40 GB. Jedyny, ale bardzo duży minus to dwukrotny spadek niezawodności przechowywania danych. Jeśli jednak tego typu macierz dyskowa ma być wykorzystywana jako środek praca operacyjna, a nie jako długoterminowe przechowywanie cennych informacji, jej pozyskiwanie jest więcej niż uzasadnione.
- Najwyższej klasy dyski twarde SCSI, jak można się spodziewać, mają najwyższą wydajność.
Jednak biorąc pod uwagę wysoką cenę, wysokie odprowadzanie ciepła i poziom hałasu takich urządzeń, ich zakup jest uzasadniony tylko wtedy, gdy potrzebna jest bezkompromisowo wysoka wydajność (i niezawodność podsystemu dyskowego, ponieważ dyski twarde SCSI zawsze słynęły z niezawodności i wysokiego współczynnika MTBF ).
Podsumowując, chciałbym zwrócić uwagę czytelników na dwie linijki w ostatniej tabeli - wyniki pomiarów przy wymianie procesora Pentium-III-650E (100 MHz magistrala systemowa) na Pentium-III-866EB (133 MHz FSB). Jak widać, wymiana procesora na znacznie mocniejszy nie daje szerokiego rozrzutu wyników. To pokazuje, że wybrana metoda testowania była poprawna (niska „zależność od procesora”, główne obciążenie spada na podsystem dyskowy).
Z Andriej Nikulin można się z nim skontaktować przez e-mail: [e-mail chroniony] .
Redakcja dziękuje Elko Moscow, SMS, Pirit i Russian Style za pomoc, która dostarczyła sprzęt do testów.
Płyta główna | ASUS P3B-F |
procesor | Intel Pentium III-650E (FSB 100 MHz) |
Baran | 128 MB, PC-133 M.tec (2-2-2-8-szybki) |
Adapter wideo | Creative 3DBlaster TNT2 Ultra |
Kontroler RAID | Highpoint Technologies Kontroler RAID UDMA/ATA 100 HPT370 |
Kontroler ATA-100 | Obietnica FastTrak100 |
Kontroler SCSI | Adaptec 29160N (jednokanałowy 32-bitowy adapter hosta PCI-Ultra160 SCSI (OEM)) |
Dyski twarde | IDE-Fujitsu MPD3130AT IDE - Western Digital WD200 - 2 szt. SCSI - Fujitsu MAJ 3182 MP |
System operacyjny | Windows 98 4.10.1998 + DirectX 7.0a Windows 2000 Professional 5.00.2195 z dodatkiem Service Pack 1 |
Program testowy (ustawienia opcji) | Adobe Photoshop 5.5: Ustawienia pamięci podręcznej: Poziomy pamięci podręcznej — 4 Włączona jest opcja Użyj pamięci podręcznej dla histogramów Wykorzystanie pamięci fizycznej. Pamięć fizyczna): Dostępna pamięć RAM - 113 961 KB; Używany przez Photoshopa - 50%; Photoshop RAM - 56 980 KB. Zdrapki: Po pierwsze: D:\; reszta jest wyłączona. |
Pliki testowe | 0,2 Photoshopa RAM; 2240x1680 pikseli; kolor 24-bitowy; RGB TIFF, 10,7 MB; 1,5 Photoshopa RAM; 6400x4800x24; TIFF RGB; 87,9 MB. |
Czasopisma w domenie publicznej.
Jeśli chodzi o wydajność, zwracają uwagę przede wszystkim na częstotliwość procesora, szybkość pamięci, chipset itp. itd., jeśli pamiętają o podsystemie dyskowym, to mimochodem, najczęściej zwracając uwagę tylko na jeden parametr - prędkość odczytu liniowego. Jednocześnie to właśnie podsystem dyskowy najczęściej staje się wąskim gardłem w systemie. Dlaczego tak się dzieje i jak tego uniknąć, powiemy w tym artykule.
Zanim porozmawiamy o wydajności, pamiętajmy, jak ułożony jest dysk twardy, ponieważ wiele funkcji i ograniczeń dysku twardego jest dokładnie określonych poziom fizyczny. Nie wchodząc w szczegóły, możemy powiedzieć, że dysk składa się z jednej lub więcej płyt magnetycznych, nad którymi znajduje się blok głowic magnetycznych, które z kolei zawierają namagnesowane koncentryczne koła - cylindry (tory), które z kolei składają się z małych fragmenty - sektory. Sektor - minimalna adresowalna przestrzeń dyskowa, jej rozmiar jest tradycyjnie 512 bajtów, chociaż niektóre nowoczesne dyski mają większy sektor tak duży jak 4 KB.
Podczas obrotu dysku sektory przechodzą obok bloku głowic magnetycznych, które zapisują lub odczytują informacje. Prędkość obrotowa ( prędkość kątowa) dysku w końcowym momencie czasu, wartość jest stała, ale prędkość liniowa różnych części dysku jest różna. Na zewnętrznej krawędzi dysku jest maksymalna, na wewnętrznej jest minimalna. Rozważmy następujący rysunek:
Jak widać, w tym samym czasie pewien obszar dysku wykona obrót o ten sam kąt, jeśli oznaczymy ten obszar jako sektor, to okazuje się, że pięć sektorów od zewnętrznego tor i wpadną do niego tylko trzy z wewnętrznego. Dlatego przez określony czas głowica magnetyczna liczy od cylindra zewnętrznego duża ilość informacje niż od wewnątrz. W praktyce objawia się to tym, że wykres prędkości odczytu dowolnego dysku jest krzywą malejącą.
Początkowe sektory i cylindry zawsze znajdują się na zewnątrz, zapewniając maksymalną szybkość wymiany danych, dlatego zaleca się umieszczenie partycja systemowa na samym początku płyty.
Przejdźmy teraz do więcej wysoki poziom- poziom systemu plików. System plików operuje na większych blokach danych - klastrach. Typowy rozmiar klastra NTFS to 4 KB lub 8 sektorów. Po otrzymaniu instrukcji odczytu określonego klastra dysk odczyta 8 kolejnych sektorów, z sekwencyjnym ułożeniem danych system operacyjny wyda polecenie odczytu danych z klastra 100 do klastra 107. Ta akcja będzie jedna operacja wejścia-wyjścia (IO), maksymalna liczba takich operacji na sekundę (IOPS) jest skończona i zależy od tego, ile sektorów mija głowicę w jednostce czasu (a także od czasu pozycjonowania głowicy). Szybkość wymiany danych jest mierzona w MB/s (MBPS) i zależy od tego, ile danych zostanie odczytanych podczas jednej operacji we/wy. Przy sekwencyjnym ułożeniu danych kurs wymiany będzie maksymalny, a liczba operacji I / O będzie minimalna.
Tutaj nie byłoby zbyteczne przywoływanie takiego parametru, jak gęstość zapisu, która wyraża się w obszarze wymaganym do zapisu 1 bitu danych. Im wyższy ten parametr, tym więcej danych może pomieścić jedna tabliczka i tym większa prędkość liniowej wymiany danych. To wyjaśnia wyższą charakterystykę prędkości nowoczesnych dysków twardych, chociaż technicznie mogą one w żaden sposób nie różnić się od starszych modeli. Poniższy rysunek ilustruje tę sytuację. Jak widać, przy większej gęstości zapisu przez ten sam okres czasu, przy tej samej prędkości obrotowej, więcej danych zostanie odczytanych/zapisanych
Teraz przeanalizujmy dokładnie odwrotną sytuację, musimy policzyć dużą liczbę małych plików losowo rozrzuconych po całym dysku. W takim przypadku liczba operacji I/O będzie duża, a kurs wymiany danych niski. Główny czas będzie oczekiwał na dostęp do kolejnego bloku danych, który jest zależny od czasu pozycjonowania głowicy oraz opóźnienia spowodowanego obrotem dysku. Prosty przykład: jeśli polecenie odczytu 98 zostanie odebrane po sektorze 100, będziesz musiał poczekać na pełny obrót dysku, aż będzie możliwe odczytanie tego sektora. Powinno to również zwiększyć czas potrzebny na fizyczny odczyt wymaganej liczby sektorów. Połączenie tych parametrów będzie czas dostępu losowego, który ma bardzo duży wpływ na wydajność dysku twardego.
Należy zauważyć, że system operacyjny i wiele zadań serwerowych (DBMS, wirtualizacja itp.) charakteryzuje się dostępem losowym o rozmiarze bloku 4 KB (rozmiar klastra), podczas gdy głównym wskaźnikiem wydajności nie będzie liniowy kurs wymiany danych ( MBPS) oraz maksymalną liczbę operacji wejścia/wyjścia na sekundę (IOPS). Im wyższy ten parametr, tym więcej danych można odczytać w jednostce czasu.
Jednak liczba operacji I/O nie może rosnąć w nieskończoność, wartość ta jest bardzo ściśle ograniczona od góry wskaźniki fizyczne dysk twardy, a mianowicie czas dostępu losowego.
A teraz porozmawiajmy o fragmentacji, istota tego zjawiska jest dobrze znana, ale przyjrzymy się temu przez pryzmat performansu. W przypadku dużych plików i obciążeń liniowych fragmentacja może znacznie obniżyć wydajność, ponieważ dostęp sekwencyjny zamieni się w dostęp losowy, powodując gwałtowny spadek prędkości dostępu, a także gwałtowny wzrost liczby operacji we/wy.
Przy losowym charakterze dostępu fragmentacja nie odgrywa szczególnej roli, ponieważ nie ma różnicy, w którym konkretnym miejscu na dysku znajduje się ten lub inny blok danych.
Pojawienie się dysków z większym sektorem 4 KB spowodowało kolejny problem: wyrównanie systemu plików względem sektorów dysku. Możliwe są tutaj dwie opcje: jeśli system plików jest wyrównany, to każdy klaster odpowiada sektorowi, jeśli nie jest wyrównany, to każdy klaster odpowiada dwóm sąsiednim sektorom. A ponieważ sektor jest minimalną jednostką adresowalną, aby odczytać jeden klaster, będziesz musiał odczytać nie jeden, ale dwa sektory, co negatywnie wpłynie na wydajność, szczególnie przy dostępie losowym.
Rzeczywista wydajność dysku twardego jest zawsze równowagą między szybkością przesyłania danych a liczbą operacji we / wy. Scharakteryzowano czytanie sekwencyjne duży rozmiar pakiet danych, który jest odczytywany w jednej operacji we/wy. Prędkość maksymalna (MBPS) będzie możliwa do osiągnięcia przy sekwencyjnym odczytywaniu sektorów z zewnętrznej krawędzi dysku, liczba operacji wejścia-wyjścia (IOPS) będzie minimalna - ścieżki są długie, trzeba rzadziej pozycjonować głowicę, natomiast więcej danych jest odczytywanych. Na torach wewnętrznych prędkość linii będzie mniejsza, liczba operacji we/wy będzie większa, tory będą krótkie, trzeba częściej pozycjonować głowicę, odczytuje się mniej danych.
Przy dostępie losowym prędkość będzie minimalna, ponieważ rozmiar pakietu danych jest bardzo mały (w najgorszym przypadku klaster), a wydajność będzie ograniczona do maksymalnej dostępnej liczby IOPS. Dla nowoczesnych dysków masowo produkowanych wartość ta wynosi około 70 IOPS, łatwo obliczyć, że przy dostępie losowym o rozmiarze pakietu 4 KB uzyskamy maksymalną prędkość nie większą niż 0,28 MBPS.
Niezrozumienie tego punktu często prowadzi do tego, że podsystem dyskowy okazuje się być wąskim gardłem spowalniającym cały system. Tak więc wybierając między dwoma dyskami o maksymalnej prędkości liniowej 120 i 150 MBPS, wielu bez wahania wybierze drugi, nie patrząc na to, że pierwszy dysk zapewnia 70 IOPS, a drugi tylko 50 IOPS (dość typowa sytuacja dla serii ekonomicznej), a potem bardzo się zdziwię, dlaczego „szybszy” napęd tak bardzo spowalnia.
Co się stanie, jeśli ilość IOPS dysku nie wystarczy do przetworzenia wszystkich żądań? Pojawi się kolejka żądań dysku. W praktyce wszystko jest nieco bardziej skomplikowane i kolejka dyskowa pojawi się nawet wtedy, gdy IOPS jest wystarczające. Wynika to z faktu, że różne procesy które uzyskują dostęp do dysku mają inny priorytet, a operacje zapisu zawsze mają pierwszeństwo przed operacjami odczytu. Aby ocenić sytuację, istnieje parametr długość kolejki dyskowej, którego wartość nie powinna przekraczać (zgodnie z zaleceniami Microsoft)
Liczba wrzecion HDD + 2
W każdym razie, stale duża długość kolejki wskazuje, że bieżąca liczba IOPS jest niewystarczająca dla systemu. Wzrost kolejki dysków w już działających systemach wskazuje albo na wzrost obciążenia, albo na awarię lub zużycie dysków twardych. W każdym razie powinieneś pomyśleć o uaktualnieniu podsystemu dyskowego.
Na tym kończy się nasz dzisiejszy materiał, dostarczone informacje powinny wystarczyć do zrozumienia procesów fizycznych zachodzących podczas Pracuj ciężko dysk i ich wpływ na wydajność. W kolejnych artykułach przyjrzymy się, jak poprawnie określić, ile IOPS potrzebujesz w zależności od charakteru obciążenia i jak poprawnie zaprojektować podsystem dyskowy, aby spełniał wymagania.
Tagi:
Szybka ewolucja oprogramowanie doprowadziło do coraz większego wzrostu wymagań dla podsystemu dyskowego komputera. Oprócz szybkości działania i ilości przechowywanych informacji producenci skupili się na poprawie takich parametrów, jak niezawodność napędów i ich właściwości użytkowe (na przykład łatwość instalacji i poziom hałasu). Wzrost popularności komputerów przenośnych skierował nurt myśli inżynierskiej w obszar miniaturyzacji napędów i zwiększenia ich niezawodności w ekstremalnych warunkach. Teoretycznie możliwe jest opracowanie rozwiązania, które jednocześnie spełnia wszystkie wymienione wymagania. Jednak z praktycznego punktu widzenia uniwersalne rozwiązanie nie sprawi wiele radości, ponieważ „idealny” dysk twardy będzie kosztował wielokrotnie więcej niż „niedoskonały”. Z tego powodu obecnie widzimy prawdziwą różnorodność dysków twardych wykonanych według różne technologie połączone różnymi interfejsami i posiadające różne parametry techniczne. Ten artykuł zawiera krótkie porady dotyczące wyboru dysków twardych, a także omawia bieżące problemy, z jakimi borykają się w praktyce użytkownicy i administratorzy systemów podczas wdrażania macierzy RAID.
Niektóre wymagania dotyczące nowoczesnego dysku twardego
Dysk twardy (dysk twardy) jest uważany za najbardziej rozpoznawalny i rozpowszechniony sposób przechowywania informacji. Informacje na tym dysku nie znikają po wyłączeniu komputera, w przeciwieństwie do, powiedzmy, pamięci RAM, a koszt przechowywania megabajta informacji jest bardzo niski (około 0,6 centa). Nowoczesny dysk twardy ma wysoką wydajność i imponującą pojemność przy niskim koszcie na megabajt. miejsce na dysku. Nowoczesne dyski twarde mogą mieć 47 GB lub więcej. Aby „poczuć” taką objętość, możesz dokonać prostego oszacowania. Na dysku o pojemności 47 GB można zapisać około 7 milionów stron czasopisma ComputerPress w formacie tekstowym, czyli prawie 57 000 unikalnych numerów czasopism. W przypadku tej edycji ComputerPressa bezawaryjnie zajęłoby prawie 5 tysięcy lat. Dyski twarde (zwykle kilka, niezwykle rzadko jeden) z wysokiej jakości powłoką magnetyczną obracają się wewnątrz uszczelnionej obudowy dysku twardego z ogromną stałą prędkością (5400, 7200, 10 000, 15 000 obr./min). Są „naciągnięte” na obracający się wał - wrzeciono. Informacje na dysku znajdują się na „torach” (koncentrycznych kręgach), z których każdy jest podzielony na części-sektory. Każdemu obszarowi dysku przypisywany jest odpowiedni numer w procesie formatowania niskiego poziomu wykonywanego przez producenta dysku. Odczyt i zapis po obu stronach dysku magnetycznego odbywa się za pomocą głowic magnetycznych. Same głowice montowane są na specjalnej dźwigni (adjucatorze) i przenoszone są po powierzchni wirującego dysku z prędkością nie do odróżnienia przez ludzkie oko. Przeciętny czas, przez który głowica zdoła ustawić się nad żądanym obszarem dysku (średni czas dostępu) zasadniczo odzwierciedla jego wydajność - im krótszy czas dostępu, tym szybszy dysk twardy. Oprócz powyższego dysk twardy zawiera płytę kontrolera zawierającą całą elektronikę napędu.
Współczesny dysk twardy, zgodnie ze specyfikacją PC'99, musi obsługiwać tryb bus masteringu, a także S.M.A.R.T. Bus mastering to mechanizm bezpośredniej wymiany informacji w autobusie bez udziału procesor. Oprócz poprawy wydajności tryb ten zmniejsza obciążenie procesora centralnego (jest już wielu pretendentów do jego zasobów: modemy oprogramowania są „leniwe”, karty dźwiękowe, jednocześnie działające aplikacje itp.). Aby zaimplementować protokół masteringu magistrali, konieczne jest, aby wszyscy uczestnicy procesu (w tym kontroler dysku twardego i chipset płyty głównej) go obsługiwali. Technologia S.M.A.R.T. (Self-Monitoring Analysis and Reporting Technology) to sprzętowy mechanizm przewidywania awarii na dysku twardym, który gwarantuje użytkownikom „niespodzianki” dysku twardego. Nowoczesne dyski twarde z interfejsem ATA (IDE) muszą obsługiwać tryb Ultra ATA/33, który zapewnia maksymalną wydajność zewnętrzną dysku twardego do 33,3 MB/s. Wiele dysków jest już dostępnych z interfejsem Ultra ATA/66 ( maksymalna prędkość transfer na poziomie 66,6 MB/s), ale, niestety, wartości te rzadko są osiągane w rzeczywistości, ponieważ wydajność dysków twardych jest ograniczona nie przez wąski interfejs przesyłania danych, ale głównie przez mechanikę.
Duża prędkość obrotowa dysków wewnątrz dysku twardego prowadzi do wibracji, które są niedopuszczalne i są tłumione przez urządzenia o specjalnej konstrukcji. Dlatego też o doskonałości projektu dysku twardego często decyduje słuch: im cichszy dysk twardy, tym lepsza jego mechanika i mniej ciepła.
Kupowanie dysku twardego: na co zwrócić uwagę
Kupując dysk twardy w cenniku firmy handlowej, zazwyczaj można znaleźć następującą linię: HDD IBM 13,7 GB 5400 rpm IDE ATA/66. Na język rosyjski tłumaczy się to w następujący sposób: dysk twardy firmy IBM o pojemności 13,7 GB, prędkości wrzeciona 5400 obr./min z interfejsem Ultra ATA/66. Wygląda niezrozumiale tylko na pierwszy rzut oka. W rzeczywistości zasady wyboru dysku twardego są uniwersalne:
- miarodajny znak towarowy nie jest gwarancją jakości, ale argumentem przemawiającym za wyborem markowego dysku twardego. Przede wszystkim przyjrzyj się bliżej modelom IBM i Seagate, choć mają one, jak każda firma, udane i wyjątkowo nieudane serie dysków twardych;
- im większa pojemność, tym bardziej opłacalny staje się dysk twardy pod względem „ceny za megabajt”. Jednak dyski twarde o dużej pojemności często stają się zrzutem zapomnianych plików i są droższe niż ich mniej pojemne odpowiedniki. Obsługa dużych dysków twardych trwa znacznie dłużej (na przykład defragmentacja), dlatego do celów domowych można polecić dyski twarde o pojemności około 10-20 GB;
- im wyższa prędkość wrzeciona napędowego, tym większa jego wydajność (szybkość zapisu i odczytu danych), ale im wyższa cena i tym silniejsze ciepło. Do użytku domowego i biurowego zalecamy preferowanie dysków twardych o prędkości obrotowej wrzeciona 5400-7200 obr./min (obroty na minutę - obroty na minutę);
- IDE (ATA) to rodzaj interfejsu (mechanizm i protokół połączenia) dysku z płytą główną komputera. Interfejs IDE jest najtańszy i najczęstszy, więc może być uniwersalną rekomendacją. Bardziej „profesjonalny” jest interfejs SCSI, który pozwala na podłączenie do ośmiu urządzeń oraz IEEE-1394 (FireWire). SCSI stał się zauważalnie mniej rozpowszechniony niż IDE ze względu na jego wysoką cenę i cechy konfiguracyjne. A FireWire powinien wkrótce stać się standardem cyfrowej wymiany danych między cyfrową elektroniką użytkową a komputerowymi urządzeniami peryferyjnymi. Jednym słowem, jeśli nie zajmujesz się edycją wideo, digitalizacją wideo i edycją ogromnych plików, twoim wyborem jest dysk twardy z interfejsem IDE;
- ATA/66 (ten sam Ultra ATA 66 lub Ultra DMA 66) jest rozszerzeniem interfejsu IDE (ATA), które w wyjątkowych przypadkach pozwala osiągnąć prędkość transferu danych na poziomie 66 MB/s i często zmniejszyć obciążenie procesora centralnego. To oczywiście jest niezwykle rzadkie i trwa ułamki sekundy. Zwykła wydajność dysku twardego jest 4-5 razy niższa. Aby podsystem dyskowy mógł osiągnąć taką wydajność, konieczne jest, aby kontroler: płyta główna a dysk twardy obsługuje taki standard. Nowoczesne dyski twarde są już dostępne z obsługą ATA-100 i nie są dużo droższe niż analogi z ATA/33 lub ATA/66. Wniosek: jeśli pozwalają na to finanse, lepiej kupić dysk twardy ATA-100, ale ATA/66 to również całkiem dobry wybór.
Uwagi dotyczące optymalizacji podsystemów dyskowych
Szybki dysk twardy nie gwarantuje jeszcze maksymalnej wydajności podsystemu dysków. Tak jak świta gra króla, wydajność dysku twardego zależy od urządzeń, na których jest on zmuszony pracować. Przede wszystkim konieczne jest zrównoważenie potrzeb i możliwości. W praktyce oznacza to, że przed zakupem dysku twardego należy bezwzględnie poznać możliwości swojej płyty głównej. Zakup dysku ATA-100 do płyty głównej ATA-33/66 powinien być dokładnie przemyślany i uzasadniony - jest to konieczne przede wszystkim dla Ciebie. Niestety nie jest niczym niezwykłym (szczególnie w środowisku akademickim) zakup dysków ATA-100 (7200 obr./min) w celu aktualizacji przestarzałych dysków i486/P60. Nie ma potrzeby mówić o finansowej czy praktycznej wykonalności tej decyzji. Nie skupimy się jednak na rzeczach oczywistych, ale rozważymy mało znane czynniki, które wpływają na szybkość podsystemu dysku.
Dwa urządzenia ATA na jednym kablu: dobre czy złe? Zdecydowanie źle! A jest to spowodowane nie tylko faktem, że ta sama pętla fizyczna służy jako medium transportowe dla obu urządzeń. Problem jest nieco inny – w sposobie współpracy kontrolera z każdym urządzeniem, w którym ich równoległa praca jest niemożliwa. Innymi słowy: dopóki pierwsze urządzenie nie wykona polecenia, nie ma dostępu do drugiego. Oznacza to, że w przypadku uzyskania dostępu do wolniejszego urządzenia w wiązce, szybsze będzie musiało poczekać na zakończenie poprzedniej operacji, co może znacznie spowolnić jego działanie. Najwyraźniej widać to na przykładzie pakietu „dysk twardy-napęd CD-ROM”. Dlatego zaleca się dystrybucję urządzeń ATA w różnych pętlach w zależności od ich szybkości.
Korzystanie z trybu masteringu magistrali. Pierwszy przyjęty standard ATA zakładał wykorzystanie jednostki centralnej (CPU) komputera do organizacji pracy z urządzeniami do przechowywania informacji. Był to tryb PIO (programowane wejście/wyjście), który wszystkie urządzenia ATA muszą nadal obsługiwać. Jednocześnie krótkowzroczność tej metody, która pochłaniała cenne zasoby procesora do pracy z urządzeniami ATA, była dość oczywista. Dlatego producenci sprzętu zaproponowali alternatywę – tryb Bus Mastering (inna nazwa to DMA/UDMA). Główną różnicą w nowym trybie było zwolnienie procesora z operacji kontroli transferu danych i delegowanie tych funkcji do kontrolera ATA. W rezultacie moc procesora jest uwalniana do ważniejszych operacji, co pozwala na zwiększenie wydajność podsystem dyskowy. Ten tryb jest bezproblemowo obsługiwany przez wszystkie płyty główne od ponad pięciu lat.
Korzystanie z kontrolera RAID. Główne roszczenia do dyski twarde pozostaje ich niewielka objętość i stale niewystarczająca szybkość pracy. Dotyczy to dysków twardych instalowanych zarówno na serwerach, jak i stacjach roboczych. Jeśli jednak propozycja aktualizacji podsystemu dysków serwera ma jeszcze szansę na zatwierdzenie przez kierownictwo, to skargi na niewystarczającą prędkość dysku twardego na stacji roboczej z prawdopodobieństwem 99,9% umrą przed dotarciem do naszych uszu. Administrator systemu. W przypadku komputera domowego sytuacja jest jeszcze bardziej dramatyczna, ponieważ pieniądze na aktualizację podsystemu dyskowego będą musiały zostać wycofane z budżetu rodzinnego. Jednocześnie szybkie dyski twarde (ATA-100, 7200 obr./min) kosztują obecnie około 130 USD za 20 GB. Wyjściem z impasu może być zastosowanie kontrolera RAID, który pozwala połączyć kilka dysków fizycznych w jeden logiczny. Krótko mówiąc, zasada korzystania z RAID polega na zrównoleglaniu strumieni informacji odczytu/zapisu między kilkoma fizycznymi nośnikami. W rezultacie maksymalna prędkość odczytu/zapisu z „połączonych” nośników wzrasta tyle razy, ile liczba dysków fizycznych wykorzystanych do utworzenia macierzy RAID. Powyższe dotyczy tylko macierzy RAID poziomu zerowego, co nie oznacza duplikacji przechowywanych informacji. W przeszłości macierze RAID wykorzystywały dość drogie dyski twarde SCSI. Ale już od około roku na rynku dostępne są tanie (od 36 USD) kontrolery RAID do dysków twardych z interfejsem IDE. Ponadto niektórzy producenci płyty główne(Abit, MSI itp.), wraz ze standardowymi interfejsami IDE, zainstaluj kontrolery RAID na swoich płytach. Najpopularniejsze modele kart kontrolerów RAID dla dysków twardych ATA na naszym rynku to Promise i Abit Hot Rod. Oczywiście nie są jedynymi. W szczególności American Megatrends, Inc. (AMI), lepiej znany jako producent kontrolerów RAID dla dysków twardych SCSI, zwrócił uwagę na ten segment rynku, wypuszczając na rynek AMI HyperDisk ATA-100 RAID (szacowana cena 120 USD). Dzięki temu w każdej chwili mamy możliwość zwiększenia szybkości naszego podsystemu dyskowego bez konieczności ponoszenia dużych nakładów. Aby sytuacja z RAID nie wydawała się aż tak optymistyczna, dodajmy do beczki miodu muchę w maści: wiele kontrolerów RAID ma poważne problemy, których natura wciąż nie jest znana. Na przykład mówimy o problemie kompatybilności dysków twardych IBM DTLA - 3070xx i kontrolerów RAID zbudowanych na chipsecie HighPoint HPT-366/368/370. Problem ten jest aktywnie dyskutowany na forach internetowych od kilku tygodni. Jej istota polega na tym, że w przypadku tworzenia macierzy RAID za pomocą kontrolera RAID opartego na chipsecie HPT - 366/368/370 opartego na dyskach twardych IBM DTLA-3070xx dochodzi do nieprzewidywalnego „wyrzucania” danych i dużej ilości uszkodzonych bloków pojawia się nawet na nowych dyskach twardych. Sądząc po opiniach użytkowników, problem ten nie dotyczył użytkowników produktów Promise, ale właściciele Abit Hot Rod i płyt głównych ze zintegrowanym kontrolerem HPT-370 (rzetelnie potwierdzony na płytach Abit VP6 i Abit BX-133 RAID) w pełni to odczuli. Natura tego zjawiska nie została jeszcze oficjalnie wyjaśniona, jednak pojawiają się wątpliwości co do prawidłowego zamykania dysków twardych zawartych w macierzy podczas wyłączania komputera. W rezultacie dane z pamięci podręcznej dysku twardego nie są zapisywane na nośniku, co narusza integralność danych. W takim przypadku, jeśli kontroler RAID jest używany jako źródło dodatkowych portów ATA-100 (czyli nie jest używana funkcja RAID), problem ten nie występuje. Najbardziej irytujące jest to, że niektórzy z najlepszych przedstawicieli rodziny dysków twardych ATA-100 (seria DTLA - 3070xx) podlegają temu efektowi, ponieważ nie ma doniesień o podobnych przypadkach z dyskami twardymi innych producentów.
Kilka obserwacji dotyczących organizacji macierzy RAID z dysków ATA
Ten dział zawiera szereg rzetelnych obserwacji autorów w procesie tworzenia serwera Zarezerwuj kopię, a także wstępne wnioski wyciągnięte na ich podstawie.
Sytuacja pierwsza: Abit VP6 Dual PIII - 667 jest używany z czterema IBM DTLA-307045 w jednej macierzy RAID. W pierwszym miesiącu wszystko działa bez problemów. Mniej więcej w połowie piątego tygodnia następuje spontaniczne (w ciągu jednego dnia) „zrzucanie” (pojawienie się złych bloków) całej tablicy. Macierz została zdemontowana i po przeprowadzeniu testów na wszystkich dyskach z osobna, na każdym dysku twardym znaleziono ogromną liczbę uszkodzonych bloków (~ 3%). Co ciekawe, schemat ich lokalizacji powtórzono dla każdej pary napędów. Wniosek: problem wspólnej interakcji HPT-370 z IBM DTLA-3070xx nie został rozwiązany najnowsze wersje oprogramowanie układowe i sterowniki.
Sytuacja druga: wszystko jest takie samo, zamiast wbudowanego kontrolera RAID używany jest tylko AMI HyperDisk 100. Dodatkowo uszkodzone dyski IBM zastępowane są dwoma dyskami twardymi Fujitsu i dwoma dyskami twardymi Quantum podłączonymi do pierwszego i drugiego kanału kontrolera, odpowiednio. Miał on zorganizować dwie macierze RAID oparte na każdej parze dysków twardych. Wszystkie dyski twarde są instalowane w modułach stojaka podłączonych do kontrolera RAID za pomocą kabli ATA-100 (80-pinowych). Po ręcznym stworzeniu dwóch macierzy zauważyliśmy pojawienie się dwóch nowych dysków o oczekiwanej wielkości (MS Windows 2000 OS). Następnie podczas formatowania z próbą zapisu danych system operacyjny zawiesił się. Pamiętając, że w module stelażowym połączenie dysków twardych odbywa się za pomocą kabla ATA-33 (w tym przypadku kontroler wskazał tryb pracy z dyskami twardymi UDMA-5), wymieniliśmy kable połączeniowe na ATA-33. Po takiej wymianie sterownik przy każdym starcie zaczynał wyświetlać ostrzeżenie o nieuniknionym wzroście prędkości, który czeka nas przy wymianie pętli. Ignorując to zaproszenie z głębokim żalem odnotowaliśmy początek normalnej pracy jednej pary napędów. Połączenie drugiej pary przyniosło jednak niespodziankę – stworzony dysk okazał się niemożliwy do sformatowania Narzędzia Windows 2000, ponieważ pod koniec formatu system operacyjny zgłosił, że format nie może być kontynuowany. Po tym, jak doświadczyliśmy chwilowej słabości, dokładnie przestudiowaliśmy dokumentację HyperDisk, a zwłaszcza sekcję dotyczącą automatycznego tworzenia tablic. W rezultacie pierwszy zestaw tablic został zniszczony, a w tryb automatyczny powstał drugi. A potem zaczęły się niespodzianki. Przede wszystkim kontroler połączył dyski twarde różnych producentów w jedną macierz, czyli zamiast tandemów producentów otrzymaliśmy tandemy mieszane. Wyglądało to dziwnie na tle wezwań do korzystania z tych samych dysków twardych podczas tworzenia tablic. Powód, dla którego pary dysków zostały połączone w macierz paskową, a nie wszystkie cztery jednocześnie, również pozostał niejasny. Badanie obecnej konfiguracji potwierdziło jej pełną wydajność. Jednak ponieważ wolumeny dysków twardych Fujitsu i Quantum różniły się (w wyniku asymetrycznego łączenia utracono około 200 MB na macierz), nadal próbowaliśmy symetrycznie łączyć dyski twarde. Po krótkim, ale dokładnym przestudiowaniu konfiguracji macierzy zauważono, że każda para dysków twardych wchodzących w jej skład jest fizycznie podłączona do różnych kanałów kontrolera RAID. Pamiętając o tym, że kontroler ATA nie jest w stanie pracować równolegle z urządzeniami podłączonymi do jednego z jego kanałów, a użycie tablicy wiąże się z równoczesnym nagrywaniem do każdego urządzenia wchodzącego w jego skład, poczyniliśmy wstępny wniosek o problematycznej pracy tablicy podczas podłączania dysków, które ją tworzą, jeden kanał ATA. To założenie dostarczyło sensownego wyjaśnienia faktu, że cztery dyski twarde zostały połączone w dwie macierze (a nie w jedną), co zostało automatycznie wykonane przez kontroler AMI HyperDisk. Logicznym wnioskiem z tego założenia była zmiana konfiguracji dysków w taki sposób, aby pakiety Primary Master - Secondary Slave i Secondary Master - Primary Slave były tworzone przez dyski twarde tego samego producenta. Po ponownym podłączeniu dysków, macierze zostały automatycznie przekonfigurowane, co przyniosło oczekiwany efekt - dwie macierze składające się z dysków tego samego producenta. W rezultacie otrzymaliśmy ponad 200 „wyciętych” megabajtów tablicy. Jednak nasza radość osłabła, gdy system operacyjny znalazł tylko jedną (mniejszą) macierz. W momencie podpisywania zgłoszenia wszelkie próby wymuszenia na systemie operacyjnym „widzenia” macierzy zakończyły się niepowodzeniem, co może być kolejnym dowodem na konieczność użycia dokładnie tych samych dysków w procesie tworzenia macierzy.
Prasa komputerowa 4 "2001
Materiał podzielony jest na trzy części: A – teoria, B – praktyka, C – tworzenie pendrive’a multiboot.
A. Teoria ogólna (popularna).
1. Żelazo.
Wszystkie urządzenia fizyczne, których używamy na co dzień do przechowywania informacji (dysk twardy, CD-ROM, dysk flash, a nawet dyskietka) to blokowe urządzenia wejścia/wyjścia. Mogą łączyć się z komputerem przez różne interfejsy: IDE, SATA, eSATA, USB. System operacyjny zapewnia użytkownikowi i programiście aplikacji jeden, przejrzysty sposób odczytywania/zapisywania informacji z/na tych nośnikach.
Sterowniki komunikują się bezpośrednio ze sprzętem. Sterownik to program ładowany do systemu operacyjnego. Jest to warstwa pomiędzy systemem operacyjnym a urządzeniami, reprezentująca standard systemu operacyjnego interfejs oprogramowania blokować urządzenia we/wy.
2. Dane na dysku fizycznym.
Urządzenia te nazywane są urządzeniami blokowymi, ponieważ informacje są na nich zapisywane i odczytywane w blokach (sektorach, klastrach) o ustalonym rozmiarze. Rozmiar bloku to wielokrotność 512 bajtów. Podejście blokowe jest konieczne, aby zapewnić wysoką prędkość podsystemu dyskowego.
Sam dysk jest sformatowany (partycjonowany) na niskim poziomie (fabrycznie). Dysk składa się z cylindrów. Cylinder to okrąg na płycie dysku. Pierwsze cylindry znajdują się pośrodku płyty dysku, ostatnie - na zewnętrznej krawędzi. Każdy cylinder jest podzielony na sektory. Sektory organizują bloki na dysku. Oprócz samych danych w blokach zapisywane są informacje służące do kontroli błędów. Kontroler wewnątrz dysku twardego współpracuje z tymi informacjami i nie jest widoczny z zewnątrz. Sterownik wysyła polecenia do kontrolera dysku na poziomie „odczytaj 10 bloków 10 cylindrów 20 sektorów”.
Wszystkie dane ładunku zapisane na nośniku są zorganizowane w sekcje. W systemie Windows każda partycja jest zwykle reprezentowana jako dysk logiczny (C, D, E, ...). Na nośnikach wymiennych (dysk flash, CD, dyskietka) z reguły tworzona jest jedna partycja, na wewnętrznych dyskach twardych, przeciwnie, zwykle jest kilka partycji. Dane na partycji są zorganizowane w systemie plików.
Każda partycja może niezależnie ustawić swój własny rozmiar bloku - rozmiar klastra. Reguluje równowagę prędkości/ekonomii. Blok to najmniejsza adresowalna jednostka przestrzeni dyskowej. Klaster łączy kilka bloków - jest to minimalna jednostka adresowalna w partycji.
W ten sposób ustalana jest następująca hierarchia logiczna (od dołu do góry): blok, sektor, cylinder - klaster - sekcja - plik, katalog.
W większości systemów plików plik może zajmować jeden lub więcej klastrów. Tak więc, jeśli rozmiar pliku jest mniejszy niż rozmiar klastra, plik zajmie cały klaster. Do każdego pliku na dysku zostanie przydzielona liczba bajtów, która jest wielokrotnością rozmiaru klastra. Niektóre systemy plików potrafią podzielić jeden klaster na kilka plików (pakowanie), ale jest to raczej wyjątek (na razie). Zatem im większy rozmiar klastra, tym większa prędkość i tym więcej miejsca marnuje się na klastry wypełnione do połowy.
3. Fizyczny układ dysku.
Wielkość partycji jest również mierzona w blokach. Dlatego podczas partycjonowania dysku, rozmiar wyrażony w bajtach może być nieznacznie skorygowany przez program.
Ponieważ na dysku może znajdować się wiele partycji, należy je gdzieś wymienić wraz z ograniczeniami i właściwościami każdej partycji. W tym celu wykorzystywana jest tablica partycji, która znajduje się na początku dysku fizycznego (początek dysku to jego pierwszy blok zgodnie z adresacją). W klasycznym przypadku jest to część MBR (master boot record), która zajmuje cały pierwszy blok. Cała tablica partycji ma przydzielone 64 bajty. Każdy wpis w tablicy składa się z adresu początku i końca partycji, typu partycji, liczby sektorów w partycji oraz flagi „zajęty” partycji i zajmuje 16 bajtów. W związku z tym maksymalna liczba partycji na dysku jest ograniczona do czterech (16 × 4 = 64).
Stało się to historycznie, ale z czasem stało się oczywiste, że 4 sekcje nie zawsze wystarczą. Znaleziono rozwiązanie problemu. Te partycje, które są oznaczone w nagłówku dysku (w MBR), nazywane są podstawowymi (podstawowymi). Powinny nadal wynosić do 4 włącznie. Dodatkowo wprowadzono koncepcję przekrojów rozszerzonych (rozszerzonych). Partycja rozszerzona zawiera co najmniej jedną partycję podrzędną i nie zawiera systemu plików. On sam jest pełnoprawną sekcją prawyborów.
Ponieważ podpartycje partycji rozszerzonej nie są wymienione w tabeli partycji dysku, nie można ich oznaczyć jako rozruchowych. Partycja startowa to partycja, z której uruchamiany jest system operacyjny. Jest oflagowany we wpisie tablicy partycji. W ten sposób można oznaczyć tylko jedną z 4 podstawowych sekcji. Partycja rozszerzona nie może być startowa, ponieważ nie ma systemu plików.
Znaczniki rozszerzonej sekcji są opisane na jej początku. Analogicznie do MBR, w pierwszym sektorze znajduje się EBR (Rozszerzony rekord rozruchowy). Opisuje układ dysków logicznych tej partycji rozszerzonej.
Na dysk optyczny a dysk flash zwykle ma tylko jedną partycję, ponieważ mniejszy podział nie ma tam sensu. Zazwyczaj podczas nagrywania płyty CD używany jest system plików ISO 9660. Obraz dysku z tego system plików nazywany obrazem ISO. Jest często używany w izolacji od dysku fizycznego jako pojemnik do przesyłania danych, ponieważ każdy obraz jest bitowy dokładna kopia fizyczny przewoźnik.
4. System plików.
Każda partycja dyskowa przeznaczona do przechowywania danych (czyli wszystkie partycje z wyjątkiem partycji rozszerzonej) jest sformatowana zgodnie z pewnym systemem plików. Formatowanie to proces tworzenia struktury systemu plików na pewnym miejscu na dysku - partycji. System plików organizuje dane użytkownika w postaci plików umieszczonych w pewnej hierarchii katalogów (foldery, katalogi).
Struktura katalogów i plików na partycji jest klasycznie opisana w tabeli plików. Zazwyczaj tabela zajmuje trochę miejsca na początku sekcji. Po tabeli zapisywane są same dane. W ten sposób powstaje system, w którym struktura jest opisana oddzielnie, a dane (pliki) są oddzielnie przechowywane.
Jeśli plik zostanie usunięty z dysku, zostanie usunięty z tabeli plików. Miejsce, które zajmował na dysku, jest oznaczone jako wolne. Ale nie ma fizycznego oczyszczenia tego miejsca. Podczas zapisywania na płytę dane są zapisywane w wolne miejsce. Dlatego jeśli utworzysz nowy plik po jego usunięciu, istnieje możliwość, że zostanie on zapisany w miejscu usuniętego. Przy szybkim formatowaniu (stosowanym w zdecydowanej większości przypadków) partycji nadpisywana jest również tylko tabela. Procedura przywracania plików po usunięciu lub sformatowaniu opiera się na tych funkcjach.
Podczas pracy na dysku mogą wystąpić fizyczne uszkodzenia. Niektóre bloki mogą stać się nieczytelne. Te bloki są nazywane „złymi” (zły sektor). Jeśli uszkodzony dysk trafi podczas odczytu dysku, wystąpi błąd we/wy. W zależności od tego, gdzie pojawił się uszkodzony blok i ile z nich się pojawiło, część zawartości plików lub część tabeli plików może zostać utracona.
Podczas próby zapisu do uszkodzonego bloku kontroler dysku musi określić problem i przydzielić nowe miejsce na powierzchni dysku dla tego bloku oraz usunąć stare miejsce z użytku (przenieść uszkodzony blok). Robi to niewidocznie dla systemu operacyjnego i sterowników samodzielnie. Dzieje się tak, o ile istnieje rezerwa miejsca na transfer.
5. Pracuj z dyskiem.
System operacyjny zapewnia możliwość pracy z dyskami na poziomie plików, partycji i urządzeń. Konkretna implementacja dostępu do każdego poziomu zależy od konkretnego systemu operacyjnego. Ale w każdym razie wspólną rzeczą jest to, że do dysku fizycznego i dowolnej z jego partycji można uzyskać dostęp w taki sam sposób, jak do zwykłego pliku binarnego. Oznacza to, że możesz do niego zapisywać dane, możesz z niego odczytywać dane. Takie funkcje są szczególnie przydatne do tworzenia i przywracania obrazów dysków, klonowania dysków.
W systemach operacyjnych UNIX wszystkie urządzenia pamięci masowej są reprezentowane jako pliki w katalogu /dev:
sda, sdb, sdc, ... - dyski fizyczne (HDD, w tym zewnętrzne, dyski flash, dyski IDE);
fd0, fd1 - klapy.
Partycje na każdym z dysków są dostępne jako sda1, sda2, sd3, ...
Dyski są ponumerowane w kolejności, w jakiej widzi je system BIOS. Numeracja partycji - w kolejności, w jakiej partycje zostały utworzone na dysku.
Aby zrobić obraz (obraz jest kopią bit po bicie informacji umieszczonych na dysku lub partycji) całego dysku (na przykład pierwszego według BIOS - sda), należy odjąć dane od / dev / sda do dowolnego innego pliku specjalnie utworzonego dla obrazu za pomocą sekwencyjnego kopiowania zawartości pliku programu. Aby zapisać obraz do pliku, musisz użyć tego samego programu, aby odjąć dane od obrazu w /dev/sda. Analogicznie możesz utworzyć/przywrócić obraz partycji (na przykład pierwszy na pierwszym dysku - sda1) poprzez dostęp do /dev/sda1 zamiast /dev/sda.
6. Montaż.
Aby „zmienić” urządzenie dyskowe w zestaw plików i katalogów, do których można uzyskać dostęp, należy je zamontować. W systemie Windows nie ma czegoś takiego jak uchwyt. Tam partycje są po prostu połączone z dyskami logicznymi (C:, D:, E, ...). Informacje o tym, którą literę przypisać do którego dysku, są przechowywane w samym systemie operacyjnym.
W systemie UNIX koncepcja montowania ma fundamentalne znaczenie dla pracy z dyskami i zapewnia znacznie większą elastyczność niż system Windows. Montowanie to proces łączenia jakiegoś źródła obrazu dysku (samego dysku lub pliku z jego obrazem) do jakiegoś katalogu w pliku system UNIX. System plików w UNIX zaczyna się od jednego punktu - od katalogu głównego (/) i nie ma dysków logicznych C, D, E.
Na początku uruchamiania systemu operacyjnego z rodziny UNIX partycja dyskowa oznaczona jako root (root) jest montowana w katalogu głównym /. Na partycji dyskowej należy utworzyć katalogi usług systemu operacyjnego znajdujące się w katalogu głównym systemu plików. Inne partycje mogą być do nich montowane lub pliki mogą być zapisywane bezpośrednio na partycji głównej (podłączone do /).
Kluczową kwestią jest to, że źródło obrazu dysku (urządzenie blokowe, plik obrazu lub katalog już zamontowanego systemu plików) można zamontować w dowolnym katalogu na dowolnym poziomie zagnieżdżenia systemu plików, który zaczyna się od /. W ten sposób różne partycje logiczne dysku fizycznego są reprezentowane przez katalogi w jednym systemie plików, w przeciwieństwie do oddzielnych systemów plików różnych dysków logicznych w systemie Windows (gdzie każdy dysk jest traktowany jako autonomiczny system plików, który ma swój własny katalog główny).
Aby zamontować, należy określić system plików obrazu, opcje montowania oraz katalog, z którym ma nastąpić powiązanie.
Dzięki tej elastyczności możesz połączyć jeden katalog z kilkoma różne miejsca w systemie plików, utwórz obraz dysku i zamontuj go bez zapisywania na dysku, otwórz obraz ISO. A wszystko to odbywa się bez użycia narzędzi innych firm.
7. MBR - obszar bagażnika.
Na początku fizycznego dysku zwykle znajduje się MBR (główny rekord rozruchowy). To jest obszar rozruchowy dysku. Podczas ładowania BIOS komputera określa, który dysk jest podstawowy (podstawowy) i szuka na nim MBR. Jeśli zostanie znaleziony, przeniesiona zostaje na niego kontrola. Jeśli nie, wyświetlany jest błąd informujący, że nie znaleziono dysku rozruchowego.
W MBR oprócz tablicy partycji (opisanej powyżej) znajduje się kod programu, który jest ładowany do pamięci i wykonywany. To właśnie ten program powinien określić partycję rozruchową na dysku i przekazać na nią kontrolę. Przekazywanie kontroli jest podobne: pierwszy blok (512 bajtów) partycji rozruchowej jest umieszczony w Baran i jest wykonywany. Zawiera kod programowania, który inicjuje rozruch systemu operacyjnego.
Dzięki temu, że kontrola z BIOS-u jest przekazywana do programu zapisanego na dysku podczas uruchamiania komputera, możliwe jest uelastycznienie wyboru partycji rozruchowej. To właśnie robią ładowarki GRUB i LILO, które są szeroko stosowane w świecie UNIX. Najnowszy program ładujący aktualnie używany w nowoczesne komputery nie ma sensu. Dzięki GRUB możesz dać użytkownikowi wybór, którą partycję uruchomić i jak.
Kod GRUB jest zbyt duży, aby zmieścić się w MBR. Dlatego jest instalowany na osobnej partycji (zazwyczaj tej zamontowanej w /boot) z systemem plików FAT, FFS lub Ext2. MBR zawiera kod, który ładuje kod GRUB z określonej partycji i przekazuje do niej kontrolę.
GRUB sam lub przy pomocy użytkownika określa, z której partycji ma nastąpić rozruch. W przypadku partycji Winsows kontrola jest po prostu przekazywana do niej w taki sam sposób, jak w przypadku zwykłego MBR. W przypadku Linuksa bootloader wykonuje bardziej złożone czynności. Ładuje jądro systemu operacyjnego do pamięci i przekazuje mu kontrolę.
Zrób kopię zapasową obszar bagażnika dysk jest tak prosty, jak tworzenie kopii zapasowej całego dysku lub pojedynczej partycji. Najważniejsze jest to, że MBR zajmuje pierwsze 512 bajtów dysku /dev/sda. Dlatego w przypadku kopii zapasowej MBR musisz odjąć pierwsze 512 bajtów /dev/sda do pliku, a aby przywrócić, przeciwnie, musisz odjąć plik do /dev/sda.