Festplattenlaufwerk -Hard disk drive

Festplatte
IBM 350 RAMAC.jpg
Teilzerlegter IBM 350 (RAMAC)
Datum erfunden 24. Dezember 1954 ; Vor 67 Jahren ( 1954-12-24 )
Erfunden von IBM -Team unter der Leitung von Rey Johnson
Interna einer 2,5-Zoll-Laptop-Festplatte
Eine zerlegte und beschriftete Festplatte von 1997, die auf einem Spiegel liegt
Ein Überblick über die Funktionsweise von HDDs

Ein Festplattenlaufwerk ( HDD ), eine Festplatte , ein Festplattenlaufwerk oder eine Festplatte ist ein elektromechanisches Datenspeichergerät, das digitale Daten unter Verwendung eines Magnetspeichers mit einer oder mehreren starren, sich schnell drehenden Platten , die mit magnetischem Material beschichtet sind , speichert und abruft . Die Platten sind mit Magnetköpfen gepaart , die normalerweise auf einem beweglichen Aktuatorarm angeordnet sind und Daten auf den Plattenoberflächen lesen und schreiben. Der Zugriff auf die Daten erfolgt wahlfrei , was bedeutet, dass einzelne Datenblöcke in beliebiger Reihenfolge gespeichert und abgerufen werden können. HDDs sind eine Art nichtflüchtiger Speicher , der gespeicherte Daten behält, wenn er ausgeschaltet ist. Moderne HDDs haben typischerweise die Form eines kleinen rechteckigen Kastens .

HDDs wurden 1956 von IBM eingeführt und waren ab Anfang der 1960er Jahre das dominierende sekundäre Speichergerät für Allzweckcomputer . HDDs behielten diese Position bis in die moderne Ära der Server und PCs bei, obwohl in großen Stückzahlen hergestellte Personal Computer wie Mobiltelefone und Tablets auf Flash-Speichergeräten beruhen . In der Vergangenheit haben mehr als 224 Unternehmen HDDs hergestellt , obwohl nach einer umfassenden Branchenkonsolidierung die meisten Einheiten von Seagate , Toshiba und Western Digital hergestellt werden . HDDs dominieren das produzierte Speichervolumen ( Exabyte pro Jahr) für Server. Obwohl die Produktion langsam wächst (um gelieferte Exabyte), gehen die Verkaufserlöse und Stückzahlen zurück, da Solid-State-Laufwerke (SSDs) höhere Datenübertragungsraten, eine höhere Flächenspeicherdichte, etwas bessere Zuverlässigkeit und viel geringere Latenz- und Zugriffszeiten aufweisen.

Die Umsätze für SSDs, von denen die meisten NAND-Flash-Speicher verwenden , überstiegen 2018 leicht jene für HDDs. Flash-Speicherprodukte erzielten ab 2017 mehr als doppelt so viel Umsatz wie Festplattenlaufwerke. Obwohl SSDs vier- bis neunmal höhere Kosten pro Bit haben, Sie ersetzen HDDs in Anwendungen, in denen Geschwindigkeit, Stromverbrauch, geringe Größe, hohe Kapazität und Haltbarkeit wichtig sind. Ab 2019 sinken die Kosten pro Bit von SSDs und der Preisaufschlag gegenüber HDDs hat sich verringert.

Die Hauptmerkmale einer HDD sind ihre Kapazität und Leistung . Die Kapazität wird in Einheitenpräfixen angegeben , die Potenzen von 1000 entsprechen: Ein 1 - Terabyte (TB)-Laufwerk hat eine Kapazität von 1.000 Gigabyte (GB; wobei 1 Gigabyte = 1 Milliarde (10 9 ) Bytes ). Typischerweise steht dem Benutzer ein Teil der Kapazität einer Festplatte nicht zur Verfügung, da sie vom Dateisystem und dem Betriebssystem des Computers und möglicherweise eingebauter Redundanz zur Fehlerkorrektur und -wiederherstellung verwendet wird. Bei der Speicherkapazität kann es zu Verwirrung kommen, da Kapazitäten von HDD-Herstellern in dezimalen Gigabyte (1000er-Potenzen) angegeben werden, während die am häufigsten verwendeten Betriebssysteme Kapazitäten in 1024er-Potenzen angeben, was zu einer geringeren Zahl als angegeben führt. Die Leistung wird angegeben als die Zeit, die benötigt wird, um die Köpfe zu einer Spur oder einem Zylinder zu bewegen (durchschnittliche Zugriffszeit), die Zeit, die es dauert, bis sich der gewünschte Sektor unter dem Kopf bewegt (durchschnittliche Latenzzeit , die eine Funktion der physikalischen Rotationsgeschwindigkeit in Umdrehungen ist). pro Minute ) und schließlich die Geschwindigkeit, mit der die Daten übertragen werden (Datenrate).

Die beiden gängigsten Formfaktoren für moderne HDDs sind 3,5 Zoll für Desktop-Computer und 2,5 Zoll, hauptsächlich für Laptops. HDDs werden über Standardschnittstellenkabel wie PATA- (Parallel ATA), SATA- (Serial ATA), USB- oder SAS-Kabel ( Serial Attached SCSI ) mit Systemen verbunden.

Geschichte

Video des modernen HDD-Betriebs (Abdeckung entfernt)
Verbesserung der HDD-Eigenschaften im Laufe der Zeit
Parameter Angefangen mit (1957) Verbessert zu Verbesserung
Kapazität
(formatiert)
3,75  Megabyte 18  Terabyte (Stand 2020) 4,8 Millionen zu eins
Physisches Volumen 68 Kubikfuß (1,9  m 3 ) 2,1 Kubikzoll (34  cm 3 ) 56.000 zu eins
Gewicht 2.000 Pfund
(910  kg )
2,2 Unzen
(62  g )
15.000 zu eins
Durchschnittliche Zugriffszeit ca. 600  Millisekunden 2,5 ms bis 10 ms; RW RAM abhängig etwa
200 zu eins
Preis 9.200 US-Dollar pro Megabyte (1961; 83.107 US-Dollar im Jahr 2021) 0,024 US-Dollar pro Gigabyte bis 2020 3,46 Milliarden zu eins
Datendichte 2.000  Bit pro Quadratzoll 1,3 Terabit pro Quadratzoll im Jahr 2015 650 Millionen zu eins
Durchschnittliche Lebensdauer c. 2000 Stunden MTBF c. 2.500.000 Stunden (~285 Jahre) MTBF 1250 zu eins

Das erste Serien-IBM-Festplattenlaufwerk, der 350 Disk Storage , wurde 1957 als Komponente des IBM 305 RAMAC-Systems ausgeliefert. Es war etwa so groß wie zwei mittelgroße Kühlschränke und speicherte fünf Millionen Sechs-Bit-Zeichen (3,75 Megabyte ) auf einem Stapel von 52 Platten (100 belegte Flächen). Der 350 hatte einen einzelnen Arm mit zwei Lese-/Schreibköpfen, einer nach oben und der andere nach unten, der sich sowohl horizontal zwischen einem Paar benachbarter Platten als auch vertikal von einem Plattenpaar zu einem zweiten Satz bewegte. Varianten des IBM 350 waren der IBM 355 , IBM 7300 und IBM 1405 .

1961 kündigte IBM die Plattenspeichereinheit IBM 1301 an und lieferte sie 1962 aus, die die IBM 350 und ähnliche Laufwerke ablöste. Der 1301 bestand aus einem (für Modell 1) oder zwei (für Modell 2) Modulen mit jeweils 25 Platten, wobei jede Platte etwa 3,2 mm ( 18 Zoll) dick und 610 mm (24 Zoll) im Durchmesser war. Während die früheren IBM-Plattenlaufwerke nur zwei Lese-/Schreibköpfe pro Arm verwendeten, verwendete der 1301 eine Anordnung von 48 Köpfen (Kamm), wobei sich jede Anordnung horizontal als eine einzelne Einheit bewegte, ein Kopf pro verwendeter Oberfläche. Lese-/Schreibvorgänge im Zylindermodus wurden unterstützt, und die Köpfe flogen etwa 250 Mikrozoll (etwa 6 µm) über der Plattenoberfläche. Die Bewegung der Kopfanordnung hing von einem binären Addierersystem aus hydraulischen Stellgliedern ab, die eine wiederholbare Positionierung sicherstellten. Der 1301-Schrank hatte etwa die Größe von drei nebeneinander aufgestellten Haushaltskühlschränken und speicherte das Äquivalent von etwa 21 Millionen Acht-Bit-Bytes pro Modul. Die Zugriffszeit betrug etwa eine Viertelsekunde.

Ebenfalls 1962 führte IBM das Plattenlaufwerk Modell 1311 ein, das etwa die Größe einer Waschmaschine hatte und zwei Millionen Zeichen auf einem Wechselplattenpaket speicherte . Benutzer könnten zusätzliche Packungen kaufen und sie nach Bedarf austauschen, ähnlich wie Magnetbandspulen . Spätere Modelle von Wechselspeicherlaufwerken von IBM und anderen wurden in den meisten Computerinstallationen zur Norm und erreichten Anfang der 1980er Jahre Kapazitäten von 300 Megabyte. Nicht entfernbare Festplatten wurden als "Festplattenlaufwerke" bezeichnet.

1963 stellte IBM den 1302 vor, mit der doppelten Spurkapazität und doppelt so vielen Spuren pro Zylinder wie der 1301. Der 1302 hatte ein (für Modell 1) oder zwei (für Modell 2) Module, die jeweils einen separaten Kamm für die ersten 250 enthielten Tracks und die letzten 250 Tracks.

Einige Hochleistungs-HDDs wurden mit einem Kopf pro Spur hergestellt, z . B. Burroughs B-475 im Jahr 1964, IBM 2305 im Jahr 1970, sodass keine Zeit verloren ging, um die Köpfe physisch zu einer Spur zu bewegen, und die einzige Latenz die Zeit für das Gewünschte war Datenblock, der in Position unter dem Kopf gedreht wird. Bekannt als Plattenlaufwerke mit festem Kopf oder Kopf pro Spur, waren sie sehr teuer und werden nicht mehr hergestellt.

1973 führte IBM einen neuen Festplattentyp mit dem Codenamen „ Winchester “ ein. Sein Hauptunterscheidungsmerkmal bestand darin, dass die Plattenköpfe beim Abschalten des Laufwerks nicht vollständig aus dem Plattenstapel herausgezogen wurden. Stattdessen durften die Köpfe beim Herunterfahren auf einem speziellen Bereich der Plattenoberfläche "landen" und beim späteren Einschalten der Platte wieder "abheben". Dies reduzierte die Kosten des Kopfbetätigungsmechanismus erheblich, verhinderte jedoch, dass nur die Platten aus dem Laufwerk entfernt wurden, wie dies bei den damaligen Plattenpaketen der Fall war. Stattdessen verfügten die ersten Modelle von Laufwerken mit "Winchester-Technologie" über ein Wechselplattenmodul, das sowohl das Plattenpaket als auch die Kopfbaugruppe enthielt und den Stellmotor beim Entfernen im Laufwerk beließ. Spätere "Winchester"-Laufwerke gaben das Konzept der Wechselmedien auf und kehrten zu nicht entfernbaren Platten zurück.

1974 führte IBM den Schwenkarmaktuator ein, der möglich wurde, weil die Winchester-Aufnahmeköpfe gut funktionieren, wenn sie zu den aufgezeichneten Spuren geneigt sind. Das einfache Design des IBM GV (Gulliver)-Laufwerks, das in den britischen Hursley Labs von IBM erfunden wurde, wurde zu IBMs meist lizenzierter elektromechanischer Erfindung aller Zeiten, wobei das Aktuator- und Filtersystem in den 1980er Jahren schließlich für alle Festplatten übernommen wurde und immer noch nahezu universell ist 40 Jahre und 10 Milliarden Waffen später.

Wie das erste herausnehmbare Pack-Laufwerk verwendeten die ersten "Winchester" -Laufwerke Platten mit einem Durchmesser von 14 Zoll (360 mm). 1978 führte IBM ein Schwingarmlaufwerk, das IBM 0680 (Piccolo), mit 8-Zoll-Platten ein, um die Möglichkeit zu untersuchen, dass kleinere Platten Vorteile bieten könnten. Andere 8-Zoll-Laufwerke folgten, dann 5+14 Zoll (130 mm) große Laufwerke, die so bemessen sind, dass sie die modernen Diskettenlaufwerke  ersetzen. Letztere waren in erster Linie für den damals jungen Markt für Personal Computer (PC) bestimmt.

Im Laufe der Zeit, als die Aufzeichnungsdichten stark erhöht wurden, stellte sich heraus, dass weitere Reduzierungen des Plattendurchmessers auf 3,5 Zoll und 2,5 Zoll optimal waren. Leistungsstarke Magnetmaterialien aus seltenen Erden wurden in dieser Zeit erschwinglich und ergänzten das Design des Schwenkarmaktuators, um die kompakten Formfaktoren moderner HDDs zu ermöglichen.

Zu Beginn der 1980er Jahre waren HDDs ein seltenes und sehr teures Zusatzfeature in PCs, aber Ende der 1980er Jahre waren ihre Kosten so weit gesunken, dass sie bei allen außer den billigsten Computern Standard waren.

Die meisten HDDs wurden in den frühen 1980er Jahren als externes Add-On-Subsystem an PC-Endbenutzer verkauft. Das Subsystem wurde nicht unter dem Namen des Laufwerkherstellers verkauft, sondern unter dem Namen des Subsystemherstellers wie Corvus Systems und Tallgrass Technologies oder unter dem Namen des PC-Systemherstellers wie Apple ProFile . Der IBM PC/XT von 1983 enthielt eine interne 10-MB-Festplatte, und bald darauf breiteten sich interne Festplatten auf Personalcomputern aus.

Externe Festplatten blieben auf dem Apple Macintosh noch viel länger beliebt . Viele Macintosh-Computer, die zwischen 1986 und 1998 hergestellt wurden, verfügten über einen SCSI -Anschluss auf der Rückseite, was eine externe Erweiterung einfach machte. Ältere kompakte Macintosh-Computer hatten keine für den Benutzer zugänglichen Festplattenschächte (in der Tat verfügten der Macintosh 128K , der Macintosh 512K und der Macintosh Plus überhaupt nicht über einen Festplattenschacht), daher waren bei diesen Modellen externe SCSI-Festplatten die einzig vernünftige Option für Erweiterung auf jeden internen Speicher.

HDD-Verbesserungen wurden durch die Erhöhung der Flächendichte vorangetrieben , die in der obigen Tabelle aufgeführt ist. Die Anwendungen wurden in den 2000er Jahren erweitert, von den Großrechnern der späten 1950er Jahre bis zu den meisten Massenspeicheranwendungen , einschließlich Computern und Verbraucheranwendungen wie der Speicherung von Unterhaltungsinhalten.

In den 2000er und 2010er Jahren begann NAND, HDDs in Anwendungen zu ersetzen, die Portabilität oder hohe Leistung erforderten. Die NAND-Leistung verbessert sich schneller als HDDs und Anwendungen für HDDs erodieren. Im Jahr 2018 hatte die größte Festplatte eine Kapazität von 15 TB, während die größte SSD eine Kapazität von 100 TB hatte. Ab 2018 wurde prognostiziert, dass HDDs um 2025 eine Kapazität von 100 TB erreichen würden, aber ab 2019 wurde das erwartete Tempo der Verbesserung auf 50 TB bis 2026 zurückgefahren. Kleinere Formfaktoren, 1,8 Zoll und darunter, wurden um 2010 eingestellt. Die Kosten von Solid-State-Speicher (NAND), dargestellt durch das Mooresche Gesetz , verbessert sich schneller als HDDs. NAND hat eine höhere Preiselastizität der Nachfrage als HDDs, was das Marktwachstum vorantreibt. In den späten 2000er und 2010er Jahren trat der Produktlebenszyklus von HDDs in eine reife Phase ein, und rückläufige Verkaufszahlen könnten auf den Beginn der rückläufigen Phase hindeuten.

Die Überschwemmungen in Thailand im Jahr 2011 beschädigten die Produktionsanlagen und wirkten sich zwischen 2011 und 2013 negativ auf die Festplattenkosten aus.

Im Jahr 2019 schloss Western Digital seine letzte malaysische HDD-Fabrik aufgrund sinkender Nachfrage, um sich auf die SSD-Produktion zu konzentrieren. Alle drei verbleibenden HDD-Hersteller haben seit 2014 eine rückläufige Nachfrage nach ihren HDDs.

Technologie

Magnetischer Querschnitt und frequenzmodulationscodierte Binärdaten

Magnetische Aufzeichnung

Eine moderne Festplatte zeichnet Daten auf, indem sie einen dünnen Film aus ferromagnetischem Material auf beiden Seiten einer Platte magnetisiert. Aufeinanderfolgende Änderungen der Magnetisierungsrichtung repräsentieren binäre Datenbits . Die Daten werden von der Platte gelesen, indem die Magnetisierungsübergänge erfasst werden. Benutzerdaten werden unter Verwendung eines Codierungsschemas codiert, wie z. B. einer lauflängenbegrenzten Codierung , die bestimmt, wie die Daten durch die magnetischen Übergänge dargestellt werden.

Ein typisches HDD-Design besteht aus a Spindel , die flache kreisförmige Scheiben, sogenanntePlatten, hält, die die aufgezeichneten Daten enthalten. Die Platten bestehen aus einem nichtmagnetischen Material, normalerweise einer Aluminiumlegierung, Glas oder Keramik. Sie sind mit einer flachen Schicht aus magnetischem Material beschichtet, die typischerweise 10–20nmtief ist, mit einer äußeren Kohlenstoffschicht zum Schutz. Als Referenz ist ein Standardblatt Kopierpapier 0,07–0,18 mm (70.000–180.000 nm) dick.

Zerstörte Festplatte, Glasplatte sichtbar
Diagramm, das die Hauptkomponenten einer Computerfestplatte kennzeichnet
Aufzeichnung einzelner Magnetisierungen von Bits auf einer 200 MB HDD-Platte (Aufzeichnung mit CMOS-MagView sichtbar gemacht).
Längsaufzeichnung (Standard) & Queraufzeichnungsdiagramm

Die Platten in modernen HDDs werden mit Geschwindigkeiten betrieben, die von 4.200  U/ min in energieeffizienten tragbaren Geräten bis zu 15.000 U/min für Hochleistungsserver reichen. Die ersten HDDs liefen mit 1.200 U/min und viele Jahre lang waren 3.600 U/min die Norm. Ab November 2019 drehen sich die Platten in den meisten Consumer-HDDs mit 5.400 oder 7.200 U/min.

Informationen werden auf eine Platte geschrieben und von ihr gelesen, während sie sich an Geräten vorbeidreht, die Lese- und Schreibköpfe genannt werden, die so positioniert sind, dass sie sehr nahe an der magnetischen Oberfläche arbeiten, wobei ihre Flughöhe oft im Bereich von zehn Nanometern liegt. Der Schreib-Lese-Kopf wird verwendet, um die Magnetisierung des unmittelbar unter ihm vorbeilaufenden Materials zu erfassen und zu verändern.

In modernen Laufwerken gibt es einen Kopf für jede magnetische Plattenoberfläche auf der Spindel, der auf einem gemeinsamen Arm montiert ist. Ein Aktuatorarm (oder Zugriffsarm) bewegt die Köpfe auf einem Bogen (ungefähr radial) über die Platten, während sie sich drehen, wodurch jeder Kopf beim Drehen auf fast die gesamte Oberfläche der Platte zugreifen kann. Der Arm wird mit einem Schwingspulenaktuator oder bei einigen älteren Konstruktionen mit einem Schrittmotor bewegt . Frühe Festplattenlaufwerke schrieben Daten mit einigen konstanten Bits pro Sekunde, was dazu führte, dass alle Spuren die gleiche Datenmenge pro Spur hatten, aber moderne Laufwerke (seit den 1990er Jahren) verwenden die Zonenbitaufzeichnung – wodurch die Schreibgeschwindigkeit von der inneren zur äußeren Zone erhöht und dadurch gespeichert wird mehr Daten pro Spur in den äußeren Zonen.

In modernen Laufwerken besteht aufgrund der geringen Größe der magnetischen Bereiche die Gefahr, dass ihr magnetischer Zustand aufgrund thermischer Effekte ⁠ ⁠ verloren geht – thermisch induzierte magnetische Instabilität, die allgemein als „ superparamagnetische Grenze “ bekannt ist. Um dem entgegenzuwirken, sind die Platten mit zwei parallelen Magnetschichten beschichtet, die durch eine dreiatomige Schicht des nichtmagnetischen Elements Ruthenium getrennt sind, und die beiden Schichten sind in entgegengesetzter Richtung magnetisiert und verstärken sich so gegenseitig. Eine weitere Technologie zur Überwindung thermischer Effekte, um höhere Aufzeichnungsdichten zu ermöglichen, ist die senkrechte Aufzeichnung , die erstmals 2005 ausgeliefert und seit 2007 in bestimmten HDDs verwendet wird.

2004 wurde ein Aufzeichnungsmedium mit höherer Dichte eingeführt, das aus gekoppelten weich- und hartmagnetischen Schichten besteht. Sogenannte magnetische Speichertechnologie mit Austauschfedermedien, auch als austauschgekoppelte Verbundmedien bekannt , ermöglicht eine gute Beschreibbarkeit aufgrund der schreibunterstützenden Natur der weichen Schicht. Die thermische Stabilität wird jedoch nur von der härtesten Schicht bestimmt und nicht von der weichen Schicht beeinflusst.

Komponenten

Eine HDD mit entfernten Scheiben und Motornabe, wodurch kupferfarbene Statorspulen freigelegt werden, die ein Lager in der Mitte des Spindelmotors umgeben. Der orangefarbene Streifen an der Seite des Arms ist ein dünnes gedrucktes Schaltungskabel, das Spindellager befindet sich in der Mitte und der Aktuator befindet sich oben links.

Eine typische HDD hat zwei Elektromotoren: einen Spindelmotor, der die Platten dreht, und einen Aktuator (Motor), der die Lese-/Schreibkopfanordnung über den sich drehenden Platten positioniert. Der Scheibenmotor hat einen Außenrotor, der an den Scheiben befestigt ist; die Statorwicklungen sind fixiert. Gegenüber dem Aktuator am Ende des Kopfträgerarms befindet sich der Schreib-Lese-Kopf; dünne gedruckte Kabel verbinden die Schreib-Lese-Köpfe mit der Verstärkerelektronik , die am Drehpunkt des Betätigers montiert ist. Der Kopfstützarm ist sehr leicht, aber auch steif; Bei modernen Antrieben erreicht die Beschleunigung am Kopf 550 g .

Headstack mit Aktuatorspule links und Schreib-Lese-Köpfen rechts
Nahaufnahme eines einzelnen Schreib-/Lesekopfs mit der dem Plattenteller zugewandten Seite

DasAktuator ist einPermanentmagnetundbeweglicher Spule, der die Köpfe in die gewünschte Position schwenkt. Eine Metallplatte trägt einen kompaktenHochflussmagnetenaus Neodym-Eisen-BorNIB. Unter dieser Platte befindet sich die Schwingspule, die in Analogie zur Spule inLautsprechernoft als Schwingspule bezeichnet wird und an der Aktuatornabe befestigt ist, und darunter befindet sich ein zweiter NIB-Magnet, der an der Bodenplatte des Motors montiert ist (einige Laufwerke haben nur einen Magneten).

Die Schwingspule selbst hat die Form einer Pfeilspitze und besteht aus doppelt ummanteltem Kupferlackdraht . Die innere Schicht ist eine Isolierung, und die äußere ist ein Thermoplast, der die Spule zusammenhält, nachdem sie auf eine Form gewickelt wurde, wodurch sie selbsttragend wird. Die Teile der Spule entlang der beiden Seiten der Pfeilspitze (die auf die Mitte des Aktuatorlagers zeigen) interagieren dann mit dem Magnetfeld des feststehenden Magneten. Strom, der entlang einer Seite der Pfeilspitze radial nach außen und auf der anderen radial nach innen fließt, erzeugt die Tangentialkraft . Wenn das Magnetfeld gleichmäßig wäre, würde jede Seite entgegengesetzte Kräfte erzeugen, die sich gegenseitig aufheben würden. Daher ist die Oberfläche des Magneten halb Nordpol und halb Südpol, mit der radialen Trennlinie in der Mitte, was dazu führt, dass die beiden Seiten der Spule entgegengesetzte Magnetfelder sehen und Kräfte erzeugen, die sich addieren, anstatt sich aufzuheben. Ströme entlang der Ober- und Unterseite der Spule erzeugen radiale Kräfte, die den Kopf nicht drehen.

Die Elektronik der Festplatte steuert die Bewegung des Aktuators und die Drehung der Festplatte und führt Lese- und Schreibvorgänge auf Anforderung des Festplatten-Controllers durch . Die Rückkopplung der Antriebselektronik erfolgt über spezielle Segmente der Scheibe, die für die Servorückkopplung bestimmt sind . Dies sind entweder vollständige konzentrische Kreise (bei dedizierter Servotechnologie) oder mit realen Daten durchsetzte Segmente (bei Embedded Servo, auch bekannt als Sektor-Servotechnologie). Das Servo-Feedback optimiert das Signal-Rausch-Verhältnis der GMR-Sensoren, indem es den Schwingspulenmotor anpasst, um den Arm zu drehen. Ein moderneres Servosystem verwendet auch Milli- und/oder Mikroaktuatoren, um die Lese-/Schreibköpfe genauer zu positionieren. Das Drehen der Platten verwendet flüssigkeitsgelagerte Spindelmotoren. Moderne Festplatten-Firmware ist in der Lage, Lese- und Schreibvorgänge auf den Plattenoberflächen effizient zu planen und fehlerhafte Sektoren der Medien neu zuzuordnen.

Fehlerquoten und Handhabung

Moderne Laufwerke verwenden in großem Umfang Fehlerkorrekturcodes (ECCs), insbesondere die Reed-Solomon-Fehlerkorrektur . Diese Techniken speichern zusätzliche Bits, die durch mathematische Formeln bestimmt werden, für jeden Datenblock; Durch die zusätzlichen Bits können viele Fehler unsichtbar korrigiert werden. Die zusätzlichen Bits selbst nehmen Platz auf der Festplatte ein, ermöglichen jedoch die Verwendung höherer Aufzeichnungsdichten, ohne nicht korrigierbare Fehler zu verursachen, was zu einer viel größeren Speicherkapazität führt. Beispielsweise bietet eine typische 1  - TB -Festplatte mit 512-Byte-Sektoren eine zusätzliche Kapazität von etwa 93  GB für die ECC -Daten.

In den neuesten Laufwerken verdrängten ab 2009 Low-Density-Parity-Check-Codes (LDPC) Reed-Solomon; LDPC-Codes ermöglichen eine Leistung nahe der Shannon-Grenze und bieten somit die höchste verfügbare Speicherdichte.

Typische Festplattenlaufwerke versuchen, die Daten in einem ausgefallenen physischen Sektor einem physischen Ersatzsektor zu "zuordnen", der vom "Ersatzsektorpool" (auch "Reservepool" genannt) des Laufwerks bereitgestellt wird, während sie sich auf den ECC verlassen, um gespeicherte Daten wiederherzustellen während die Anzahl der Fehler in einem fehlerhaften Sektor noch gering genug ist. Die SMART -Funktion (Self-Monitoring, Analysis and Reporting Technology) zählt die Gesamtzahl der von ECC behobenen Fehler auf der gesamten Festplatte (allerdings nicht auf allen Festplatten, da die zugehörigen SMART-Attribute „Hardware ECC Recovered“ und „Soft ECC Correction“ sind nicht durchgehend unterstützt) und die Gesamtzahl der durchgeführten Sektor-Neuzuordnungen, da das Auftreten vieler solcher Fehler einen Festplattenausfall vorhersagen kann .

Das Mitte der 1990er Jahre von IBM entwickelte "No-ID-Format" enthält Informationen darüber, welche Sektoren fehlerhaft sind und wo sich neu zugeordnete Sektoren befinden.

Nur ein winziger Bruchteil der erkannten Fehler endet als nicht korrigierbar. Beispiele für angegebene unkorrigierte Bit-Lesefehlerraten sind:

  • Die Spezifikationen von 2013 für Enterprise-SAS-Festplatten geben die Fehlerrate mit einem unkorrigierten Bit-Lesefehler pro 10 16 gelesenen Bits an.
  • Die Spezifikationen von 2018 für Consumer-SATA-Festplatten geben die Fehlerrate als einen unkorrigierten Bit-Lesefehler alle 10 14 Bits an.

Innerhalb eines bestimmten Herstellermodells ist die unkorrigierte Bitfehlerrate typischerweise gleich, unabhängig von der Kapazität des Laufwerks.

Die schlimmste Art von Fehlern sind unbemerkte Datenbeschädigungen, bei denen es sich um Fehler handelt, die von der Festplatten-Firmware oder dem Host-Betriebssystem nicht erkannt werden; Einige dieser Fehler können durch Fehlfunktionen des Festplattenlaufwerks verursacht werden, während andere an anderer Stelle in der Verbindung zwischen dem Laufwerk und dem Host entstehen.

Entwicklung

Hochmoderne Flächendichten von Festplattenlaufwerken von 1956 bis 2009 im Vergleich zum Mooreschen Gesetz. Bis 2016 hatte sich der Fortschritt deutlich unterhalb des extrapolierten Dichtetrends verlangsamt.

Die Steigerungsrate der Flächendichte war bis 2010 ähnlich dem Mooreschen Gesetz (Verdoppelung alle zwei Jahre): 60 % pro Jahr in den Jahren 1988–1996, 100 % in den Jahren 1996–2003 und 30 % in den Jahren 2003–2010. In einer Rede im Jahr 1997 nannte Gordon Moore den Anstieg „verblüfft“, während er später bemerkte, dass das Wachstum nicht ewig anhalten könne. Die Preisverbesserung verlangsamte sich zwischen 2010 und 2017 auf –12 % pro Jahr, da sich das Wachstum der Flächendichte verlangsamte. Die Fortschrittsrate für die Flächendichte verlangsamte sich zwischen 2010 und 2016 auf 10 % pro Jahr, und es gab Schwierigkeiten bei der Migration von der senkrechten Aufzeichnung zu neueren Technologien.

Wenn die Größe der Bitzellen abnimmt, können mehr Daten auf eine einzige Laufwerksplatte gelegt werden. Im Jahr 2013 hätte eine Produktions-Desktop-Festplatte mit 3 TB (mit vier Platten) eine Flächendichte von etwa 500 Gbit/in 2 gehabt, was einer Bitzelle mit etwa 18 Magnetkörnern (11 mal 1,6 Körner) entsprochen hätte. Seit Mitte der 2000er Jahre wird der Fortschritt der Flächendichte durch ein superparamagnetisches Trilemma in Frage gestellt, das die Korngröße, die magnetische Stärke der Körner und die Schreibfähigkeit des Kopfes umfasst. Um ein akzeptables Signal-Rausch-Verhältnis aufrechtzuerhalten, sind kleinere Körner erforderlich; kleinere Körner können sich selbst umkehren ( elektrothermische Instabilität ), es sei denn, ihre magnetische Stärke wird erhöht, aber bekannte Schreibkopfmaterialien sind nicht in der Lage, ein ausreichend starkes Magnetfeld zu erzeugen, um das Medium in dem zunehmend kleineren Raum zu beschreiben, der von Körnern eingenommen wird.

Magnetische Speichertechnologien werden entwickelt, um dieses Trilemma anzugehen und mit Flash-Speicher - basierten Solid-State-Laufwerken (SSDs) zu konkurrieren. Im Jahr 2013 führte Seagate Shingled Magnetic Recording (SMR) ein, das als eine Art „Überbrückungslösung“ zwischen PMR und Seagates geplantem Nachfolger Heat-Assisted Magnetic Recording (HAMR) gedacht war. SMR nutzt überlappende Spuren für eine erhöhte Datendichte auf Kosten des Designs Komplexität und niedrigere Datenzugriffsgeschwindigkeiten (insbesondere Schreibgeschwindigkeiten und wahlfreie 4k-Geschwindigkeiten).

Im Gegensatz dazu konzentrierte sich HGST (jetzt Teil von Western Digital ) darauf, Möglichkeiten zu entwickeln, mit Helium gefüllte Laufwerke anstelle der üblichen gefilterten Luft abzudichten. Da Turbulenzen und Reibung reduziert werden, können höhere Flächendichten durch die Verwendung einer kleineren Spurweite erreicht werden, und die Energie, die durch Reibung dissipiert wird, ist ebenfalls geringer, was zu einer geringeren Leistungsaufnahme führt. Darüber hinaus können mehr Platten in denselben Gehäuseraum eingepasst werden, obwohl Heliumgas bekanntermaßen schwer zu verhindern ist, dass es entweicht. Somit sind Heliumantriebe komplett abgedichtet und haben im Gegensatz zu ihren luftgefüllten Gegenstücken keinen Entlüftungsanschluss.

Andere Aufzeichnungstechnologien befinden sich entweder in der Forschung oder wurden kommerziell implementiert, um die Flächendichte zu erhöhen, einschließlich der wärmeunterstützten magnetischen Aufzeichnung (HAMR) von Seagate. HAMR erfordert eine andere Architektur mit neu gestalteten Medien und Lese-/Schreibköpfen, neuen Lasern und neuen optischen Nahfeldwandlern. HAMR wird voraussichtlich Ende 2020 oder 2021 kommerziell ausgeliefert. Technische Probleme verzögerten die Einführung von HAMR gegenüber früheren Prognosen von 2009, 2015, 2016 und der ersten Hälfte von 2019 um ein Jahrzehnt. Einige Antriebe haben zwei unabhängige Aktuatorarme eingeführt, um die Anzahl zu erhöhen Lese-/Schreibgeschwindigkeiten und konkurrieren mit SSDs. Der geplante Nachfolger von HAMR, Bit-Patterned Recording (BPR), wurde von den Roadmaps von Western Digital und Seagate gestrichen. Die mikrowellenunterstützte magnetische Aufzeichnung (MAMR) von Western Digital, auch als energieunterstützte magnetische Aufzeichnung (EAMR) bezeichnet, wurde 2020 bemustert, und das erste EAMR-Laufwerk, das Ultrastar HC550, wird Ende 2020 ausgeliefert. Zweidimensionale magnetische Aufzeichnung ( TDMR) und Giant -Magnetoresistance- Köpfe (CPP/GMR) mit "Strom senkrecht zur Ebene" sind in Forschungsarbeiten erschienen. Ein 3D-betätigtes Vakuumantriebskonzept (3DHD) wurde vorgeschlagen.

Die Wachstumsrate der Flächendichte war bis 2016 unter die historische Rate des Mooreschen Gesetzes von 40 % pro Jahr gefallen. Abhängig von den Annahmen zur Machbarkeit und zum Zeitpunkt dieser Technologien prognostiziert Seagate, dass die Flächendichte zwischen 2020 und 2034 um 20 % pro Jahr wachsen wird.

Kapazität

Zwei Seagate Barracuda -Laufwerke von 2003 und 2009 – jeweils 160 GB und 1 TB. Ab 2022 bietet Seagate Kapazitäten bis zu 20 TB an.

Die Festplatten mit der höchsten Kapazität, die 2022 kommerziell ausgeliefert werden, sind 20 TB.

Die Kapazität eines Festplattenlaufwerks, wie sie von einem Betriebssystem an den Endbenutzer gemeldet wird, ist aus mehreren Gründen kleiner als die vom Hersteller angegebene Menge, z Verwendung für Dateisystemstrukturen. Auch der Unterschied in der Kapazität, die in SI-Einheiten mit vorangestellten Dezimalstellen und binären Präfixen angegeben wird , kann zu einem falschen Eindruck fehlender Kapazität führen.

Berechnung

Moderne Festplatten erscheinen ihrem Host-Controller als zusammenhängender Satz logischer Blöcke, und die Bruttolaufwerkskapazität wird berechnet, indem die Anzahl der Blöcke mit der Blockgröße multipliziert wird. Diese Informationen sind aus der Produktspezifikation des Herstellers und aus dem Laufwerk selbst durch die Verwendung von Betriebssystemfunktionen verfügbar, die Laufwerksbefehle auf niedriger Ebene aufrufen.

Ältere IBM- und kompatible Laufwerke, z. B. IBM 3390 , die das CKD -Datensatzformat verwenden, haben Datensätze variabler Länge; solche Laufwerkskapazitätsberechnungen müssen die Eigenschaften der Aufzeichnungen berücksichtigen. Einige neuere DASD simulieren CKD, und es gelten dieselben Kapazitätsformeln.

Die Bruttokapazität älterer sektororientierter Festplatten wird als Produkt aus der Anzahl der Zylinder pro Aufzeichnungszone, der Anzahl der Bytes pro Sektor (am häufigsten 512) und der Anzahl der Zonen des Laufwerks berechnet. Einige moderne SATA-Laufwerke melden auch Kapazitäten des Zylinderkopfsektors (CHS), aber dies sind keine physikalischen Parameter, da die gemeldeten Werte durch historische Betriebssystemschnittstellen eingeschränkt werden. Das C/H/S-Schema wurde durch die logische Blockadressierung (LBA) ersetzt, ein einfaches lineares Adressierungsschema, das Blöcke anhand eines ganzzahligen Index lokalisiert, der für den ersten Block bei LBA 0 beginnt und danach erhöht wird. Bei der Verwendung der C/H/S-Methode zur Beschreibung moderner großer Laufwerke wird die Anzahl der Köpfe oft auf 64 gesetzt, obwohl ein typisches modernes Festplattenlaufwerk zwischen einer und vier Platten hat. Bei modernen HDDs ist die freie Kapazität für das Fehlermanagement nicht in der veröffentlichten Kapazität enthalten; Bei vielen frühen Festplatten wurde jedoch eine bestimmte Anzahl von Sektoren als Reserve reserviert, wodurch die für das Betriebssystem verfügbare Kapazität verringert wurde. Darüber hinaus speichern viele HDDs ihre Firmware in einer reservierten Servicezone, die für den Benutzer normalerweise nicht zugänglich ist, und wird nicht in die Kapazitätsberechnung einbezogen.

Bei RAID -Subsystemen verringern auch Datenintegritäts- und Fehlertoleranzanforderungen die realisierte Kapazität. Beispielsweise hat ein RAID 1-Array aufgrund der Datenspiegelung etwa die Hälfte der Gesamtkapazität, während ein RAID 5-Array mit n Laufwerken 1/n an Kapazität (was der Kapazität eines einzelnen Laufwerks entspricht) aufgrund der Speicherung von Paritätsinformationen verliert . RAID-Subsysteme sind mehrere Laufwerke, die für den Benutzer wie ein Laufwerk oder mehrere Laufwerke erscheinen, aber Fehlertoleranz bieten. Die meisten RAID-Anbieter verwenden Prüfsummen , um die Datenintegrität auf Blockebene zu verbessern. Einige Anbieter entwerfen Systeme, die HDDs mit Sektoren von 520 Bytes verwenden, um 512 Bytes Benutzerdaten und acht Prüfsummenbytes zu enthalten, oder indem sie separate 512-Byte-Sektoren für die Prüfsummendaten verwenden.

Einige Systeme verwenden möglicherweise versteckte Partitionen für die Systemwiederherstellung, wodurch die Kapazität verringert wird, die dem Endbenutzer ohne Kenntnis spezieller Dienstprogramme zur Festplattenpartitionierung wie diskpart in Windows zur Verfügung steht .

Formatierung

Daten werden auf einer Festplatte in einer Reihe von logischen Blöcken gespeichert. Jeder Block ist durch Markierungen begrenzt, die seinen Anfang und sein Ende, Fehlererkennungs- und Korrekturinformationen und Zwischenräume zwischen den Blöcken identifizieren, um geringfügige Zeitabweichungen zu ermöglichen. Diese Blöcke enthielten oft 512 Bytes nutzbarer Daten, aber andere Größen wurden verwendet. Als die Laufwerksdichte zunahm, erweiterte eine als Advanced Format bekannte Initiative die Blockgröße auf 4096 Byte nutzbarer Daten, was zu einer erheblichen Reduzierung des Speicherplatzes führte, der für Blockheader, Fehlerprüfdaten und Abstände verwendet wurde.

Der Prozess der Initialisierung dieser logischen Blöcke auf den physischen Festplattenplatten wird als Low-Level-Formatierung bezeichnet, die normalerweise im Werk durchgeführt und normalerweise vor Ort nicht geändert wird. Die High-Level-Formatierung schreibt Datenstrukturen, die vom Betriebssystem verwendet werden, um Datendateien auf der Festplatte zu organisieren. Dies beinhaltet das Schreiben von Partitions- und Dateisystemstrukturen in ausgewählte logische Blöcke. Beispielsweise wird ein Teil des Plattenspeicherplatzes verwendet, um ein Verzeichnis mit Plattendateinamen und eine Liste logischer Blöcke zu speichern, die einer bestimmten Datei zugeordnet sind.

Beispiele für Partitionszuordnungsschemata sind Master Boot Record (MBR) und GUID Partition Table (GPT). Beispiele für auf der Festplatte gespeicherte Datenstrukturen zum Abrufen von Dateien umfassen die File Allocation Table (FAT) im DOS -Dateisystem und Inodes in vielen UNIX -Dateisystemen sowie andere Betriebssystemdatenstrukturen (auch als Metadaten bekannt ). Infolgedessen steht nicht der gesamte Speicherplatz auf einer Festplatte für Benutzerdateien zur Verfügung, aber dieser Systemaufwand ist im Vergleich zu Benutzerdaten normalerweise gering.

Einheiten

Interpretation von Präfixen für Dezimal- und Binäreinheiten
Von Herstellern beworbene Kapazität Von einigen Verbrauchern erwartete Kapazität Gemeldete Kapazität
Windows macOS Version 10.6+
Mit Präfix Bytes Bytes Diff.
100GB  _ 100.000.000.000 107.374.182.400 7,37 % 93,1 GB 100GB
TB 1.000.000.000.000 1.099.511.627.776 9,95 % 931GB 1.000 GB, 1.000.000 MB

In den frühen Tagen der Computertechnik wurde die Gesamtkapazität von HDDs mit 7 bis 9 Dezimalstellen angegeben, die häufig mit dem Idiom Millionen abgeschnitten wurden . In den 1970er Jahren wurde die Gesamtkapazität von Festplatten von Herstellern mit SI- Dezimalpräfixen wie Megabyte (1 MB = 1.000.000 Byte), Gigabyte (1 GB = 1.000.000.000 Byte) und Terabyte (1 TB = 1.000.000.000.000 Byte) angegeben. Speicherkapazitäten werden jedoch meist mit einer binären Interpretation der Präfixe angegeben, also mit Potenzen von 1024 statt 1000.

Die Software meldet die Festplatten- oder Speicherkapazität in verschiedenen Formen mit entweder Dezimal- oder Binärpräfixen. Die Microsoft Windows -Betriebssystemfamilie verwendet die binäre Konvention bei der Angabe der Speicherkapazität, sodass eine vom Hersteller als 1-TB-Laufwerk angebotene Festplatte von diesen Betriebssystemen als 931-GB-Festplatte gemeldet wird. Mac OS X 10.6 („ Snow Leopard “) verwendet Dezimalkonventionen bei der Angabe der Festplattenkapazität. Das Standardverhalten des df -Befehlszeilendienstprogramms unter Linux besteht darin, die Festplattenkapazität als Anzahl von 1024-Byte-Einheiten zu melden.

Der Unterschied zwischen der dezimalen und der binären Präfixinterpretation sorgte bei Verbrauchern für Verwirrung und führte zu Sammelklagen gegen HDD - Hersteller . Die Kläger argumentierten, dass die Verwendung von Dezimalpräfixen die Verbraucher effektiv in die Irre geführt habe, während die Beklagten jegliches Fehlverhalten oder jede Haftung bestritten und behaupteten, dass ihr Marketing und ihre Werbung in jeder Hinsicht dem Gesetz entsprächen und dass kein Mitglied der Klasse Schäden oder Verletzungen erlitten habe.

Preisentwicklung

Der HDD-Preis pro Byte sank zwischen 1988 und 1996 um 40 % pro Jahr, zwischen 1996 und 2003 um 51 % pro Jahr und zwischen 2003 und 2010 um 34 % pro Jahr. Der Preisrückgang verlangsamte sich von 2011 bis 2014 auf 13 % pro Jahr, da sich die Flächendichte verlangsamte und die Überschwemmungen von 2011 in Thailand Produktionsanlagen beschädigten und sich von 2010 bis 2017 auf 11 % pro Jahr hielten.

Das Federal Reserve Board hat einen qualitätsbereinigten Preisindex für große Enterprise-Speichersysteme veröffentlicht, die drei oder mehr Enterprise-HDDs und zugehörige Controller, Racks und Kabel umfassen. Die Preise für diese großen Speichersysteme sanken zwischen 2004 und 2009 um 30 % pro Jahr und zwischen 2009 und 2014 um 22 % pro Jahr.

Formfaktoren

8-, 5,25-, 3,5-, 2,5-, 1,8- und 1-Zoll-Festplatten, zusammen mit einem Lineal, um die Größe von Platten und Lese-/Schreibköpfen anzuzeigen
Eine neuere 2,5-Zoll-Festplatte (63,5 mm) mit 6.495 MB im Vergleich zu einer älteren 5,25-Zoll-Festplatte mit 110 MB voller Bauhöhe

Das erste Festplattenlaufwerk von IBM, das IBM 350 , verwendete einen Stapel von fünfzig 24-Zoll-Platten, speicherte 3,75 MB Daten (ungefähr die Größe eines modernen digitalen Bildes) und hatte eine Größe, die mit zwei großen Kühlschränken vergleichbar war. 1962 stellte IBM seine Festplatte Modell 1311 vor, die sechs 14-Zoll-Platten (Nenngröße) in einem herausnehmbaren Paket verwendete und ungefähr die Größe einer Waschmaschine hatte. Dies wurde viele Jahre lang zu einer Standardplattengröße, die auch von anderen Herstellern verwendet wurde. Der IBM 2314 verwendete Platten gleicher Größe in einem Paket mit elf Höhen und führte das Layout "Laufwerk in einer Schublade" ein. manchmal "Pizzaofen" genannt, obwohl die "Schublade" nicht das komplette Laufwerk war. Bis in die 1970er Jahre wurden HDDs in eigenständigen Schränken mit unterschiedlichen Abmessungen angeboten, die ein bis vier HDDs enthielten.

Ab den späten 1960er Jahren wurden Laufwerke angeboten, die vollständig in ein Gehäuse passten, das in einem 19-Zoll-Rack montiert werden konnte . Die RK05 und RL01 von Digital waren frühe Beispiele, die einzelne 14-Zoll-Platten in herausnehmbaren Paketen verwendeten, wobei das gesamte Laufwerk in einen 10,5-Zoll-hohen Rack-Platz (sechs Rack-Einheiten) passte. Mitte bis Ende der 1980er Jahre war der ähnlich große Fujitsu Eagle , der (zufälligerweise) 10,5-Zoll-Platten verwendete, ein beliebtes Produkt.

Mit steigenden Verkäufen von Mikrocomputern mit eingebauten Diskettenlaufwerken (FDDs) wurden HDDs wünschenswert, die zu den FDD-Halterungen passen würden. Beginnend mit dem Shugart Associates SA1000 folgten die HDD - Formfaktoren zunächst denen von 8-Zoll-, 5¼-Zoll- und 3½-Zoll-Diskettenlaufwerken. Obwohl auf diese Nenngrößen verwiesen wird, sind die tatsächlichen Größen für diese drei Laufwerke jeweils 9,5 Zoll, 5,75 Zoll und 4 Zoll breit. Da es keine kleineren Diskettenlaufwerke gab, mussten kleinere HDD-Formfaktoren wie 2½-Zoll-Laufwerke (tatsächlich 2,75 Zoll breit), die aus Produktangeboten oder Industriestandards entwickelt wurden.

Ab 2019 sind 2½-Zoll- und 3½-Zoll-Festplatten die beliebtesten Größen. Bis 2009 hatten alle Hersteller die Entwicklung neuer Produkte für die 1,3-Zoll-, 1-Zoll- und 0,85-Zoll-Formfaktoren aufgrund sinkender Preise für Flash-Speicher eingestellt , die keine beweglichen Teile haben. Während Nenngrößen in Zoll angegeben sind, werden tatsächliche Abmessungen in Millimetern angegeben.

Leistungsmerkmale

Die Faktoren, die die Zeit für den Zugriff auf die Daten auf einer Festplatte begrenzen, hängen hauptsächlich mit der mechanischen Natur der rotierenden Festplatten und beweglichen Köpfe zusammen, einschließlich:

  • Die Suchzeit ist ein Maß dafür, wie lange die Kopfanordnung benötigt, um zu der Spur der Platte zu gelangen, die Daten enthält.
  • Rotationslatenz tritt auf, da der gewünschte Plattensektor möglicherweise nicht direkt unter dem Kopf liegt, wenn eine Datenübertragung angefordert wird. Die durchschnittliche Rotationslatenz ist in der Tabelle gezeigt, basierend auf der statistischen Beziehung, dass die durchschnittliche Latenz die Hälfte der Rotationsperiode ist.
  • Die Bitrate oder Datenübertragungsrate (sobald sich der Kopf in der richtigen Position befindet) erzeugt eine Verzögerung, die eine Funktion der Anzahl der übertragenen Blöcke ist; normalerweise relativ klein, kann aber bei der Übertragung großer zusammenhängender Dateien ziemlich lang sein.

Verzögerungen können auch auftreten, wenn die Laufwerksscheiben zum Energiesparen angehalten werden.

Die Defragmentierung ist ein Verfahren, das verwendet wird, um Verzögerungen beim Abrufen von Daten zu minimieren, indem verwandte Elemente in physisch nahe Bereiche auf der Festplatte verschoben werden. Einige Computerbetriebssysteme führen die Defragmentierung automatisch durch. Obwohl die automatische Defragmentierung Zugriffsverzögerungen verringern soll, wird die Leistung während des Vorgangs vorübergehend reduziert.

Die Zugriffszeit auf Daten kann durch Erhöhen der Rotationsgeschwindigkeit (und damit Verringern der Latenz) oder durch Reduzieren der Suchzeit verkürzt werden. Das Erhöhen der Flächendichte erhöht den Durchsatz durch Erhöhen der Datenrate und durch Erhöhen der Datenmenge unter einem Satz von Köpfen, wodurch potenziell die Suchaktivität für eine gegebene Datenmenge verringert wird. Die Zeit zum Zugreifen auf Daten hat nicht mit Durchsatzsteigerungen Schritt gehalten, die ihrerseits nicht mit dem Wachstum der Bitdichte und Speicherkapazität Schritt gehalten haben.

Latenz

Typisches Latenzverhalten von HDDs
Drehzahl
[U/min]
Durchschnittliche Rotationslatenz
[ms]
15.000 2
10.000 3
7.200 4.16
5.400 5.55
4.800 6.25

Datenübertragungsrate

Seit 2010 hat eine typische Desktop-Festplatte mit 7.200 U/min eine dauerhafte „Disk-to- Buffer “-Datenübertragungsrate von bis zu 1.030  Mbit/s . Diese Rate hängt von der Gleislage ab; die Rate ist höher für Daten auf den äußeren Spuren (wo es mehr Datensektoren pro Umdrehung gibt) und niedriger in Richtung der inneren Spuren (wo es weniger Datensektoren pro Umdrehung gibt); und ist bei 10.000er Laufwerken generell etwas höher. Ein aktuell weit verbreiteter Standard für die „Buffer-to-Computer“-Schnittstelle ist 3,0  Gbit/s SATA, das ca. 300 Megabyte/s (10-Bit-Kodierung) vom Buffer zum Rechner schicken kann und damit noch deutlich die Nase vorn hat die heutigen Disk-to-Buffer-Übertragungsraten. Die Datenübertragungsrate (Lesen/Schreiben) kann gemessen werden, indem eine große Datei mit speziellen Dateigenerator-Tools auf die Festplatte geschrieben und die Datei dann zurückgelesen wird. Die Übertragungsrate kann durch die Fragmentierung des Dateisystems und das Layout der Dateien beeinflusst werden.

Die Datenübertragungsrate der HDD hängt von der Rotationsgeschwindigkeit der Platten und der Datenaufzeichnungsdichte ab. Da Hitze und Vibration die Rotationsgeschwindigkeit begrenzen, wird die Erhöhung der Dichte zur Hauptmethode zur Verbesserung der sequentiellen Übertragungsraten. Höhere Geschwindigkeiten erfordern einen stärkeren Spindelmotor, der mehr Wärme erzeugt. Während die Bereichsdichte durch Erhöhen sowohl der Anzahl von Spuren auf der Platte als auch der Anzahl von Sektoren pro Spur voranschreitet, erhöht nur letztere die Datenübertragungsrate für eine gegebene Umdrehungszahl. Da die Leistung der Datenübertragungsrate nur eine der beiden Komponenten der Flächendichte verfolgt, verbessert sich ihre Leistung mit einer geringeren Rate.

Andere Überlegungen

Weitere Leistungsaspekte sind der qualitätsbereinigte Preis , der Stromverbrauch, die hörbaren Geräusche und die Stoßfestigkeit sowohl im Betrieb als auch im Ruhezustand.

Zugang und Schnittstellen

Innenansicht einer Seagate - Festplatte von 1998, die die parallele ATA -Schnittstelle verwendete
2,5-Zoll-SATA-Laufwerk auf 3,5-Zoll-SATA-Laufwerk, Nahaufnahme von (7-poligen) Daten- und (15-poligen) Stromanschlüssen

Aktuelle Festplatten werden über einen von mehreren Bustypen mit einem Computer verbunden , darunter parallel ATA , Serial ATA , SCSI , Serial Attached SCSI (SAS) und Fibre Channel . Einige Laufwerke, insbesondere externe tragbare Laufwerke, verwenden IEEE 1394 oder USB . Alle diese Schnittstellen sind digital; Eine Elektronik am Antrieb verarbeitet die analogen Signale der Schreib-Lese-Köpfe. Gegenwärtige Laufwerke stellen eine konsistente Schnittstelle zum Rest des Computers dar, unabhängig von dem intern verwendeten Datencodierungsschema und unabhängig von der physikalischen Anzahl von Platten und Köpfen innerhalb des Laufwerks.

Typischerweise nimmt ein DSP in der Elektronik im Antrieb die analogen Rohspannungen vom Lesekopf und verwendet PRML und Reed-Solomon-Fehlerkorrektur , um die Daten zu decodieren, und sendet diese Daten dann über die Standardschnittstelle. Dieser DSP überwacht auch die von der Fehlererkennung und -korrektur erkannte Fehlerrate und führt die Neuzuordnung fehlerhafter Sektoren , die Datenerfassung für die Selbstüberwachungs-, Analyse- und Berichtstechnologie und andere interne Aufgaben durch.

Moderne Schnittstellen verbinden das Laufwerk mit einem einzigen Daten-/Steuerkabel mit der Host-Schnittstelle. Jedes Laufwerk hat auch ein zusätzliches Netzkabel, normalerweise direkt zum Netzteil. Ältere Schnittstellen hatten separate Kabel für Datensignale und für Antriebssteuersignale.

  • Small Computer System Interface (SCSI), ursprünglich SASI für Shugart Associates System Interface genannt, war bis Mitte der 1990er Jahre Standard auf Servern, Workstations, Commodore Amiga- , Atari ST- und Apple Macintosh -Computern. Zu diesem Zeitpunkt waren die meisten Modelle auf neuere Schnittstellen umgestellt worden . Die Längenbegrenzung des Datenkabels lässt externe SCSI-Geräte zu. Der SCSI-Befehlssatz wird immer noch in der moderneren SAS-Schnittstelle verwendet.
  • Integrated Drive Electronics (IDE), später standardisiert unter dem Namen AT Attachment (ATA, mit dem bei der Einführung von SATA nachträglich hinzugefügten Alias ​​PATA ( Parallel ATA )) verlagerte den HDD-Controller von der Schnittstellenkarte auf das Plattenlaufwerk. Dies trug dazu bei, die Host/Controller-Schnittstelle zu standardisieren, die Programmierkomplexität im Host-Gerätetreiber zu reduzieren und die Systemkosten und -komplexität zu reduzieren. Die 40-polige IDE/ATA-Verbindung überträgt 16 Bit Daten gleichzeitig auf dem Datenkabel. Das Datenkabel war ursprünglich 40-adrig, aber spätere höhere Geschwindigkeitsanforderungen führten zu einem "Ultra-DMA" (UDMA) -Modus, bei dem ein 80-adriges Kabel mit zusätzlichen Drähten verwendet wurde, um das Übersprechen bei hoher Geschwindigkeit zu reduzieren.
  • EIDE war ein inoffizielles Update (von Western Digital) des ursprünglichen IDE-Standards, wobei die wichtigste Verbesserung die Verwendung von direktem Speicherzugriff (DMA) war, um Daten zwischen der Festplatte und dem Computer ohne Beteiligung der CPU zu übertragen , eine später eingeführte Verbesserung nach den offiziellen ATA-Standards. Durch die direkte Übertragung von Daten zwischen Speicher und Festplatte beseitigt DMA die Notwendigkeit, dass die CPU Byte für Byte kopieren muss, wodurch sie andere Aufgaben ausführen kann, während die Datenübertragung stattfindet.
  • Fibre Channel (FC) ist ein Nachfolger der parallelen SCSI-Schnittstelle auf dem Unternehmensmarkt. Es ist ein serielles Protokoll. In Plattenlaufwerken wird normalerweise die Verbindungstopologie Fibre Channel Arbitrated Loop (FC-AL) verwendet. FC hat eine viel breitere Verwendung als bloße Festplattenschnittstellen und ist der Eckpfeiler von Storage Area Networks (SANs). Kürzlich wurden auch andere Protokolle für diesen Bereich wie iSCSI und ATA über Ethernet entwickelt. Verwirrenderweise verwenden Laufwerke normalerweise Kupfer -Twisted-Pair-Kabel für Fibre Channel, nicht Glasfaser. Letztere sind traditionell größeren Geräten wie Servern oder Disk-Array-Controllern vorbehalten .
  • Serial Attached SCSI (SAS). SAS ist ein serielles Kommunikationsprotokoll der neuen Generation für Geräte, das Datenübertragungen mit viel höherer Geschwindigkeit ermöglicht und mit SATA kompatibel ist. SAS verwendet einen mechanisch kompatiblen Daten- und Stromanschluss für standardmäßige 3,5-Zoll-SATA1/SATA2-HDDs, und viele serverorientierte SAS-RAID-Controller können auch SATA-HDDs ansprechen. SAS verwendet serielle Kommunikation anstelle der parallelen Methode herkömmlicher SCSI-Geräte, verwendet aber weiterhin SCSI-Befehle.
  • Serial-ATA (SATA). Das SATA-Datenkabel hat ein Datenpaar für die differenzielle Übertragung von Daten zum Gerät und ein Paar für den differenziellen Empfang vom Gerät, genau wie EIA-422 . Das erfordert, dass Daten seriell übertragen werden. Ein ähnliches differentielles Signalisierungssystem wird bei RS485 , LocalTalk , USB , FireWire und differentiellem SCSI verwendet . SATA I bis III sind so konzipiert, dass sie mit einer Teilmenge von SAS-Befehlen und kompatiblen Schnittstellen kompatibel sind und diese verwenden. Daher kann eine SATA-Festplatte an einen SAS-Festplattencontroller angeschlossen und von diesem gesteuert werden (mit einigen geringfügigen Ausnahmen wie Laufwerken/Controllern mit eingeschränkter Kompatibilität). Sie können jedoch nicht umgekehrt angeschlossen werden – ein SATA-Controller kann nicht mit einem SAS-Laufwerk verbunden werden.

Integrität und Scheitern

Nahaufnahme eines HDD-Kopfes, der auf einer Plattenplatte ruht; seine Spiegelreflexion ist auf der Plattenoberfläche sichtbar. Wenn sich der Kopf nicht in einer Landezone befindet, kann es katastrophal sein, wenn die Köpfe die Platten während des Betriebs berühren.

Aufgrund des extrem engen Abstands zwischen den Köpfen und der Plattenoberfläche sind HDDs anfällig für Schäden durch einen Head Crash – ein Ausfall der Platte , bei dem der Kopf über die Plattenoberfläche kratzt, oft den dünnen Magnetfilm abschleift und Daten verursacht Verlust. Head Crashs können durch Elektronikfehler, einen plötzlichen Stromausfall, einen physischen Schock, eine Verschmutzung des internen Gehäuses des Laufwerks, Verschleiß, Korrosion oder schlecht hergestellte Platten und Köpfe verursacht werden.

Das Spindelsystem der Festplatte stützt sich auf die Luftdichte im Inneren des Festplattengehäuses , um die Köpfe in ihrer richtigen Flughöhe zu halten, während sich die Festplatte dreht. HDDs benötigen einen bestimmten Bereich an Luftdichten, um richtig zu funktionieren. Die Verbindung zur äußeren Umgebung und Dichte erfolgt durch ein kleines Loch im Gehäuse (ca. 0,5 mm breit), meist mit einem Filter im Inneren (dem Belüftungsfilter ). Wenn die Luftdichte zu gering ist, gibt es nicht genug Auftrieb für den fliegenden Kopf, so dass der Kopf zu nahe an die Platte kommt, und es besteht die Gefahr von Kopfabstürzen und Datenverlust. Für einen zuverlässigen Betrieb in großen Höhen über etwa 3.000 m (9.800 ft) werden speziell hergestellte versiegelte und druckbeaufschlagte Scheiben benötigt. Moderne Festplatten enthalten Temperatursensoren und passen ihren Betrieb an die Betriebsumgebung an. Entlüftungslöcher sind auf allen Laufwerken zu sehen – sie haben normalerweise einen Aufkleber daneben, der den Benutzer warnt, die Löcher nicht zu verdecken. Auch die Luft im Inneren des Laufwerks ist ständig in Bewegung und wird durch die Reibung mit den sich drehenden Platten in Bewegung versetzt. Diese Luft strömt durch einen internen Rezirkulationsfilter (oder „Rezirkulationsfilter“), um alle verbleibenden Verunreinigungen aus der Herstellung, alle Partikel oder Chemikalien, die irgendwie in das Gehäuse gelangt sind, und alle Partikel oder Ausgasungen, die im normalen Betrieb intern erzeugt werden, zu entfernen. Sehr hohe Feuchtigkeit, die über einen längeren Zeitraum vorhanden ist, kann die Köpfe und Platten korrodieren. Eine Ausnahme bilden hermetisch verschlossene, mit Helium gefüllte HDDs, die Umweltprobleme, die durch Feuchtigkeit oder Änderungen des atmosphärischen Drucks entstehen können, weitgehend eliminieren. Solche HDDs wurden 2013 von HGST in ihrer ersten erfolgreichen Großserienimplementierung eingeführt.

Insbesondere bei GMR-Köpfen ( Gigant Magnetoresistive ) führt ein kleiner Kopfabsturz aufgrund von Verschmutzung (der die magnetische Oberfläche der Platte nicht entfernt) immer noch zu einer vorübergehenden Überhitzung des Kopfes aufgrund von Reibung mit der Plattenoberfläche und kann die Daten unlesbar machen für einen kurzen Zeitraum, bis sich die Kopftemperatur stabilisiert (sogenannte "thermische Unebenheit", ein Problem, das teilweise durch geeignetes elektronisches Filtern des Lesesignals behandelt werden kann).

Wenn die Logikplatine einer Festplatte ausfällt, kann das Laufwerk häufig wieder funktionsfähig gemacht und die Daten wiederhergestellt werden, indem die Platine durch eine identische Festplatte ersetzt wird. Bei Defekten des Schreib-Lese-Kopfes können diese mit Spezialwerkzeugen in staubfreier Umgebung ausgetauscht werden. Wenn die Plattenteller unbeschädigt sind, können sie in ein identisches Gehäuse übertragen und die Daten auf ein neues Laufwerk kopiert oder geklont werden. Im Falle von Plattenplattenausfällen kann eine Demontage und ein Imaging der Plattenplatten erforderlich sein. Bei logischen Schäden an Dateisystemen können verschiedene Tools zur Datenwiederherstellung verwendet werden, darunter fsck auf UNIX-ähnlichen Systemen und CHKDSK auf Windows . Die Wiederherstellung nach einem logischen Schaden kann File Carving erfordern .

Eine allgemeine Erwartung ist, dass Festplattenlaufwerke, die für den Servereinsatz entwickelt und vermarktet werden, seltener ausfallen als Laufwerke der Consumer-Klasse, die normalerweise in Desktop-Computern verwendet werden. Zwei unabhängige Studien der Carnegie Mellon University und Google haben jedoch herausgefunden, dass die „Note“ eines Laufwerks nichts mit der Ausfallrate des Laufwerks zu tun hat.

Eine Zusammenfassung der Forschung zu SSD- und Magnetplatten-Ausfallmustern von Tom's Hardware aus dem Jahr 2011 fasste die Forschungsergebnisse wie folgt zusammen:

  • Die mittlere Zeit zwischen Ausfällen (MTBF) gibt keine Zuverlässigkeit an; die annualisierte Ausfallrate ist höher und in der Regel relevanter.
  • HDDs neigen nicht dazu, während der frühen Nutzung auszufallen, und die Temperatur hat nur einen geringen Einfluss; Stattdessen steigen die Ausfallraten mit dem Alter stetig an.
  • SMART warnt vor mechanischen Problemen, aber nicht vor anderen Problemen, die die Zuverlässigkeit beeinträchtigen, und ist daher kein zuverlässiger Zustandsindikator.
  • Die Ausfallraten von Laufwerken, die als „Enterprise“ und „Consumer“ verkauft werden, sind „sehr ähnlich“, obwohl diese Laufwerkstypen für ihre unterschiedlichen Betriebsumgebungen angepasst sind.
  • In Drive Arrays erhöht der Ausfall eines Laufwerks das kurzfristige Risiko des Ausfalls eines zweiten Laufwerks erheblich.

Ab 2019 meldete Backblaze, ein Speicheranbieter, eine annualisierte Ausfallrate von zwei Prozent pro Jahr für eine Speicherfarm mit 110.000 handelsüblichen HDDs, wobei die Zuverlässigkeit je nach Modell und Hersteller stark schwankte. Backblaze berichtete daraufhin, dass die Ausfallrate bei HDDs und SSDs gleichen Alters ähnlich sei.

Um die Kosten zu minimieren und Ausfälle einzelner HDDs zu überwinden, verlassen sich Anbieter von Speichersystemen auf redundante HDD-Arrays. Ausgefallene HDDs werden laufend ersetzt.

Marktsegmente

Consumer-Segment

Zwei High-End-Consumer-SATA-2,5-Zoll-HDDs mit 10.000 U/min, werkseitig in 3,5-Zoll-Adapterrahmen montiert
Desktop-Festplatten
Desktop-HDDs haben typischerweise zwei bis fünf interne Platten, rotieren mit 5.400 bis 10.000  U/min und haben eine Medienübertragungsrate von 0,5 Gbit/s oder höher (1 GB = 10 9 Bytes; 1 Gbit/s = 10 9 Bit/s). Frühere (1980–1990er) Laufwerke sind in der Regel langsamer in der Drehzahl. Ab Mai 2019 speicherten die Desktop - HDDs mit der höchsten Kapazität 16  TB , und es ist geplant, 18-TB-Laufwerke später im Jahr 2019 herauszubringen. 18-TB-HDDs wurden im Jahr 2020 auf den Markt gebracht. Ab 2016 die typische Geschwindigkeit einer Festplatte in einem durchschnittlichen Desktop-Computer beträgt 7.200 U/min, wohingegen kostengünstige Desktop-Computer Laufwerke mit 5.900 U/min oder 5.400 U/min verwenden können. In den 2000er und frühen 2010er Jahren verwendeten einige Desktop-Benutzer und Rechenzentren auch Laufwerke mit 10.000 U / min wie Western Digital Raptor , aber solche Laufwerke sind seit 2016 viel seltener geworden und werden heute nicht mehr häufig verwendet, da sie durch NAND-Flash-basiert ersetzt wurden SSDs.
Mobile (Laptop-)Festplatten
Sie sind kleiner als ihre Desktop- und Enterprise-Pendants, tendenziell langsamer und haben eine geringere Kapazität, da sie normalerweise eine interne Platte haben und eine physische Größe von 2,5 Zoll oder 1,8 Zoll hatten, anstatt häufiger bei Desktops mit 3,5-Zoll-Formfaktor. Mobile HDDs drehen sich mit 4.200 U/min, 5.200 U/min, 5.400 U/min oder 7.200 U/min, wobei 5.400 U/min am gebräuchlichsten sind. Laufwerke mit 7.200 U/min sind tendenziell teurer und haben eine geringere Kapazität, während Modelle mit 4.200 U/min normalerweise sehr hohe Speicherkapazitäten haben. Aufgrund kleinerer Platten ) haben mobile Festplatten im Allgemeinen eine geringere Kapazität als ihre Desktop-Pendants.
HDDs für Unterhaltungselektronik
Dazu gehören Laufwerke, die in digitale Videorecorder und Kraftfahrzeuge eingebettet sind . Erstere sind so konfiguriert, dass sie selbst bei Lese- und Schreibfehlern eine garantierte Streaming-Kapazität bieten, während letztere so konstruiert sind, dass sie größeren Erschütterungen standhalten. Sie drehen normalerweise mit einer Geschwindigkeit von 5400 U / min.
Externe und tragbare Festplatten
Zwei externe 2,5-Zoll-USB-Festplatten
Aktuelle externe Festplatten werden normalerweise über USB-C angeschlossen ; frühere Modelle verwenden einen normalen USB (manchmal mit Verwendung eines Portpaares für eine bessere Bandbreite) oder (selten) zB eine eSATA- Verbindung. Varianten mit USB 2.0-Schnittstelle haben im Allgemeinen langsamere Datenübertragungsraten im Vergleich zu intern montierten Festplatten, die über SATA angeschlossen sind. Die Plug-and-Play -Laufwerksfunktionalität bietet Systemkompatibilität und verfügt über große Speicheroptionen und ein tragbares Design. Ab März 2015 reichten die verfügbaren Kapazitäten für externe Festplatten von 500 GB bis 10 TB. Externe Festplattenlaufwerke sind normalerweise als zusammengebaute integrierte Produkte erhältlich, können aber auch zusammengebaut werden, indem ein externes Gehäuse (mit USB- oder anderer Schnittstelle) mit einem separat erworbenen Laufwerk kombiniert wird. Sie sind in den Größen 2,5 Zoll und 3,5 Zoll erhältlich; 2,5-Zoll-Varianten werden normalerweise als tragbare externe Laufwerke bezeichnet, während 3,5-Zoll-Varianten als externe Desktop-Laufwerke bezeichnet werden . "Tragbare" Laufwerke sind in kleineren und leichteren Gehäusen verpackt als die "Desktop"-Laufwerke; Darüber hinaus verwenden „tragbare“ Laufwerke Strom, der über die USB-Verbindung bereitgestellt wird, während „Desktop“-Laufwerke externe Netzteile benötigen . Features wie Verschlüsselung , Wi-Fi- Konnektivität, biometrische Sicherheit oder mehrere Schnittstellen (z. B. FireWire ) sind zu einem höheren Preis erhältlich. Es gibt vormontierte externe Festplattenlaufwerke, die, wenn sie aus ihren Gehäusen herausgenommen werden, aufgrund der eingebetteten USB-Schnittstelle auf ihren Leiterplatten und des Fehlens von SATA- (oder parallelen ATA- ) Schnittstellen nicht intern in einem Laptop oder Desktop-Computer verwendet werden können.

Unternehmens- und Geschäftssegment

Server- und Workstation-HDDs
Hot-Swap- Festplattengehäuse
Wird normalerweise mit Computern mit mehreren Benutzern verwendet, auf denen Unternehmenssoftware ausgeführt wird . Beispiele sind: Transaktionsverarbeitungsdatenbanken, Internetinfrastruktur (E-Mail, Webserver, E-Commerce), wissenschaftliche Computersoftware und Nearline-Speicherverwaltungssoftware. Enterprise-Laufwerke werden in anspruchsvollen Umgebungen üblicherweise kontinuierlich ("24/7") betrieben und liefern dabei die höchstmögliche Leistung ohne Einbußen bei der Zuverlässigkeit. Maximale Kapazität ist nicht das primäre Ziel, weshalb die Laufwerke oft in Kapazitäten angeboten werden, die im Verhältnis zu ihren Kosten relativ niedrig sind.
Die schnellsten Enterprise-HDDs drehen sich mit 10.000 oder 15.000 U/min und können sequentielle Medienübertragungsgeschwindigkeiten von über 1,6 Gbit/s und eine kontinuierliche Übertragungsrate von bis zu 1 Gbit/s erreichen. Laufwerke, die mit 10.000 oder 15.000 U/min laufen, verwenden kleinere Platten, um den erhöhten Leistungsbedarf zu mindern (da sie weniger Luftwiderstand haben ) und haben daher im Allgemeinen eine geringere Kapazität als die Desktop-Laufwerke mit der höchsten Kapazität. Unternehmensfestplatten werden üblicherweise über Serial Attached SCSI (SAS) oder Fibre Channel (FC) verbunden. Einige unterstützen mehrere Ports, sodass sie an einen redundanten Host-Bus-Adapter angeschlossen werden können .
Unternehmens-HDDs können Sektorgrößen von mehr als 512 Byte haben (häufig 520, 524, 528 oder 536 Byte). Der zusätzliche Speicherplatz pro Sektor kann von Hardware-RAID-Controllern oder Anwendungen zum Speichern von Data Integrity Field (DIF)- oder Data Integrity Extensions (DIX)-Daten verwendet werden, was zu einer höheren Zuverlässigkeit und Verhinderung einer unbemerkten Datenbeschädigung führt .
Videoaufzeichnungs-HDDs
Diese Produktreihe ähnelte HDDs für die Videoaufzeichnung von Verbrauchern mit Stream-Stabilitätsanforderungen und ähnelte Server-HDDs mit Anforderungen an die Erweiterbarkeitsunterstützung, war aber auch stark auf das Wachstum der internen Kapazität ausgerichtet. Das Hauptopfer für dieses Segment ist die Schreib- und Lesegeschwindigkeit.

Hersteller und Vertrieb

Diagramm der Konsolidierung von HDD-Herstellern

Mehr als 200 Unternehmen haben im Laufe der Zeit HDDs hergestellt, aber Konsolidierungen haben die Produktion heute auf nur drei Hersteller konzentriert: Western Digital , Seagate und Toshiba . Die Produktion erfolgt hauptsächlich im pazifischen Raum.

Der weltweite Umsatz mit Festplattenspeicher ging um acht Prozent pro Jahr zurück, von einem Höchststand von 38 Milliarden US-Dollar im Jahr 2012 auf 22 Milliarden US-Dollar (geschätzt) im Jahr 2019. Die Produktion von Festplattenspeichern stieg zwischen 2011 und 2017 um 15 % pro Jahr, von 335 auf 780 Exabyte pro Jahr. Die HDD-Lieferungen gingen in diesem Zeitraum um sieben Prozent pro Jahr zurück, von 620 auf 406 Millionen Einheiten. Es wurde prognostiziert, dass die HDD-Lieferungen im Zeitraum 2018–2019 um 18 % von 375 Millionen auf 309 Millionen Einheiten zurückgehen werden. Im Jahr 2018 hat Seagate 40 % der ausgelieferten Einheiten, Western Digital 37 % der ausgelieferten Einheiten und Toshiba 23 % der ausgelieferten Einheiten. Der durchschnittliche Verkaufspreis der beiden größten Hersteller lag 2015 bei 60 US-Dollar pro Einheit.

Konkurrenz durch SSDs

HDDs werden in Märkten, in denen ihre höhere Geschwindigkeit (bis zu 4950 Megabyte ) (4,95 Gigabyte ) pro Sekunde für M.2 (NGFF) NVMe- SSDs oder 2500 Megabyte (2,5 Gigabyte ) pro Sekunde für NVMe-SSDs von bis zu 4950 Megabyte (4,95 Gigabyte) pro Sekunde durch Solid-State-Laufwerke (SSDs) abgelöst PCIe -Erweiterungskartenlaufwerke), Robustheit und geringerer Stromverbrauch sind wichtiger als der Preis, da die Bitkosten von SSDs vier- bis neunmal höher sind als die von HDDs. Ab 2016 haben HDDs eine Ausfallrate von 2–9 % pro Jahr, während SSDs weniger Ausfälle haben: 1–3 % pro Jahr. SSDs haben jedoch mehr nicht korrigierbare Datenfehler als HDDs.

SSDs bieten größere Kapazitäten (bis zu 100 TB) als die größten HDDs und/oder höhere Speicherdichten (100-TB- und 30-TB-SSDs sind in 2,5-Zoll-HDD-Gehäusen untergebracht, haben aber die gleiche Höhe wie eine 3,5-Zoll-HDD), obwohl sie ihren Preis haben bleibt unerschwinglich.

Eine Labordemonstration eines 1,33-Tb-3D-NAND-Chips mit 96 Schichten (NAND, das häufig in Solid State Drives (SSDs) verwendet wird) hatte ab 2019 5,5 Tbit/in 2 , während die maximale Flächendichte für HDDs 1,5 Tbit/in 2 beträgt . Die Flächendichte von Flash-Speicher verdoppelt sich alle zwei Jahre, ähnlich dem Mooreschen Gesetz (40 % pro Jahr) und schneller als die 10–20 % pro Jahr für HDDs. Ab 2018 betrug die maximale Kapazität 16 Terabyte für eine HDD und 100 Terabyte für eine SSD. HDDs wurden in 70 % der 2016 produzierten Desktop- und Notebook-Computer verwendet und SSDs in 30 %. Der Nutzungsanteil von HDDs ist rückläufig und könnte einer Prognose zufolge 2018–2019 unter 50 % fallen, da SSDs HDDs mit geringerer Kapazität (weniger als ein Terabyte) in Desktop- und Notebook-Computern sowie MP3-Playern ersetzen.

Der Markt für siliziumbasierte Flash-Speicherchips (NAND), die in SSDs und anderen Anwendungen verwendet werden, wächst schneller als der für HDDs. Der weltweite NAND-Umsatz stieg zwischen 2011 und 2017 um 16 % pro Jahr von 22 Milliarden US-Dollar auf 57 Milliarden US-Dollar, während die Produktion um 45 % pro Jahr von 19 Exabyte auf 175 Exabyte wuchs.

Siehe auch

Anmerkungen

Verweise

Weiterlesen

Externe Links