Magnetspeicher
(Diskette, Festplatte, Wechselfestplatte, Jukebox, RAID, Streamer, Magnetkarte)
Magnetspeicher
Das Prinzip eines Magnetspeichers ist es, binäre Information durch die unterschiedliche Magnetisierungsausrichtung unzähliger kleiner Magnetnadeln zu speichern.
Magnetspeicher sind als externe Speicher zu betrachten, d. h. die gespeicherte Information ist im Gegensatz zu internen Speichern dauerhaft vorhanden.
Beim Kauf eines Magnetspeichers sind viele unterschiedliche Aspekte zu beachten. Die Zusammenstellung soll einen Überblick vermitteln:
Kapazität
Geschwindigkeit beim Zugriff
Sicherheit der gespeicherten Daten
Wechselbarkeit
Wiederbeschreibbarkeit
Einbau
Hardwareanschluß
und natürlich: der Preis
Massenspeicher - und damit auch Magnetspeicher - lassen sich grundsätzlich unterteilen in:
Primärspeicher:
Das sind Speichermedien, die auf die Daten im Random-Access-Verfahren (also
direkter Zugriff auf einzelne Informationsblöcke) zugreifen.
Ein Beispiel für diese Gruppe von Magnetspeichern ist die Festplatte.
Sekundärspeicher:
Die Organisation der Daten erfolgt analog zu den Primärspeichern. Der direkte
Zugriff auf die Informationen ist jedoch erst nach dem Einlegen des Datenträgers
möglich.
Zu dieser Gruppe zählen Disketten(-laufwerke) und Wechselfestplatten.
Backupspeicher:
Darunter versteht man Speicher, die in der Regel sequentiell arbeiten. Der
direkte (wahlfreie) Zugriff auf einzelne Informationsblöcke ist nicht möglich.
Ein Beispiel für einen Backupspeicher ist der Streamer bzw. das Streamerband.
Neben der üblichen 3 1/2-Zoll-Diskette existiert nur noch vereinzelt die 5 1/4-Zoll-Diskette.
Beide Formen kann man bezüglich ihrer Kapazität weiter unterteilen:
3 1/2-Zoll-Diskette
720 KB
1,44 MB
2,88 MB
5 1/4-Zoll-Diskette
360 KB
1,2 MB
Eine 3 1/2-Zoll-Diskette besteht aus ungefähr zehn Komponenten.
Neben dem eigentlichen Speichermedium, einer mit Eisenoxid überzogenen, drehbaren Kunststoffplatte, gibt es eigentlich nur ein weiteres Teil von größerer Bedeutung: den "Lifter", ein kleines, flexibles Plastikstück, das andauernd gegen die Diskettenscheibe drückt. Dadurch wird die Scheibe bei jeder Umdrehung gereinigt; andererseits wird auch das Drehmoment konstant gehalten.
Die Informationen sind in konzentrischen Spuren (Tracks) aufgezeichnet.
Ein Sektor ist der Teil einer Spur. Dies ist die kleinste hardwaremäßig adressierbare Einheit.
Die Kapazität läßt sich somit wie folgt berechnen:
Anzahl der Seiten * Anzahl der Spuren pro Seite * Anzahl der Sektoren pro Spur * Anzahl der Bytes pro Sektor
(Hinweis: Die Formel wird analog auch bei Festplatten verwendet.)
Ein Diskettenlaufwerk besteht grundsätzlich aus drei Teilen:
Schreib-Lese-Kopf:
Diese Komponente besteht aus einem Elektromagneten und ist für den eigentlichen
Zugriff auf den Datenträger zuständig.
Drehmotor:
Wie der Name schon sagt, bringt der Drehmotor das Speichermedium dazu, sich zu
drehen und so dem Schreib-Lese-Kopf den Zugriff zu ermöglichen.
Die Geschwindigkeit bleibt dabei konstant
und beträgt 360 Umdrehungen pro Minute.
Disk-Controller:
Das ist die elektronischen Schnittstelle zwischen dem Laufwerk und dem
Systembus.
Die Aufgabe des Disk-Controllers ist die Steuerung des Drehmotors und des
Schreib-Lese-Kopfes.
Beim Schreibvorgang richten sich die Oxid-Teilchen auf der Diskette länglich aus. Die Information wird codiert durch die Richtung, in der sie ausgerichtet sind.
Beim Lesevorgang bewirkt eine Anderung der Magnetfeldrichtung einen Stromimpuls. Dieser wird vom Controller decodiert.
Sowohl in mechanischer als auch in physikalischer Hinsicht sind die Eigenschaften von Disketten bis ins Detail festgelegt.
Dafür gibt es eine Reihe von Normen, die sich nicht wesentlich unterscheiden.
Am wichtigsten sind die Regeln der ECMA und die DIN-Normen.
Der Nachteil einer herkömmlichen Diskette ist offensichtlich: die niedrige Kapazität.
Deshalb entwickelte die Firma Iomega ein Speichermedium, das in der Lage war, Datenmengen bis zu 100 MB aufzunehmen.
Entgegen zahlreicher Prognosen hat dieses Medium, die ZIP-Diskette, bisher die herkömmliche Diskette noch nicht ablösen können.
Eine neuere Version, das JAZ-Medium, kann bereits 1 - 2 GB an Daten aufnehmen.
Eine ZIP-Diskette ist für 150 bis 200 ATS zu haben; JAZ-Medien kosten 1.200 bis 1.500 ATS.
Für ein ZIP-Laufwerk muß man mit ca. 1.000 (intern) bis 1.500 (extern) ATS rechnen; für ein JAZ-Drive mit über 5.000 ATS.
Die Diskette mit der LS-120-Technologie verfügt über 120 MB Kapazität und faßt daher einerseits die gleiche Datenmenge wie ca. 85 1,44-MB-Disketten und andererseits auch 20 % mehr als eine ZIP-Diskette.
LS-120-Laufwerke werden sowohl als IDE- als auch als SCSI-Version angeboten. Natürlich muß man auch hier zwischen internen und externen Laufwerken unterscheiden.
Die LS-120-Technologie ist derzeit kompatibel zu Windows 3.11, Windows 95/98 und auch zu Macintosh-Betriebssystemen.
Zur Zeit bemüht man sich, auch Treiber für Windows NT, OS/2 Warp und Unix zu erstellen.
Eine Übersicht über die wichtigsten Unterschiede zwischen einer "normalen" Diskette und der "neuen" Superdisk:
|
1,44 MB HD |
LS-120 |
|
Datentransferrate |
60 KB/s |
IDE: 565 KB/s SCSI: 4 MB/s |
|
Formatierte Kapazität |
1,44 MB |
120 MB |
|
Rotationsgeschwindigkeit |
300 U/min |
720 U/min |
|
Spurdichte |
135 tpi |
2490 tpi |
|
Durchschnittliche Zugriffszeit |
84 ms |
65 ms |
|
Das Funktionsprinzip einer Festplatte ähnelt sehr dem von Disketten.
Im Gegensatz zur Diskette mit ungefähr 300 Umdrehungen pro Minute rotiert die Festplatte mit 3600 Umdrehungen, neuere Modelle mit noch mehr.
Die Magnetschicht ist deshalb nicht, wie bei der Diskette, auf einem weichen Kunststoffträger aufgebracht, da dieser bei diesen Geschwindigkeiten zu "flattern" beginnen würde, sondern auf Aluminium- oder Glasscheiben.
Um mehr speichern zu können, werden mehrere Scheiben übereinander auf eine gemeinsame Achse montiert. An einem Arm sind die beweglichen Schreib-Lese-Köpfe befestigt (einer für jede Plattenoberfläche).
Eine Berührung zwischen Kopf- und Platte, der sogenannte "Head-Crash" wäre bei den hohen Geschwindigkeiten einer Festplatte in Hinsicht des Datenverlustes eine mittlere Katastrophe.
Allerdings bildet sich gerade durch die hohe Geschwindigkeit ein Luftpolster zwischen Plattenoberfläche und Kopf, sodaß der Kopf im Abstand von einem Mikrometer über der Platte schwebt (Bernoulli-Effekt).
Wenn man von der Kapazität einer Festplatte spricht, muß man zwischen zwei Werten unterscheiden:
Bruttokapazität:
Dies ist die theoretisch maximale Kapazität des Laufwerkes. Sie ergibt sich aus
der Multiplikation von Bit-(Byte-)dichte in der Spur mit Spurlänge, Spuranzahl
und Zahl der Plattenoberflächen.
Nettokapazität:
Die Nettokapazität gibt an, wieviel Platz tatsächlich auf einem Laufwerk
nutzbar ist.
für den Anwender nutzbare Nettokapazität:
Diese Zahl unterscheidet sich erheblich
von der vom Hersteller angegebenen Nettokapazität.
Das hat unterschiedliche Gründe:
Einerseits werden etwa 10 - 20 % der Kapazität für Fehlerkorrektur- und Adreßinformationen benötigt.
Andererseits
belegt auch das Dateisystem einigen Platz für Verwaltungsdaten.
Doch damit nicht genug, muß man sich auch noch darüber den Kopf zerbrechen, was nun genau unter einem Megabyte (oder Gigabyte) zu verstehen ist:
Die meisten Plattenhersteller rechnen: 1 MB = 1.000.000 Bytes
Für ein Betriebssystem besteht ein Megabyte aber aus 1.048.576 Bytes.
Außerdem ist zu berücksichtigen, daß die Performance unter einer zu starken Ausnutzung der Kapazität leidet.
Wird ein Rechner unter DOS oder Windows 95 betrieben, so gibt es immer noch einige Einschränkungen bezüglich der Kapazität.
Hier zwei Beispiele:
Maximale Plattengröße: 8 GB
Maximale Partitionsgröße: 2 GB
Bei einer 2 GB großen Partition beträgt die Blockgröße allerdings bereits 32 KB, d. h. auch wenn eine Datei mit einer Größe von nur einigen Bytes abgelegt wird, belegt sie trotzdem einen ganzen Block von 32 KB.
Als wichtigste Leistungsmerkmale einer Festplatte sind zu nennen:
Betriebssystem-Overhead:
Das ist die Zeit, die vom Betriebssystem benötigt wird, um einen Schreib- bzw.
Lese-Request zu erzeugen und dem Festplatten-Controller zu übergeben.
Positionierzeit:
Die Positionierzeit gibt an, wie lange das Laufwerk zum Positionieren der
Schreib-Lese-Köpfe benötigt.
Setting Time:
Dieser Wert gibt an, wie lange ein Schreib-Lese-Kopf braucht, um sich nach einer Bewegung mechanisch zu beruhigen bzw. auszuschwingen.
Umdrehungswartezeit (Latency):
Wenn der Schreib-Lese-Kopf über der gewünschten Spur positioniert ist, muß er warten, bis der gewünschte Block vorbeikommt.
Transferrate:
Das ist die Anzahl der übertragenen Bytes bzw. Bits in einer Sekunde.
Transferzeit:
Die Transferzeit ergibt sich logischerweise aus der Transferrate (je höher die
Transferrate, desto kleiner die Transferzeit).
Sektorgröße:
Unter diesem Begriff versteht man die Anzahl der Bytes, die zu einem Sektor
zusammengefaßt sind.
Der Einsatz von Cache-Speichern ist eine Möglichkeit zur Leistungssteigerung.
Dabei wird jeder zu schreibende Block - wie üblich - zum Festplattenlaufwerk übertragen. Zusätzlich merkt sich der Controller aber die Adresse des Blocks und dessen Inhalt in einem internen Speicher.
Der Vorteil dabei liegt in den reduzierten Plattenzugriffen.
Hier existieren im wesentlichen zwei Standards:
ESDI (Enhanced Small Device Interface):
ist eine PC-spezifische Entwicklung und erlaubt den Einbau von maximal zwei Festplatten. Die Übertragung der Daten erfolgt seriell.
SCSI (Small Computer System Interface):
ist die wohl universellste Schnittstelle. Es können bis zu sieben Festplatten angeschlossen werden.
SCSI ist jedoch keine reine Festplattenschnittstelle, es kann beispielsweise auch ein Scanner angeschlossen werden.
Unter dem Begriff "Aufzeichnungsverfahren" werden alle Methoden verstanden, Bits und Bytes in magnetische Form zu bringen.
Es sind hier die wichtigsten nur kurz beschrieben, da eine genaue Behandlung mehrere Seiten füllen würde:
NRZ (Non Return to Zero):
Die Magnetisierung wird bei diesem Verfahren nur gewechselt, wenn bei den Datenbits ein Wechsel von 0 nach 1 oder umgekehrt erfolgt.
Bei mehreren aufeinanderfolgenden 1-Bits
bleibt der Strom konstant auf "high", ohne zwischendurch auf "low"
zurückzukehren (daher der Name des Verfahrens).
FM (Frequency Modulation):
Mit Hilfe der Frequenzmodulation versucht man, die Festplattenkapazität vor allem durch neue, leicht modifizierte Verfahren (Modified Frequency Modulation) immer mehr zu steigern.
RLL (Run Length Limited):
Dies ist ein ziemlich komplexes Verfahren. Es erreicht durchschnittlich einen 50prozentigen Kapazitätsgewinn gegenüber der FM-Methode.
Eine kleine Auswahl an aktuellen Festplatten und ihren Preisen:
Hersteller |
Schnittstelle |
Kapazität (GB) |
Zugriffszeit (ms) |
Preis |
IBM |
IDE |
|
|
|
IBM |
IDE |
|
|
|
Maxtor |
IDE |
|
|
|
Quantum |
IDE |
|
|
|
Seagate |
IDE |
|
|
|
Toshiba (für Notebook) |
IDE |
|
|
|
IBM |
SCSI |
|
|
|
Seagate |
SCSI |
|
|
|
Die Zeitschrift "PC Intern" hat in ihrer November-Ausgabe 1998 eine Test bei 30 aktuellen Festplatten durchgeführt. Getestet wurden dabei im wesentlichen der Datendurchsatz und die mittlere Zugriffszeit. Aus den beiden Zielerträgen wurde dann eine "Gesamtnote" gebildet (1 = sehr gut, 5 = mangelhaft).
Festplatten, die besonders gut bzw. besonders schlecht abschnitten, sind hier kurz zusammengefaßt:
Die besten Festplatten:
Name |
Hersteller |
Kapazität (GB) |
Preis (ca.) |
Leistungs- bewertung |
MAA3182 |
Fujitsu |
|
|
|
Cheetah 18 |
Seagate |
|
|
|
DK319H-18 |
Hitachi |
|
|
|
Barracuda 9LP |
Seagate |
|
|
|
DK 329H |
Hitachi |
|
|
|
Die schlechtesten Festplatten:
Name |
Hersteller |
Kapazität (GB) |
Preis (ca.) |
Leistungs- bewertung |
SpinPoint V 3A |
Samsung |
|
|
|
Medalist 4321 |
Seagate |
|
|
|
SpinPoint V 3200 |
Samsung |
|
|
|
Medalist 6531 |
Seagate |
|
|
|
WD Caviar AC 35100 |
Western Digital |
|
|
|
Die Platten der Hersteller IBM, Maxtor oder Quantum landeten im Mittelfeld.
Vor kurzem hat die Firma IBM neue IDE-Festplatten auf den Markt gebracht, die auf dem GMR-Effekt (Giant Magneto Resistive) basieren. Dieser Effekt erlaubt eine höhere Datendichte.
Die High-End-Version mit einer Kapazität von 14,4 GB soll etwa 700 Dollar kosten.
Auch bei Notebooks stellte IBM mit einer Festplattenkapazität von 8 GB einen neuen Rekord auf.
IBM hat bereits einen weiteren Fortschritt angekündigt. In nicht allzu langer Zeit soll eine Festplatte auf den Markt kommen, die bei einer Höhe von einem Zoll eine Kapazität von 16,8 GB aufweist.
Der Firma Seagate wiederum ist es gelungen, Festplatten mit einer Transferrate von über 20 MB/s zu konstruieren. Die neuen Festplatten sind seit Sommer 1998 auf dem Markt.
Der Einsatz von Wechselfestplatten ist sinnvoll bei ständig wechselndem Einsatzort oder wenn durch "Umkopieren" zuviel Zeit in Anspruch genommen würde.
Wenn ein Wechselfestplattenlaufwerk zum Einsatz kommt, sollte man aber daran denken, daß man immer direkt auf dem Laufwerk arbeitet und damit die Gefahr des Datenverlustes besteht.
Deshalb sollte man zusätzlich eine Sicherung auf einem anderen Medium vornehmen.
Ein aktuelles Beispiel:
Im November 1998 hat die Firma Syquest in Las Vegas ein neues Wechselfestplatten-Laufwerk mit einer Kapazität von 4,7 GB und einer Übertragungsrate von 10 MB/s vorgestellt.
Unter dem Begriff "Jukebox" werden Multifunktions-Laufwerke zusammengefaßt, die entweder mit magnetischen, optischen oder magneto-optischen Datenträgern arbeiten.
Die Jukeboxen der "M"-Serie der Firma Plasmon Data Limited (Sitz: England) arbeiten im Normalfall mit magneto-optischen Laufwerken mit einer Speicherkapazität von je 5,2 GB.
Die durchschnittliche Zugriffszeit auf die Daten beträgt 25 ms, die Datenübertragungsrate liegt bei 10 MB/s. Die MTBF (Mean Time Before Failure) von 100.000 Stunden beweist eine außerordentlich hohe Zuverlässigkeit und Langlebigkeit.
Die "Luxus-Version", M-500, umfaßt bis zu sechs Laufwerke und ist in der Lage, Daten bis zu einer Kapazität von 2,6 TB (= 2600 GB) speichern.
Als Betriebssysteme werden zur Zeit Windows NT, Solaris, AIX und, seit September 1998, auch Windows 95/98, unterstützt.
Wer beabsichtigt, sich eine Jukebox anzuschaffen, muß mit Preisen ab 35.000 ATS für ein Laufwerk, ab 100.000 ATS für die Jukebox selbst und ca. 2.000 ATS für ein Medium rechnen.
Zuletzt noch einige Anwendungsgebiete:
CAD / CAM
Data Warehousing
Telefonkonferenzen
Video-Server
Satelliten-Telemetrie (z. B. für Wettervorhersagen)
geophysikalische Untersuchungen (z. B. bei der Erdölförderung)
Unter dem Begriff RAID (Redundant Array of Independent Disks) werden alle Technologien zusammengefaßt, die mehrere Laufwerke zu größeren, teilweise auch ausfallsichereren Gesamtsystemen zusammenfassen.
RAIDs sind aber meist langsamer als konventionell genutzte Einzellaufwerke. Sie dienen ja auch der verbesserten Verfügbarkeit von Daten und nicht der Performancesteigerung.
Sinnvoll ist der Einsatz dann, wenn große Datenmengen gespeichert werden sollen, auf die entweder selten oder nur mit langen Transfers zugegriffen wird.
Der Ausfall eines Einzellaufwerkes führt weder zu einem Ausfall des Gesamtsystems noch zu einer Betriebsunterbrechung und schon gar nicht zu Datenverlust.
Deshalb werden RAID-Systeme hauptsächlich dort eingesetzt, wo der Verlust von Daten eine mittlere Katastrophe wäre.
RAID verwendet im wesentlichen drei Technologien:
Mirroring:
Das ist die Spiegelung von zwei oder mehreren Laufwerken an einem Controller.
Duplexing:
Im Gegensatz zum Mirroring "hängen" die Laufwerke hier an verschiedenen
Controllern.
Striping:
Beim Striping werden mehrere Laufwerke zu einer logischen Einheit
zusammengefaßt und die Daten blockweise auf alle Laufwerke verteilt.
Man sollte darauf achten daß die unterbrechungsfreie Stromversorgung eines RAID-Systems gewährleistet ist, da ja sonst der eigentliche Sinn, also die permanente Datenverfügbarkeit, nicht mehr erfüllt ist.
Die folgende Zusammenstellung vermittelt einen groben Überblick über die einzelnen, teilweise recht komplex aufgebauten Strategien beim Einsatz von RAIDs:
RAID Level 0:
Bei diesem Verfahren wird Striping
eingesetzt. Dabei gibt ein "Striping-Faktor" an, wie groß die Blöcke sind, die
jeweils auf eines der Laufwerke geschrieben werden.
Je kleiner dieser Faktor gewählt wird, desto größere Vorteile in Bezug auf die
Transferrate hat man beim Lesen oder Schreiben von langen Requests, desto
größer sind aber auch die Nachteile bei sehr kurzen Requests.
Beim Ausfall eines einzelnen Laufwerkes kann aber auf die gesamten Daten nicht mehr fehlerfrei zugegriffen werden.
Deshalb ist RAID Level 0 kein RAID-Level im engeren Sinne (wie ja der Name eigentlich schon sagt).
RAID Level 1:
Hier werden alle Daten einfach auf zwei Platten gespeichert. Das hat den Vorteil, daß sich beim Ausfall einer Platte kein Problem ergibt.
Außerdem kann die Leseleistung erhöht werden, da ein Lese-Request auf zwei Laufwerke aufgeteilt werden kann.
Die Nachteile liegen aber auf der Hand, benötigt man doch doppelt soviel Kapazität, als wenn man ohne RAID-System arbeiten würde.
RAID Level 0+1:
Dieses Verfahren kombiniert einfach die
RAID-Levels 0 und 1 (Striping und Mirroring).
RAID Level 4:
Hier muß man für ein ausfallsicheres System nicht den doppelten Preis zahlen wie beim RAID Level 1, sondern man verwendet für eine beliebige Anzahl von Festplatten, die nach dem Striping-Verfahren beschrieben werden, ein weiteres Laufwerk, das als Parity Drive gilt.
Beim Ausfall einer Platte läßt
sich aus den Daten der übrigen Platten und des Parity Drives der Inhalt der
defekten Platte rekonstruieren.
Der Nachteil des Verfahrens liegt darin, daß das Parity Drive bei jedem
Schreibvorgang auf den neuesten Stand gebracht werden muß.
RAID Level 5:
Da das Parity Drive bei jedem Schreiben gewartet werden muß, erfolgen auf dieses Laufwerk die meisten Zugriffe.
Beim RAID Level 5 versucht man eine Überlastung des Parity Drives zu übergehen, indem jedes Laufwerk für einen bestimmten Bereich die Funktion eines Parity Drives übernimmt.
Wenn man sich ein halbwegs modernes RAID-Array kaufen will, das alle oben beschriebenen Technologien unterstützt, wird man mit weniger als 100.000 ATS nicht weit kommen.
Festplatten zum Einbau in ein RAID-Array sind je nach Kapazität um 15.000 bis 45.000 ATS zu haben.
Ab einer gewissen Festplattenkapazität ist der Einsatz von Disketten für die Datensicherung nicht mehr sinnvoll.
Ab diesem Zeitpunkt sollte über die Anschaffung eines Streamers nachgedacht werden.
Bei hohen Datenmengen ist das Backup mit Hilfe von Disketten sicherlich die umständlichste Art, Daten vor dem Verlust zu bewahren.
Wechselfestplatten erfreuen sich zwar großer Beliebtheit, bieten aber auch nicht mehr Sicherheit als "normale" Festplatten und sind darüber hinaus nicht billig.
Streamer sind relativ preisgünstig. Sie verwenden Bänder die für den professionellen EDV-Markt entwickelt wurden und daher einem hohen Qualitätsstandard entsprechen.
Streamer können normalerweise über den in jedem PC vorhandenen Disketten-Controller betrieben werden. Sie sind sowohl als externes als auch als internes Gerät erhältlich.
Um den Betrieb aufnehmen zu können, benötigen Streamer nur die mitgelieferte Treiber-Software und ein Band ("Tape").
Sie sind zwar nicht wesentlich schneller als ein Diskettenlaufwerk, können aber ein Vielfaches an Daten speichern.
Bei einem Magnetband sind die Informationen nacheinander auf einem Kunststoffband, das mit einer magnetisierbaren Schicht überzogen ist, aufgezeichnet.
Das Band wird in der Magnetbandeinheit (oder Magnetbandgerät) an einem Schreib-Lese-Kopf vorbeigezogen.
Magnetbänder sind entweder als Magnetbandrolle oder Magnetbandkassette ausgeführt.
Übliche Bandbreiten sind:
bei der Magnetbandrolle: 0,5 Zoll (12,7 mm)
bei der Magnetbandkassette: 0,25 Zoll (6,4 mm) oder 0,15 Zoll (3,8 mm)
Die Bandlänge kann bis zu ca. 1000 Meter betragen.
Bezüglich der Aufzeichnung der Daten am Band kann man zwei Typen unterscheiden:
Bitserielle Aufzeichnung:
Die Bits eines Bytes sind in Laufrichtung (nacheinander) angeordnet.
Dieses Verfahren wird eher bei Magnetbandkassetten angewendet.
Bitparallele Aufzeichnung:
Die Bits eines Bytes sind quer zur Laufrichtung (übereinander) angeordnet.
berlicherweise besteht ein Zeichen aus 8 Bits und einer Kontrollspur (mit gerader oder ungerader Parität).
Die Anwendung dieses Verfahrens erfolgt eher bei Magnetbandrollen.
Wenn Daten gelesen oder geschrieben werden sollen, muß sich das Band mit konstanter Geschwindigkeit über den Schreib-Lese-Kopf bewegen. Während der Beschleunigungs- und Verzögerungsphase können also keine Daten gelesen oder geschrieben werden und es entstehen "Lücken".
Man unterscheidet hier zwei Verfahren:
Start-Stop-Verfahren:
Das Band wird beim Lesen bzw. Schreiben eines jeden Datenblockes gestartet und
gestoppt.
Es handelt sich hier natürlich um ein eher langsames Verfahren.
Datenstromverfahren (Streaming Mode):
Der mechanisch aufwendige Start-Stop-Mechanismus wird nicht bei jedem Datenblock ausgeführt. Es werden mehrere Datenblöcke verarbeitet, ohne daß das Band bei jedem Block gestartet und angehalten wird.
Der Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsgeräten, wie beispielsweise einem Stereokassettenrekorder.
Ein Motor bewegt das Magnetband innerhalb der Kassette ("Cartridge") an einem Schreib-Lese-Kopf vorbei.
Der signifikante Unterschied zu anderen Aufzeichnungsgeräten besteht darin, daß der Kopf nicht starr installiert ist, sondern mehrere Spuren ("Tracks") nebeneinander mit Daten beschreiben kann.
Es gibt verschiedenste Standards für Streamerkassetten, die vom amerikanischen Institut QIC normiert wurden.
Die folgende Zusammenstellung gibt eine Übersicht über die einzelnen Standards:
Standard |
Kassettentyp |
Kapazität |
Schnittstellen |
Cartridges |
|
|
|
QIC-24 |
DC600A |
60 MB |
QIC-02, 36, SCSI |
QIC-120 |
DC6150 |
125 MB |
QIC-02, SCSI |
QIC-150 |
DC6150 |
150 MB |
QIC-02, SCSI |
QIC-150 |
DC6250 |
250 MB |
SCSI, SCSI-2 |
QIC-525 |
DC6320 |
320 MB |
QIC-02, SCSI, SCSI-2 |
QIC-525 |
DC6525 |
525 MB |
QIC-02, SCSI, SCSI-2 |
QIC-1000C |
QIC-136 |
1 GB |
SCSI, SCSI-2 |
QIC-1350 |
QIC-137 |
1,35 GB |
SCSI-2 |
QIC-2100C |
QIC-137 |
2,1 GB |
SCSI-2 |
QIC-20GB |
QIC-139 |
20 GB (mit Kompression) |
SCSI-2 |
Minicartridges |
|
|
|
QIC-40 |
DC2000 |
40 MB |
QIC-107, 115, 117 |
QIC-40XL |
DC2000 |
60 MB |
QIC-107, 115, 117 |
QIC-80 |
DC2080 |
80 MB |
QIC-107, 115, 117 |
QIC-80XL |
DC2120 |
120 MB |
QIC-107, 115, 117 |
QIC-100 |
DC2000 |
20 / 40 MB |
QIC-103, 108 |
QIC-128 |
DC2110 |
86 MB |
QIC-103, 108 |
QIC-128 |
DC2165 |
128 MB |
QIC-103, 108 |
QIC-385M |
QIC-143 |
385 MB |
Floppy, IDE |
QIC-410M |
QIC-143 |
410 MB |
SCSI-2 |
QIC-6GB |
QIC-138 |
6 GB (mit Kompression) |
SCSI-2 |
1987 wurde eine Alternative zum QIC-Standard für Streamer entwickelt: der DAT-Standard (Digital Audio Tape).
Die Firma Sony brachte noch im selben Jahr den ersten Streamer auf den Markt, der diesem Standard entsprach. Gemeinsam mit anderen Unternehmen entwickelte man das auf dem DAT-Standard aufbauende DDS-Format (Digital Data Storage).
Noch heute ist kein Ende der Nachfrage nach kostengünstiger, schneller und zuverlässiger Datenspeicherung in Sicht. DDS verspricht die Erfüllung aller drei Kriterien.
Heute ist DDS eine sehr beliebte Backup-Lösung. Die Gründe dafür sind:
die umfangreiche Speicherkapazität (Standard sind heute 4 GB)
die hohe Zuverlässigkeit der Medien
die Kompaktheit der Laufwerke
die ständige Weiterentwicklung
das gute Preis-Leistungs-(Kapazitäts-)Verhältnis
Typische Anwendungsgebiete von DDS sind Festplatten-Backups für PC's, Netzwerkserver und Minicomputer sowie natürlich die Datenarchivierung.
Die Datensicherheit steht natürlich im Mittelpunkt des Interesses, denn aus diesem Grund werden Streamer häufig der Sicherungs-Methode mit Disketten vorgezogen.
Im wesentlichen gibt es zwei Verfahren zum "Katastrophenschutz", die aber auch kombiniert werden können:
CRC (Cycling Redundancy Check, zyklische Redundanzprüfung):
Diese Methode wird bereits von Disketten-Controllern eingesetzt.
Im Fall eines Fehlers erkennt das Laufwerk anhand einer Prüfsumme, daß etwas nicht in Ordnung ist, sprich, daß ein Sektor noch einmal gelesen werden muß.
In den meisten Fällen ist dieser Sektor jedoch überhaupt nicht mehr lesbar, weil er defekt ist.
Am sichersten wäre es also, jeden Sektor zweimal abzuspeichern. Da dies aber einen enormen Kapazitätsverlust bedeuten würde, werden in eigenen Sektoren Redundanz- und Prüfsummen gespeichert. Im Fehlerfall kann dann aus diesen Summen der Inhalt des defekten Sektors rekonstruiert werden.
"Read After Write":
Bei diesem Verfahren wird schon beim Sichern der Daten auf das Band eine korrekte Übertragung sichergestellt, indem nach jedem Schreibvorgang eine Überprüfung der Lesbarkeit durchgeführt wird.
Gegen spätere Beschädigungen der Datenträgeroberfläche kann man beim ausschließlichen Einsatz dieses Verfahrens selbstverständlich auch nichts machen.
Die heute existierenden Verfahren machen es möglich, daß der wirkliche Verlust von Daten immer seltener wird.
Die Verfahren zur Datensicherung wurden vom amerikanischen Komitee QIC normiert.
Diese Normen legen fest:
Die Größe der Datenblöcke
Den Aufbau und die Anzahl von Prüfsummen (gemessen an einer bestimmten Anzahl von Datenblöcken)
Am Kriterium "Sicherheit" gemessen, stehen Streamer eindeutig an der Spitze aller Sicherungsmethoden. Sie bieten ein optimales Preis-Kapazitäts-Verhältnis.
Der Hersteller Hewlett Packard setzt heutzutage genauso wie sein Konkurrent Sony vor allem auf den DAT-Standard.
Eine relativ preisgünstige Version ist der HP DAT C1536, der eine Datenmenge von bis zu 2 GB aufnehmen kann. Dieses Gerät kostet je nach Händler ca. 6.000 bis 7.000 ATS.
Für die 12-GB-Version, den HP DAT C1554, muß man mit 12.000 bis 15.000 ATS rechnen.
Beide Streamer erreichen übrigens das Doppelte an Kapazität, wenn die zu sichernden Daten einer Komprimierung unterzogen werden.
Neben der schon erwähnten Wechselfestplatte gibt es noch sogenannte magneto-optische Speichermedien, die aufgrund ihrer langen Lebensdauer und der damit verbundenen hohen Datensicherheit auch vor allem als Sicherungsmedium von Bedeutung sind.
Hinweis:
Dieses Thema wird im Referat "Sonstige Massenspeicher" detaillierter behandelt.
Eine Chipkarte hat dieselbe Form wie eine "herkömmliche" Magnetkarte. Der wesentliche Unterschied zwischen den beiden besteht darin, daß eine Chipkarte über einen eigenen Mikroprozessor und einen Arbeitsspeicher (RAM oder ROM) verfügt.
Bei Chipkarten kann durch kryptographische Algorithmen ein hoher Sicherheitsgrad erreicht werden.
So wird die sie heutzutage in immer mehr Bereichen eingesetzt, wo die Sicherheit der auf der Karte gespeicherten Daten im Vordergrund steht, also in allen Bereichen, wo personenbezogene Daten gespeichert werden, insbesondere im medizinischen und finanziellen Bereich (Zahlungsverkehr).
Die Fälschung einer Chipkarte ist nicht mehr so einfach wie bei einer Magnetstreifenkarte.
So benötigt der Fälscher beispielsweise schon für die Herstellung des Chips technologische Voraussetzungen, die seine finanziellen Möglichkeiten bereits bei weitem übersteigen.
Wie man sich denken kann, ist eine erschöpfende Aufzählung aller Hersteller von Chipkarten aufgrund der großen Anzahl nicht möglich.
Deshalb sollen hier nur die wichtigsten genannt werden:
Motorola
NEC
Philips
Siemens
Texas Instruments
Die Chipkarte für Studierende ist in Deutschland schon teilweise verwirklicht, in Österreich noch Zukunftsmusik.
Mit Hilfe einer Chipkarte könnten Studenten beispielsweise folgende Tätigkeiten selbst durchführen:
Bezahlung der Semestergebühren
Anderung persönlicher Daten
Anmeldung zu Prüfungen
Abfragen von Prüfungsergebnissen
Ausdruck von Bescheinigungen
Bezahlen von Parkgebühren
Zutritt zu Laborräumen
Festplatte
RAID-Array
Chipkarten
Streamer
Quelle |
Verwendet in Kapitel Nr. |
Internet |
|
Facharbeit "Speichermedien" (www.fundus.org) |
|
Www.dvlbkoeln.de/magsp.htm |
|
Www.dasi-gmbh.de/Ls120scsi.htm |
|
Www.pr-news.ch/hardware |
|
Www.presseagentur.com/PR-Infos/ Plasmon/10.htm |
|
Www.sony-cp.com/_D/Products/ Storage/DDS/Sony_DDS_1.html |
|
Rhlx01.rz.fht-esslingen.de/projects/ Krypto/chip |
|
Www.seagate.com/corp/vpr/releases/cuch1836.shtml |
|
Raidover.html |
|
Www.seagate.com/support/tape/ Scsiide/sidewinder/ ait_main_page.shtml |
|
Www.snet.de/SKKoblenz/chip2.html |
|
Www.birg.co.at |
|
Bücher, Zeitschriften etc. |
|
Kurt Hillebrand: Angewandte Datentechnik |
|
PC Intern, Nr. 11/98 |
|
Transtec Gesamtkatalog |
|