Speichermedien
1. Magnetische Speichermedien
1.1. Disketten
1.1.1. Die gängigsten Diskettenformate
5¼-Zoll-Disketten:
360 KByte
1,2 MByte
3½-Zoll-Disketten:
720 KByte
1,44 MByte
2,88 MByte
1.1.2. Genormte Leistungsmerkmale der Disketten
Bis in die Details sind die Eigenschaften von Disketten festgelegt, und zwar sowohl in mechanischer und physikalischer Hinsicht als auch, was ihre magnetischen Eigenschaften angeht. Dafür gibt es eine Reihe von Normen. Sie unterscheiden sich nicht wesentlich und ergänzen sich in mancher Hinsicht.
Am wichtigsten für die Diskettenindustrie sind die Regeln der ECMA (European Computer Manufacturers Assosiation).
ECMA-Normen
Der Standart ECMA 70 beschreibt die mechanischen, physikalischen und magnetischen Charakteristika für Disketten des 5¼-Zoll-Formates mit 40 Spuren pro Seite. Disketten mit 80 Spuren für das 720-KByte- und das 1,2 MByte-Format sind in ECMA 78 und 99 festgelegt.
DIN-Normen
Die DIN-Normen bezüglich der mechanischen Eigenschaften sind DIN 66247, Teil 1 (Mechanische Eigenschaften), Teil 2 (Elektromegnetische Eigenschaften bei 7 958 Flußwechsel/rad) sowie die Ergänzungen in Teil 2 A1 (Elektromagnetische Eigenschaften bei 13 262 Flußwechsel/rad). Die DIN 66248 mit ihren Teilen 1, 2, 3, 3 A1, 4, 5 und 6 enthält Informationen über Aufzeichnungsverfahren und Formatierung. Auch hier sind zugleich die zugehörigen Prüfvorschriften festgelegt.
Die Festlegung zur Messung des Transmissionswertes (Lichtdurchlässigkeit) mittels lichtemmitierender Dioden (LED) sind in DIN 66243 Teil 2 veröffentlicht. Angelehnt sind alle diese Vorschriften an die internationalen ISO-Normen (ISO = International Organisation for Standardization). Die einschlägigen Regeln lauten: ISO 6596/1, ISO 7487/1, ISO 8630/1, ISO 8378/1.
Erwähnenswert ist noch, daß für verschiedene Messungen international die Referenzdisketten der deutschen Physikalisch-Technischen Bundesanstalt (PTB) in Braunschweig vorgeschrieben sind.
1.1.3. Die 5¼-Zoll-Diskette
So manche Dinge tragen im Sprachgebrauch andere Namen als unter Fachleuten - man denke nur an den Schraubenzieher, offiziell 'Schraubendreher'. Bei Disketten ist es nicht anders: Mit geringerer Dichte heißen Sie 'DD' oder '2D' für 'doppelte Dichte' und tragen auch die Bezeichnung '48 tpi', weil 48 Spuren pro Zoll (tracks per inch) auf ihnen untergebracht werden. Die andere Sorte heißt 'HD' und '96 tpi' für hohe Dichte und 96 Spuren pro Zoll. Die Norm allerdings will es ganz anders:
Da die Kantenlänge der 5¼-Zoll-Disketten etwa 130 mm beträgt, heißt sie nach DIN 'Diskette E 130' in der einseitig beschreibbaren und 'Diskette Z 130' in der zweiseitig beschreibbaren Variante. Während bei den Disketten mit der Kennzeichnung 'E' nur eine Seite (die Seite 0) als beschreibbar deklariert wird, müssen bei zweiseitig beschreibbaren Disketten die Daten auf beiden Seiten - in sogenannter Wechselaktschrift - gespeichert werden können.
Disketten des 360 KByte-Formates haben auf jeder Seite 40 Spuren, bei einer Dichte von 1,9 Spuren/mm. Bei 80-Track-Disketten sind es 3,8 Spuren pro Millimeter. Bezüglich der formatierten Speicherkapazität muß bei letzteren noch zwischen DD- und HD-Disketten unterschieden werden. Diese Einteilung haben jedoch die Disketten nicht von Hause aus; es hadelt sich dabei vielmehr um das Format, das ihnen bei der Formatierung aufgezwungen wird.
Unter 'Dichte' ist die Aufzeichnungsdichte zu verstehen. Sie hat also mit der Diskette nur insofern zu tun, daß sich eine Diskette in der deklarierten Dichte beschreiben und lesen lassen muß.
Aufbau
Die 5¼-Zoll-Diskette besteht aus 4 Komponenten, einer Fexieblen Kustoffhülle, die an ihrer innenseite mit einem Reinigungsvlies überzogen ist. Darin befindet sich das Speichermedium, daß in der Mitte durch einen Hub-Ring verstärkt ist.
1.1.4. Die 3½-Zoll-Diskette
In ihre Einzelteile zerlegt, bestehen 3½-Zoll-Disketten im wesentlichen nur aus zehn Komponenten. Bei näherer Betrachtung finden sich neben dem eigentlichen Speichermedium noch zwei unscheinbare Teile von großer Bedeutung. Sie verbergen sich unter dem Reinigungsvlies: Ein flexibles Plastikstück, der sogenannte Lifter, drückt permanent gegen die Diskettenscheibe. So wird zum einen die Scheibe bei jeder Undrehung gereinigt, zum anderen das Start-/Laufdrehmoment konstant gehalten.
Andruckstege auf der gegenüberliegenden Gehäuseinnenseite stellen zusätzlich die Reinigung der zweiten Diskettenseite sicher und stabilisieren darüber hinaus den Lauf der Scheibe. Extreme Temperaturen lassen den kleinen, nützlichen Helfer seine Elastizität verlieren, das Laufverhalten der Diskette gerät aus den Fugen.
1.2. Festplatten
Das Funktionsprinzip einer Festplatte ist nicht schwer zu verstehen, ähnelt es doch sehr dem von Disketten. Wie bei diesen werden die Bits in magnetische Flußrichtungswechsel umgesetzt. Das bedeutet nichts anderes als daß die Magnetpartikel der Oberfläche eine andere Polung für eine »0« einnehmen als für eine »1«.
Allerdings bewegen sich Festplatten in ganz anderen Dimensionen. Im Gegensatz zur Diskette mit ungefähr 300 Umdrehungen pro Minute rotiert die Festplatte(n) mit 3600 Umdrehungen, manche Modelle gar mit 5000 und mehr. Daß die Magnetschicht nicht, wie bei herkömmlichen Disketten, auf einem weichen Kunststoffträger aufgebracht werden kann, leuchtet ein: Eine dünne Kunststoffscheibe würde bei diesen Geschwindigkeiten unweigerlich zu flattern beginnen. Bei Festplatten verwendet man daher Aluminium- oder Glasscheiben als Trägermaterial. Um mehr speichern zu können, werden dabei mehrere Scheiben übereinander auf eine gemeinsame Achse montiert. Radial hierzu, ähnlich wie beim guten alten Plattenspieler, sind an einem beweglichen Arm die Schreib-/Leseköpfe befestigt, und zwar für jede Plattenoberfläche einer (Bild 2).
Eine Berührung zwischen Kopf- und Platte, der gefürchtete »Headcrash«, wäre bei dieser hohen Rotationsgeschwindigkeit tödlich: Datenverlust wäre die Folge, und auch der Kopf könnte in Mitleidenschaft gezogen werden. Dies verhindert jedoch der sogenannte Bernoulli-Effekt. Bei solch hohen Rotationsgeschwindigkeiten bildet sich zwischen Plattenoberfläche und Kopf ein Luftpolster, so daß der Kopf im Abstand von einem Mikrometer (ein Millionstel Meter) auf diesem Polster über der Platte schwebt. So erklärt sich auch die Stoßempfindlichkeit von Festplatten im Betrieb. Staub, Fingerabdrücke oder gar Haare würden sich vor dem Schreib-/Lesekopf wie ein Gebirge auftürmen. Um das Eindringen von Staubpartikeln auszuschließen, werden Festplatten in staubfreien Räumen hergestellt und luftdicht verschlossen oder mit einem feinen Filter vor Staub geschützt. Vor jeglichem Transport sollten Festplatten unbedingt »geparkt« werden. Bei diesem Vorgang, der entweder automatisch bei Trennung vom Stromnetz erfolgt (Autopark-Funktion) oder manuell per Programm (meist »Ship« oder »Park«) ausgelöst werden muß, werden die Schreib-/Leseköpfe in einen Plattenbereich gefahren, der keinerlei Daten enthält. Hier können die Köpfe ohne Gefahr auf der Platte landen (die sogenannte »landing zone«). Zusätzlich werden die Köpfe in dieser Parkposition arretiert, so daß eine Zerstörung bei einigermaßen pfleglicher Behandlung ausgeschlossen werden kann. Besonders interessant ist die Autopark-Funktion moderner Laufwerke. Vom Netz getrennt, kommt die Platte aufgrund ihrer Schwungmasse erst nach einiger Zeit zum Stillstand. Ein Generator erzeugt aus dieser Restrotation Strom, der benutzt wird, um die Köpfe in eine ungefährliche Position zu fahren.
Im Gegensatz zu Diskettenlaufwerken rotieren Festplatten ständig, da es zu lange dauern würde, sie bei jeder Datenanforderung erneut auf Touren zu bringen. Der Geschwindigkeitsvorteil der Festplatte ginge verloren. Damit wären wir auch schon beim entscheidenden Vorteil von Festplatten: Sie sind schnell. Selbst die ersten Festplattenlaufwerke mit Zugriffszeiten um die 80 ms waren ein gewaltiger Fortschritt. Die mittlere Zugriffszeit liegt bei den Spitzenreitern heute unter 10 ms. Diskettenlaufwerke dagegen weisen eine mittlere Zugriffszeit von 150 bis 200 ms auf, also deutlich mehr. Da die Magnetbeschichtung höherwertig ist und die Köpfe sehr viel genauer arbeiten, können Festplatten auch wesentlich mehr Daten aufnehmen. Während Disketten heute bis zu 2,88 MByte speichern, bereiten auch ein GByte (1 GByte = 1024 MByte) oder mehr keine Probleme. Haushoch gewinnen Sie auch beim Datendurchsatz. Wo Diskettenlaufwerke mit 30 bis 40 KByte pro Sekunde aufwarten können, bringt es selbst eine langsame Festplatte auf 200 KByte pro Sekunde. Der mittlere Bereich liegt dann bei 600 bis 700 KByte pro Sekunde, und ab einem MByte aufwärts beginnt die High-end-Klasse, die bis zu 2 MByte pro Sekunde (alle Werte ohne Cache) erreicht.
Von BPI und FCI
Die sogenannte Aufzeichnungsdichte wird in BPI (Bits per Inch = Bits pro Zoll) angegeben. Diese ereicht heute Werte von zikra 40000 BPI. Ein ebenso gebräuchliches Maß für die Aufzeichnungsdichte ist »Flux Changes per Inch« (FCI). Übersetzt bedeutet das soviel wie »Flußwechsel pro Zoll« und gibt an, wie oft die Ausrichtung der Magnetpartikel pro Zoll geändert werden kann, denn der Abstand »d« zwischen zwei Flußwechseln kann eine bestimmte Grenze aus physikalischen Gründen nicht unterschreiten. Die gegenseitige Beeinflussung zweier nebeneinander liegender Bits wäre zu groß, eine »Umpolung« und somit ein Datenverlust wäre nicht ausgeschlossen. Je höher jedoch die Werte BPI beziehungsweise FCI sind, desto mehr Daten lassen sich auf der Festplatte unterbringen.
1.2.1. Datenorganisation
Auf den Magnetoberflächen werden durch die Low-level-Formatierung Datenspuren in Form konzentrischer Ringe eingerichtet. Die Spuren eines Plattenstapels, die genau übereinander liegen, bezeichnet man als Zylinder. Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte. Diese Spurdichte wird in TPI angegeben, das bedeutet Tracks Per Inch, als Spuren pro Zoll.
Da die inneren Spuren einen geringeren Umfang haben als die äußeren, können sie auch weniger speichern. Bei älteren Festplatten legt also die innerste und somit auch kürzeste Spur fest, wie viele Sektoren (1 Sektor = 512 Datenbytes) auf allen anderen Spuren untergebracht werden.
Schon bald entwickelte man ein Verfahren, um dieser Platzverschwendung auf den äußeren, längeren Spuren zu begegnen. Zone-Bit-Recording oder ZBR hieß das Zauberwort. Die Platte wird hierzu in mehrere Spurgruppen eingeteilt. Dabei wird für jede Gruppe die maximale Anzahl von Sektoren pro Spur bestimmt. Je kleiner diese Gruppen sind, desto besser ist die Ausnutzung der Platte. Im Idealfall würde für jede Spur der optimale Wert errechnet. Der Rechneraufwand für den Controller würde in diesem idealen Fall stark ansteigen, da er bei jedem Zugriff erst berechnen müßte, wie viele Sektoren auf der zu lesenden Spur untergebracht sind. Um den Rechenaufwand gering zu halten, faßt man mehrere Spuren zu einer »Zone« zusammen, in der die Sektorenanzahl der Spuren gleich ist. Das Verfahren stellt also einen Kompromiß aus Geschwindigkeit und Platzgewinn dar.
Die Abbildung zeigt ein Beispiel für eine Einteilung. In Zone 2 können dabei die wenigsten Daten gespeichert werden, in Zone 0 die meisten. Die LPS 120AT von Quantum bringt innerhalb ihrer 16 Zonen zwischen 44 (ganz innen) und 87 (ganz außen) Sektoren auf jeder Spur unter.
So kommt diese 25,4 mm hohe 3½-Zoll-Festplatte mit nur einer Speicherplatte auf eine beeindruckende Kapazität von 120 MByte. Das Modell LPS 450 des gleichen Herstellers kommt bei identischen äußeren Abmessungen mit fünf Speicherplatten gar auf eine Kapazität von 425 MByte. Es dürfte damit wohl zu den Spitzenreitern in diesem Bereich zählen.
1.2.2. Der Interleave-Faktor
Da die ersten Festplatten im Vergleich zu den damaligen Rechnern zu schnell waren, konnte der Computer die Sektoren nicht direkt hintereinander lesen. Während er beispielsweise Sektor 1 las und auswertete, war Sektor 2 schon am Kopf vorbei, so daß dieser erst nach einer weiteren Umdrehung gelesen werden konnte. Um diese Verzögerung zu vermeiden (so wären für die 17 Sektoren einer Spur einer MFM-Platte immerhin 17 Umdrehungen nötig gewesen), dachte man sich einen Trick aus. Zwischen zwei aufeinanderfolgenden logischen Sektoren wird eine Lücke eingefügt. In diese Lücke kommt dann ein zusätzlicher logischer Sektor der Spur. Dieses Verfahren wird »Interleave« (Versatz, verschachtelter Sektorzugriff) genannt. Der sogenannte »Interleave-Faktor« gibt an, wieviele physikalische Sektoren zwischen zwei logischen liegen und somit auch, wieviele Umdrehungen zum kompletten Lesen einer Spur notwendig sind. Bei einem Interleave von 1:3 folgt Sektor 2 erst drei Sektoren nach dem ersten. Zum Einlesen der Spur wären also drei Umdrehungen nötig. Ideal ist natürlich ein Interleave-Faktor 1:1. Hier folgen die logischen Sektoren unmittelbar aufeinander, und die Spur kann innerhalb einer Umdrehung gelesen werden. Moderne Festplatten/Controller-Kombinationen erreichen diesen Interleave, der eigentlich ja gar keiner mehr ist, mühelos, indem zum Beispiel ein Pufferspeicher (Cache) auf dem Controller untergebracht ist.
1.2.3. Die Rechneranbindung
Die eigentliche Anbindung an den Computer übernimmt wie so oft eine spezielle Steckkarte, der Festplatten-Controller. Kann dieser auch noch Diskettenlaufwerke mitsteuern, so spricht man von einem Kombi-Controller. Dabei gibt es vier verschiedene Arten von Controller-Schnittstellen und somit auch vier verschiedene Festplattenarten:
ST506/412
Dieses Interface wurde nach der ersten Seagate-Festplatte, die diese Schnittstelle verwendete, der ST506 (»ST« = Seagate Technology) benannt. Je nach Aufzeichnungsverfahren werden hierbei Datenübertragungsraten von 5 MBit (MFM) bis zu 7,5 MBit (RLL) pro Sekunde erreicht. In der Praxis liegt der Datendurchsatz etwa zwischen 200 und 600 KByte pro Sekunde. Zu erkennen ist die ST506/412-Schnittstelle am 20poligen Daten- und am 34poligen Steuerkabel (meistens Flachbandkabel). Da die Datenübertragung seriell erfolgt, liegt der Datendurchsatz recht niedrig. Der Standard-Controller ist der WD1003 von Western Digital, zu dem viele Controller kompatibel sind.
ESDI
Das Enhanced Small Device Interface (ESDI) ist als Weiterentwicklung des ST506/412 zu sehen. Es arbeitet mit den gleichen Kabelverbindungen, und ebenfalls seriell. Die Übertragungsrate liegt hier mit 10 bis 15 MBit pro Sekunde schon deutlich höher. Sowohl ST506/412 als auch ESDI sind PC-spezifische Entwicklungen und erlauben maximal zwei Festplatten gleichzeitig.
SCSI
Die derzeit wohl universellste Schnittstelle ist das 1982 standardisierte Small Computer System Interface. SCSI oder das neue, weiterentwickelte und abwärtskompatible SCSI-II ist keine reine Festplattenschnittstelle, auch Scanner, CD-ROM-Laufwerke und vieles mehr kann daran angeschlossen werden. Bis zu sieben Geräte (also auch bis zu sieben Festplatten) können beliebig gemischt in einer Reihe angeschlossen werden, wobei das jeweils letzte mit einem Abschlußwiderstand versehen werden muß. Da jedes Gerät eine eigene Adresse in Form einer Nummer hat, kommen die Daten auch immer beim richtigen an, indem sie von Gerät zu Gerät witergereicht werden, bis der Adressat erreicht ist. Ein weiterer Vorteil, der für SCSI spricht, ist die hohe Verarbeitung dieser Schnittstelle, die auch beim Next-Rechner und beim Apple Macintosh anzutreffen ist. Die eigentliche Intelligenz dieser parallelen Schnittstelle besitzt jedoch das jeweilige Gerät, nicht der Controller. Im Gegensatz zu ST506/412 steuert nicht der Steckkarten-Controller Vorgänge wie beispielsweise Formatieren, sondern der Computer erteilt hier nur den Befehl »formatiere Festplatte«, und alles weitere veranlaßt der auf dem Gerät integrierte Controller, während der Computer schon weiterarbeiten kann. Daher nennt man die hier verwendeten Steckkarten statt Controller besser Host-Adapter. Der Host-Adapter nimmt lediglich eine Anpassung der elektrischen Signale zwischen SCSI-Gerät und dem ISA/EISA/MCA-Bus des PCs vor.
Im Falle einer Festplatte befindet sich die
gesamte Steuerelektronik auf der Platte. Das hat den Vorteil, daß der
Hersteller die Verbindung zwischen Festplatte und Controller stark optimieren
kann und der Host-Adapter nur noch wenig Einfluß auf die Datenübertragungsrate
hat. Nachteilig ist jedoch der höhrere Preis von SCSI-Komponenten, da jedes
Gerät seine eigene Schnittstelle quasi »mitschleppt«. Zu erkennen sind
SCSI-Festplatten am 50poligen Flachbandkabel, welches bis zu 6 Meter lang sein
darf. Die maximale Datenübertragungsrate liegt bei bis zu 4 MByte pro Sekunde,
welche in der Praxis aber fast nie erreicht wird. Der derzeit wohl
meistverbreitete SCSI-Host-Adapter stammt von der amerikanischen Firma Adaptec,
heißt 1542B (Kombi-Controller) und kostet um die 500 Mark. SCSI-Produkte sind
aufgrund ihrer enormen Leistungsfähigkeit und dem damit verbundenen höheren
Preis bis jetzt eher den Profis vorbehalten. Nicht verschwiegen werden sollte
auch der höhere Installationsaufwand bei SCSI. Oft sind weitere Treiber
erforderlich, die eventuell Inkompatibilität hervorrufen können, oder es müssen
die bereits erwähnten Abschlußwiderstände angebracht werden. Auch eine Anderung
der Gerätereihenfolge kann Probleme mit sich bringen, ganz im Gegensatz zur
eigentlichen SCSI-Spezifikation. SCSI sollte also nicht unbedingt von
Einsteigern installiert werden, sondern gehört in schon etwas erfahrene, wenn
nicht sogar in Profi-Hände. Dies ergibt sich allerdings durch den bereits
erwähnten recht hohen Preis fast automatisch.
IDE (auch AT-Bus genannt)
Furore macht in letzter Zeit die bisher neueste Schnittstelle, das Integrated Device Electronics IDE, welches oft auch als AT-Bus-Schnittstelle bezeichnet wird. Letztere Bezeichnung rührt daher, aß diese Technologie wirklich erst AT-Besitzern (also ab 80286) zugänglich ist, da die Schnittstelle auf dem 16 Bit breiten Bus des AT aufbaut. Keine Regel jedoch ohne Ausnahme: Es gibt seit kurzem auch IDE-Adapter für PCs mit 8086/88-Prozessor, allerdings geht hier einiges an Geschwindigkeit verloren. Wie auch SCSI arbeitet IDE parallel, und auch hier benötigt man einen Host-Adapter. Die eigentliche Intelligenz, der Controller, ist wieder auf der Festplatte selbst integriert (daher auch der Name) und läßt sich somit optimal auf das jeweilige Laufwerk abstimmen. IDE eignet sich allerdings nur zum Anschluß von Festplatten (neuerdings auch Streamern), und auch hier ist die Anzahl auf zwei (mit teueren IDE-Adaptern bis zu vier) Platten beschränkt.
Der große Vorteil ist der wesentlich günstigere Preis gegenüber SCSI bei durchaus vergleichbarer Geschwindigkeit (an die 2 MByte pro Sekunde können erreicht werden, durchschnittlich ist es ungefähr 1 MByte pro Sekunde). Doch nicht nur die Platten sind wesentlich günstiger: Ein IDE-Host-Adapter mit Disketten-Controller kostet nur etwa 200 Schilling, auch Modelle mit bereits integrierten seriellen und parallelen Schnittstellen nicht wesentlich teurer.
Abschließend kann man sagen, daß die Zukunft SCSI und IDE gehören wird. ST506/412-Festplatten werden vom Markt verschwinden, und auch ESDI wir aufgrund des hohen Preises Schwierigkeiten haben, sich gegen die Standards IDE und SCSI zu behaupten.
1.2.4. Aufzeichnungsverfahren
Doch wie werden die Bits und Bytes in magnetische Form gebracht? Die 0- und 1-Informationen werden auf verschiedene Codierungsarten in verschieden gerichtete Magnetpartikel umgesetzt. Die Ausrichtung links/rechts könnte dabei beispielsweise dem magnetischen Nord-/Südpol entsprechen. Der Schreib-/Lesekopf besitzt dazu eine Spule. Wird diese Spule von Strom durchflossen, so bildet sich ein je nach Stromrichtung anders ausgerichtetes Magnetfeld, welches die Plattenoberfläche entsprechend magnetisiert. Da auch Festplatten nie hunderprozentig gleich laufen, müssen zusätzlich zu den Daten sogenannte Taktinformationen gespeichert werden. Diese sichern, daß immer mit gleicher Geschwindigkeit gelesen und geschrieben wird, indem etwaige Abweichungen durch eine Anderung der Dreh-zahl korrigiert werden (man stelle sich nur das Chaos vor, wenn jeder Sektor unterschiedlich lang wäre). Werden die Taktinformationen, mit den zu speichernden Daten verknüpft, auf jeder Plattenoberfläche gespeichert, so spricht man von einem »Embedded Sector Servo«, daß heißt, die Informationen für den Gleichlauf der Festplatte sind in die Datensektoren eingebettet. Man kann jedoch eine Oberfläche des Plattenstapels ausschließlich für diese Taktinformationen verwenden, während alle anderen nur für Daten genutzt werden.
Erstere Methode eleganter und wird auch meist vorgezogen. Würden sich ständig 0- und 1-Bits abwechseln, so könnte man auf einen separaten Takt verzichten und beispielsweise die 1 zur Synchronisation verwenden. Probleme bereiten dabei aber längere Folgen von gleichen Bits (zum Beispiel 000 oder 111111). Diese sogenannten Läufe englisch Runs) stellen besonders hohe Anforderungen an den Gleichlauf. Die beschriebenen Codierungsarten verwenden hier unterschiedliche Methoden, um nicht aus dem Takt zu geraten.
NRZ-Verfahren
Am Anfang war das NRZ-Verfahren (NRZ = Non Return to Zero). Hierbei wird die Magnetisierung nur gewechselt, wenn auch bei den Datenbits ein Wechsel von 0 nach 1 oder umgekehrt erfolgt (Bild 4). Folgen mehrere gleiche Bits, bleibt der Schreibstrompegel bestehen. Bei aufeinanderfolgenden 1-Bits bleibt der Schreibstrom konstant auf high (1), ohne zwischendurch zu low (0) zurückkehren, was dem Verfahren seinen Namen gab. Die Pegel des Schreibstroms entsprechen exakt dem Verlauf des digitalen Datensignals, also den zu speichernden Bits. Leider hat dieses an sich sehr einfache Verfahren einen großen Nachteil: Da beliebig lange 0- beziehungsweise 1-Läufe auftreten können, sind die Gleichlauf-Anforderungen besonders hoch, schließlich enthält die zu schreibende Bitfolge keinerlei Taktinformationen (also kein Embedded Sector Servo). Die Taktsignale müssen daher auf einer separaten Oberfläche des Plattenstapels untergebracht werden, die somit für Daten blockiert ist.
FM-Verfahren
Das Frequenzmodulationsverfahren FM (Frequency Modulation) integierte erstmals die Taktinformationen. Die Datenbits werden hierzu in eine FM-Bitfolge umgesetzt, da ja der Takt hinzugefügt werden muß. Dabei wird aus einer 1 Die Bitfolge 11 und aus einer 0 die Folge 10. Die erste Ziffer dient dabei als Taktinformation, und die zweite stellt das jeweilige Datenbit dar. Der Verlauf der Schreibstromkurve in Bild 6 läßt sich nun wie folgt beschreiben: Enthält eine Bitzelle (eine Bitzelle enthält ein Datenbit und eventuell Taktinformationen) die FM-Bitfolge »10«, so bedeutet dies »Schreibstrom halten«. Die Bitfolge »11« bedeutet demnach »Schreibstrom wechseln«, un der Schreibstrompegel wird innerhalb der Bitzelle gewechselt. Die erste Ziffer gibt also den Schreibstrompegel zu Beginn der Bitzelle an, und die zweite den Pegel am Ende (jeweils an der gestrichelten Linie). Wie in Bild 5 zu sehen ist, entstehen dabei viele kleine verschiedene magnetisierte Bereiche. Da der Abstand »d« zwischen zwei Flußwechseln nicht beliebig klein sein kann, ist der Schreibdichte eine deutliche Grenze gesetzt. Zusätzlich ist dieses Verfahren relativ platzintensiv, da in jeder Bitzelle Taktinformationen gespeichert sind. Aufgrund dieser Tatsache bezeichnet man die FM-Codierung oft auch als Single-Density-Format, also als Format mit einfacher Schreibdichte.
MFM-Verfahren
Die Weiterentwicklung des FM-Verfahrens ließ nicht lange auf sich warten. Das modifizierte Frequenzmodulationsverfahren MFM (Modified Frequency Modulation) brachte eine Ver-dopplung der Speicherkapazität. Der Takt wird hier nur in einer Bitzelle gespeichert, wenn die Zelle selbst und die vorhergehende keine 1 enthalten. Aus einem 1-Datenbit wird somit die MFM-Folge 01, und aus einer 0 die Folge 00. Ging dieser Bitzelle allerdings schon eine Zelle mit 00 voran, so wird aus dem zweiten 0-Datenbit eine 10, um den Lesetakt stabil zu halten. Vor jeder 1 der MFM-Bitfolge erfolgt nun ein Wechsel des Schreibstromsignals.
Die verschiedenen Magnetisierungszonen werden deutlich weniger und insgesamt größer (Bild 6). Während das FM-Verfahren zwölf Flußwechsel zur Codierung der Bitfolge des Beispiels verwendet, benötigt das MFM-Verfahren nur noch sechs Flußwechsel, was die oben angesprochene Kapazitätsverdopplung bestätigt. Besonders die ersten ST506/412-Festplatten verwenden diese Aufzeichnungsmethode, bei der jeweils 17 Sektoren auf einer Spur unter-gebracht werden. Da die Geschwindigkeit des Verfahrens nicht allzu hoch ist, entwickelten die Hersteller ein weiteres.
RLL-Verfahren
Ziel des RLL-Verfahrens ist es, die Länge der »0«-Läufe zu begrenzen. RLL steht für Run-Length-Limited, das bedeutet Lauflängenbegrenzung. Beim hier betrachteten RLL-(2,7)-Ver-fahren liegen zwischen zwei 1-Bits mindestens zwei und höchstens sieben 0-Bits. Neuartig an diesem Verfahren ist, daß erstmals auch die auf das zu codierende Datenbit folgenden Bits der sogenannte Kontext, beim eigentlichen Codierungsverfahren berücksichtigt werden. Die Tabelle zeigt, wie aus den Datenbits die RLL-Bitfolge entsteht.
Die in Bild 7 dargestellte Bitfolge wird demnach in drei Schritten übersetzt. Aus 11 wird im RLL-Code 0100, und aus den beiden folgenden 010 wird jeweils 001000. Die Datenbits 11010010 sind also zur RLL-Bitfolge 0100001000001000 geworden, aus ursprünglich 8 Bit werden nun 16. Auffällig sind allerdings die recht zahlreich vertretenen 0-Bits. Der Schreibstrom wechselt, wie schon bei MFM, vor jedem 1-Bit der RLL-Folge. Es entstehen vier Magnetisierungszellen. Zunächst erscheint es paradox, daß RLL Platz sparen soll, sind doch aus 8 auf einmal 16 Bit geworden. Noch einmal soll wiederholt werden, daß die Flußwechsel in der Magnetschicht einen bestimmten Abstand nicht unterschreiten können. Nun folgt der eigentliche Trick: Da beim RLL-(2,7)- Verfahren auf ein 1-Bit wenigstens zwei 0-Bits folgen läßt sich die Aufzeichnungsdichte dadurch steigern, daß man die Bitfolge »001« auf dem kleinsten Stück aufzeichnet. Geht man also von Datenbits aus, so kann man 1,5 dieser Datenbits auf dem minimalen Stück unterbringen, statt wie sonst nur 1 Datenbit. Somit erklärt sich der 50prozentige Platzgewinn von RLL-(2,7) gegenüber der MFM-Codierung. Angewendet wird dieses Verfahren zum Beispiel bei neueren ST506/412-Platten und auch bei den neuen IDE-Modellen. Man sollte sich allerdings nicht über Angaben wie RLL-(1,7) wundern, denn hierbei handelt es sich nur um eine Abwandlung des hier beschriebenen RLL-(2,7)-Verfahren, bei dem auf ein 1-Bit wenigstens eine 0 folgt, anstatt mindestens zwei.
Bit Kontext RLL-(2,7)-Code
1 0 10 00
1 1 01 00
0 00 10 0100
0 10 00 1000
0 11 00 0100
0 010 00 001000
0 011 00 100100
1.2.5. Fehlerkorrekturen
Auch Festplatten sind nicht gegen Fehler gefeit. Um diese zu erkennen, wird zu den gespeicherten Daten eine Prüfsumme gebildet, die mitgespeichert wird. Werden diese Daten nun gelesen, wird wieder eine Prüfsumme gebildet und mit der auf der Platte verglichen. Stimmen beide überein, so ist mit sehr großer Wahrscheinlichkeit alles in Ordnung. Andernfalls meldet die Festplatte dem Controller einen Fehler. Dieser gibt dann den Befehl, den ganzenVorgang zu wiederholen, denn schließlich könnte auch der Kopf ein wenig verrutscht sein (Seek Error). In der Regel ist danach das Problem behoben, und man spricht von einem »Soft Error«, also einem »weichen« Fehler. Im Fall, daß mehrere Versuche fehlschlagen, handelt es sich um einen »Hard Error«. Wahrscheinlich ist dann an dieser Stelle der Platte die Magnetschicht beschädigt, und die Daten sind leider verloren. Festplatten haben übrigens ab Werk bereits solche Oberflächenfehler, die aber auf der Gehäuseoberseite aufgedruckt sind. Diese defekten Sektoren müssen bei der Low-Level-Formatierung angegeben werden, damit sie von vornherein nicht mit Daten belegt werden.
Zwischen 0 und 20 solcher defekten Sektoren sind durchaus die Regel und kein Anlaß zur Panik. IDE-Festplatten (die im übrigen nur mit dem DOS-Befehl »format« formatiert werden dürfen) haben sogar pro Spur einen oder mehrere Reserve-Sektoren, die in solchen Fällen dann statt der defekten benutzt werden.
1.2.6. Geschwindigkeit
Ein sehr wichtiges Beurteilungskriterium ist neben Aufzeichnungs- und Speicherdichte die mittlere Zugriffszeit einer Festplatte. Diese wird in Millisekunden (ms) angegeben und setzt sich aus der Einstell- und der Latenzzeit zusammen. Die Einstellzeit gibt an, wie lange der Schreib-/Lesekopf benötigt, um zur angeforderten Spur zu fahren. Die Latenzzeit gibt an, wieviel Zeit dann noch vergeht, bis der angeforderte Sektor unter dem Kopf angelangt ist (die Platte rotiert ja dauernd, und somit ist der gesuchte Sektor mit hoher Wahrscheinlichkeit nicht gerade unter dem Schreib-/Lesekopf). Die Hersteller versuchen, diese Zugriffszeit ständig zu verringern. Dies kann einmal durch schnellere Bewegung der Köpfe erreicht werden, die dann an der Spur angekommen, aufgrund der höheren Geschwindigkeit stärker abgebremst werden und deshalb länger brauchen, sich zu »beruhigen«, also auszuschwingen. Man versucht in diesem Fall, die sogenannte »settling time« gering zu halten, damit diese Kopfberuhigungs-Phase nicht den Geschwindigkeitszuwachs zunichte macht die Latenzzeit kann durch eine höhere Drehzahl der Festplatte verringert werden, denn je schneller sich die Platte dreht, desto eher ist der angeforderte Sektor am Schreib-/Lesekopf angelangt. Ein weiterer angenehmer Effekt dieser Drehzahlerhöhung ist der gesteigerte Datendurchsatz, denn die Spur wird in wesentlich kürzerer Zeit eingelesen (Ingerleave 1:1 vorausgesetzt).
Eine neue Methode ist, einen zweiten Arm mit Schreib-/Leseköpfen diagonal gegenüber dem bereits vorhandenen anzuordnen. Bei diesem von der Firma Conner entwickelten Verfahren wird jeweils der Arm mit Schreib-/Leseköpfen bewegt, der der angeforderten Spur am nächsten ist. Weiterhin arbeiten die Arme völlig unabhängig voneinander, also kann ein Arm Leseoperationen ausführen, während der andere gerade Daten auf die Festplatte schreibt. Hierzu muß eine Menge Daten kurzzeitig zwischengespeichert werden, bis sie auf die Platte beziehungsweise bis sie an den Rechner weitergegeben werden können.
Im Vergleich zum Prozessor sind RAM-Bausteine zwar langsam, aber den Vergleich mit Festplatten gewinnen sie haushoch. Was liegt also näher als Daten, die man öfter benötigt, nach einmaligem Lesen von der Platte in einem solchen Zwischenspeicher abzulegen, damit sie im Wiederholungsfall aus dem schnellen RAM gelesen werden können? Gewährleistetwird dies erst durch die Lokalitätseigenschaft von Programmen, welche besagt, daß gerade benötigte Programmteile mit sehr hoher Wahrscheinlichkeit beim nächsten Lesezugriff noch einmal benötigt werden. Man versucht sogar vorauszuahnen, welche Daten der Computer als nächstes anfordern könnte (look-ahead-cache). Da hierbei die Anzahl der Treffer die der Fehlschläge aufgrund ausgefeilter Algorithmen übersteigt, bringen Cache-Speicher einen nicht zu verachtenden Geschwindigkeitszuwachs sowohl beim Zugriff als auch beim Datendurchsatz. Auf modernen Festplatten befindet sich in der Regel bereits ein integrierter Cache von 32 bis 512 KByte Größe, der in mehrere Segmente unterteilt ist und sämtliche Lesezugriffe (neuerdings auch Schreibzugriffe) puffert. Die teuerste Lösung im Bereich Festplatten-Cache ist nach wie vor der Cache-Controller (bei IDE und SCSI natürlich richtiger: Host-Adapter). Es handelt sich hier, ähnlich wie beim Prozessor- oder RAM-Cache vieler 386er und 486er, um einen Cache auf Hardwarebasis, der vollkommen softwaretransparent arbeitet, also von der Software gar nicht bemerkt wird. Die meisten dieser Controller besitzen einen eigenen Prozessor, der den gesamten Datentransfer von und zur Platte übernimmt.
Dabei kann er auf einen Cache von 512 KByte bis zu 16 MByte zugreifen. Der auf den Steckkarten integrierte Prozessor nimmt der CPU sämtliche Arbeit ab, indem er direkt auf den rechnereigenen Speicher zugreift. Dies kann allerdings Probleme mit sich bringen, wenn Daten in Cache und Arbeitsspeicher nicht übereinstimmen, die sogenannte Datenkonsistenz nicht gewährleistet ist. Je größer der Cache, desto größer der Schaden bei einem Stromausfall.
Günstiger und oft auch schneller sind Cache-Programme. Die reinen Software-Lösungen benutzen einen Teil des Arbeitsspeichers für ihre Zwecke. Obwohl bei Cache-Programmen wieder die CPU des Rechners das Kommando übernehmen muß, ist diese Lösung oft schneller als die oben beschriebenen Cache-Controller mit eigenem Prozessor. Der Grund hierfür ist recht simpel. Zwar geht bei einem Software-Cache Rechenzeit für diesen Vorgang verloren, aber die Cache-Controller müssen Daten über den I/O-Bus transportieren. Leider ist der Bus aber nur mit 8 MHz getaktet (selten bis zu 12 MHz), während auf den Arbeitsspeicher mit voller Taktfrequenz des Prozessors zugegriffen werden kann. Zudem haben die Cache-Programme im Falle von Inkompatibilität den Vorteil, daß sie problemlos abschaltbar sind, ganz zu schweigen vom niedrigeren Preis. Man benötigt lediglich etwas zusätzlichen RAM und eines dieser Programme. Die Preise für RAM-Bausteine sinken ständig, und viele bekannte Cache-Programme entstammen dem Sharewarebereich (so zum Beispiel Hyperdisk).
Außerdem wird seit MS-DOS 5.0 der Microsoft-eigene Cache Smartdrive mitgeliefert, der auch optimal mit Windows zusammenarbeitet. Alles in allem ist dies die geeignete Lösung für Heimanwender: schnell und preisgünstig.
1.2.7. Die Zukunft der Festplatte
Festplatten werden in Zukunft noch mehr Speicherplatz haben, noch kleiner werden, und vielleicht noch schneller werden. Die ersten Schritte dazu sind schon getan:
Die neue Produktlinie von Seagate, die im 2. Quartal 94 ausgeliefert wird, umfaßt eine Festplatte mit dem Namen Elite 9. Diese 5¼'-Festplatte in voller Bauhöhe, kann immerhin 9 GByte Daten speichern und wird um 3400 Dollar erhältlich sein. Sie dreht sich mit 5400 Umdrehungen in der Minute, hat eine durchschnittliche Suchzeit von 11 ms und eine Mean-Time-Between-Failure - Zeit von 500.000 Stunden.
Eine weiter zukunftweisende Technologie ist die Entwicklung des 32g schweren, 1,3' Laufwerks von Hewlett Packard namens Kittyhawk. Diese Festplatte ist nicht wesentlich größer als ein 5-Mark-Stück und kann immerhin 42 MB speichern. Diese Festplatte ist vor allem für PDAs (Personal Digital Assistent) und Notebooks konzipiert worden, da sie außer ihrer geringen Außmaße auch eine ungewöhnlich hohe Stoßfestigkeit besitzt.
Notiz: 60 Kittyhawks passen in ein 5¼'-Laufwerk, und könnten somit als Disk-Array-System die Datensicherheit in Netzwerkservern erhöhen.
Die neueste Technologie: Nasse Scheiben
Auch wenn einem der Abstand zwischen Schreib-/Lesekopf und Platte mit lediglich 1 Mikrometer sehr gering erscheint, den Festplattentechnikern ist auch dieser Spalt noch viel zu groß. Denn je näher der Kopf über der Platte schwebt, desto höher wird die erzielbare Dichte. Dabei bedeutet halber Abstand die vierfache Informationsdichte.
Die Firma Conner scheint diesem Wunschtraum nun ein ganzes Stück näher gekommen zu sein. Statt auf einem Luftpolster ruht bei diesem patentierten Verfahren der Schreib-/Lesekopf auf einem dünnen Flüssigkeitsfilm (Liquid Disk). Dies bringt zwei entscheidende Vorteile: Zum einem ist der Flüssigkeitsfilm wesentlich dünner als das Luftpolster, was zu einer erheblichen Steigerung der Plattenkapazität führt, zum anderen wirkt das Öl zwischen Kopf und Platte wie ein Puffer, der deren zerstörerisches Zusammentreffen (Headcrash verhindert. Bisher funktioniert dieses System nur bei extem kleinen Festplattenformaten, da bei größeren Scheiben die hohe Umdrehungsgeschwindigkeit an den Außenbereichen der Platte den Schmierfilm zum Reißen bringen würde.
Das Know-how stammt von einer Firma für Spezialschmierstoffe, die Conner kurzerhand aufgekauft hat. Wann derartige Platten auf dem Markt zu erwarten sind, ließ Conner noch nicht durchblicken.
1.3. Streamer
1.3.1. Grundlagen der Streamer-Technologie
Ab einer Festplattenkapazität von 80 MByte
ist der Einsatz von Disketten für Backups aus Zeitgründen einfach nicht mehr
sinnvoll. Der Anwender wird vielmehr die Anschaffung eines Streamers in
Erwägung ziehen. Aber wie funktioniert so ein Gerät eigentlich? Wie zuverlässig
arbeiten Bandlaufwerke? Welche Unterschiede gibt es in dieser
Technologie?Aufgrund stetig sinkender Preise werden Streamer auch im privaten
Bereich interessant. Das Wort 'Streamer' kommt aus dem Englischen und
bedeutet schlicht und einfach 'Band'.Die Vorteile der 3,5- oder
5,25-Zoll-Mini-Bandlaufwerke (so die korrekte Bezeichnung) gegenüber Disketten
beispielsweise lassen sich an einer ganzen Reihe von Faktoren belegen: Streamer
sind angesichts der gebotenen Leistung und der Zuverlässigkeit preisgünstig und
verwenden Bänder, die für den professionellen EDV-Markt entwickelt wurden und
daher einem sehr hohen Qualitätsstandard entsprechen. Streamer-Laufwerke im
DC2000-Format können sogar über den ohnehin in jedem Pc vorhandenen
Disketten-Controller angesteuert werden und benötigen dann nur die
mitgelieferte Steuer-Software und ein
Band ('Tape') zum Betrieb. Weitere Controller in Form von
Zusatzkarten sind nicht notwendig. Außerdem können DC-2000-Streamer mit wenigen
Handgriffen aus einem PC aus- und in einen anderen eingebaut werden. Streamer
sind etwa genauso schnell wie ein Diskettenlaufwerk, können aber wesentlich
mehr Daten speichern.Die Laufwerke vom Typ DC600A hingegen benötigen zwar einen
eigenen Controller, sind aber mit einer Datenübertragungsrate von 90 KByte pro
Sekunde deutlich schneller als die DC2000-Streamer (etwa 60 KByte pro
Sekunde).Galt vor einigen Jahren eine Kapazität von 40 MByte pro Band noch als
echte Errungenschaft, so können Streamer mit heute aktueller Technologie
bereits zigfache Datenmengen aufnehmen. Der eigentliche Streamer ist heute
sowohl als externes als auch als internes Gerät erhältlich.Der prinzipielle
Aufbau eines Streamers ist vergleichbar mit anderen magnetischen
Aufzeichnungsgeräten wie zum Beispiel einem Stereokassettenrekorder. Ein Motor
bewegt das Magnetband innerhalb der Datenkassette ('Cartridge') - an
einem Schreib-/Lesekopf vorbei - vorwärts. Entscheidender Unterschied zu
anderen Aufzeichnungsgeräten ist, daß der Kopf nicht starr installiert ist,
sondern mehrere Spuren ('Tracks') nebeneinander mit den seriell
aufgezeichneten Daten beschreiben kann.
Auf einem Streamer-Band befinden sich mehrere Aufzeichnungsspuren
nebeneinanderAuch bei der mitgelieferten Software gibt es Unterschiede. Durch
die mitgelieferte Software kann der Anwender per Menü zwischen verschiedenen
Arten der Datensicherung wählen. So ist es möglich, nach einem bestimmten Datum
angelegte Dateien oder alle Dateien an denen innerhalb der letzten Woche
Anderungen vorgenommen wurden, zu sichern. Ebenso ist ein sogenanntes
'File-Backup' durchführbar, bei dem wiederum einzelne Dateien oder
gesamte Verzeichnisseselektiv auf Band gespeichert werden können. Das
'Image-Backup' hingegen läßt die Sicherungen Sektor für Sektor
ablaufen, wodurch eine Eins-zu-eins-Kopie der Festplatte angefertigt wird. Um
beispielsweise nach Büroschluß eine automatische Datensicherung vorzunehmen, wird
zusätzlich ein 'Clock-Verfahren' angeboten, bei dem der Streamer zum
angegebenen Zeitpunkt mit der Sicherung beginnt, ohne daß der Anwender diese
Aktion speziell starten müßte.Zur Schonung des Bandes versuchen die
Streamer-Hersteller unter anderem, mechanische Belastungen beim Weitertransport
weitestgehend zu vermeiden. Im Gegensatz zu großen Computerbändern und anderen
Datenträgern wird der physikalische Antriebsmechanismus bei Datenkassetten
durch einen speziellen Antriebsriemen realisiert, der sich im Inneren der
Kassette befindet. So verwendet der Cartridge-Hersteller DEI einen texturierten
Equithan-Riemen, der eine optimale Rutschfestigkeit zwischen Riemen und Band
gewährleistet und dadurch die Bandspannung erheblich verbessert. Über die
Antriebsrolle wird nun nicht etwa das Band vorwärtsbewegt, sondern der Riemen.
Dieser wiederum wird in der Kassette so über mehrere Rollen geführt, daß er an
den Spulen auf das Magnetband drückt und es dadurch weitertransportiert. Durch
eine solche Technik werden Bandschäden und die Möglichkeit eines Bandrisses
erheblich vermindert, da mechanische Einwirkungen durch den elastischen Riemen
weitgehend abgefangen werden.Ausgefeilte Fehlerkorrekturmethoden beugen einem
eventuellen Datenverlust vorDas so verbesserte 'Bandspannungsprofil'
gewährleistet bei den genannten DEI-Cartridges einen optimalen Kontakt zwischen
Band und Kopf und sorgt so für eine bessere Datenaufzeichnung. Die von DEI
verwendeten Bandmaterialien ('plattierte Partikeldatenträger')
verursachen rein rechnerisch nur halb so viele Fehler ('Drop-Outs')
wie ältere Kassetten und weisen so gute Laufeigenschaften auf, daß die
Verschleißerscheinungen des Schreib-/Lesekopfes dreimal geringer sind.Natürlich
steht gerade bei Streamern die Datensicherheit im Mittelpunkt des Interesses,
denn eben aus diesem Grund werden sie häufig der Backup-Methode per Diskette
vorgezogen. Welche Verfahren sind also bei Streamern zum
'Katastrophenschutz' im Einsatz?Eine Möglichkeit besteht in der
zyklischen Redundanzprüfung ('CRC', 'Cycling Redundancy
Check'), wie sie bereits bei Disketten-Controllern eingesetzt wird. Im
Fehlerfall erkennt das Laufwerk anhand der CRC-Prüfsumme, daß der betreffende
Sektor noch einmal gelesen werden muß. In den meisten Fällen ist die defekte
Position jedoch überhaupt nicht mehr lesbar, und die Daten sind somit
unwiderruflich verloren.Bei Lesefehlern lassen sich die Daten über
mathematische Berechnungen aus den Prüfsummen rekonstruieren.
Für Magnetbandkassetten wurden deshalb verschiedene Verfahren entwickelt, bei
denen das Laufwerk in einem getrennten Sektor oder Block weitere Redundanz- und
Prüfsummen speichert. Am sichersten wäre es wohl, die Daten eines Sektors
einfach zweimal hintereinander zu speichern. Wenn ein Sektor nicht mehr lesbar
ist, existiert somit eine ständige Kopie. Nachteile dieses Verfahrens sind der
offensichtliche Zeitverlust bei der Datenübertragung sowie der große
Platzbedarf auf dem Band. Trotz aller Qualitätssicherung beim Bandmaterial wird
allgemein akzeptiert, daß Fehler in der Oberfläche eines magnetischen
Speichermediums auftreten können. Da heute immer mehr Daten auf
einenQuadratzentimeter gepackt werden, um die Kapazität zu erhöhen, können sich
bereits kleine Oberflächenfehler entsprechend kritisch auf große Datenmengen
auswirken. Bei Fehlern, die nach Aufzeichnung der Daten durch unsachgemäße
Lagerung oder äußere Einflüsse (Wärme, Flüssigkeiten, Magnetismus) entstehen,
hilft die nur auf Redundanz beruhende ECC-Methode ('Error Correction
Code') nicht weiter. Auch das häufig angewendete 'Read-after-write-Verfahren',
das zwar durch eine Leseüberprüfung nach jedem Schreiborgang eine richtige
Datenübertrage sicherstellt, kann späteren Beschädigungen der Bandoberfläche
trotz eine technisch aufwendigen, doppelten Kopfes nicht den Schrecken nehmen.Auf
der Suche nach mathematischen ECC-Methoden wurde eine Vielzahl von Standards
für die unterschiedlichsten Bandformate durch das ameikanische Komitee
'QIC' normiert. So besteht beim QIC-100-Standard für DC600A- und
DC2000-Datenkassetten ein 8192 Byte große Datenblock aus zwei 4KByte-Blöcken,
denen jeweils ein kompletter 4-KByte-Block mit ECC-Bytes folg. Um den ECC noch
sicherer zu machen, werden beim QIC-100 die Blöcke verschoben
('interleaved') aufgezeichnet, wodurch sichergestellt wird, daß auch
größere Fehlerstellen im Band keine Probleme bereiten.Der vom
Streamer-Marktführer Irwin gesetzte Standard läuft bei QIC unter der eigenen
Bezeichnung QIC-86-4. Das Unternehmen konnte früher als alle anderen Hersteller
ein patentiertes Servo-Positionierungsverfahren für den Schreib-/Lesekopf
anbieten, das eine wesentlich höhere Genauigkeit und auch die Austauschbarkeit
der Datenkassetten zwischen verschiedenen Geräten garantierte.Das von Irwin
eingesetzte Verfahren kann einzelne Fehler auf dem Band korrigieren, auch ohne
daß auf dem Datenträger viel Platz für die Redundanzdaten des ECC benötigt
wird.Aber noch weiter Vorteile bietet das Irwin-Verfahren: Die Information
bezüglich des Codes wird nur dann benutzt, wenn bei der Rückübertragung zur
Platte tatsächlich Fehler zu korrigieren sind. Ist ein Datensektor fehlerfrei,
geht auch keine Zeit für die ECC-Berechnung verloren. Weil Irwin das Band wie
eine Festplatte ansteuert, werden durch das Formatieren von vornherein
fehlerhafte Bandstellen ausgesondert und im Inhaltsverzeichnis festgehalten.
Daher können die Datensektoren auf dem Band sinnvollerweise immer dirket von
ihren ECC-Sektoren stehen.
Die Sektoren 1 bis 16 werden als Datensektoren genutzt, die ECC-Sektoren folgen an Stelle 17 und 18. Der von Irwin verwendete Codieralgorithmus liest ein bestimmtes Byte 'x' aus jedem der 16 Datensektoren, um daraus zwei Redundanz-Bytes zu berechnen. diese beiden errechneten Redundanz-Bytes werden dann wiederum an der Stelle 'x' in den Sektoren 17 und 18 gespeichert. Hierdurch wird ermöglicht, daß zwei beliebige 1-KByte-Sektoren aus einem 16-KByte-Datenblock bei Verlust durch Berechnung rekonstruiert werden können. Diese rein mathematische Verfahren ist sogar in der Lage, Fehler zu korrigieren, die erst nach der Übertragung entstehen, also zum Beispiel Veränderungen des Magnetismus eines Bandes.Welche Art der Backup-Datensicherung (Band oder Diskette) ein Anwender bevorzugt, muß natürlich dem individuellen Geschmack überlassen werden, doch stehen Streamer in puncto Sicherheit eindeutig an der Spitze.Streamer bieten ein optimales Preis-Kapazitäts-Verhältnis bei hoher DatensicherungDatensicherung auf Disketten ist bei großen Datenmengen die wohl umständlichste Art, Programme vor dem Verlust zu bewahren. Denn während dieses Vorganges muß permanent eine Person beim Rechner bleiben, um die Disketten zu wechseln.Wechselplatten erfreuen sich bei vielen Anwendern großer Beliebtheit, bieten jedoch nicht mehr Sicherheit als eine eingebaute Festplatte. Ihr Vorteil gegenüber der Sicherung per Disketten besteht in der erheblich größeren Kapazität, doch die vergleichsweise hohen Anschaffungskosten für weitere Platten sprechen eindeutig für Streamer.Die Verwendung in unterschiedlichen Rechnern wird nicht nur von der Wechselplatte und von Disketten gewährleistet. Das Econo-Tape von Caliper beispielsweise ist in allen Modellversionen auch extern zu betreiben, das heißt, daß der Streamer an beliebig vielen Rechnern benutzt werden kann und nur die Cartridges ausgewechselt werden müssen. Nicht nur hierdurch ist die Verwendung eines Streamers erheblich günstiger als andere Methoden. Werden die Kosten zur erlangten Sicherheit in Relation gesetzt, stehen Streamer ganz gewiß erneut an allererster Stelle.
1.3.2. SicherheitDas regelmäßige Durchführen von Backups mit einem Streamer mag beruhigen, besagt aber für die Sicherheit der Daten rein gar nichts. Erst wenn testweise auch das Rücksichern (Restore) der Daten fehlerfrei gelungen ist, darf man durchatmen.Wenn man einen Streamer daher das erste Mal in Betrieb nimmt sollte man folgendes tun:
1. eine
kleine Partition sichern, 2. den Inhalt des Bandes auf eine andere
Partition (mit genügend Platz)
zurückschreiben, 3. mit Vergleichsprogrammen (notfalls
mit COMP von DOS) die Dateien auf der
Ursprungspartition mit denen auf
der per Restore beschriebenen vergleichen. Achten sie überdies darauf, daß auch
wirklich alle Dateien gesichert wurden, die
sie sichern wollten.
Dieser Aufwand mag sie verwundern, denn die Handbücher suggerieren, daß eine
aktivierte Verify-Option oder ein Compare-Lauf nach dem sichern ausreicht.1.3.3. Verify und
CompareViele Backup-Programme unterscheiden ein sogenanntes 'Verify'
und ein 'Compare'. Beim Verify werden nur die Sektor-Prüfsummen
(Floppy-Controller schreiben halt 'Sektoren' aufs Band) auf dem
Datenträger verifiziert, keinenfalls aber die auf Band geschriebenen Daten
byteweise mit dem Original verglichen. Verify gibt also im Prinzip nur
Aufschluß darüber, ob der Datenträger physisch in Ordnung ist.Ein echtes
Compare bei einem Backup-Programm liest die Daten von der Festplatte und vom
Band in einem zweiten Durchgang neu ein und vergleicht sie byteweise auf
Übereinstimmung. Erst ein Compare-Durchgang kann also zuverlässig feststellen,
daß die gewünschten Daten gesichert wurden und sich auch vom Band wieder
korrekt lesen lassen.Für die Erstinbetriebnahme eines Streamers aber reicht
auch das nicht aus. Es gab durchaus Fälle, in denen das Compare klappte, das
Restore aber dennoch fehlschlug. Zur Zeit ist in Verbindung mit MSDOS 6.0 zum
Beispiel gesundes Mißtrauen angebracht, denn darauf ist längst noch nicht alle
heute verkaufte Software eingestellt. Und Versionsunverträglichkeiten sind für
die absurdesten Phänomene gut.Was den Umgang mit beschädigten Bändern betrifft,
die ein Backup enthalten, ist generell große Vorsicht angesagt. In der Regel
klappt das Rücksichern nur bis zum ersten Banddefekt, und Reparatur-Tools sind
selbst im Profisektor die Ausnahme. Es sei daher grundsätzlich empfohlen, mit
der Anzahl der Backup-Bänder nicht zu knausern. Je mehr Bänder mit zeitlich
dicht beieinander liegenden Backups verfügbar sind (die alle per Compare
überprüft wurden), desto geringer der Datenverlust im
Katastrophenfall.QIC-StandardsDie Abkürzung QIC steht für Quarter Inch
Cartridge Drive Standards Incorporated und befaßt sich mit der Spezifikation
diverser Randbedingungen, die im Bereich des Backup-Streaming mit
Viertel-Zoll-Kassetten auftauchen.Das Wichtigste beim Durchkämpfen durch das
mittlerweile üppige Dickicht an Bezeichnungen ist, daß QIC-Standards
unterschiedlichste Bereiche beschreiben. Während QIC-40 und -80 zum Beispiel
das physikalische und logische Band-Layout inklusive einer Art Dateisystem
spezifizieren, bafaßt sich QIC-107 mit der Schnittstelle, also letztlich mit
dem 34poligen Floppy-Controller-Interface bei IBM-ATs. QIC-115 hingegen legt
dasselbe für PS/2-Rechner und deren 40poligen Floppy-Anschluß fest. QIC-117
spezifiziert für die genannten Standards die Timing-Verhältnisse zwischen Rechner
und Laufwerk, und QIC-106 gar die Eigenheiten der Schreib-/Leseköpfe für
QIC-40-Laufwerke.
In aller Kürze als Hilfe zum Durchstöbern von Anzeigen: QIC-107, 115, 36, 02
bezeichnen gängige Interface-Standards QIC-20,
40, 80, 11, 24, 120, 150, 525 (früher 320) und 1350 beschreiben AufzeichnungsverfahrenFloppy-Anschluß =
QIC-40/80?Ein Bandlaufwerk läßt sich - ebenso wie Festplatten - auf
unterschiedlichste Weise an einen Rechner anschließen. Ein SCSI-Host-Adapter
mit entsprechend eingerichtetem Bandlaufwerk ist eine relativ aufwendige
Lösung, zudem müssen SCSI-Lösungen im PC - da SCSI nicht zum definierten PC
Standard gehört - oft mit besonderen Treibern ausgestattet werden.Ein
Floppy-Controller jedoch steckt seit jeher in jedem PC, und mit den vorhandenen
Signalen lassen sich auch Bänder beschreiben und Band-Laufwerke steuern. Der
dadurch mögliche Wegfall eines seperaten Host-Adapters spart natürlich Kosten.
Die ersten Streamer zum Anschluß an den Floppy-Controller arbeiten nach dem
QIC-40-Standard, der auch heute noch sehr verbreitet ist und von einigen
QIC-80-Streamern gelesen werden kann.Die QIC-Standardisierungen befassen sich
einerseits mit den physikalischen und logischen Aufzeichnungsmodalitäten und
andererseits mit der hardwaremäßigen Schnittstellendefinition.Urvater QIC-40QIC-40
wurde für Viertel-Zoll-Kassetten (Quater Inch) namens DC2000 erdacht. Das
ursprüngliche Band (DC2080) wird in 20 Spuren unterteilt, die der Streamer
abwechselnd vorwärts und rückwärts abklappert. Da man in der Floppy-Controller-Hardware
auf die Fähigkeiten des FDC-Chips µPD765 von NEC in bezug auf die physikalische
Formatierung festgelegt ist, teilt man diese MFM-formatierten Spuren wie folgt
auf: 29 Sektoren zu 1024 Bytes Länge bilden ein sogenanntes Segment, und 68
solcher Segmente (Blöcke) füllen eine Spur. Formatiert und abzüglich aller
ECC-Codes faßt dann eine solche Kassette 40 386 560 Daten-Bytes. Auf den 50
Prozent längeren XL-Kassetten lassen sich folglich 60 MByte
unterbringen.QIC-40-Streamer sind für XT- und AT-Floppy-Controller geeignet.
Für eine XT-gemäße Datentransferrate von 250 kBit/s laufen 25 Zoll Band pro
Sekunde am Kopf vorbei; wenn der Controller auch High-Density-Floppies bedient
(500 kBit/s), muß der Streamer das Band mit 50 Zoll pro Sekunde transportieren.
Je höher die Datentransferrate, desto schneller läuft ein Backup- oder
Restore-Durchgang ab. Durch die Kopplung der Datenrate an jeweils eine eigene
Transportgeschwindigkeit bleibt das Format identisch, das heißt, ein und
dieselbe QIC-40-Kassette kann sowohl an einem langsamen als auch an einem
schnellen Controller mit demselben Streamer gelesen und beschrieben werden.
Mittlerweile ist es üblich, die Daten vor der Sicherung zu komprimieren, so daß
sich die nutzbare Kapazität eines QIC-40-Bandes bei typischem Datengemisch auf
120 MByte erhöht. Seither firmieren diese Streamer in der Werbung als
120-MByte-Typen. Laut Herstelleraussagen kann man davon ausgehen, daß die für
die Kompression aufgewendete CPU-Zeit ab 16-MHz-80286 das Speichern auf Band
nicht mehr behindert, so daß - da insgesamt weniger auf Band geschrieben werden
muß und die Zeit dafür durch das Format fest vorgegeben ist - Kompression den
Backup- und Restorevorgang erheblich beschleunigt.Auf dem Vormarsch: QIC-80Der
neuere Standard QIC-80 ermöglicht - wie seine Bezeichnung ahnen läßt - ziemlich
genaun die doppelte Speicherkapazität gegenüber QIC-40. Bei QIC-80 verwendet
man baugleiche Kassetten wie bei QIC-40, die aber angeblich höher qualifiziert
sind. 'DC2000' wird zwar gern als Gattungsname für
Viertel-Zoll_Kassetten mißverstanden, jedoch warnen Streamerhersteller
eindringlich davor, eine Kassette mit der Typenbezeichnung DC2000 (QIC-40) ein
einem QIC-80 Streamer zum Schreiben zu benutzen. QIC-80-Kassetten in
Standardlänge (205 Fuß) heißen DC2080 (Bezeichnung von 3M), die XL-Versionen
DC2120.QIC-80 Bänder werden mit 28 Spuren und 34 Zoll/s bei einer (minimal
zulässigen) Datentransferrate von 500 kBit/s beschrieben. QIC-80-Streamer sind
folglich nicht mehr an einem einfachen XT-Controller mit 250 kBit/s betreibbar,
auch läßt die veränderte Spurzahl (Schmalere Spuren) kein zuverlässiges
Schreiben, wohl aber Lesen (dann mit 50 Zoll/s) von QIC-40-Bändern zu. Auf eine
DC2080-Kassette passen pro Track 100 Segmente zu 29 KByte, was rund 80 MByte Kapazität
ergibt (DC2120 entsprechen 120 MByte).Natürlich wird auch bei QIC-80-Streamern
emsig mit Datenkompression gearbeitet, so daß sich auf einer DC2120
üblicherweise 250 MByte, beim Spezial-Format des Mountain gar 300 MByte sichern
lassen. Eine konservative Firma wie Archive (Maynard und Irwin sind übrigens
auch 'Archive Companies') inserieren den XL5580 allerdings auch heute
noch brav als 80 MByte Streamer.1.3.4. High Speed Adapter
Seit Floppy-Laufwerke mit 2,88 MByte in die PC-Welt einziehen, lassen sich auch Floppy-Controller mit 1MBit/s Datenrate aufgrund preiswerter Controller-Chips kostengünstig realisieren. Zu modernen Floppy-Controller-Streamern, sind heute fast immer auch sogenannte High-Speed-Adapter erhältlich, die dann allerdings erwarten, daß der Streamer das Band für diesen Betriebsfall auch doppelt schnell transportiert. High-Speed-Adapter erhalten also die Format-Kompatibilität, wickeln aber alles doppelt so schnell ab.
1.3.5. Das dritte Laufwerk
Mein Verweis auf 2,88-MB-Floppies soll nicht in die Irre führen: man verwendet zwar auf High-Speed-Adaptern vergleichbare Floppy-Controller-Chips, die Controller-Boards enthalten aber in der Regel keinerlei eigene BIOS-Software, um tatsächlich 2,88-MB-Disketten ansteuern zu können. Der Zugriff auf diese Controller findet ausschließlich über mitgelieferte Backup-Software statt, und die kennt sich mit 2,88-MB-Disketten nicht aus.
High-Speed-Adapter helfen in der Regel aber noch aus einer anderen PC-Klemme: bekanntermaßen kann ein PC nicht mehr als zwei Floppy-Laufewrke bedienen. Das war und ist zwar grundsätzlich nur eine Restriktion des PC-BIOS, daraufhin hat aber auch mancher Low-Cost-FDC die Ansteuerung von mehr Laufwerken verlernt. So gibt es für die meisten Floppy Streamer zwar Adapter-Kabel, die den Betrieb zweier Floppies (Disk 0 und 1) und eines Streamers als Drive 2 oder 3 ermöglichen, nur muß das nicht mit jedem Floppy-Controller klappen. Wenn man Pech hat, muß man für Backups also 'mal eben' das zweite abziehen, damit alles läuft.
Auch in dieser Beziehung kann ein High-Speed-Adapter helfen, da dieser generell als Zweit-Controller konzipiert ist und folglich parallel zum installierten Floppysystem arbeitet. Er belegt dann üblicherweise Systemadressen, um Konflikte zu vermeiden und läßt zudem gesondert die Wahl des Interrupts (IRQ) und DMA-Kanals zu.
1.3.6. QIC-80-Kompatibilität
Keineswegs ist jeder Streamer zum Anschluß an den Floppy-Controller ein QIC-80-Streamer. Der Irwin-Streamer zum Beispiel läßt sich auch mit Fremdsoftware nicht zum QIC-80-Streamer wandeln. Dennoch ist natürlich die Software maßgebend für die Einhaltung des QIC-80-Standards. Damit aber trotz zertifizierter QIC-80-Kompatibilität ein Austausch möglich wird, sind zwei Bedingungen unbedingt einzuhalten:
Zum ersten darf die Backup-Software keinenfalls auf irgendein hauseigenes 'Super-Format' eingestellt werden. Ich formuliere das extra in dieser Weise, denn nicht immer ist das 'Normal-Format' eindeutig als QIC-80 gekennzeichnet. Zum zweiten darf man keine Datenkompression verwenden, denn diese fällt bei unterschiedlicher Backup-Software grundsätzlich verschieden aus. So kann ein anderes Backup-System das Band zwar unter Umständen physikalisch lesen, aber meist schon nicht mehr das Band-Directory oder auch nur den Tape-Header entschlüsseln. Deshalb ist zusätzlich zu empfehlen, bei Tauschbestrebungen auch nicht einen anders eingestellten Backup-Set auf dem Band zu haben, damit Fremdsoftware nicht eventuell darüber stolpert.
1.3.7. Fremd-Schnittstellen
Obwohl QIC-80 der Floppy-Welt entsprang, gibt es keine prinzipiellen Probleme, einen QIC-80-kompatiblen Streamer über eine völlig andere Schnittstelle zu bedienen. Es läuft dann in der Praxis darauf hinaus, eine bestimmte Schnittstelle nach außen zu realisieren, um diese dann intern letztlich in einen Floppy-Controller münden zu lassen. Geräte dieser Art sind zum Beispiel der BackPack für den Anschluß an eine PC-Druckerschnittstelle sowie der Summit mit einem AT-Bus-Interface (IDE).
1.3.8. Die QIC-Standards
Standard Kassettentyp Kapazität Schnittstellen
Minicartridges
QIC-40 DC2000 40 MB QIC-107, 115, 117
QIC-40XL DC2000 60 MB QIC-107, 115, 117
QIC-80 DC2080 80 MB QIC-107, 115, 117
QIC-80XL DC2120 120 MB QIC-107, 115, 117
QIC-100 DC2000 20/40 MB QIC-103, 108
QIC-128 DC2110 86 MB QIC-103, 108
QIC-128 DC2165 128 MB QIC 103, 108
QIC-385M QIC-143 385 MB Floppy, IDE
QIC-410M QIC-143 410 MB SCSI-2
QIC-6GB(M) QIC-138 6 GB (*) SCSI-2
Cartridges
QIC-24 DC600A 60 MB QIC-02, 36, SCSI
QIC-120 DC6150 125 MB QIC-02, SCSI
QIC-150 DC6150 150 MB QIC-2, SCSI
QIC-150 DC6250 250 MB SCSI, SCSI-2
QIC-525 DC6320 320 MB QIC-02, SCSI, SCSI-2
QIC-525 DC6525 525 MB QIC-02, SCSI, SCSI-2
QIC-1000C QIC-136 1 GB SCSI, SCSI-2
QIC-1350 QIC-137 1,35 GB SCSI-2
QIC-2100C QIC-137 2,1 GB SCSI-2
QIC-20GB(C) QIC-139 20 GB (*) SCSI-2
(*) mit QIC-122- oder QIC-130-Datenkompression
2. Optische Speichermedien
Neben herkömmlichen Speichermedien auf ferromagnetischer Basis haben sich mittlerweile auch die magneto-optischen Aufzeichnungsverfahren am Markt etabliert. Im Zuge der zunehmenden Verbreitung von Multimedia-Anwendungen prognos-tizieren Marktforscher den optischen Speichermedien hervorragende Aussichten.
Man unterscheidet bei den optischen Speichermedien zwischen den CD-ROMs, den WORMs und den MO-Laufwerken. Während das CD-ROM einen Nur-Lese-Speicher darstellt, kann ein WORM (Write Once Read Multiple) einmal beschrieben werden. Das MO-Laufwerk basiert hingegen auf der magneto-optischen Aufzeichnung, Daten können also beliebig oft gespeichert und gelöscht werden.
2.1. CD-ROM - ein Nur-Lese-Speicher
Das CD-ROM ist das erste optische Medium, das im nicht-professionellen Bereich eine weite Verbreitung erfahren hat. Dies resultiert zum einen aus den stark sinkenden Hardwarepreisen wie auch aus der stetig steigenden Anzahl unterstützender Anwendungen.
Wie die Audio-CD ist das CD-ROM nur auf einer
Seite beschichtet. Die Oberfläche dieses Speichermediums besteht aus einer
Polycarbonat-Kunststoffschicht, einer reflektierenden Aluminium- und einer
Schutzlackschicht. In die Plattenoberfläche wird bei der Herstellung - ähnlich
wie bei einer Schallplatte - eine spiralförmige Spur gezogen, in die mit Hilfe
eines Lasers in bestimmten Abständen Vertiefungen eingebrannt werden. Im
Gegensatz zur Schallplatte verläuft diese Spur von innen nach außen. Die
spiralförmige Spur eignet sich ideal zum Einlesen großer Mengen sequentieller
Daten. Das Verfahren erlaubt den den Herstellern, dieselben Anlagen für die
CD-ROM-Produktion zu nutzen, wie sie auch für die Audio-CDs verwendet werden.
Der Vorteil wird jedoch über eine erhöhte Zugriffszeit erkauft. Die
konzentrischen Spuren der Festplatte erlauben einen schnelleren Zugriff, da der
entsprechende Sektor aufgrund der konstanten Distanz einer Spur zur
Plattenmitte schneller lokalisiert werden kann. Dieser Vorgang ist bei einer
spiralförmigen Spur wesentlich komplexer. Beim Lesevorgang wird die Spur durch
einen scharf gebündelten Laserstrahl abgetastet. Trifft der Laser auf eine
Vertiefung, erfolgt eine Absorption, trifft er auf keine Vertiefung, wird der
Strahl reflektiert und von einer Fotozelle erkannt. Die Daten sind daher - wie
von herkömmlichen Medien bekannt - in binärer Form auf der CD gespeichert. Wird
der Strahl reflektiert, entspricht das dem Zustand 0, erfolgt eine Absorption
entspricht dies dem Zustand 1. Die Vertiefungen werden als Pits, die Stellen,
die unverändert bleiben, als Lands bezeichnet.
Die Zugriffszeiten eines CD-ROM-Laufwerks liegen etwa zwischen 300 und 400 Millisekunden. Eine Verbesserung der Leistung wurde durch das Continuous-Read-Verfahren erreicht. Hierbei werden bereits Daten in den Puffer eingelesen, während die vorher gelesenen Daten noch über den Bus zum Rechner übertragen werden. Bei der CD-ROM-Technologie sind jedoch die Anforderungen an die Datensicherheit gegenüber der bei Audio-CDs wesentlich höher. Mehr als zehn Prozent des verfügbaren Speicherplatzes werden für die Datenverwaltung und die Fehlerüberprüfung belegt.
Ein Vorteil der CD sind ihre niedrige Herstellungskosten. Berücksichtigt man nur die reinen Vervielfältigungskosten, so ist bereits bei geringen Auflagen die Herstellung von einem Programmpaket, das nur wenige Disketten umfaßt, teurer als eine CD-ROM-Produktion. Ein weiterer Vorteil besteht darin, daß jedes CD-ROM-Laufwerk grundsätzlich auch Audio-CDs abspielen kann. Das Abspielen der Audio-CD wird dabei über den Computer gesteuert. Es sind auch externe CD-ROM-Laufwerke erhältlich, die den Bedienungskomfort eines Audio-CD-Gerätes bieten und unter Verwendung eines Akkus als mobiler CD-Player genutzt werden können. Die Leistungsdaten dieser Laufwerke liegen allerdings in der Regel unter denen der Laufwerke, die für den reinen CD-ROM-Betrieb konzipiert wurden. Aufgrund des Aufzeichnungsformats und der Rotationsgeschwindigkeit der CD ist die Datentransferrate bei allen CD-ROM-Laufwerken nahezu identisch.
Als ein Einsatzgebiet für die CD-ROM bietet sich zweifelsohne die Softwaredistribution an. Die heutigen Applikationen werden immer umfangreicher, eine größere Anzal von HD-Installationsdisketten sind bereits keine Seltenheit mehr. Was liegt also näher als die Software auf CD-ROM anzubieten? Damit ließen sich mehrere Probleme auf einen Schlag lösen: Zum einen bietet die CD-ROM gegenüber magnetischen Datenträgern eine wesentlich höhere Datensicherheit, so daß die Originalsoftware immer unverfälscht zur Verfügung steht; zum anderen wird den Herstellern der Kopierschutz damit frei Haus geliefert.
Die CD-ROM-Technologie gilt als Idealmedium für Multimedia-Anwendungen. Farbbilder, Grafiken, Sounds und vor allem bewegte Bildsequenzen, kurzum für alle Anwendungen, die eine immense Speicherkapazität erfordern. Gerade im Bereich Multimedia werden CD-ROM-Laufwerke häufig im Paket mit Soundkarten angeboten. CD-ROM-Laufwerke sind sowohl als interne Laufwerke als auch als externe Laufwerke in einem gesonderten Gehäuse erhältlich. Zudem sind Gehäuse verfügbar, in denen mehrere CD-ROM-Laufwerke untergebracht werden können, so daß auf entsprechend große Datenmengen zugegriffen werden kann. CD-Wechsler bieten sich insbesondere zum Einsatz in Netzwerken an.
Mittlerweile werden auch einmal beschreibbare CDs angeboten, die CD-Rs (R = Recordable). Diese sind wesentlich teurer als ihre nur lesbaren Pendants. Die Perspektiven für die CD-Rs sind aufgrund ihrer Kompatibilität zum CD-ROM-Standard rosig. Der CD-ROM kommt zugute, daß sich die Hersteller frühzeitig auf verbindliche Normen bezüglich des Aufzeichnungsverfahrens festgelegt haben. Dieser High-Sierra-Standard legt fest, in welcher Organisation die Daten auf der CD unterzubringen sind. Der in Europa verbreitete Standard (ISO-9660) ist aus dem High-Sierra-Standard entwickelt worden. Anwendungen, die für den High-Sierra-Standard konzipiert wurden, sind im übrigen auch unter ISO-9660 lauffähig. Im Gegensatz dazu sind ISO-9660-Anwendungen nicht unter Verwendung eines High-Sierra-Treibers ablauffähig.
Technische Daten
Die Größe einer CD-ROM entspricht mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm exakt den Abmessungen der Audio-CDs. Trotzdem sollte man nicht der Versuchung erliegen, eine CD-ROM mit einem Audio-CD-Player abzuspielen. Die Lautsprecher der Stereoanlage könnten unter Umständen Schaden nehmen.
Die Standards der CD-ROM (siehe Textbox) legen eine bestimmte Datenstruktur auf der CD fest. Die Daten werden auf der CD, ähnlich wie auf einer Festplatte in Blöcken gespeichert, wobei ein Block 2352 Byte umfaßt. Von diesen 2352 Byte werden jedoch nur 2048 zum Speichern der Information benötigt, die restlichen Bytes verwendet das Gerät zur Blockidentifikation und Fehlerkontrolle.
Standards rund um die CD
CD-DA (Compact
Disc Digital Audio) Hinter diesem Kürzel verbirgt sich die
bekannte Audio-CD. Diese CDs lassen sich ebenfalls mit nahezu allen
CD-ROM-Laufwerken abspielen.
CD-I (Compact Disk Interactive) Für diese CDs ist ein spezieller CD-I-Player erforderlich, der an ein Fernsehgerät angeschlossen werden kann. Dieser Standard wurde speziell für multimediale Anwendungen mit Kombinationen aus Audio und Video entwickelt.
CD-ROM (Compact Disc Read Only Memory) nicht beschreibbarer optischer Datenträger, dessen Daten über spezielle CD-ROM-Laufwerke in den Computer eingelesen werden können.
CD-XA (Compact Disc Extended Architecture) Dabei handelt es sich um eine Erweiterung der CD-ROM-Spezifikation. Der XA-Standard läßt es zu, daß neben Daten auch Audioinformationen gespeichert werden, wobei Ton- und Bildinformationen ineinander verschachtelt werden. Aus diesem Grund lassen sich Daten und Töne parallel auslesen.
High Sierra Dieser Standard beschreibt, in welcher Art und Weise die Daten auf einer CD abzulegen sind, und sorgt so für Kompatibilität verschiedener Laufwerke und CDs. Beschlossen wurde dieser Standard 1986 von zahlreichen Soft- und Hardwareherstellern, die sich hierzu in einem Hotel namens »High Sierra« in Kalifornien trafen.
Multisession bezeichnet CDs, die in mehreren Sitzungen (Sessions) bespielt wurden. Dieses Verfahren ist in erster Linie dem Photo-CD-Bereich vorbehalten. Zum Abspielen dieser CDs sind spezielle multisessionfähige Laufwerke erforderlich. Im Gegensatz dazu stehen Singlesession-CDs, die in einem Durchgang beschrieben wurden.
Yellowbook von Philips und Sony beschlossene Spezifikation der CD-ROM zur Block- und Datenstruktur sowie Fehlererkennung. Das Gegenstück hierzu bei Audio-CDs ist das Redbook.
Aufzeichnungsverfahren
Für die schnelle Methode des Einlesens sequentieller Daten bei CD-ROMs ist ein spezielles Aufzeichnungsverfahren notwendig: Das CLV-Verfahren (Constant Linear Velocity), bei dem jeder Datenblock immer die gleiche Länge besitzt. Logischerweise befinden sich auf der äußersten Spur deutlich mehr Datenblöcke als auf der inneren. Da jedoch im Interesse einer konstanten Datenübertragung pro Zeiteinheit stets nur die gleiche Anzahl an Datenblöcken den Lesekopf passieren darf, muß die Rotations-geschwindigkeit entsprechend angepaßt werden. Durch dieses Verfahren wird der zur Verfügung stehende Platz optimal ausgenutzt, auf die Zugriffsgeschwindigkeit wirkt es sich hingegen negativ aus.
Ein direktes Gegenbeispiel ist die Festplatte, auf der sich die Spuren in konzentrischer Form befinden. Dementsprechend wird hier ein anderes Aufzeichnungsverfahren angewandt, das sogenannte CAV-Verfahren (Constant Angular Velocity). Hier bleibt die Umdrehungsgeschwindigkeit immer konstant, da sich auf jeder Spur die gleiche Anzahl Datenblöcke befindet. Erreicht wird dadurch eine deutlich höhere Zugriffszeit als beim CLV-Verfahren - ein Vorteil, der jedoch über eine Kapazitätsverschwendung erkauft wird. Soll sich auf jeder Spur die gleiche Menge Datenblöcke befinden, muß man sich an der kürzesten, in dem Fall der innersten Spur orientieren.
Unter den CD-ROM-Laufwerken existieren auch kostengünstige Varianten, die über die serielle beziehungsweise parallele Schnittstelle angeschlossen werden können.
WORM (Write-Once-Read-Many)
magneto-optische Laufwerke
Einige wesentliche Punkte unterscheiden Worm-Laufwerke von CD-ROM-Laufwerken:
- verschiedene Plattengrößen (3,5', 5,25', 8', 12', 14')
- mehr Speicherplatz (14' bis 8 Gigabyte, 5,25' ca. 650 MB)
- unterschiedliche verwendete Materialien
- zwei Laser (Schreib- und Lese-Laser)
- ist einmal - unwiderruflich - beschreibbar
Das was bei CD-ROM´s von Anfang an geregelt wurde, hat bei WORM-Disks so nicht stattgefunden: Die Bildung eines Standards, der jede Scheibe im Laufwerk eines jeden Herstellers laufen läßt. Gerade in der Anfangsphase (bei den 12' Disks, die als erste am Markt erschienen) haben viele Hersteller ihr eigenes Süppchen gekocht. Mit dem erscheinen der 5,25' Laufwerke hat man auch begonnen, sich Gedanken über einen Worm Standard zu machen.
Jedes WORM-Laufwerk verfügt über zwei Laser: einen schwachen Lese-Laser und einen wesentlich stärkeren Schreib-Laser. Die gespeicherten Informationen werden eingelesen, indem die Oberfläche der Scheibe vom Laser abgetastet wird. Die zrückgeleiferte Reflektion wird analysiert und in binäre Daten umgewandelt.
Neben einer großen Bandbreite an verwendeten Materialien für die WORM (Glas, Aluminium oder Kunststoff) kommen auch verschiedene Aufzeichnungsverfahren zum Einsatz:
- Bubble Forming
- Pit forming
- Dye albative
- Phase changing
Das 'Bubble forming', also das 'Blasenerzeugungsverfahren' benötigt eine thermisch veränderbare Matallschicht, die von einer Polymerschicht umgeben und von Glas ummantelt ist. Trifft nun der Schreiblaser auf eine Stelle, wird hier eine Blase erzeugt, die beim Lesevorgang den Strahl des Lese-Lasers streut und mit geringerer Intensität reflektiert.
Beim 'Pit forming'-Verfahren befindet sich über einer reflektierenden eine weitere, nicht reflektierende. Der Sreiblaser brennt dann ein Loch in der Stärke von einem tausendstel Millimeter in die undurchlässige Schicht. Trifft dann der Lese-Laser auf dieses Loch, wird er auf eine Photozelle reflektiert.
Wesentlich bei der magneto-optischen Technologie ist, daß bei einem digitalen Aufzeichnungsverfahren zwei, vom Lese-Laser unterscheidbare, Zustände erzeugt werden können. Ein Laserstrahl erhitzt zuerst die Stellen, auf die geschrieben werden soll. Sobald die sogenannte Curie-Temperatur erreicht ist, wird durch ein schwaches Magnetfeld die magnetische Ausrichtung der jewiligen Stelle verändert. Wichtig ist dabei vor allem eine entsprechende Fokussierung des Schreiblasers, um nicht Informationen, die schon in angrenzenden Randbereichen abgelegt worden sind, zu beschädigen.
Das 'Phase changing'-Verfahren ist zum Beispiel ein rein optisches Verfahren, das zumeist bei professionellen WORM-Laufwerken zum Einsatz kommt. Es findet aber auch schon bei wiederbeschreibbaren, optischen Laufwerken seinen Einsatz. Wesentlicher Unterschied zu den übrigen Verfahren ist, daß es völlig ohne Elektro-Magneten auskommt. Ein Schreib- bzw. Lesevorgang hängt von der Intensität des (einen!) Laserstrahls ab. Beim wesentlich stärkeren Schreibvorgang wird der Punkt, auf den der Strahl auftrifft, geschmolzen und führt dazu, daß dieser Punkt künftig bei einer Abtastung beim Lese-Vorgang nur noch eine ganz schwache Reflexion liefert. Ist das der Fall, wird '1' zurückgeleifert, kommt der Strahl ohne Intensitätsverlust retour, steht dies für '0'.
Die WORM-Disks haben ihr Einsatzgebeit hauptsächlich in Archivierungssystemen. Sie sind kaum geeignet, eine Publikation in größeren Stückzahlen zu produzieren, da bei der Herstellung einer WORM diese das Master darstellt. Will man von einer WORM eine Kopie machen, bräuchte man zwei WORM-Rekorder/Player, die dann - der langsamen Zugriffsgeschwindigkeit entsprechend, ziemlich lange für die Erstellung einer Kopie benötigen würden. Gerade diese langsamen Zugriffsgeschwindikeiten sind aber ein Manko, auf das man sich bei den möglichen Speichermengen durchaus einlassen kann. Mit Wurlitzer-ähnlichen Geräten kann man durchaus Systeme im Terrabyte Bereich (1 Terrabyte = 1024 Gigabyte bzw. 1.099.511.627.776 Byte) erziehlen. Nicht zuletzt aufgrund der Größe der Speichermedien sind WORM-Laufwerke zumeist nur als externe Geräte lieferbar. Im Archivierungsbereich werden heute Magnetband bzw. Mikrofiche bzw. -film vielfach durch WORM-Datensicherungs-Systeme ersetzt. Erwähnenswert ist noch, daß die WORM´s gegenüber Omwelteinflüssen wesentlich unempfindlicher als die CD-ROM´s sind.
2.3. Magneto-optische Speicher - Die Alternative
Da sie nur einmal beschreibbar und nicht löschbar sind, scheiden die WORMs jedoch als echter Massenspeicher aus. Magneto-optische Festplatten sind die bessere Alternative. Bei der magneto-optischen Aufzeichnungstechnologie handelt es sich um eine Kombination aus magnetischen und optischen Techniken. Ein Aufzeichnungsverfahren, das nach dem digitalen Prinzip arbeitet muß zwei verschiedene Zustände an einer Stelle des Mediums erzeugen und diese beiden Zustände beim Lesen unterscheiden können. Dies erreichen unterschiedlich starke Laserstrahlen in Verbindung mit einem Elektromagneten.
Das Beschreiben einer magneto-optischen Disk erfolgt durch einen energiereichen Laserstrahl. Dieser Laserstrahl erhitzt die Stellen, an denen aufgezeichnet werden soll, auf die materialspezifische Curie-Temperatur. Wird sie erreicht, so genügt bereits ein schwaches äußeres Magnetfeld, um die Magnetisierungsrichtung des Datenträgermaterials zu ändern. Bei diesem Vorgang werden die Informationen buchstäblich gelöscht. Auf der anderen Seite der optischen Platte befindet sich ein Elektromagnet, der ein magnetisches Feld erzeugt, welches die neue magnetische Orientierung der Aufzeichnungszone bewirkt. Die Magnetisierungsrichtung liegt dabei senkrecht zur Plattenoberfläche. Bei hohen Leistungen des Lasers besteht jedoch die Gefahr, daß angrenzende Zonen durch Wärmeleitung ebenfalls erhitzt und durch das Magnetfeld entsprechend beeinträchtigt werden. Der Laserstrahl muß daher präzise fokussiert sein. Die Leistungen der verwendeten Laser liegen dabei im Milliwatt-Bereich, die Curie-Temperaturen hingegen bei einigen hundert Grad Celsius.
Wie auch auf herkömmlichen Datenträgern, werden auf der magneto-optischen Disk zwei verschiedene magnetische Zustände dargestellt: positiv und negativ. Unterschieden werden die beiden Zustände durch die Polarisation bei der Reflexion des energieärmeren Lese-Laserstrahls. Der reflektierte Strahl ist, je nach Ausrichtung des Magneten, polarisiert (man spricht vom sogenannten Kerr-Effekt). Der Informationsinhalt in den Zonen, die nicht durch den Laserstrahl erhitzt werden , bleibt vom Magnetfeld unbetroffen und wird daher nicht verändert.
Bei einer magneto-optischen Disk wird also stets zuerst gelöscht, danach beginnt erst der eigentliche Schreibvorgang. Dies erklärt auch, warum ein Schreibvorgang auf eine magneto-optische Disk wesentlich zeitaufwendiger ist als bei herkömmlichen Datenträgern.
Die magneto-optische Technologie erfordert beim Schreib-/Lesekopf eine komplizierte Optik. Dies wirkt sich natürlich auf Größe und Gewicht des Schreib-/Lesekopfes negativ aus. Ein großer und schwerer Kopf läßt sich nicht so schnell bewegen und beeinträchtigt daher die Zugriffsgeschwindigkeit.
Diese Faktoren erklären, warum die magneto-optischen Laufwerke wesentlich geringere Leistungsdaten in bezug auf Schreib-/Lesevorgänge aufweisen als herkömmliche Festplatten. Magneto-optische Laufwerke können somit als 'Zwitter' zwischen rein optischen Systemen bezeichnet werden.
Die Vorteile von magneto-optischen Disks liegen klar auf der Hand: Im 5 1/4-Zoll-Format können sie zwischen 600MByte und 1GByte an Daten aufnehmen. Die kleineren 3 1/2-Zoll-Disks fassen immerhin 128 MByte Daten. Zudem sind sie im Gegensatz zu Festplatten unempfindlich gegenüber magnetischen Feldern, da sich die magnetische Struktur nur ändern läßt, wenn die notwendige Temperatur an der entsprechenden Stelle anliegt. Sie können daher Datensicherheit auf lange Sicht gewähren. Aber auch andere äußere Einflüsse wie Feuchtigkeit, Hitze oder fahrlässige Handhabung fügen den Disks keinen Schaden zu. Eine Reihe von beschreibbaren Disks sind auf 10 bis 100 Jahre Datensicherheit konzipiert.
Die Einsatzgebiete der magneto-optischen Laufwerke ergeben sich aus ihren Vorteilen. Große Datenmengen stellen für diese Laufwerke kein Problem dar. Wer sich schon einmal an einem Farbscanvorgang mit 24-Bit-Farbtiefe versucht hat, wird sich ein entsprechendes Laufwerk sehnlichst gewünscht haben. Mehrere MByte Daten sind da schnell erreicht und auch die größte Festplatte ist irgendwann zu klein. Aus diesem Grund bieten sich MO-Disks im Bereich der Printmedien als Datenträger geradezu an. Ahnliches gilt für CAD und Grafik. Aber auch als Backup- beziehungsweise Archivierungsmedium bietet sich die MO an. Zudem ist die MO-Disk leicht aus dem Laufwerk zu entnehmen und zu transportieren.
Beim Phasenwechselverfahren (Phase Changa Technology) handelt es sich im eigentlichen Sinne um keine neue Technologie. Neu ist nur das Einsatzgebiet. Bislang wurde dieses Verfahren, das bereits seit Jahrzehnten bekannt ist, hauptsächlich bei professionellen WORM-Laufwerken eingesetzt. Mittlerweile findet es auch bei wiederbeschreibbaren optischen Platten Verwendung. Bei dieser Technologie handelt es sich um ein rein optisches Aufzeichnungsverfahren, das ohne Elektromagneten auskommt. Aufgezeichnet und gelesen werden die Daten durch zwei unterschiedlich starke Laserstrahlen. Zum Schreiben wird die Intensität des Laserstrahls mehr als verzehnfacht.
Zur Verdeutlichung: Die Leistung des Lasers liegt dann ungefähr zwischen 18 bis 20 Milliwatt. Dies genügt, um die entsprechende Schicht bis zum Schmelzpunkt zu erhitzen. Die Stellen, an denen der Schreiblaser auftrifft, ändern ihre Reflexion beim Abtasten durch den Leselaser. Beim Phasenwechselverfahren wird durch Fotozellen zwischen zwei Intensitäten des Lesestrahls differenziert - im Gegensatz zur magneto-optischen Technologie, wo die Polarisation des Lichtes entscheidend ist. Hat die Intensität nach der Reflexion stark abgenommen, so steht dies für den Zustand 1, wird der Laserstrahl ohne Intensitätsverlust reflektiert, beschreibt dies den Zustand 0. Der starke Schreiblaser ändert beim Schreiben durch Erhitzen und rasches Abkühlen die Atomstruktur und damit die Reflexionsfähigkeit des Materials. Dabei macht man sich die Tatsache zunutze, daß einige Materialien mit einem Laserstrahl zwischen einem amorphen und einem kristallinen Zustand hin- und hergeschaltet werden können. Im amorphen Zustand weisen diese Materialien einen deutlich geringeren Reflexionsgrad auf als im kristallinen. Der amorphe Zustand, beziehungsweise der binäre Zustand 1, wird durch die Erhitzung auf den Schmelzpunkt erreicht.
Um die Teilchen wieder in den kristallinen Zustand zu versetzen, genügt es, einen schwächeren Laserstrahl zu verwenden. Die Teilchen werden dann zwar auch erwärmt, aber nicht bis zum Schmelzpunkt gebracht. Aufgrund der durch die zugeführte Wärme gewonnenen Bewegungsfreiheit richten sie sich wieder in kristallinen Strukturen aus. Dies bedeutet, daß an dieser Stelle wieder der Zustand 0 erreicht wird. Die Unterschiede in der Intensität der Reflexion sind dabei wesentlich größer als die Polarisationsunterschiede beim magneto-optischen Verfahren.
Gegenüber dem magneto-optischen Verfahren kann das Phasenwechselverfahren mit einer deutlich schnelleren Geschwindigkeit aufwarten. Dies begründet sich darin, daß vor dem Beschreiben der Platte die darauf vorhandene Information nicht erst gelöscht werden muß. Der optische Datenträger kann bei nur einer Umdrehung beschrieben werden, während bei dem magneto-optischen Verfahren stets derer drei notwendig sind. Dieses optische Laufwerk ist aufgrund der Technologie kostengünstiger herzustellen als ein magneto-optisches Laufwerk. Der Schreib-/Lesekopf ist weniger komplex und weist daher auch ein wesentlich geringeres Gewicht auf. Allein durch Veränderung der Intensität kann mit einem Laser geschrieben und gelesen werden. Ein leichterer Schreib-/Lesekopf verkürzt die Zugriffszeit erheblich, da er wesentlich schneller an die entsprechende Stelle der Platte gefahren werden kann. In bezug auf die Zugriffszeit sind die technischen Möglichkeiten mit Sicherheit noch nicht ausgeschöpft, auch wenn von Laufwerken, die mit dem Phasenwechselverfahren arbeiten, schon Zugriffszeiten erreicht werden, die im Bereich älterer RLL-Festplatten liegen. Denkbar wäre beispielsweise auch eine Erhöhung der Umdrehungszahl. Fortschritte werden in der Verbesserung der Aufzeichnungsdichte erzielt. Erst wenn die Zugriffszeiten mit denen magnetischer Speicher vergleichbar sind, werden beide Verfahren in direkter Konkurrenz zueinander stehen. Hinsichtlich der Kapazität lassen sich bei optischen Speichermedien zwei Aufzeichnungsverfahren unterscheiden. Zum einen findet das CAV-Verfahren (CAV = Constant Angular Velocity) Verwendung. Hierbei bleibt die Drehzahl der Platte konstant. Daher ist die Dichte der Daten in den inneren Bereichen der Platte größer als in den äußeren. Im Gegensatz dazu steht das CLV-Verfahren (CLV = Constant Linear Velocity). Bei diesem Verfahren wird die Fläche der Platte effektiver genutzt. Die Dichte der Informationen ist stets gleich, sowohl auf den äußeren Spuren als auch auf den inneren. Die insgesamt größere Gesamtkapazität wird jedoch durch eine längere Zugriffszeit erkauft, da die Drehzahl der Platte während des Durchlaufs geändert werden muß und eine komplexere Datenorganisation erforderlich ist.
Der Trend geht eindeutig zu wiederbeschreibbaren Opto-Laufwerken. Die Zukunft gehört Kombi-Laufwerken, die sowohl WORMs als auch CDs und Phase-Change-Disks lesen können, welche zudem in der Lage sind, unterschiedliche Datenträger zu beschreiben. Starke Zuwachsraten verzeichnen auch die 'Jukeboxen', die mechanisch mehrere Disks verwalten können. Im Vordergrund stehen bei den Jukeboxen nach wie vor die CD-ROMs.
Auch bei den Materialien und den Herstellungsverfahren wird die Forschung vorangehen, so daß sinkende Preise und höhere Leistungen zu erwarten sind. Die optischen Speichermedien sind jedoch beileibe nicht die einzigen, auf denen die Entwicklung weitergeht. Festplatten werden immer schneller und bieten mehr Speicherkapazität bei sinkender Gerätegröße. Ebenso macht im Bereich der Archivierung die Entwicklung der Bandlaufwerke Fortschritte. Selbst die altbewährte Diskette ist vom Fortschritt nicht ausgeschlossen und wird mit einem Vielfachen der heutigen Speicherkapazität aufwarten können. Die ultimative Technologie wird es daher nicht geben. Der Anwender wird stets nach Einsatzgebiet, zur Verfügung stehenden Mitteln und Speicheranforderungen abwägen müssen, für welche Technologie er sich entscheidet. Dabei wird es eher ein Miteinander als ein Gegeneinander der einzelnen Technologien geben.
Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen