Speichermedien





Speichermedien




1. Magnetische Speichermedien

1.1. Disketten





1.1.1. Die gängigsten Diskettenformate

5¬ľ - Zoll - Disketten:
360 KByte
1,2 MByte

3¬Ĺ - Zoll - Disketten:
720 KByte
1,44 MByte
2,88 MByte

1.1.2. Genormte Leistungsmerkmale der Disketten

Bis in die Details sind die Eigenschaften von Disketten festgelegt, und zwar sowohl in mechanischer und physikalischer Hinsicht als auch, was ihre magnetischen Eigenschaften angeht. Daf√ľr gibt es eine Reihe von Normen. Sie unterscheiden sich nicht wesentlich und erg√§nzen sich in mancher Hinsicht.
Am wichtigsten f√ľr die Diskettenindustrie sind die Regeln der ECMA (European Computer Manufacturers Assosiation).

ECMA - Normen

Der Standart ECMA 70 beschreibt die mechanischen, physikalischen und magnetischen Charakteristika f√ľr Disketten des 5¬ľ - Zoll - Formates mit 40 Spuren pro Seite. Disketten mit 80 Spuren f√ľr das 720 - KByte - und das 1,2 MByte - Format sind in ECMA 78 und 99 festgelegt.
DIN - Normen

Die DIN - Normen bez√ľglich der mechanischen Eigenschaften sind DIN 66247, Teil 1 (Mechanische Eigenschaften), Teil 2 (Elektromegnetische Eigenschaften bei 7 958 Flu√üwechsel/rad) sowie die Erg√§nzungen in Teil 2 A1 (Elektromagnetische Eigenschaften bei 13 262 Flu√üwechsel/rad). Die DIN 66248 mit ihren Teilen 1, 2, 3, 3 A1, 4, 5 und 6 enth√§lt Informationen √ľber Aufzeichnungsverfahren und Formatierung. Auch hier sind zugleich die zugeh√∂rigen Pr√ľfvorschriften festgelegt.
Die Festlegung zur Messung des Transmissionswertes (Lichtdurchlässigkeit) mittels lichtemmitierender Dioden (LED) sind in DIN 66243 Teil 2 veröffentlicht. Angelehnt sind alle diese Vorschriften an die internationalen ISO - Normen (ISO = International Organisation for Standardization). Die einschlägigen Regeln lauten: ISO 6596/1, ISO 7487/1, ISO 8630/1, ISO 8378/1.
Erw√§hnenswert ist noch, dass f√ľr verschiedene Messungen international die Referenzdisketten der deutschen Physikalisch - Technischen Bundesanstalt (PTB) in Braunschweig vorgeschrieben sind.

1.1.3. Die 5¬ľ - Zoll - Diskette

So manche Dinge tragen im Sprachgebrauch andere Namen als unter Fachleuten - man denke nur an den Schraubenzieher, offiziell "Schraubendreher". Bei Disketten ist es nicht anders: Mit geringerer Dichte hei√üen Sie "DD" oder "2D" f√ľr "doppelte Dichte" und tragen auch die Bezeichnung "48 tpi", weil 48 Spuren pro Zoll (tracks per inch) auf ihnen untergebracht werden. Die andere Sorte hei√üt "HD" und "96 tpi" f√ľr hohe Dichte und 96 Spuren pro Zoll. Die Norm allerdings will es ganz anders:
Da die Kantenl√§nge der 5¬ľ - Zoll - Disketten etwa 130 mm betr√§gt, hei√üt sie nach DIN "Diskette E 130" in der einseitig beschreibbaren und "Diskette Z 130" in der zweiseitig beschreibbaren Variante. W√§hrend bei den Disketten mit der Kennzeichnung "E" nur eine Seite (die Seite 0) als beschreibbar deklariert wird, m√ľssen bei zweiseitig beschreibbaren Disketten die Daten auf beiden Seiten - in sogenannter Wechselaktschrift - gespeichert werden k√∂nnen.
Disketten des 360 KByte - Formates haben auf jeder Seite 40 Spuren, bei einer Dichte von 1,9 Spuren/mm. Bei 80 - Track - Disketten sind es 3,8 Spuren pro Millimeter. Bez√ľglich der formatierten Speicherkapazit√§t muss bei letzteren noch zwischen DD - und HD - Disketten unterschieden werden. Diese Einteilung haben jedoch die Disketten nicht von Hause aus; es hadelt sich dabei vielmehr um das Format, das ihnen bei der Formatierung aufgezwungen wird.
Unter "Dichte" ist die Aufzeichnungsdichte zu verstehen. Sie hat also mit der Diskette nur insofern zu tun, dass sich eine Diskette in der deklarierten Dichte beschreiben und lesen lassen muss.

Aufbau

Die 5¬ľ - Zoll - Diskette besteht aus 4 Komponenten, einer Fexieblen Kustoffh√ľlle, die an ihrer innenseite mit einem Reinigungsvlies √ľberzogen ist. Darin befindet sich das Speichermedium, dass in der Mitte durch einen Hub - Ring verst√§rkt ist.
1.1.4. Die 3¬Ĺ - Zoll - Diskette



In ihre Einzelteile zerlegt, bestehen 3¬Ĺ - Zoll - Disketten im wesentlichen nur aus zehn Komponenten. Bei n√§herer Betrachtung finden sich neben dem eigentlichen Speichermedium noch zwei unscheinbare Teile von gro√üer Bedeutung. Sie verbergen sich unter dem Reinigungsvlies: Ein flexibles Plastikst√ľck, der sogenannte Lifter, dr√ľckt permanent gegen die Diskettenscheibe. So wird zum einen die Scheibe bei jeder Undrehung gereinigt, zum anderen das Start - /Laufdrehmoment konstant gehalten.
Andruckstege auf der gegen√ľberliegenden Geh√§useinnenseite stellen zus√§tzlich die Reinigung der zweiten Diskettenseite sicher und stabilisieren dar√ľber hinaus den Lauf der Scheibe. Extreme Temperaturen lassen den kleinen, n√ľtzlichen Helfer seine Elastizit√§t verlieren, das Laufverhalten der Diskette ger√§t aus den Fugen.
1.2. Festplatten




Das Funktionsprinzip einer Festplatte ist nicht schwer zu verstehen, √§hnelt es doch sehr dem von Disketten. Wie bei diesen werden die Bits in magnetische Flu√ürichtungswechsel umgesetzt. Das bedeutet nichts anderes als dass die Magnetpartikel der Oberfl√§che eine andere Polung f√ľr eine "0" einnehmen als f√ľr eine "1".

Allerdings bewegen sich Festplatten in ganz anderen Dimensionen. Im Gegensatz zur Diskette mit ungef√§hr 300 Umdrehungen pro Minute rotiert die Festplatte(n) mit 3600 Umdrehungen, manche Modelle gar mit 5000 und mehr. Dass die Magnetschicht nicht, wie bei herk√∂mmlichen Disketten, auf einem weichen Kunststofftr√§ger aufgebracht werden kann, leuchtet ein: Eine d√ľnne Kunststoffscheibe w√ľrde bei diesen Geschwindigkeiten unweigerlich zu flattern beginnen. Bei Festplatten verwendet man daher Aluminium - oder Glasscheiben als Tr√§germaterial. Um mehr speichern zu k√∂nnen, werden dabei mehrere Scheiben √ľbereinander auf eine gemeinsame Achse montiert. Radial hierzu, √§hnlich wie beim guten alten Plattenspieler, sind an einem beweglichen Arm die Schreib - /Lesek√∂pfe befestigt, und zwar f√ľr jede Plattenoberfl√§che einer (Bild 2).



Eine Ber√ľhrung zwischen Kopf - und Platte, der gef√ľrchtete "Headcrash", w√§re bei dieser hohen Rotationsgeschwindigkeit t√∂dlich: Datenverlust w√§re die Folge, und auch der Kopf k√∂nnte in Mitleidenschaft gezogen werden. Dies verhindert jedoch der sogenannte Bernoulli - Effekt. Bei solch hohen Rotationsgeschwindigkeiten bildet sich zwischen Plattenoberfl√§che und Kopf ein Luftpolster, so dass der Kopf im Abstand von einem Mikrometer (ein Millionstel Meter) auf diesem Polster √ľber der Platte schwebt. So erkl√§rt sich auch die Sto√üempfindlichkeit von Festplatten im Betrieb. Staub, Fingerabdr√ľcke oder gar Haare w√ľrden sich vor dem Schreib - /Lesekopf wie ein Gebirge auft√ľrmen. Um das Eindringen von Staubpartikeln auszuschlie√üen, werden Festplatten in staubfreien R√§umen hergestellt und luftdicht verschlossen oder mit einem feinen Filter vor Staub gesch√ľtzt. Vor jeglichem Transport sollten Festplatten unbedingt "geparkt" werden. Bei diesem Vorgang, der entweder automatisch bei Trennung vom Stromnetz erfolgt (Autopark - Funktion) oder manuell per Programm (meist "Ship" oder "Park") ausgel√∂st werden muss, werden die Schreib - /Lesek√∂pfe in einen Plattenbereich gefahren, der keinerlei Daten enth√§lt. Hier k√∂nnen die K√∂pfe ohne Gefahr auf der Platte landen (die sogenannte "landing zone"). Zus√§tzlich werden die K√∂pfe in dieser Parkposition arretiert, so dass eine Zerst√∂rung bei einigerma√üen pfleglicher Behandlung ausgeschlossen werden kann. Besonders interessant ist die Autopark - Funktion moderner Laufwerke. Vom Netz getrennt, kommt die Platte aufgrund ihrer Schwungmasse erst nach einiger Zeit zum Stillstand. Ein Generator erzeugt aus dieser Restrotation Strom, der benutzt wird, um die K√∂pfe in eine ungef√§hrliche Position zu fahren.

Im Gegensatz zu Diskettenlaufwerken rotieren Festplatten st√§ndig, da es zu lange dauern w√ľrde, sie bei jeder Datenanforderung erneut auf Touren zu bringen. Der Geschwindigkeitsvorteil der Festplatte ginge verloren. Damit w√§ren wir auch schon beim entscheidenden Vorteil von Festplatten: Sie sind schnell. Selbst die ersten Festplattenlaufwerke mit Zugriffszeiten um die 80 ms waren ein gewaltiger Fortschritt. Die mittlere Zugriffszeit liegt bei den Spitzenreitern heute unter 10 ms. Diskettenlaufwerke dagegen weisen eine mittlere Zugriffszeit von 150 bis 200 ms auf, also deutlich mehr. Da die Magnetbeschichtung h√∂herwertig ist und die K√∂pfe sehr viel genauer arbeiten, k√∂nnen Festplatten auch wesentlich mehr Daten aufnehmen. W√§hrend Disketten heute bis zu 2,88 MByte speichern, bereiten auch ein GByte (1 GByte = 1024 MByte) oder mehr keine Probleme. Haushoch gewinnen Sie auch beim Datendurchsatz. Wo Diskettenlaufwerke mit 30 bis 40 KByte pro Sekunde aufwarten k√∂nnen, bringt es selbst eine langsame Festplatte auf 200 KByte pro Sekunde. Der mittlere Bereich liegt dann bei 600 bis 700 KByte pro Sekunde, und ab einem MByte aufw√§rts beginnt die High - end - Klasse, die bis zu 2 MByte pro Sekunde (alle Werte ohne Cache) erreicht.
Von BPI und FCI

Die sogenannte Aufzeichnungsdichte wird in BPI (Bits per Inch = Bits pro Zoll) angegeben. Diese ereicht heute Werte von zikra 40000 BPI. Ein ebenso gebr√§uchliches Ma√ü f√ľr die Aufzeichnungsdichte ist "Flux Changes per Inch" (FCI). √úbersetzt bedeutet das soviel wie "Flu√üwechsel pro Zoll" und gibt an, wie oft die Ausrichtung der Magnetpartikel pro Zoll ge√§ndert werden kann, denn der Abstand "d" zwischen zwei Flu√üwechseln kann eine bestimmte Grenze aus physikalischen Gr√ľnden nicht unterschreiten. Die gegenseitige Beeinflussung zweier nebeneinander liegender Bits w√§re zu gro√ü, eine "Umpolung" und somit ein Datenverlust w√§re nicht ausgeschlossen. Je h√∂her jedoch die Werte BPI beziehungsweise FCI sind, desto mehr Daten lassen sich auf der Festplatte unterbringen.

1.2.1. Datenorganisation

Auf den Magnetoberfl√§chen werden durch die Low - level - Formatierung Datenspuren in Form konzentrischer Ringe eingerichtet. Die Spuren eines Plattenstapels, die genau √ľbereinander liegen, bezeichnet man als Zylinder. Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte. Diese Spurdichte wird in TPI angegeben, das bedeutet Tracks Per Inch, als Spuren pro Zoll.
Da die inneren Spuren einen geringeren Umfang haben als die √§u√üeren, k√∂nnen sie auch weniger speichern. Bei √§lteren Festplatten legt also die innerste und somit auch k√ľrzeste Spur fest, wie viele Sektoren (1 Sektor = 512 Datenbytes) auf allen anderen Spuren untergebracht werden.

Schon bald entwickelte man ein Verfahren, um dieser Platzverschwendung auf den √§u√üeren, l√§ngeren Spuren zu begegnen. Zone - Bit - Recording oder ZBR hie√ü das Zauberwort. Die Platte wird hierzu in mehrere Spurgruppen eingeteilt. Dabei wird f√ľr jede Gruppe die maximale Anzahl von Sektoren pro Spur bestimmt. Je kleiner diese Gruppen sind, desto besser ist die Ausnutzung der Platte. Im Idealfall w√ľrde f√ľr jede Spur der optimale Wert errechnet. Der Rechneraufwand f√ľr den Controller w√ľrde in diesem idealen Fall stark ansteigen, da er bei jedem Zugriff erst berechnen m√ľsste, wie viele Sektoren auf der zu lesenden Spur untergebracht sind. Um den Rechenaufwand gering zu halten, fa√üt man mehrere Spuren zu einer "Zone" zusammen, in der die Sektorenanzahl der Spuren gleich ist. Das Verfahren stellt also einen Kompromi√ü aus Geschwindigkeit und Platzgewinn dar.


Die Abbildung zeigt ein Beispiel f√ľr eine Einteilung. In Zone 2 k√∂nnen dabei die wenigsten Daten gespeichert werden, in Zone 0 die meisten. Die LPS 120AT von Quantum bringt innerhalb ihrer 16 Zonen zwischen 44 (ganz innen) und 87 (ganz au√üen) Sektoren auf jeder Spur unter.
So kommt diese 25,4 mm hohe 3¬Ĺ - Zoll - Festplatte mit nur einer Speicherplatte auf eine beeindruckende Kapazit√§t von 120 MByte. Das Modell LPS 450 des gleichen Herstellers kommt bei identischen √§u√üeren Abmessungen mit f√ľnf Speicherplatten gar auf eine Kapazit√§t von 425 MByte. Es d√ľrfte damit wohl zu den Spitzenreitern in diesem Bereich z√§hlen.

1.2.2. Der Interleave - Faktor

Da die ersten Festplatten im Vergleich zu den damaligen Rechnern zu schnell waren, konnte der Computer die Sektoren nicht direkt hintereinander lesen. W√§hrend er beispielsweise Sektor 1 las und auswertete, war Sektor 2 schon am Kopf vorbei, so dass dieser erst nach einer weiteren Umdrehung gelesen werden konnte. Um diese Verz√∂gerung zu vermeiden (so w√§ren f√ľr die 17 Sektoren einer Spur einer MFM - Platte immerhin 17 Umdrehungen n√∂tig gewesen), dachte man sich einen Trick aus. Zwischen zwei aufeinanderfolgenden logischen Sektoren wird eine L√ľcke eingef√ľgt. In diese L√ľcke kommt dann ein zus√§tzlicher logischer Sektor der Spur. Dieses Verfahren wird "Interleave" (Versatz, verschachtelter Sektorzugriff) genannt. Der sogenannte "Interleave - Faktor" gibt an, wieviele physikalische Sektoren zwischen zwei logischen liegen und somit auch, wieviele Umdrehungen zum kompletten Lesen einer Spur notwendig sind. Bei einem Interleave von 1:3 folgt Sektor 2 erst drei Sektoren nach dem ersten. Zum Einlesen der Spur w√§ren also drei Umdrehungen n√∂tig. Ideal ist nat√ľrlich ein Interleave - Faktor 1:1. Hier folgen die logischen Sektoren unmittelbar aufeinander, und die Spur kann innerhalb einer Umdrehung gelesen werden. Moderne Festplatten/Controller - Kombinationen erreichen diesen Interleave, der eigentlich ja gar keiner mehr ist, m√ľhelos, indem zum Beispiel ein Pufferspeicher (Cache) auf dem Controller untergebracht ist.

1.2.3. Die Rechneranbindung

Die eigentliche Anbindung an den Computer √ľbernimmt wie so oft eine spezielle Steckkarte, der Festplatten - Controller. Kann dieser auch noch Diskettenlaufwerke mitsteuern, so spricht man von einem Kombi - Controller. Dabei gibt es vier verschiedene Arten von Controller - Schnittstellen und somit auch vier verschiedene Festplattenarten:

ST506/412

Dieses Interface wurde nach der ersten Seagate - Festplatte, die diese Schnittstelle verwendete, der ST506 ("ST" = Seagate Technology) benannt. Je nach Aufzeichnungsverfahren werden hierbei Daten√ľbertragungsraten von 5 MBit (MFM) bis zu 7,5 MBit (RLL) pro Sekunde erreicht. In der Praxis liegt der Datendurchsatz etwa zwischen 200 und 600 KByte pro Sekunde. Zu erkennen ist die ST506/412 - Schnittstelle am 20poligen Daten - und am 34poligen Steuerkabel (meistens Flachbandkabel). Da die Daten√ľbertragung seriell erfolgt, liegt der Datendurchsatz recht niedrig. Der Standard - Controller ist der WD1003 von Western Digital, zu dem viele Controller kompatibel sind.
ESDI

Das Enhanced Small Device Interface (ESDI) ist als Weiterentwicklung des ST506/412 zu sehen. Es arbeitet mit den gleichen Kabelverbindungen, und ebenfalls seriell. Die Übertragungsrate liegt hier mit 10 bis 15 MBit pro Sekunde schon deutlich höher. Sowohl ST506/412 als auch ESDI sind PC - spezifische Entwicklungen und erlauben maximal zwei Festplatten gleichzeitig.

SCSI

Die derzeit wohl universellste Schnittstelle ist das 1982 standardisierte Small Computer System Interface. SCSI oder das neue, weiterentwickelte und abw√§rtskompatible SCSI - II ist keine reine Festplattenschnittstelle, auch Scanner, CD - ROM - Laufwerke und vieles mehr kann daran angeschlossen werden. Bis zu sieben Ger√§te (also auch bis zu sieben Festplatten) k√∂nnen beliebig gemischt in einer Reihe angeschlossen werden, wobei das jeweils letzte mit einem Abschlu√üwiderstand versehen werden muss. Da jedes Ger√§t eine eigene Adresse in Form einer Nummer hat, kommen die Daten auch immer beim richtigen an, indem sie von Ger√§t zu Ger√§t witergereicht werden, bis der Adressat erreicht ist. Ein weiterer Vorteil, der f√ľr SCSI spricht, ist die hohe Verarbeitung dieser Schnittstelle, die auch beim Next - Rechner und beim Apple Macintosh anzutreffen ist. Die eigentliche Intelligenz dieser parallelen Schnittstelle besitzt jedoch das jeweilige Ger√§t, nicht der Controller. Im Gegensatz zu ST506/412 steuert nicht der Steckkarten - Controller Vorg√§nge wie beispielsweise Formatieren, sondern der Computer erteilt hier nur den Befehl "formatiere Festplatte", und alles weitere veranlasst der auf dem Ger√§t integrierte Controller, w√§hrend der Computer schon weiterarbeiten kann. Daher nennt man die hier verwendeten Steckkarten statt Controller besser Host - Adapter. Der Host - Adapter nimmt lediglich eine Anpassung der elektrischen Signale zwischen SCSI - Ger√§t und dem ISA/EISA/MCA - Bus des PCs vor.
Im Falle einer Festplatte befindet sich die gesamte Steuerelektronik auf der Platte. Das hat den Vorteil, dass der Hersteller die Verbindung zwischen Festplatte und Controller stark optimieren kann und der Host - Adapter nur noch wenig Einflu√ü auf die Daten√ľbertragungsrate hat. Nachteilig ist jedoch der h√∂hrere Preis von SCSI - Komponenten, da jedes Ger√§t seine eigene Schnittstelle quasi "mitschleppt". Zu erkennen sind SCSI - Festplatten am 50poligen Flachbandkabel, welches bis zu 6 Meter lang sein darf. Die maximale Daten√ľbertragungsrate liegt bei bis zu 4 MByte pro Sekunde, welche in der Praxis aber fast nie erreicht wird. Der derzeit wohl meistverbreitete SCSI - Host - Adapter stammt von der amerikanischen Firma Adaptec, hei√üt 1542B (Kombi - Controller) und kostet um die 500 Mark. SCSI - Produkte sind aufgrund ihrer enormen Leistungsf√§higkeit und dem damit verbundenen h√∂heren Preis bis jetzt eher den Profis vorbehalten. Nicht verschwiegen werden sollte auch der h√∂here Installationsaufwand bei SCSI. Oft sind weitere Treiber erforderlich, die eventuell Inkompatibilit√§t hervorrufen k√∂nnen, oder es m√ľssen die bereits erw√§hnten Abschlu√üwiderst√§nde angebracht werden. Auch eine √Ąnderung der Ger√§tereihenfolge kann Probleme mit sich bringen, ganz im Gegensatz zur eigentlichen SCSI - Spezifikation. SCSI sollte also nicht unbedingt von Einsteigern installiert werden, sondern geh√∂rt in schon etwas erfahrene, wenn nicht sogar in Profi - H√§nde. Dies ergibt sich allerdings durch den bereits erw√§hnten recht hohen Preis fast automatisch.IDE (auch AT - Bus genannt)

Furore macht in letzter Zeit die bisher neueste Schnittstelle, das Integrated Device Electronics IDE, welches oft auch als AT - Bus - Schnittstelle bezeichnet wird. Letztere Bezeichnung r√ľhrt daher, a√ü diese Technologie wirklich erst AT - Besitzern (also ab 80286) zug√§nglich ist, da die Schnittstelle auf dem 16 Bit breiten Bus des AT aufbaut. Keine Regel jedoch ohne Ausnahme: Es gibt seit kurzem auch IDE - Adapter f√ľr PCs mit 8086/88 - Prozessor, allerdings geht hier einiges an Geschwindigkeit verloren. Wie auch SCSI arbeitet IDE parallel, und auch hier ben√∂tigt man einen Host - Adapter. Die eigentliche Intelligenz, der Controller, ist wieder auf der Festplatte selbst integriert (daher auch der Name) und l√§sst sich somit optimal auf das jeweilige Laufwerk abstimmen. IDE eignet sich allerdings nur zum Anschlu√ü von Festplatten (neuerdings auch Streamern), und auch hier ist die Anzahl auf zwei (mit teueren IDE - Adaptern bis zu vier) Platten beschr√§nkt.
Der gro√üe Vorteil ist der wesentlich g√ľnstigere Preis gegen√ľber SCSI bei durchaus vergleichbarer Geschwindigkeit (an die 2 MByte pro Sekunde k√∂nnen erreicht werden, durchschnittlich ist es ungef√§hr 1 MByte pro Sekunde). Doch nicht nur die Platten sind wesentlich g√ľnstiger: Ein IDE - Host - Adapter mit Disketten - Controller kostet nur etwa 200 Schilling, auch Modelle mit bereits integrierten seriellen und parallelen Schnittstellen nicht wesentlich teurer.

Abschließend kann man sagen, dass die Zukunft SCSI und IDE gehören wird. ST506/412 - Festplatten werden vom Markt verschwinden, und auch ESDI wir aufgrund des hohen Preises Schwierigkeiten haben, sich gegen die Standards IDE und SCSI zu behaupten.

1.2.4. Aufzeichnungsverfahren

Doch wie werden die Bits und Bytes in magnetische Form gebracht? Die 0 - und 1 - Informationen werden auf verschiedene Codierungsarten in verschieden gerichtete Magnetpartikel umgesetzt. Die Ausrichtung links/rechts k√∂nnte dabei beispielsweise dem magnetischen Nord - /S√ľdpol entsprechen. Der Schreib - /Lesekopf besitzt dazu eine Spule. Wird diese Spule von Strom durchflossen, so bildet sich ein je nach Stromrichtung anders ausgerichtetes Magnetfeld, welches die Plattenoberfl√§che entsprechend magnetisiert. Da auch Festplatten nie hunderprozentig gleich laufen, m√ľssen zus√§tzlich zu den Daten sogenannte Taktinformationen gespeichert werden. Diese sichern, dass immer mit gleicher Geschwindigkeit gelesen und geschrieben wird, indem etwaige Abweichungen durch eine √Ąnderung der Dreh - zahl korrigiert werden (man stelle sich nur das Chaos vor, wenn jeder Sektor unterschiedlich lang w√§re). Werden die Taktinformationen, mit den zu speichernden Daten verkn√ľpft, auf jeder Plattenoberfl√§che gespeichert, so spricht man von einem "Embedded Sector Servo", dass hei√üt, die Informationen f√ľr den Gleichlauf der Festplatte sind in die Datensektoren eingebettet. Man kann jedoch eine Oberfl√§che des Plattenstapels ausschlie√ülich f√ľr diese Taktinformationen verwenden, w√§hrend alle anderen nur f√ľr Daten genutzt werden.
Erstere Methode eleganter und wird auch meist vorgezogen. W√ľrden sich st√§ndig 0 - und 1 - Bits abwechseln, so k√∂nnte man auf einen separaten Takt verzichten und beispielsweise die 1 zur Synchronisation verwenden. Probleme bereiten dabei aber l√§ngere Folgen von gleichen Bits (zum Beispiel 000 oder 111111). Diese sogenannten L√§ufe englisch Runs) stellen besonders hohe Anforderungen an den Gleichlauf. Die beschriebenen Codierungsarten verwenden hier unterschiedliche Methoden, um nicht aus dem Takt zu geraten.

NRZ - Verfahren

Am Anfang war das NRZ - Verfahren (NRZ = Non Return to Zero). Hierbei wird die Magnetisierung nur gewechselt, wenn auch bei den Datenbits ein Wechsel von 0 nach 1 oder umgekehrt erfolgt (Bild 4). Folgen mehrere gleiche Bits, bleibt der Schreibstrompegel bestehen. Bei aufeinanderfolgenden 1 - Bits bleibt der Schreibstrom konstant auf high (1), ohne zwischendurch zu low (0) zur√ľckkehren, was dem Verfahren seinen Namen gab. Die Pegel des Schreibstroms entsprechen exakt dem Verlauf des digitalen Datensignals, also den zu speichernden Bits. Leider hat dieses an sich sehr einfache Verfahren einen gro√üen Nachteil: Da beliebig lange 0 - beziehungsweise 1 - L√§ufe auftreten k√∂nnen, sind die Gleichlauf - Anforderungen besonders hoch, schlie√ülich enth√§lt die zu schreibende Bitfolge keinerlei Taktinformationen (also kein Embedded Sector Servo). Die Taktsignale m√ľssen daher auf einer separaten Oberfl√§che des Plattenstapels untergebracht werden, die somit f√ľr Daten blockiert ist.



FM - Verfahren

Das Frequenzmodulationsverfahren FM (Frequency Modulation) integierte erstmals die Taktinformationen. Die Datenbits werden hierzu in eine FM - Bitfolge umgesetzt, da ja der Takt hinzugef√ľgt werden muss. Dabei wird aus einer 1 Die Bitfolge 11 und aus einer 0 die Folge 10. Die erste Ziffer dient dabei als Taktinformation, und die zweite stellt das jeweilige Datenbit dar. Der Verlauf der Schreibstromkurve in Bild 6 l√§sst sich nun wie folgt beschreiben: Enth√§lt eine Bitzelle (eine Bitzelle enth√§lt ein Datenbit und eventuell Taktinformationen) die FM - Bitfolge "10", so bedeutet dies "Schreibstrom halten". Die Bitfolge "11" bedeutet demnach "Schreibstrom wechseln", un der Schreibstrompegel wird innerhalb der Bitzelle gewechselt. Die erste Ziffer gibt also den Schreibstrompegel zu Beginn der Bitzelle an, und die zweite den Pegel am Ende (jeweils an der gestrichelten Linie). Wie in Bild 5 zu sehen ist, entstehen dabei viele kleine verschiedene magnetisierte Bereiche. Da der Abstand "d" zwischen zwei Flu√üwechseln nicht beliebig klein sein kann, ist der Schreibdichte eine deutliche Grenze gesetzt. Zus√§tzlich ist dieses Verfahren relativ platzintensiv, da in jeder Bitzelle Taktinformationen gespeichert sind. Aufgrund dieser Tatsache bezeichnet man die FM - Codierung oft auch als Single - Density - Format, also als Format mit einfacher Schreibdichte.




MFM - Verfahren

Die Weiterentwicklung des FM - Verfahrens ließ nicht lange auf sich warten. Das modifizierte Frequenzmodulationsverfahren MFM (Modified Frequency Modulation) brachte eine Ver - dopplung der Speicherkapazität. Der Takt wird hier nur in einer Bitzelle gespeichert, wenn die Zelle selbst und die vorhergehende keine 1 enthalten. Aus einem 1 - Datenbit wird somit die MFM - Folge 01, und aus einer 0 die Folge 00. Ging dieser Bitzelle allerdings schon eine Zelle mit 00 voran, so wird aus dem zweiten 0 - Datenbit eine 10, um den Lesetakt stabil zu halten. Vor jeder 1 der MFM - Bitfolge erfolgt nun ein Wechsel des Schreibstromsignals.
Die verschiedenen Magnetisierungszonen werden deutlich weniger und insgesamt größer (Bild 6). Während das FM - Verfahren zwölf Flußwechsel zur Codierung der Bitfolge des Beispiels verwendet, benötigt das MFM - Verfahren nur noch sechs Flußwechsel, was die oben angesprochene Kapazitätsverdopplung bestätigt. Besonders die ersten ST506/412 - Festplatten verwenden diese Aufzeichnungsmethode, bei der jeweils 17 Sektoren auf einer Spur unter - gebracht werden. Da die Geschwindigkeit des Verfahrens nicht allzu hoch ist, entwickelten die Hersteller ein weiteres.




RLL - Verfahren

Ziel des RLL - Verfahrens ist es, die L√§nge der "0" - L√§ufe zu begrenzen. RLL steht f√ľr Run - Length - Limited, das bedeutet Laufl√§ngenbegrenzung. Beim hier betrachteten RLL - (2,7) - Ver - fahren liegen zwischen zwei 1 - Bits mindestens zwei und h√∂chstens sieben 0 - Bits. Neuartig an diesem Verfahren ist, dass erstmals auch die auf das zu codierende Datenbit folgenden Bits der sogenannte Kontext, beim eigentlichen Codierungsverfahren ber√ľcksichtigt werden. Die Tabelle zeigt, wie aus den Datenbits die RLL - Bitfolge entsteht.



Die in Bild 7 dargestellte Bitfolge wird demnach in drei Schritten √ľbersetzt. Aus 11 wird im RLL - Code 0100, und aus den beiden folgenden 010 wird jeweils 001000. Die Datenbits 11010010 sind also zur RLL - Bitfolge 0100001000001000 geworden, aus urspr√ľnglich 8 Bit werden nun 16. Auff√§llig sind allerdings die recht zahlreich vertretenen 0 - Bits. Der Schreibstrom wechselt, wie schon bei MFM, vor jedem 1 - Bit der RLL - Folge. Es entstehen vier Magnetisierungszellen. Zun√§chst erscheint es paradox, dass RLL Platz sparen soll, sind doch aus 8 auf einmal 16 Bit geworden. Noch einmal soll wiederholt werden, dass die Flu√üwechsel in der Magnetschicht einen bestimmten Abstand nicht unterschreiten k√∂nnen. Nun folgt der eigentliche Trick: Da beim RLL - (2,7) - Verfahren auf ein 1 - Bit wenigstens zwei 0 - Bits folgen l√§sst sich die Aufzeichnungsdichte dadurch steigern, dass man die Bitfolge "001" auf dem kleinsten St√ľck aufzeichnet. Geht man also von Datenbits aus, so kann man 1,5 dieser Datenbits auf dem minimalen St√ľck unterbringen, statt wie sonst nur 1 Datenbit. Somit erkl√§rt sich der 50prozentige Platzgewinn von RLL - (2,7) gegen√ľber der MFM - Codierung. Angewendet wird dieses Verfahren zum Beispiel bei neueren ST506/412 - Platten und auch bei den neuen IDE - Modellen. Man sollte sich allerdings nicht √ľber Angaben wie RLL - (1,7) wundern, denn hierbei handelt es sich nur um eine Abwandlung des hier beschriebenen RLL - (2,7) - Verfahren, bei dem auf ein 1 - Bit wenigstens eine 0 folgt, anstatt mindestens zwei.

Bit Kontext RLL - (2,7) - Code
1 0 10 00
1 1 01 00
0 00 10 0100
0 10 00 1000
0 11 00 0100
0 010 00 001000
0 011 00 100100


1.2.5. Fehlerkorrekturen

Auch Festplatten sind nicht gegen Fehler gefeit. Um diese zu erkennen, wird zu den gespeicherten Daten eine Pr√ľfsumme gebildet, die mitgespeichert wird. Werden diese Daten nun gelesen, wird wieder eine Pr√ľfsumme gebildet und mit der auf der Platte verglichen. Stimmen beide √ľberein, so ist mit sehr gro√üer Wahrscheinlichkeit alles in Ordnung. Andernfalls meldet die Festplatte dem Controller einen Fehler. Dieser gibt dann den Befehl, den ganzenVorgang zu wiederholen, denn schlie√ülich k√∂nnte auch der Kopf ein wenig verrutscht sein (Seek Error). In der Regel ist danach das Problem behoben, und man spricht von einem "Soft Error", also einem "weichen" Fehler. Im Fall, dass mehrere Versuche fehlschlagen, handelt es sich um einen "Hard Error". Wahrscheinlich ist dann an dieser Stelle der Platte die Magnetschicht besch√§digt, und die Daten sind leider verloren. Festplatten haben √ľbrigens ab Werk bereits solche Oberfl√§chenfehler, die aber auf der Geh√§useoberseite aufgedruckt sind. Diese defekten Sektoren m√ľssen bei der Low - Level - Formatierung angegeben werden, damit sie von vornherein nicht mit Daten belegt werden.
Zwischen 0 und 20 solcher defekten Sektoren sind durchaus die Regel und kein Anlass zur Panik. IDE - Festplatten (die im √ľbrigen nur mit dem DOS - Befehl "format" formatiert werden d√ľrfen) haben sogar pro Spur einen oder mehrere Reserve - Sektoren, die in solchen F√§llen dann statt der defekten benutzt werden.

1.2.6. Geschwindigkeit

Ein sehr wichtiges Beurteilungskriterium ist neben Aufzeichnungs - und Speicherdichte die mittlere Zugriffszeit einer Festplatte. Diese wird in Millisekunden (ms) angegeben und setzt sich aus der Einstell - und der Latenzzeit zusammen. Die Einstellzeit gibt an, wie lange der Schreib - /Lesekopf ben√∂tigt, um zur angeforderten Spur zu fahren. Die Latenzzeit gibt an, wieviel Zeit dann noch vergeht, bis der angeforderte Sektor unter dem Kopf angelangt ist (die Platte rotiert ja dauernd, und somit ist der gesuchte Sektor mit hoher Wahrscheinlichkeit nicht gerade unter dem Schreib - /Lesekopf). Die Hersteller versuchen, diese Zugriffszeit st√§ndig zu verringern. Dies kann einmal durch schnellere Bewegung der K√∂pfe erreicht werden, die dann an der Spur angekommen, aufgrund der h√∂heren Geschwindigkeit st√§rker abgebremst werden und deshalb l√§nger brauchen, sich zu "beruhigen", also auszuschwingen. Man versucht in diesem Fall, die sogenannte "settling time" gering zu halten, damit diese Kopfberuhigungs - Phase nicht den Geschwindigkeitszuwachs zunichte macht die Latenzzeit kann durch eine h√∂here Drehzahl der Festplatte verringert werden, denn je schneller sich die Platte dreht, desto eher ist der angeforderte Sektor am Schreib - /Lesekopf angelangt. Ein weiterer angenehmer Effekt dieser Drehzahlerh√∂hung ist der gesteigerte Datendurchsatz, denn die Spur wird in wesentlich k√ľrzerer Zeit eingelesen (Ingerleave 1:1 vorausgesetzt).
Eine neue Methode ist, einen zweiten Arm mit Schreib - /Lesek√∂pfen diagonal gegen√ľber dem bereits vorhandenen anzuordnen. Bei diesem von der Firma Conner entwickelten Verfahren wird jeweils der Arm mit Schreib - /Lesek√∂pfen bewegt, der der angeforderten Spur am n√§chsten ist. Weiterhin arbeiten die Arme v√∂llig unabh√§ngig voneinander, also kann ein Arm Leseoperationen ausf√ľhren, w√§hrend der andere gerade Daten auf die Festplatte schreibt. Hierzu muss eine Menge Daten kurzzeitig zwischengespeichert werden, bis sie auf die Platte beziehungsweise bis sie an den Rechner weitergegeben werden k√∂nnen.
Im Vergleich zum Prozessor sind RAM - Bausteine zwar langsam, aber den Vergleich mit Festplatten gewinnen sie haushoch. Was liegt also n√§her als Daten, die man √∂fter ben√∂tigt, nach einmaligem Lesen von der Platte in einem solchen Zwischenspeicher abzulegen, damit sie im Wiederholungsfall aus dem schnellen RAM gelesen werden k√∂nnen? Gew√§hrleistetwird dies erst durch die Lokalit√§tseigenschaft von Programmen, welche besagt, dass gerade ben√∂tigte Programmteile mit sehr hoher Wahrscheinlichkeit beim n√§chsten Lesezugriff noch einmal ben√∂tigt werden. Man versucht sogar vorauszuahnen, welche Daten der Computer als n√§chstes anfordern k√∂nnte (look - ahead - cache). Da hierbei die Anzahl der Treffer die der Fehlschl√§ge aufgrund ausgefeilter Algorithmen √ľbersteigt, bringen Cache - Speicher einen nicht zu verachtenden Geschwindigkeitszuwachs sowohl beim Zugriff als auch beim Datendurchsatz. Auf modernen Festplatten befindet sich in der Regel bereits ein integrierter Cache von 32 bis 512 KByte Gr√∂√üe, der in mehrere Segmente unterteilt ist und s√§mtliche Lesezugriffe (neuerdings auch Schreibzugriffe) puffert. Die teuerste L√∂sung im Bereich Festplatten - Cache ist nach wie vor der Cache - Controller (bei IDE und SCSI nat√ľrlich richtiger: Host - Adapter). Es handelt sich hier, √§hnlich wie beim Prozessor - oder RAM - Cache vieler 386er und 486er, um einen Cache auf Hardwarebasis, der vollkommen softwaretransparent arbeitet, also von der Software gar nicht bemerkt wird. Die meisten dieser Controller besitzen einen eigenen Prozessor, der den gesamten Datentransfer von und zur Platte √ľbernimmt.
Dabei kann er auf einen Cache von 512 KByte bis zu 16 MByte zugreifen. Der auf den Steckkarten integrierte Prozessor nimmt der CPU s√§mtliche Arbeit ab, indem er direkt auf den rechnereigenen Speicher zugreift. Dies kann allerdings Probleme mit sich bringen, wenn Daten in Cache und Arbeitsspeicher nicht √ľbereinstimmen, die sogenannte Datenkonsistenz nicht gew√§hrleistet ist. Je gr√∂√üer der Cache, desto gr√∂√üer der Schaden bei einem Stromausfall.

G√ľnstiger und oft auch schneller sind Cache - Programme. Die reinen Software - L√∂sungen benutzen einen Teil des Arbeitsspeichers f√ľr ihre Zwecke. Obwohl bei Cache - Programmen wieder die CPU des Rechners das Kommando √ľbernehmen muss, ist diese L√∂sung oft schneller als die oben beschriebenen Cache - Controller mit eigenem Prozessor. Der Grund hierf√ľr ist recht simpel. Zwar geht bei einem Software - Cache Rechenzeit f√ľr diesen Vorgang verloren, aber die Cache - Controller m√ľssen Daten √ľber den I/O - Bus transportieren. Leider ist der Bus aber nur mit 8 MHz getaktet (selten bis zu 12 MHz), w√§hrend auf den Arbeitsspeicher mit voller Taktfrequenz des Prozessors zugegriffen werden kann. Zudem haben die Cache - Programme im Falle von Inkompatibilit√§t den Vorteil, dass sie problemlos abschaltbar sind, ganz zu schweigen vom niedrigeren Preis. Man ben√∂tigt lediglich etwas zus√§tzlichen RAM und eines dieser Programme. Die Preise f√ľr RAM - Bausteine sinken st√§ndig, und viele bekannte Cache - Programme entstammen dem Sharewarebereich (so zum Beispiel Hyperdisk).
Au√üerdem wird seit MS - DOS 5.0 der Microsoft - eigene Cache Smartdrive mitgeliefert, der auch optimal mit Windows zusammenarbeitet. Alles in allem ist dies die geeignete L√∂sung f√ľr Heimanwender: schnell und preisg√ľnstig.

1.2.7. Die Zukunft der Festplatte

Festplatten werden in Zukunft noch mehr Speicherplatz haben, noch kleiner werden, und vielleicht noch schneller werden. Die ersten Schritte dazu sind schon getan:

Die neue Produktlinie von Seagate, die im 2. Quartal 94 ausgeliefert wird, umfa√üt eine Festplatte mit dem Namen Elite 9. Diese 5¬ľ" - Festplatte in voller Bauh√∂he, kann immerhin 9 GByte Daten speichern und wird um 3400 Dollar erh√§ltlich sein. Sie dreht sich mit 5400 Umdrehungen in der Minute, hat eine durchschnittliche Suchzeit von 11 ms und eine Mean - Time - Between - Failure - Zeit von 500.000 Stunden.

Eine weiter zukunftweisende Technologie ist die Entwicklung des 32g schweren, 1,3" Laufwerks von Hewlett Packard namens Kittyhawk. Diese Festplatte ist nicht wesentlich gr√∂√üer als ein 5 - Mark - St√ľck und kann immerhin 42 MB speichern. Diese Festplatte ist vor allem f√ľr PDAs (Personal Digital Assistent) und Notebooks konzipiert worden, da sie au√üer ihrer geringen Au√üma√üe auch eine ungew√∂hnlich hohe Sto√üfestigkeit besitzt.
Notiz: 60 Kittyhawks passen in ein 5¬ľ" - Laufwerk, und k√∂nnten somit als Disk - Array - System die Datensicherheit in Netzwerkservern erh√∂hen.
Die neueste Technologie: Nasse Scheiben

Auch wenn einem der Abstand zwischen Schreib - /Lesekopf und Platte mit lediglich 1 Mikrometer sehr gering erscheint, den Festplattentechnikern ist auch dieser Spalt noch viel zu gro√ü. Denn je n√§her der Kopf √ľber der Platte schwebt, desto h√∂her wird die erzielbare Dichte. Dabei bedeutet halber Abstand die vierfache Informationsdichte.
Die Firma Conner scheint diesem Wunschtraum nun ein ganzes St√ľck n√§her gekommen zu sein. Statt auf einem Luftpolster ruht bei diesem patentierten Verfahren der Schreib - /Lesekopf auf einem d√ľnnen Fl√ľssigkeitsfilm (Liquid Disk). Dies bringt zwei entscheidende Vorteile: Zum einem ist der Fl√ľssigkeitsfilm wesentlich d√ľnner als das Luftpolster, was zu einer erheblichen Steigerung der Plattenkapazit√§t f√ľhrt, zum anderen wirkt das √Ėl zwischen Kopf und Platte wie ein Puffer, der deren zerst√∂rerisches Zusammentreffen (Headcrash verhindert. Bisher funktioniert dieses System nur bei extem kleinen Festplattenformaten, da bei gr√∂√üeren Scheiben die hohe Umdrehungsgeschwindigkeit an den Au√üenbereichen der Platte den Schmierfilm zum Rei√üen bringen w√ľrde.
Das Know - how stammt von einer Firma f√ľr Spezialschmierstoffe, die Conner kurzerhand aufgekauft hat. Wann derartige Platten auf dem Markt zu erwarten sind, lie√ü Conner noch nicht durchblicken.

1.3. Streamer


1.3.1. Grundlagen der Streamer - Technologie
Ab einer Festplattenkapazit√§t von 80 MByte ist der Einsatz von Disketten f√ľr Backups aus Zeitgr√ľnden einfach nicht mehr sinnvoll. Der Anwender wird vielmehr die Anschaffung eines Streamers in Erw√§gung ziehen. Aber wie funktioniert so ein Ger√§t eigentlich? Wie zuverl√§ssig arbeiten Bandlaufwerke? Welche Unterschiede gibt es in dieser Technologie?Aufgrund stetig sinkender Preise werden Streamer auch im privaten Bereich interessant. Das Wort "Streamer" kommt aus dem Englischen und bedeutet schlicht und einfach "Band".Die Vorteile der 3,5 - oder 5,25 - Zoll - Mini - Bandlaufwerke (so die korrekte Bezeichnung) gegen√ľber Disketten beispielsweise lassen sich an einer ganzen Reihe von Faktoren belegen: Streamer sind angesichts der gebotenen Leistung und der Zuverl√§ssigkeit preisg√ľnstig und verwenden B√§nder, die f√ľr den professionellen EDV - Markt entwickelt wurden und daher einem sehr hohen Qualit√§tsstandard entsprechen. Streamer - Laufwerke im DC2000 - Format k√∂nnen sogar √ľber den ohnehin in jedem Pc vorhandenen Disketten - Controller angesteuert werden und ben√∂tigen dann nur die mitgelieferte Steuer - Software und ein Band ("Tape") zum Betrieb. Weitere Controller in Form von Zusatzkarten sind nicht notwendig. Au√üerdem k√∂nnen DC - 2000 - Streamer mit wenigen Handgriffen aus einem PC aus - und in einen anderen eingebaut werden. Streamer sind etwa genauso schnell wie ein Diskettenlaufwerk, k√∂nnen aber wesentlich mehr Daten speichern.Die Laufwerke vom Typ DC600A hingegen ben√∂tigen zwar einen eigenen Controller, sind aber mit einer Daten√ľbertragungsrate von 90 KByte pro Sekunde deutlich schneller als die DC2000 - Streamer (etwa 60 KByte pro Sekunde).Galt vor einigen Jahren eine Kapazit√§t von 40 MByte pro Band noch als echte Errungenschaft, so k√∂nnen Streamer mit heute aktueller Technologie bereits zigfache Datenmengen aufnehmen. Der eigentliche Streamer ist heute sowohl als externes als auch als internes Ger√§t erh√§ltlich.Der prinzipielle Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsger√§ten wie zum Beispiel einem Stereokassettenrekorder. Ein Motor bewegt das Magnetband innerhalb der Datenkassette ("Cartridge") - an einem Schreib - /Lesekopf vorbei - vorw√§rts. Entscheidender Unterschied zu anderen Aufzeichnungsger√§ten ist, dass der Kopf nicht starr installiert ist, sondern mehrere Spuren ("Tracks") nebeneinander mit den seriell aufgezeichneten Daten beschreiben kann.Auf einem Streamer - Band befinden sich mehrere Aufzeichnungsspuren nebeneinanderAuch bei der mitgelieferten Software gibt es Unterschiede. Durch die mitgelieferte Software kann der Anwender per Men√ľ zwischen verschiedenen Arten der Datensicherung w√§hlen. So ist es m√∂glich, nach einem bestimmten Datum angelegte Dateien oder alle Dateien an denen innerhalb der letzten Woche √Ąnderungen vorgenommen wurden, zu sichern. Ebenso ist ein sogenanntes "File - Backup" durchf√ľhrbar, bei dem wiederum einzelne Dateien oder gesamte Verzeichnisseselektiv auf Band gespeichert werden k√∂nnen. Das "Image - Backup" hingegen l√§sst die Sicherungen Sektor f√ľr Sektor ablaufen, wodurch eine Eins - zu - eins - Kopie der Festplatte angefertigt wird. Um beispielsweise nach B√ľroschlu√ü eine automatische Datensicherung vorzunehmen, wird zus√§tzlich ein "Clock - Verfahren" angeboten, bei dem der Streamer zum angegebenen Zeitpunkt mit der Sicherung beginnt, ohne dass der Anwender diese Aktion speziell starten m√ľsste.Zur Schonung des Bandes versuchen die Streamer - Hersteller unter anderem, mechanische Belastungen beim Weitertransport weitestgehend zu vermeiden. Im Gegensatz zu gro√üen Computerb√§ndern und anderen Datentr√§gern wird der physikalische Antriebsmechanismus bei Datenkassetten durch einen speziellen Antriebsriemen realisiert, der sich im Inneren der Kassette befindet. So verwendet der Cartridge - Hersteller DEI einen texturierten Equithan - Riemen, der eine optimale Rutschfestigkeit zwischen Riemen und Band gew√§hrleistet und dadurch die Bandspannung erheblich verbessert. √úber die Antriebsrolle wird nun nicht etwa das Band vorw√§rtsbewegt, sondern der Riemen. Dieser wiederum wird in der Kassette so √ľber mehrere Rollen gef√ľhrt, dass er an den Spulen auf das Magnetband dr√ľckt und es dadurch weitertransportiert. Durch eine solche Technik werden Bandsch√§den und die M√∂glichkeit eines Bandrisses erheblich vermindert, da mechanische Einwirkungen durch den elastischen Riemen weitgehend abgefangen werden.Ausgefeilte Fehlerkorrekturmethoden beugen einem eventuellen Datenverlust vorDas so verbesserte "Bandspannungsprofil" gew√§hrleistet bei den genannten DEI - Cartridges einen optimalen Kontakt zwischen Band und Kopf und sorgt so f√ľr eine bessere Datenaufzeichnung. Die von DEI verwendeten Bandmaterialien ("plattierte Partikeldatentr√§ger") verursachen rein rechnerisch nur halb so viele Fehler ("Drop - Outs") wie √§ltere Kassetten und weisen so gute Laufeigenschaften auf, dass die Verschlei√üerscheinungen des Schreib - /Lesekopfes dreimal geringer sind.Nat√ľrlich steht gerade bei Streamern die Datensicherheit im Mittelpunkt des Interesses, denn eben aus diesem Grund werden sie h√§ufig der Backup - Methode per Diskette vorgezogen. Welche Verfahren sind also bei Streamern zum "Katastrophenschutz" im Einsatz?Eine M√∂glichkeit besteht in der zyklischen Redundanzpr√ľfung ("CRC", "Cycling Redundancy Check"), wie sie bereits bei Disketten - Controllern eingesetzt wird. Im Fehlerfall erkennt das Laufwerk anhand der CRC - Pr√ľfsumme, dass der betreffende Sektor noch einmal gelesen werden muss. In den meisten F√§llen ist die defekte Position jedoch √ľberhaupt nicht mehr lesbar, und die Daten sind somit unwiderruflich verloren.Bei Lesefehlern lassen sich die Daten √ľber mathematische Berechnungen aus den Pr√ľfsummen rekonstruieren.F√ľr Magnetbandkassetten wurden deshalb verschiedene Verfahren entwickelt, bei denen das Laufwerk in einem getrennten Sektor oder Block weitere Redundanz - und Pr√ľfsummen speichert. Am sichersten w√§re es wohl, die Daten eines Sektors einfach zweimal hintereinander zu speichern. Wenn ein Sektor nicht mehr lesbar ist, existiert somit eine st√§ndige Kopie. Nachteile dieses Verfahrens sind der offensichtliche Zeitverlust bei der Daten√ľbertragung sowie der gro√üe Platzbedarf auf dem Band. Trotz aller Qualit√§tssicherung beim Bandmaterial wird allgemein akzeptiert, dass Fehler in der Oberfl√§che eines magnetischen Speichermediums auftreten k√∂nnen. Da heute immer mehr Daten auf einenQuadratzentimeter gepackt werden, um die Kapazit√§t zu erh√∂hen, k√∂nnen sich bereits kleine Oberfl√§chenfehler entsprechend kritisch auf gro√üe Datenmengen auswirken. Bei Fehlern, die nach Aufzeichnung der Daten durch unsachgem√§√üe Lagerung oder √§u√üere Einfl√ľsse (W√§rme, Fl√ľssigkeiten, Magnetismus) entstehen, hilft die nur auf Redundanz beruhende ECC - Methode ("Error Correction Code") nicht weiter. Auch das h√§ufig angewendete "Read - after - write - Verfahren", das zwar durch eine Lese√ľberpr√ľfung nach jedem Schreiborgang eine richtige Daten√ľbertrage sicherstellt, kann sp√§teren Besch√§digungen der Bandoberfl√§che trotz eine technisch aufwendigen, doppelten Kopfes nicht den Schrecken nehmen.Auf der Suche nach mathematischen ECC - Methoden wurde eine Vielzahl von Standards f√ľr die unterschiedlichsten Bandformate durch das ameikanische Komitee "QIC" normiert. So besteht beim QIC - 100 - Standard f√ľr DC600A - und DC2000 - Datenkassetten ein 8192 Byte gro√üe Datenblock aus zwei 4KByte - Bl√∂cken, denen jeweils ein kompletter 4 - KByte - Block mit ECC - Bytes folg. Um den ECC noch sicherer zu machen, werden beim QIC - 100 die Bl√∂cke verschoben ("interleaved") aufgezeichnet, wodurch sichergestellt wird, dass auch gr√∂√üere Fehlerstellen im Band keine Probleme bereiten.Der vom Streamer - Marktf√ľhrer Irwin gesetzte Standard l√§uft bei QIC unter der eigenen Bezeichnung QIC - 86 - 4. Das Unternehmen konnte fr√ľher als alle anderen Hersteller ein patentiertes Servo - Positionierungsverfahren f√ľr den Schreib - /Lesekopf anbieten, das eine wesentlich h√∂here Genauigkeit und auch die Austauschbarkeit der Datenkassetten zwischen verschiedenen Ger√§ten garantierte.Das von Irwin eingesetzte Verfahren kann einzelne Fehler auf dem Band korrigieren, auch ohne dass auf dem Datentr√§ger viel Platz f√ľr die Redundanzdaten des ECC ben√∂tigt wird.Aber noch weiter Vorteile bietet das Irwin - Verfahren: Die Information bez√ľglich des Codes wird nur dann benutzt, wenn bei der R√ľck√ľbertragung zur Platte tats√§chlich Fehler zu korrigieren sind. Ist ein Datensektor fehlerfrei, geht auch keine Zeit f√ľr die ECC - Berechnung verloren. Weil Irwin das Band wie eine Festplatte ansteuert, werden durch das Formatieren von vornherein fehlerhafte Bandstellen ausgesondert und im Inhaltsverzeichnis festgehalten. Daher k√∂nnen die Datensektoren auf dem Band sinnvollerweise immer dirket von ihren ECC - Sektoren stehen.
Die Sektoren 1 bis 16 werden als Datensektoren genutzt, die ECC - Sektoren folgen an Stelle 17 und 18. Der von Irwin verwendete Codieralgorithmus liest ein bestimmtes Byte "x" aus jedem der 16 Datensektoren, um daraus zwei Redundanz - Bytes zu berechnen. diese beiden errechneten Redundanz - Bytes werden dann wiederum an der Stelle "x" in den Sektoren 17 und 18 gespeichert. Hierdurch wird erm√∂glicht, dass zwei beliebige 1 - KByte - Sektoren aus einem 16 - KByte - Datenblock bei Verlust durch Berechnung rekonstruiert werden k√∂nnen. Diese rein mathematische Verfahren ist sogar in der Lage, Fehler zu korrigieren, die erst nach der √úbertragung entstehen, also zum Beispiel Ver√§nderungen des Magnetismus eines Bandes.Welche Art der Backup - Datensicherung (Band oder Diskette) ein Anwender bevorzugt, muss nat√ľrlich dem individuellen Geschmack √ľberlassen werden, doch stehen Streamer in puncto Sicherheit eindeutig an der Spitze.Streamer bieten ein optimales Preis - Kapazit√§ts - Verh√§ltnis bei hoher DatensicherungDatensicherung auf Disketten ist bei gro√üen Datenmengen die wohl umst√§ndlichste Art, Programme vor dem Verlust zu bewahren. Denn w√§hrend dieses Vorganges muss permanent eine Person beim Rechner bleiben, um die Disketten zu wechseln.Wechselplatten erfreuen sich bei vielen Anwendern gro√üer Beliebtheit, bieten jedoch nicht mehr Sicherheit als eine eingebaute Festplatte. Ihr Vorteil gegen√ľber der Sicherung per Disketten besteht in der erheblich gr√∂√üeren Kapazit√§t, doch die vergleichsweise hohen Anschaffungskosten f√ľr weitere Platten sprechen eindeutig f√ľr Streamer.Die Verwendung in unterschiedlichen Rechnern wird nicht nur von der Wechselplatte und von Disketten gew√§hrleistet. Das Econo - Tape von Caliper beispielsweise ist in allen Modellversionen auch extern zu betreiben, das hei√üt, dass der Streamer an beliebig vielen Rechnern benutzt werden kann und nur die Cartridges ausgewechselt werden m√ľssen. Nicht nur hierdurch ist die Verwendung eines Streamers erheblich g√ľnstiger als andere Methoden. Werden die Kosten zur erlangten Sicherheit in Relation gesetzt, stehen Streamer ganz gewi√ü erneut an allererster Stelle.
1.3.2. SicherheitDas regelm√§√üige Durchf√ľhren von Backups mit einem Streamer mag beruhigen, besagt aber f√ľr die Sicherheit der Daten rein gar nichts. Erst wenn testweise auch das R√ľcksichern (Restore) der Daten fehlerfrei gelungen ist, darf man durchatmen.Wenn man einen Streamer daher das erste Mal in Betrieb nimmt sollte man folgendes tun:
1. eine kleine Partition sichern, 2. den Inhalt des Bandes auf eine andere Partition (mit gen√ľgend Platz)
zur√ľckschreiben, 3. mit Vergleichsprogrammen (notfalls mit COMP von DOS) die Dateien auf der
Ursprungspartition mit denen auf der per Restore beschriebenen vergleichen. Achten sie √ľberdies darauf, dass auch wirklich alle Dateien gesichert wurden, die
sie sichern wollten. Dieser Aufwand mag sie verwundern, denn die Handb√ľcher suggerieren, dass eine aktivierte Verify - Option oder ein Compare - Lauf nach dem sichern ausreicht.1.3.3. Verify und CompareViele Backup - Programme unterscheiden ein sogenanntes "Verify" und ein "Compare". Beim Verify werden nur die Sektor - Pr√ľfsummen (Floppy - Controller schreiben halt "Sektoren" aufs Band) auf dem Datentr√§ger verifiziert, keinenfalls aber die auf Band geschriebenen Daten byteweise mit dem Original verglichen. Verify gibt also im Prinzip nur Aufschlu√ü dar√ľber, ob der Datentr√§ger physisch in Ordnung ist.Ein echtes Compare bei einem Backup - Programm liest die Daten von der Festplatte und vom Band in einem zweiten Durchgang neu ein und vergleicht sie byteweise auf √úbereinstimmung. Erst ein Compare - Durchgang kann also zuverl√§ssig feststellen, dass die gew√ľnschten Daten gesichert wurden und sich auch vom Band wieder korrekt lesen lassen.F√ľr die Erstinbetriebnahme eines Streamers aber reicht auch das nicht aus. Es gab durchaus F√§lle, in denen das Compare klappte, das Restore aber dennoch fehlschlug. Zur Zeit ist in Verbindung mit MSDOS 6.0 zum Beispiel gesundes Mi√ütrauen angebracht, denn darauf ist l√§ngst noch nicht alle heute verkaufte Software eingestellt. Und Versionsunvertr√§glichkeiten sind f√ľr die absurdesten Ph√§nomene gut.Was den Umgang mit besch√§digten B√§ndern betrifft, die ein Backup enthalten, ist generell gro√üe Vorsicht angesagt. In der Regel klappt das R√ľcksichern nur bis zum ersten Banddefekt, und Reparatur - Tools sind selbst im Profisektor die Ausnahme. Es sei daher grunds√§tzlich empfohlen, mit der Anzahl der Backup - B√§nder nicht zu knausern. Je mehr B√§nder mit zeitlich dicht beieinander liegenden Backups verf√ľgbar sind (die alle per Compare √ľberpr√ľft wurden), desto geringer der Datenverlust im Katastrophenfall.QIC - StandardsDie Abk√ľrzung QIC steht f√ľr Quarter Inch Cartridge Drive Standards Incorporated und befa√üt sich mit der Spezifikation diverser Randbedingungen, die im Bereich des Backup - Streaming mit Viertel - Zoll - Kassetten auftauchen.Das Wichtigste beim Durchk√§mpfen durch das mittlerweile √ľppige Dickicht an Bezeichnungen ist, dass QIC - Standards unterschiedlichste Bereiche beschreiben. W√§hrend QIC - 40 und - 80 zum Beispiel das physikalische und logische Band - Layout inklusive einer Art Dateisystem spezifizieren, bafa√üt sich QIC - 107 mit der Schnittstelle, also letztlich mit dem 34poligen Floppy - Controller - Interface bei IBM - ATs. QIC - 115 hingegen legt dasselbe f√ľr PS/2 - Rechner und deren 40poligen Floppy - Anschlu√ü fest. QIC - 117 spezifiziert f√ľr die genannten Standards die Timing - Verh√§ltnisse zwischen Rechner und Laufwerk, und QIC - 106 gar die Eigenheiten der Schreib - /Lesek√∂pfe f√ľr QIC - 40 - Laufwerke.In aller K√ľrze als Hilfe zum Durchst√∂bern von Anzeigen: QIC - 107, 115, 36, 02 bezeichnen g√§ngige Interface - Standards QIC - 20, 40, 80, 11, 24, 120, 150, 525 (fr√ľher 320) und 1350 beschreiben AufzeichnungsverfahrenFloppy - Anschlu√ü = QIC - 40/80?Ein Bandlaufwerk l√§sst sich - ebenso wie Festplatten - auf unterschiedlichste Weise an einen Rechner anschlie√üen. Ein SCSI - Host - Adapter mit entsprechend eingerichtetem Bandlaufwerk ist eine relativ aufwendige L√∂sung, zudem m√ľssen SCSI - L√∂sungen im PC - da SCSI nicht zum definierten PC Standard geh√∂rt - oft mit besonderen Treibern ausgestattet werden.Ein Floppy - Controller jedoch steckt seit jeher in jedem PC, und mit den vorhandenen Signalen lassen sich auch B√§nder beschreiben und Band - Laufwerke steuern. Der dadurch m√∂gliche Wegfall eines seperaten Host - Adapters spart nat√ľrlich Kosten. Die ersten Streamer zum Anschlu√ü an den Floppy - Controller arbeiten nach dem QIC - 40 - Standard, der auch heute noch sehr verbreitet ist und von einigen QIC - 80 - Streamern gelesen werden kann.Die QIC - Standardisierungen befassen sich einerseits mit den physikalischen und logischen Aufzeichnungsmodalit√§ten und andererseits mit der hardwarem√§√üigen Schnittstellendefinition.Urvater QIC - 40QIC - 40 wurde f√ľr Viertel - Zoll - Kassetten (Quater Inch) namens DC2000 erdacht. Das urspr√ľngliche Band (DC2080) wird in 20 Spuren unterteilt, die der Streamer abwechselnd vorw√§rts und r√ľckw√§rts abklappert. Da man in der Floppy - Controller - Hardware auf die F√§higkeiten des FDC - Chips ¬ĶPD765 von NEC in bezug auf die physikalische Formatierung festgelegt ist, teilt man diese MFM - formatierten Spuren wie folgt auf: 29 Sektoren zu 1024 Bytes L√§nge bilden ein sogenanntes Segment, und 68 solcher Segmente (Bl√∂cke) f√ľllen eine Spur. Formatiert und abz√ľglich aller ECC - Codes fa√üt dann eine solche Kassette 40 386 560 Daten - Bytes. Auf den 50 Prozent l√§ngeren XL - Kassetten lassen sich folglich 60 MByte unterbringen.QIC - 40 - Streamer sind f√ľr XT - und AT - Floppy - Controller geeignet. F√ľr eine XT - gem√§√üe Datentransferrate von 250 kBit/s laufen 25 Zoll Band pro Sekunde am Kopf vorbei; wenn der Controller auch High - Density - Floppies bedient (500 kBit/s), muss der Streamer das Band mit 50 Zoll pro Sekunde transportieren. Je h√∂her die Datentransferrate, desto schneller l√§uft ein Backup - oder Restore - Durchgang ab. Durch die Kopplung der Datenrate an jeweils eine eigene Transportgeschwindigkeit bleibt das Format identisch, das hei√üt, ein und dieselbe QIC - 40 - Kassette kann sowohl an einem langsamen als auch an einem schnellen Controller mit demselben Streamer gelesen und beschrieben werden.Mittlerweile ist es √ľblich, die Daten vor der Sicherung zu komprimieren, so dass sich die nutzbare Kapazit√§t eines QIC - 40 - Bandes bei typischem Datengemisch auf 120 MByte erh√∂ht. Seither firmieren diese Streamer in der Werbung als 120 - MByte - Typen. Laut Herstelleraussagen kann man davon ausgehen, dass die f√ľr die Kompression aufgewendete CPU - Zeit ab 16 - MHz - 80286 das Speichern auf Band nicht mehr behindert, so dass - da insgesamt weniger auf Band geschrieben werden muss und die Zeit daf√ľr durch das Format fest vorgegeben ist - Kompression den Backup - und Restorevorgang erheblich beschleunigt.Auf dem Vormarsch: QIC - 80Der neuere Standard QIC - 80 erm√∂glicht - wie seine Bezeichnung ahnen l√§sst - ziemlich genaun die doppelte Speicherkapazit√§t gegen√ľber QIC - 40. Bei QIC - 80 verwendet man baugleiche Kassetten wie bei QIC - 40, die aber angeblich h√∂her qualifiziert sind. "DC2000" wird zwar gern als Gattungsname f√ľr Viertel - Zoll_Kassetten mi√üverstanden, jedoch warnen Streamerhersteller eindringlich davor, eine Kassette mit der Typenbezeichnung DC2000 (QIC - 40) ein einem QIC - 80 Streamer zum Schreiben zu benutzen. QIC - 80 - Kassetten in Standardl√§nge (205 Fu√ü) hei√üen DC2080 (Bezeichnung von 3M), die XL - Versionen DC2120.QIC - 80 B√§nder werden mit 28 Spuren und 34 Zoll/s bei einer (minimal zul√§ssigen) Datentransferrate von 500 kBit/s beschrieben. QIC - 80 - Streamer sind folglich nicht mehr an einem einfachen XT - Controller mit 250 kBit/s betreibbar, auch l√§sst die ver√§nderte Spurzahl (Schmalere Spuren) kein zuverl√§ssiges Schreiben, wohl aber Lesen (dann mit 50 Zoll/s) von QIC - 40 - B√§ndern zu. Auf eine DC2080 - Kassette passen pro Track 100 Segmente zu 29 KByte, was rund 80 MByte Kapazit√§t ergibt (DC2120 entsprechen 120 MByte).Nat√ľrlich wird auch bei QIC - 80 - Streamern emsig mit Datenkompression gearbeitet, so dass sich auf einer DC2120 √ľblicherweise 250 MByte, beim Spezial - Format des Mountain gar 300 MByte sichern lassen. Eine konservative Firma wie Archive (Maynard und Irwin sind √ľbrigens auch "Archive Companies") inserieren den XL5580 allerdings auch heute noch brav als 80 MByte Streamer.1.3.4. High Speed Adapter

Seit Floppy - Laufwerke mit 2,88 MByte in die PC - Welt einziehen, lassen sich auch Floppy - Controller mit 1MBit/s Datenrate aufgrund preiswerter Controller - Chips kosteng√ľnstig realisieren. Zu modernen Floppy - Controller - Streamern, sind heute fast immer auch sogenannte High - Speed - Adapter erh√§ltlich, die dann allerdings erwarten, dass der Streamer das Band f√ľr diesen Betriebsfall auch doppelt schnell transportiert. High - Speed - Adapter erhalten also die Format - Kompatibilit√§t, wickeln aber alles doppelt so schnell ab.
1.3.5. Das dritte Laufwerk

Mein Verweis auf 2,88 - MB - Floppies soll nicht in die Irre f√ľhren: man verwendet zwar auf High - Speed - Adaptern vergleichbare Floppy - Controller - Chips, die Controller - Boards enthalten aber in der Regel keinerlei eigene BIOS - Software, um tats√§chlich 2,88 - MB - Disketten ansteuern zu k√∂nnen. Der Zugriff auf diese Controller findet ausschlie√ülich √ľber mitgelieferte Backup - Software statt, und die kennt sich mit 2,88 - MB - Disketten nicht aus.
High - Speed - Adapter helfen in der Regel aber noch aus einer anderen PC - Klemme: bekannterma√üen kann ein PC nicht mehr als zwei Floppy - Laufewrke bedienen. Das war und ist zwar grunds√§tzlich nur eine Restriktion des PC - BIOS, daraufhin hat aber auch mancher Low - Cost - FDC die Ansteuerung von mehr Laufwerken verlernt. So gibt es f√ľr die meisten Floppy Streamer zwar Adapter - Kabel, die den Betrieb zweier Floppies (Disk 0 und 1) und eines Streamers als Drive 2 oder 3 erm√∂glichen, nur muss das nicht mit jedem Floppy - Controller klappen. Wenn man Pech hat, muss man f√ľr Backups also "mal eben" das zweite abziehen, damit alles l√§uft.

Auch in dieser Beziehung kann ein High - Speed - Adapter helfen, da dieser generell als Zweit - Controller konzipiert ist und folglich parallel zum installierten Floppysystem arbeitet. Er belegt dann √ľblicherweise Systemadressen, um Konflikte zu vermeiden und l√§sst zudem gesondert die Wahl des Interrupts (IRQ) und DMA - Kanals zu.

1.3.6. QIC - 80 - Kompatibilität

Keineswegs ist jeder Streamer zum Anschlu√ü an den Floppy - Controller ein QIC - 80 - Streamer. Der Irwin - Streamer zum Beispiel l√§sst sich auch mit Fremdsoftware nicht zum QIC - 80 - Streamer wandeln. Dennoch ist nat√ľrlich die Software ma√ügebend f√ľr die Einhaltung des QIC - 80 - Standards. Damit aber trotz zertifizierter QIC - 80 - Kompatibilit√§t ein Austausch m√∂glich wird, sind zwei Bedingungen unbedingt einzuhalten:

Zum ersten darf die Backup - Software keinenfalls auf irgendein hauseigenes "Super - Format" eingestellt werden. Ich formuliere das extra in dieser Weise, denn nicht immer ist das "Normal - Format" eindeutig als QIC - 80 gekennzeichnet. Zum zweiten darf man keine Datenkompression verwenden, denn diese f√§llt bei unterschiedlicher Backup - Software grunds√§tzlich verschieden aus. So kann ein anderes Backup - System das Band zwar unter Umst√§nden physikalisch lesen, aber meist schon nicht mehr das Band - Directory oder auch nur den Tape - Header entschl√ľsseln. Deshalb ist zus√§tzlich zu empfehlen, bei Tauschbestrebungen auch nicht einen anders eingestellten Backup - Set auf dem Band zu haben, damit Fremdsoftware nicht eventuell dar√ľber stolpert.
1.3.7. Fremd - Schnittstellen

Obwohl QIC - 80 der Floppy - Welt entsprang, gibt es keine prinzipiellen Probleme, einen QIC - 80 - kompatiblen Streamer √ľber eine v√∂llig andere Schnittstelle zu bedienen. Es l√§uft dann in der Praxis darauf hinaus, eine bestimmte Schnittstelle nach au√üen zu realisieren, um diese dann intern letztlich in einen Floppy - Controller m√ľnden zu lassen. Ger√§te dieser Art sind zum Beispiel der BackPack f√ľr den Anschlu√ü an eine PC - Druckerschnittstelle sowie der Summit mit einem AT - Bus - Interface (IDE).

1.3.8. Die QIC - Standards

Standard Kassettentyp Kapazität Schnittstellen

Minicartridges

QIC - 40 DC2000 40 MB QIC - 107, 115, 117
QIC - 40XL DC2000 60 MB QIC - 107, 115, 117
QIC - 80 DC2080 80 MB QIC - 107, 115, 117
QIC - 80XL DC2120 120 MB QIC - 107, 115, 117
QIC - 100 DC2000 20/40 MB QIC - 103, 108
QIC - 128 DC2110 86 MB QIC - 103, 108
QIC - 128 DC2165 128 MB QIC 103, 108
QIC - 385M QIC - 143 385 MB Floppy, IDE
QIC - 410M QIC - 143 410 MB SCSI - 2
QIC - 6GB(M) QIC - 138 6 GB (*) SCSI - 2

Cartridges

QIC - 24 DC600A 60 MB QIC - 02, 36, SCSI
QIC - 120 DC6150 125 MB QIC - 02, SCSI
QIC - 150 DC6150 150 MB QIC - 2, SCSI
QIC - 150 DC6250 250 MB SCSI, SCSI - 2
QIC - 525 DC6320 320 MB QIC - 02, SCSI, SCSI - 2
QIC - 525 DC6525 525 MB QIC - 02, SCSI, SCSI - 2
QIC - 1000C QIC - 136 1 GB SCSI, SCSI - 2
QIC - 1350 QIC - 137 1,35 GB SCSI - 2
QIC - 2100C QIC - 137 2,1 GB SCSI - 2
QIC - 20GB(C) QIC - 139 20 GB (*) SCSI - 2

(*) mit QIC - 122 - oder QIC - 130 - Datenkompression
2. Optische Speichermedien


Neben herkömmlichen Speichermedien auf ferromagnetischer Basis haben sich mittlerweile auch die magneto - optischen Aufzeichnungsverfahren am Markt etabliert. Im Zuge der zunehmenden Verbreitung von Multimedia - Anwendungen prognos - tizieren Marktforscher den optischen Speichermedien hervorragende Aussichten.

Man unterscheidet bei den optischen Speichermedien zwischen den CD - ROMs, den WORMs und den MO - Laufwerken. Während das CD - ROM einen Nur - Lese - Speicher darstellt, kann ein WORM (Write Once Read Multiple) einmal beschrieben werden. Das MO - Laufwerk basiert hingegen auf der magneto - optischen Aufzeichnung, Daten können also beliebig oft gespeichert und gelöscht werden.

2.1. CD - ROM - ein Nur - Lese - Speicher

Das CD - ROM ist das erste optische Medium, das im nicht - professionellen Bereich eine weite Verbreitung erfahren hat. Dies resultiert zum einen aus den stark sinkenden Hardwarepreisen wie auch aus der stetig steigenden Anzahl unterst√ľtzender Anwendungen.
Wie die Audio - CD ist das CD - ROM nur auf einer Seite beschichtet. Die Oberfl√§che dieses Speichermediums besteht aus einer Polycarbonat - Kunststoffschicht, einer reflektierenden Aluminium - und einer Schutzlackschicht. In die Plattenoberfl√§che wird bei der Herstellung - √§hnlich wie bei einer Schallplatte - eine spiralf√∂rmige Spur gezogen, in die mit Hilfe eines Lasers in bestimmten Abst√§nden Vertiefungen eingebrannt werden. Im Gegensatz zur Schallplatte verl√§uft diese Spur von innen nach au√üen. Die spiralf√∂rmige Spur eignet sich ideal zum Einlesen gro√üer Mengen sequentieller Daten. Das Verfahren erlaubt den den Herstellern, dieselben Anlagen f√ľr die CD - ROM - Produktion zu nutzen, wie sie auch f√ľr die Audio - CDs verwendet werden.Der Vorteil wird jedoch √ľber eine erh√∂hte Zugriffszeit erkauft. Die konzentrischen Spuren der Festplatte erlauben einen schnelleren Zugriff, da der entsprechende Sektor aufgrund der konstanten Distanz einer Spur zur Plattenmitte schneller lokalisiert werden kann. Dieser Vorgang ist bei einer spiralf√∂rmigen Spur wesentlich komplexer. Beim Lesevorgang wird die Spur durch einen scharf geb√ľndelten Laserstrahl abgetastet. Trifft der Laser auf eine Vertiefung, erfolgt eine Absorption, trifft er auf keine Vertiefung, wird der Strahl reflektiert und von einer Fotozelle erkannt. Die Daten sind daher - wie von herk√∂mmlichen Medien bekannt - in bin√§rer Form auf der CD gespeichert. Wird der Strahl reflektiert, entspricht das dem Zustand 0, erfolgt eine Absorption entspricht dies dem Zustand 1. Die Vertiefungen werden als Pits, die Stellen, die unver√§ndert bleiben, als Lands bezeichnet.

Die Zugriffszeiten eines CD - ROM - Laufwerks liegen etwa zwischen 300 und 400 Millisekunden. Eine Verbesserung der Leistung wurde durch das Continuous - Read - Verfahren erreicht. Hierbei werden bereits Daten in den Puffer eingelesen, w√§hrend die vorher gelesenen Daten noch √ľber den Bus zum Rechner √ľbertragen werden. Bei der CD - ROM - Technologie sind jedoch die Anforderungen an die Datensicherheit gegen√ľber der bei Audio - CDs wesentlich h√∂her. Mehr als zehn Prozent des verf√ľgbaren Speicherplatzes werden f√ľr die Datenverwaltung und die Fehler√ľberpr√ľfung belegt.
Ein Vorteil der CD sind ihre niedrige Herstellungskosten. Ber√ľcksichtigt man nur die reinen Vervielf√§ltigungskosten, so ist bereits bei geringen Auflagen die Herstellung von einem Programmpaket, das nur wenige Disketten umfa√üt, teurer als eine CD - ROM - Produktion. Ein weiterer Vorteil besteht darin, dass jedes CD - ROM - Laufwerk grunds√§tzlich auch Audio - CDs abspielen kann. Das Abspielen der Audio - CD wird dabei √ľber den Computer gesteuert. Es sind auch externe CD - ROM - Laufwerke erh√§ltlich, die den Bedienungskomfort eines Audio - CD - Ger√§tes bieten und unter Verwendung eines Akkus als mobiler CD - Player genutzt werden k√∂nnen. Die Leistungsdaten dieser Laufwerke liegen allerdings in der Regel unter denen der Laufwerke, die f√ľr den reinen CD - ROM - Betrieb konzipiert wurden. Aufgrund des Aufzeichnungsformats und der Rotationsgeschwindigkeit der CD ist die Datentransferrate bei allen CD - ROM - Laufwerken nahezu identisch.
Als ein Einsatzgebiet f√ľr die CD - ROM bietet sich zweifelsohne die Softwaredistribution an. Die heutigen Applikationen werden immer umfangreicher, eine gr√∂√üere Anzal von HD - Installationsdisketten sind bereits keine Seltenheit mehr. Was liegt also n√§her als die Software auf CD - ROM anzubieten? Damit lie√üen sich mehrere Probleme auf einen Schlag l√∂sen: Zum einen bietet die CD - ROM gegen√ľber magnetischen Datentr√§gern eine wesentlich h√∂here Datensicherheit, so dass die Originalsoftware immer unverf√§lscht zur Verf√ľgung steht; zum anderen wird den Herstellern der Kopierschutz damit frei Haus geliefert.
Die CD - ROM - Technologie gilt als Idealmedium f√ľr Multimedia - Anwendungen. Farbbilder, Grafiken, Sounds und vor allem bewegte Bildsequenzen, kurzum f√ľr alle Anwendungen, die eine immense Speicherkapazit√§t erfordern. Gerade im Bereich Multimedia werden CD - ROM - Laufwerke h√§ufig im Paket mit Soundkarten angeboten. CD - ROM - Laufwerke sind sowohl als interne Laufwerke als auch als externe Laufwerke in einem gesonderten Geh√§use erh√§ltlich. Zudem sind Geh√§use verf√ľgbar, in denen mehrere CD - ROM - Laufwerke untergebracht werden k√∂nnen, so dass auf entsprechend gro√üe Datenmengen zugegriffen werden kann. CD - Wechsler bieten sich insbesondere zum Einsatz in Netzwerken an.
Mittlerweile werden auch einmal beschreibbare CDs angeboten, die CD - Rs (R = Recordable). Diese sind wesentlich teurer als ihre nur lesbaren Pendants. Die Perspektiven f√ľr die CD - Rs sind aufgrund ihrer Kompatibilit√§t zum CD - ROM - Standard rosig. Der CD - ROM kommt zugute, dass sich die Hersteller fr√ľhzeitig auf verbindliche Normen bez√ľglich des Aufzeichnungsverfahrens festgelegt haben. Dieser High - Sierra - Standard legt fest, in welcher Organisation die Daten auf der CD unterzubringen sind. Der in Europa verbreitete Standard (ISO - 9660) ist aus dem High - Sierra - Standard entwickelt worden. Anwendungen, die f√ľr den High - Sierra - Standard konzipiert wurden, sind im √ľbrigen auch unter ISO - 9660 lauff√§hig. Im Gegensatz dazu sind ISO - 9660 - Anwendungen nicht unter Verwendung eines High - Sierra - Treibers ablauff√§hig.

Technische Daten

Die Größe einer CD - ROM entspricht mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm exakt den Abmessungen der Audio - CDs. Trotzdem sollte man nicht der Versuchung erliegen, eine CD - ROM mit einem Audio - CD - Player abzuspielen. Die Lautsprecher der Stereoanlage könnten unter Umständen Schaden nehmen.
Die Standards der CD - ROM (siehe Textbox) legen eine bestimmte Datenstruktur auf der CD fest. Die Daten werden auf der CD, ähnlich wie auf einer Festplatte in Blöcken gespeichert, wobei ein Block 2352 Byte umfaßt. Von diesen 2352 Byte werden jedoch nur 2048 zum Speichern der Information benötigt, die restlichen Bytes verwendet das Gerät zur Blockidentifikation und Fehlerkontrolle.



Standards rund um die CD


CD - DA (Compact Disc Digital Audio) Hinter diesem K√ľrzel verbirgt sich die
bekannte Audio - CD. Diese CDs lassen sich ebenfalls mit nahezu allen CD - ROM - Laufwerken abspielen.

CD - I (Compact Disk Interactive) F√ľr diese CDs ist ein spezieller CD - I - Player erforderlich, der an ein Fernsehger√§t angeschlossen werden kann. Dieser Standard wurde speziell f√ľr multimediale Anwendungen mit Kombinationen aus Audio und Video entwickelt.

CD - ROM (Compact Disc Read Only Memory) nicht beschreibbarer optischer Datentr√§ger, dessen Daten √ľber spezielle CD - ROM - Laufwerke in den Computer eingelesen werden k√∂nnen.

CD - XA (Compact Disc Extended Architecture) Dabei handelt es sich um eine Erweiterung der CD - ROM - Spezifikation. Der XA - Standard lässt es zu, dass neben Daten auch Audioinformationen gespeichert werden, wobei Ton - und Bildinformationen ineinander verschachtelt werden. Aus diesem Grund lassen sich Daten und Töne parallel auslesen.

High Sierra Dieser Standard beschreibt, in welcher Art und Weise die Daten auf einer CD abzulegen sind, und sorgt so f√ľr Kompatibilit√§t verschiedener Laufwerke und CDs. Beschlossen wurde dieser Standard 1986 von zahlreichen Soft - und Hardwareherstellern, die sich hierzu in einem Hotel namens "High Sierra" in Kalifornien trafen.

Multisession bezeichnet CDs, die in mehreren Sitzungen (Sessions) bespielt wurden. Dieses Verfahren ist in erster Linie dem Photo - CD - Bereich vorbehalten. Zum Abspielen dieser CDs sind spezielle multisessionfähige Laufwerke erforderlich. Im Gegensatz dazu stehen Singlesession - CDs, die in einem Durchgang beschrieben wurden.

Yellowbook von Philips und Sony beschlossene Spezifikation der CD - ROM zur Block - und Datenstruktur sowie Fehlererkennung. Das Gegenst√ľck hierzu bei Audio - CDs ist das Redbook.
Aufzeichnungsverfahren

F√ľr die schnelle Methode des Einlesens sequentieller Daten bei CD - ROMs ist ein spezielles Aufzeichnungsverfahren notwendig: Das CLV - Verfahren (Constant Linear Velocity), bei dem jeder Datenblock immer die gleiche L√§nge besitzt. Logischerweise befinden sich auf der √§u√üersten Spur deutlich mehr Datenbl√∂cke als auf der inneren. Da jedoch im Interesse einer konstanten Daten√ľbertragung pro Zeiteinheit stets nur die gleiche Anzahl an Datenbl√∂cken den Lesekopf passieren darf, muss die Rotations - geschwindigkeit entsprechend angepa√üt werden. Durch dieses Verfahren wird der zur Verf√ľgung stehende Platz optimal ausgenutzt, auf die Zugriffsgeschwindigkeit wirkt es sich hingegen negativ aus.
Ein direktes Gegenbeispiel ist die Festplatte, auf der sich die Spuren in konzentrischer Form befinden. Dementsprechend wird hier ein anderes Aufzeichnungsverfahren angewandt, das sogenannte CAV - Verfahren (Constant Angular Velocity). Hier bleibt die Umdrehungsgeschwindigkeit immer konstant, da sich auf jeder Spur die gleiche Anzahl Datenbl√∂cke befindet. Erreicht wird dadurch eine deutlich h√∂here Zugriffszeit als beim CLV - Verfahren - ein Vorteil, der jedoch √ľber eine Kapazit√§tsverschwendung erkauft wird. Soll sich auf jeder Spur die gleiche Menge Datenbl√∂cke befinden, muss man sich an der k√ľrzesten, in dem Fall der innersten Spur orientieren.

Unter den CD - ROM - Laufwerken existieren auch kosteng√ľnstige Varianten, die √ľber die serielle beziehungsweise parallele Schnittstelle angeschlossen werden k√∂nnen.
2.2. WORM (Write - Once - Read - Many)
magneto - optische Laufwerke

Einige wesentliche Punkte unterscheiden Worm - Laufwerke von CD - ROM - Laufwerken:

- verschiedene Plattengrößen (3,5", 5,25", 8", 12", 14")

- mehr Speicherplatz (14" bis 8 Gigabyte, 5,25" ca. 650 MB)

- unterschiedliche verwendete Materialien

- zwei Laser (Schreib - und Lese - Laser)

- ist einmal - unwiderruflich - beschreibbar

Das was bei CD - ROM's von Anfang an geregelt wurde, hat bei WORM - Disks so nicht stattgefunden: Die Bildung eines Standards, der jede Scheibe im Laufwerk eines jeden Herstellers laufen l√§sst. Gerade in der Anfangsphase (bei den 12" Disks, die als erste am Markt erschienen) haben viele Hersteller ihr eigenes S√ľppchen gekocht. Mit dem erscheinen der 5,25" Laufwerke hat man auch begonnen, sich Gedanken √ľber einen Worm Standard zu machen.
Jedes WORM - Laufwerk verf√ľgt √ľber zwei Laser: einen schwachen Lese - Laser und einen wesentlich st√§rkeren Schreib - Laser. Die gespeicherten Informationen werden eingelesen, indem die Oberfl√§che der Scheibe vom Laser abgetastet wird. Die zr√ľckgeleiferte Reflektion wird analysiert und in bin√§re Daten umgewandelt.
Neben einer gro√üen Bandbreite an verwendeten Materialien f√ľr die WORM (Glas, Aluminium oder Kunststoff) kommen auch verschiedene Aufzeichnungsverfahren zum Einsatz:

- Bubble Forming

- Pit forming

- Dye albative

- Phase changing

Das "Bubble forming", also das "Blasenerzeugungsverfahren" benötigt eine thermisch veränderbare Matallschicht, die von einer Polymerschicht umgeben und von Glas ummantelt ist. Trifft nun der Schreiblaser auf eine Stelle, wird hier eine Blase erzeugt, die beim Lesevorgang den Strahl des Lese - Lasers streut und mit geringerer Intensität reflektiert.
Beim "Pit forming" - Verfahren befindet sich √ľber einer reflektierenden eine weitere, nicht reflektierende. Der Sreiblaser brennt dann ein Loch in der St√§rke von einem tausendstel Millimeter in die undurchl√§ssige Schicht. Trifft dann der Lese - Laser auf dieses Loch, wird er auf eine Photozelle reflektiert.
Wesentlich bei der magneto - optischen Technologie ist, dass bei einem digitalen Aufzeichnungsverfahren zwei, vom Lese - Laser unterscheidbare, Zustände erzeugt werden können. Ein Laserstrahl erhitzt zuerst die Stellen, auf die geschrieben werden soll. Sobald die sogenannte Curie - Temperatur erreicht ist, wird durch ein schwaches Magnetfeld die magnetische Ausrichtung der jewiligen Stelle verändert. Wichtig ist dabei vor allem eine entsprechende Fokussierung des Schreiblasers, um nicht Informationen, die schon in angrenzenden Randbereichen abgelegt worden sind, zu beschädigen.
Das "Phase changing" - Verfahren ist zum Beispiel ein rein optisches Verfahren, das zumeist bei professionellen WORM - Laufwerken zum Einsatz kommt. Es findet aber auch schon bei wiederbeschreibbaren, optischen Laufwerken seinen Einsatz. Wesentlicher Unterschied zu den √ľbrigen Verfahren ist, dass es v√∂llig ohne Elektro - Magneten auskommt. Ein Schreib - bzw. Lesevorgang h√§ngt von der Intensit√§t des (einen!) Laserstrahls ab. Beim wesentlich st√§rkeren Schreibvorgang wird der Punkt, auf den der Strahl auftrifft, geschmolzen und f√ľhrt dazu, dass dieser Punkt k√ľnftig bei einer Abtastung beim Lese - Vorgang nur noch eine ganz schwache Reflexion liefert. Ist das der Fall, wird "1" zur√ľckgeleifert, kommt der Strahl ohne Intensit√§tsverlust retour, steht dies f√ľr "0".
Die WORM - Disks haben ihr Einsatzgebeit haupts√§chlich in Archivierungssystemen. Sie sind kaum geeignet, eine Publikation in gr√∂√üeren St√ľckzahlen zu produzieren, da bei der Herstellung einer WORM diese das Master darstellt. Will man von einer WORM eine Kopie machen, br√§uchte man zwei WORM - Rekorder/Player, die dann - der langsamen Zugriffsgeschwindigkeit entsprechend, ziemlich lange f√ľr die Erstellung einer Kopie ben√∂tigen w√ľrden. Gerade diese langsamen Zugriffsgeschwindikeiten sind aber ein Manko, auf das man sich bei den m√∂glichen Speichermengen durchaus einlassen kann. Mit Wurlitzer - √§hnlichen Ger√§ten kann man durchaus Systeme im Terrabyte Bereich (1 Terrabyte = 1024 Gigabyte bzw. 1.099.511.627.776 Byte) erziehlen. Nicht zuletzt aufgrund der Gr√∂√üe der Speichermedien sind WORM - Laufwerke zumeist nur als externe Ger√§te lieferbar. Im Archivierungsbereich werden heute Magnetband bzw. Mikrofiche bzw. - film vielfach durch WORM - Datensicherungs - Systeme ersetzt. Erw√§hnenswert ist noch, dass die WORM's gegen√ľber Omwelteinfl√ľssen wesentlich unempfindlicher als die CD - ROM's sind.
2.3. Magneto - optische Speicher - Die Alternative

Da sie nur einmal beschreibbar und nicht löschbar sind, scheiden die WORMs jedoch als echter Massenspeicher aus. Magneto - optische Festplatten sind die bessere Alternative. Bei der magneto - optischen Aufzeichnungstechnologie handelt es sich um eine Kombination aus magnetischen und optischen Techniken. Ein Aufzeichnungsverfahren, das nach dem digitalen Prinzip arbeitet muss zwei verschiedene Zustände an einer Stelle des Mediums erzeugen und diese beiden Zustände beim Lesen unterscheiden können. Dies erreichen unterschiedlich starke Laserstrahlen in Verbindung mit einem Elektromagneten.
Das Beschreiben einer magneto - optischen Disk erfolgt durch einen energiereichen Laserstrahl. Dieser Laserstrahl erhitzt die Stellen, an denen aufgezeichnet werden soll, auf die materialspezifische Curie - Temperatur. Wird sie erreicht, so gen√ľgt bereits ein schwaches √§u√üeres Magnetfeld, um die Magnetisierungsrichtung des Datentr√§germaterials zu √§ndern. Bei diesem Vorgang werden die Informationen buchst√§blich gel√∂scht. Auf der anderen Seite der optischen Platte befindet sich ein Elektromagnet, der ein magnetisches Feld erzeugt, welches die neue magnetische Orientierung der Aufzeichnungszone bewirkt. Die Magnetisierungsrichtung liegt dabei senkrecht zur Plattenoberfl√§che. Bei hohen Leistungen des Lasers besteht jedoch die Gefahr, dass angrenzende Zonen durch W√§rmeleitung ebenfalls erhitzt und durch das Magnetfeld entsprechend beeintr√§chtigt werden. Der Laserstrahl muss daher pr√§zise fokussiert sein. Die Leistungen der verwendeten Laser liegen dabei im Milliwatt - Bereich, die Curie - Temperaturen hingegen bei einigen hundert Grad Celsius.

Wie auch auf herkömmlichen Datenträgern, werden auf der magneto - optischen Disk zwei verschiedene magnetische Zustände dargestellt: positiv und negativ. Unterschieden werden die beiden Zustände durch die Polarisation bei der Reflexion des energieärmeren Lese - Laserstrahls. Der reflektierte Strahl ist, je nach Ausrichtung des Magneten, polarisiert (man spricht vom sogenannten Kerr - Effekt). Der Informationsinhalt in den Zonen, die nicht durch den Laserstrahl erhitzt werden, bleibt vom Magnetfeld unbetroffen und wird daher nicht verändert.

Bei einer magneto - optischen Disk wird also stets zuerst gelöscht, danach beginnt erst der eigentliche Schreibvorgang. Dies erklärt auch, warum ein Schreibvorgang auf eine magneto - optische Disk wesentlich zeitaufwendiger ist als bei herkömmlichen Datenträgern.

Die magneto - optische Technologie erfordert beim Schreib - /Lesekopf eine komplizierte Optik. Dies wirkt sich nat√ľrlich auf Gr√∂√üe und Gewicht des Schreib - /Lesekopfes negativ aus. Ein gro√üer und schwerer Kopf l√§sst sich nicht so schnell bewegen und beeintr√§chtigt daher die Zugriffsgeschwindigkeit.

Diese Faktoren erklären, warum die magneto - optischen Laufwerke wesentlich geringere Leistungsdaten in bezug auf Schreib - /Lesevorgänge aufweisen als herkömmliche Festplatten. Magneto - optische Laufwerke können somit als "Zwitter" zwischen rein optischen Systemen bezeichnet werden.
Die Vorteile von magneto - optischen Disks liegen klar auf der Hand: Im 5 1/4 - Zoll - Format k√∂nnen sie zwischen 600MByte und 1GByte an Daten aufnehmen. Die kleineren 3 1/2 - Zoll - Disks fassen immerhin 128 MByte Daten. Zudem sind sie im Gegensatz zu Festplatten unempfindlich gegen√ľber magnetischen Feldern, da sich die magnetische Struktur nur √§ndern l√§sst, wenn die notwendige Temperatur an der entsprechenden Stelle anliegt. Sie k√∂nnen daher Datensicherheit auf lange Sicht gew√§hren. Aber auch andere √§u√üere Einfl√ľsse wie Feuchtigkeit, Hitze oder fahrl√§ssige Handhabung f√ľgen den Disks keinen Schaden zu. Eine Reihe von beschreibbaren Disks sind auf 10 bis 100 Jahre Datensicherheit konzipiert.

Die Einsatzgebiete der magneto - optischen Laufwerke ergeben sich aus ihren Vorteilen. Gro√üe Datenmengen stellen f√ľr diese Laufwerke kein Problem dar. Wer sich schon einmal an einem Farbscanvorgang mit 24 - Bit - Farbtiefe versucht hat, wird sich ein entsprechendes Laufwerk sehnlichst gew√ľnscht haben. Mehrere MByte Daten sind da schnell erreicht und auch die gr√∂√üte Festplatte ist irgendwann zu klein. Aus diesem Grund bieten sich MO - Disks im Bereich der Printmedien als Datentr√§ger geradezu an. √Ąhnliches gilt f√ľr CAD und Grafik. Aber auch als Backup - beziehungsweise Archivierungsmedium bietet sich die MO an. Zudem ist die MO - Disk leicht aus dem Laufwerk zu entnehmen und zu transportieren.

Beim Phasenwechselverfahren (Phase Changa Technology) handelt es sich im eigentlichen Sinne um keine neue Technologie. Neu ist nur das Einsatzgebiet. Bislang wurde dieses Verfahren, das bereits seit Jahrzehnten bekannt ist, hauptsächlich bei professionellen WORM - Laufwerken eingesetzt. Mittlerweile findet es auch bei wiederbeschreibbaren optischen Platten Verwendung. Bei dieser Technologie handelt es sich um ein rein optisches Aufzeichnungsverfahren, das ohne Elektromagneten auskommt. Aufgezeichnet und gelesen werden die Daten durch zwei unterschiedlich starke Laserstrahlen. Zum Schreiben wird die Intensität des Laserstrahls mehr als verzehnfacht.

Zur Verdeutlichung: Die Leistung des Lasers liegt dann ungef√§hr zwischen 18 bis 20 Milliwatt. Dies gen√ľgt, um die entsprechende Schicht bis zum Schmelzpunkt zu erhitzen. Die Stellen, an denen der Schreiblaser auftrifft, √§ndern ihre Reflexion beim Abtasten durch den Leselaser. Beim Phasenwechselverfahren wird durch Fotozellen zwischen zwei Intensit√§ten des Lesestrahls differenziert - im Gegensatz zur magneto - optischen Technologie, wo die Polarisation des Lichtes entscheidend ist. Hat die Intensit√§t nach der Reflexion stark abgenommen, so steht dies f√ľr den Zustand 1, wird der Laserstrahl ohne Intensit√§tsverlust reflektiert, beschreibt dies den Zustand 0. Der starke Schreiblaser √§ndert beim Schreiben durch Erhitzen und rasches Abk√ľhlen die Atomstruktur und damit die Reflexionsf√§higkeit des Materials. Dabei macht man sich die Tatsache zunutze, dass einige Materialien mit einem Laserstrahl zwischen einem amorphen und einem kristallinen Zustand hin - und hergeschaltet werden k√∂nnen. Im amorphen Zustand weisen diese Materialien einen deutlich geringeren Reflexionsgrad auf als im kristallinen. Der amorphe Zustand, beziehungsweise der bin√§re Zustand 1, wird durch die Erhitzung auf den Schmelzpunkt erreicht.
Um die Teilchen wieder in den kristallinen Zustand zu versetzen, gen√ľgt es, einen schw√§cheren Laserstrahl zu verwenden. Die Teilchen werden dann zwar auch erw√§rmt, aber nicht bis zum Schmelzpunkt gebracht. Aufgrund der durch die zugef√ľhrte W√§rme gewonnenen Bewegungsfreiheit richten sie sich wieder in kristallinen Strukturen aus. Dies bedeutet, dass an dieser Stelle wieder der Zustand 0 erreicht wird. Die Unterschiede in der Intensit√§t der Reflexion sind dabei wesentlich gr√∂√üer als die Polarisationsunterschiede beim magneto - optischen Verfahren.

Gegen√ľber dem magneto - optischen Verfahren kann das Phasenwechselverfahren mit einer deutlich schnelleren Geschwindigkeit aufwarten. Dies begr√ľndet sich darin, dass vor dem Beschreiben der Platte die darauf vorhandene Information nicht erst gel√∂scht werden muss. Der optische Datentr√§ger kann bei nur einer Umdrehung beschrieben werden, w√§hrend bei dem magneto - optischen Verfahren stets derer drei notwendig sind. Dieses optische Laufwerk ist aufgrund der Technologie kosteng√ľnstiger herzustellen als ein magneto - optisches Laufwerk. Der Schreib - /Lesekopf ist weniger komplex und weist daher auch ein wesentlich geringeres Gewicht auf. Allein durch Ver√§nderung der Intensit√§t kann mit einem Laser geschrieben und gelesen werden. Ein leichterer Schreib - /Lesekopf verk√ľrzt die Zugriffszeit erheblich, da er wesentlich schneller an die entsprechende Stelle der Platte gefahren werden kann. In bezug auf die Zugriffszeit sind die technischen M√∂glichkeiten mit Sicherheit noch nicht ausgesch√∂pft, auch wenn von Laufwerken, die mit dem Phasenwechselverfahren arbeiten, schon Zugriffszeiten erreicht werden, die im Bereich √§lterer RLL - Festplatten liegen. Denkbar w√§re beispielsweise auch eine Erh√∂hung der Umdrehungszahl. Fortschritte werden in der Verbesserung der Aufzeichnungsdichte erzielt. Erst wenn die Zugriffszeiten mit denen magnetischer Speicher vergleichbar sind, werden beide Verfahren in direkter Konkurrenz zueinander stehen. Hinsichtlich der Kapazit√§t lassen sich bei optischen Speichermedien zwei Aufzeichnungsverfahren unterscheiden. Zum einen findet das CAV - Verfahren (CAV = Constant Angular Velocity) Verwendung. Hierbei bleibt die Drehzahl der Platte konstant. Daher ist die Dichte der Daten in den inneren Bereichen der Platte gr√∂√üer als in den √§u√üeren. Im Gegensatz dazu steht das CLV - Verfahren (CLV = Constant Linear Velocity). Bei diesem Verfahren wird die Fl√§che der Platte effektiver genutzt. Die Dichte der Informationen ist stets gleich, sowohl auf den √§u√üeren Spuren als auch auf den inneren. Die insgesamt gr√∂√üere Gesamtkapazit√§t wird jedoch durch eine l√§ngere Zugriffszeit erkauft, da die Drehzahl der Platte w√§hrend des Durchlaufs ge√§ndert werden muss und eine komplexere Datenorganisation erforderlich ist.

Der Trend geht eindeutig zu wiederbeschreibbaren Opto - Laufwerken. Die Zukunft gehört Kombi - Laufwerken, die sowohl WORMs als auch CDs und Phase - Change - Disks lesen können, welche zudem in der Lage sind, unterschiedliche Datenträger zu beschreiben. Starke Zuwachsraten verzeichnen auch die "Jukeboxen", die mechanisch mehrere Disks verwalten können. Im Vordergrund stehen bei den Jukeboxen nach wie vor die CD - ROMs.
Auch bei den Materialien und den Herstellungsverfahren wird die Forschung vorangehen, so dass sinkende Preise und h√∂here Leistungen zu erwarten sind. Die optischen Speichermedien sind jedoch beileibe nicht die einzigen, auf denen die Entwicklung weitergeht. Festplatten werden immer schneller und bieten mehr Speicherkapazit√§t bei sinkender Ger√§tegr√∂√üe. Ebenso macht im Bereich der Archivierung die Entwicklung der Bandlaufwerke Fortschritte. Selbst die altbew√§hrte Diskette ist vom Fortschritt nicht ausgeschlossen und wird mit einem Vielfachen der heutigen Speicherkapazit√§t aufwarten k√∂nnen. Die ultimative Technologie wird es daher nicht geben. Der Anwender wird stets nach Einsatzgebiet, zur Verf√ľgung stehenden Mitteln und Speicheranforderungen abw√§gen m√ľssen, f√ľr welche Technologie er sich entscheidet. Dabei wird es eher ein Miteinander als ein Gegeneinander der einzelnen Technologien geben.

12611 Worte in "deutsch"  als "hilfreich"  bewertet