Dokumentverantwortliche: Martin Gasser, Martin Treiber, Peter Warasin, Johannes Egger, Hannes Kaiser

fit 2001 > Gruppenthema > Vergleich

Überblick

 

 

Vergleich von Audioformaten



Allgemeines

Es werden die Audioformate wav, midi, mod und- wie koennte es anders sein- mp3 verglichen. Man kann diese vier Formate prinzipiell in 2 Gruppen einteilen: wav und mp3 auf der einen und mod und midi auf der anderen Seite.
Bei wav werden die gesamten Audiodaten in einzelnen Samples gespeichert; mp3 komprimiert diese Audiodaten ohne spürbaren Qualitätsverlust, wobei man mit einem Bruchteil des ursprünglichen Speicherbedarfs auskommt.
Mod-files verwenden ein ganz anderes Prinzip: Statt das Musikstück in einzelne Samples zu zerlegen, werden hier die Samples der Instrumente abgespeichert. MIDI funktioniert auf eine ähnliche Art und Weise.



WAV

technisch

WAV ist ein sogenanntes chunkformat: Es besteht aus einer Reihe sogenannter chunks, welche die gesamte Information über das Audio-Stück beinhalten. Dabei kann man zunächst zwischen notwendigen und optionalen chunks unterscheiden. Es gibt 3 chunks, welche in jedem WAV-file enthalten sein müssen. Dies sind der Form-, der FMT- und der Data- Chunk. Diese 3 Chunks bilden das Grundgerüst des files. Alle weiteren Chunks, wie z.B. der Playlist-Chunk, sind optional.
WAV-files sind im Allgemeinen unkomprimiert. Abhängig von der Abtastrate und davon, ob das signal monoform oder stereoform vorliegt und ob 8 oder 16 bit für jeden Abtastwert verwendet werden, kann eine Aufzeichnung von einer Minute Dauer zwischen 644 KB und 10 MB Speicher benötigen.
Auf CDs werden Daten im sog. CD-DA Format gespeichert, welches dem Standard WAV-Format sehr ähnlich ist.


historisch

Das WAV-Format ist ein Subset von Microsoft's RIFF-Spezifikation und kann verschiedenste Arten von Daten enthalten. Ursprünglich war es für Multimedia-Files vorgesehen, doch die Spezifikation ist relativ offen (also nicht besonders strikt) und erlaubt es, praktisch alles in einem solchen file zu plazieren; ungeeignete Daten würden von einem Programm, welches das Format korrekt interpretiert, einfach ignoriert.
RIFF ist ein Format für Multimedia-Daten wie Audio und Video, es basiert auf sog. Chunks und Sub-Chunks. Das gesamte RIFF-File ist wiederum ein Chunk, der alle anderen Chunks enthält.
WAVE (WAV) ist ein Subtyp von RIFF und muss aus mindestens 3 Chunks bestehen, alle weitere RIFF-Chunks sind außerdem zulässig. Da eine einfachere (unvollständige) Version des WAVE-Formats vor der Win32 API veröffentlicht wurde, haben ältere Programme unter Umständen Probleme, WAVEs zu interpretieren, welche aus mehr als 3 Chunks bestehen.
Es ist eine relativ unbekannte Tatsache, dass WAVE-files Datenkompression unterstützen. Tatsächlich sind komprimierte WAVE-files relativ unüblich. Die Win32 API Dokumentation gibt Aufschluss darüber, welche Kompressionen möglich sind und wie komprimiert / dekomprimiert wird.


Anwendung

Im Prinzip für alle Gelegenheiten geeignet, aber normalerweise (unkomprimiert) erzeugt WAV (bei hoher bzw. CD-Qualität) sehr große Dateien. Aufnahme und Wiedergabe sind problemlos. Verwendung bei:

  • Qualitätsmässig hochwertigen aber kleinen Tondateien
  • Sprachaufnahmen in mono
  • Einfachen Musikaufnahmen
  • Eingeschränkten Aufnahmemöglichkeiten.

Zusätzlich ist WAV meist das Zwischenformat zwischen MP3 und CDDA: Wenn man ein mp3 von Songs auf einer CD erzeugen will, erzeugt man erst die WAVs von den Tracks auf der CD und komprimiert diese dann zu mp3s. Umgekehrt werden oft mp3s zu WAVs dekomprimiert und dann als CDDA auf CD gebrannt. Die Konvertierung WAV -> CDDA übernimmt dabei die CD-R-Software.


MP3

technisch

MP3 steht für MPEG Layer III. Vereinfacht kann man mp3's als komprimierte wav-files betrachten. Generell kann man sagen, dass ein "typisches" mp3 1/10 des Speicherplatzes des korrespondierenden unkomprimierten audio-formats benötigt.
Unkomprimierte Audiodaten, wie z.B. auf einer Audio-CD, speichern mehr Daten als das menschliche Ohr verarbeiten kann. Wenn zwei Noten sich sehr ähnlich sind und sehr nahe beieinander liegen, wird das menschliche Ohr nur eine der beiden Noten hören. Wenn zwei Sounds sehr unterschiedlich sind, jedoch einer sehr viel lauter als der andere ist, hört das menschliche Ohr nur den lauteren Sound. Außerdem ist das menschliche Ohr für gewisse Frequenzen empfänglicher als für andere. Die Studie dieser Phänomene nennt man Psychoakustik, und darüber ist sehr viel bekannt. Diese Phänomene sind genauestens in Tabellen, Diagrammen und mathematischen Modellen des menschlichen Hörprozesses zusammengefasst. Sehr vereinfacht gesagt liest ein mp3 encoder also ein wav-file und lässt all jene Daten weg, die das menschliche Ohr sowieso nicht hören würde.
Mp3 wird auch als "perceptual codec" bezeichnet. Ein "Codec" ist ein Satz von Kompressions- und Dekompressionsalgorithmen. Mit "perceptual" ist gemeint, dass es wenig Sinn hat, Information zu speichern, welches Menschen sowieso nicht hören können. Wie einfach sich dies auch anhören mag- man ist überrascht, erfährt man, dass gute Aufnahmen eine Unmenge an Daten speichern, welche man nie hören wird, weil das recording equipment (Mikrophone, Gitarren, etc.) für ein breiteres Spektrum von Sounds und Audioauflösungen empfänglich ist.
Mp3 verwendet zwei Kompressionsverfahren, um diese Kompressionsraten über unkomprimierte Audiodaten zu erzielen. Im ersten Schritt wird verworfen, was wir nicht hören (bzw. akzeptable Kompromisse gemacht); im zweiten Schritt werden Redundanzen mit herkömmlicheren Algorithmen weiter komprimiert. Der erste Schritt ist bei weitem komplizierter und komplexer als der zweite.

  • Signal wird in Frames aufgespaltet (typische Länge: Bruchteil einer Sekunde).
  • Signal analysieren: Auf dem gesamten Spektrum der hörbaren Frequenzen, herausfinden, wie die bits verteilt werden müssen, um die Audiodaten optimal zu komprimieren. Da verschiedene Frequenzbereiche am besten mit ähnlichen Algorithmen behandelt werden, wird das Signal hier in sub-banden eingeteilt, welche parallel verarbeitet werden können.
  • Aus der angegebenen Bitrate wird berechnet, wieviele bits auf ein Frame fallen. Mit 128 kbps gibt es z.B. eine Obergrenze, welche angibt, wie viele Daten in einem Frame gespeichert werden können (außer, man arbeitet mit Variablen Bitraten (VBR)). Dieser Schritt entscheidet, wieviel der vorhandenen Audiodaten gespeichert werden und wieviel davon verworfen wird.
  • Die Frequenzen, welche jedes Frame belegen, werden mit mathematischen Modellen der Psychoakustik verglichen, welche im Codec als Referenztabelle gespeichert sind. Aus dem Modell kann abgeleitet werden, welche Frequenzen genauestens erfasst werden müssen und welche weggelassen werden können bzw. nur wenige bits in Anspruch nehmen dürfen, da der Mensch sie sowieso nicht hören kann.
  • Auf den erhaltene Bitstream wird der Prozess des Huffman-Coding angewendet, welcher redundante Information komprimiert. Huffman-Coding arbeitet nicht mit psychoakustischen Modellen sondern mit traditonelleren Methoden. Man kann also den gesamten mp3-encoding-Prozess als zwei-Schritt-System sehen: Zuerst die psychoakustischen Modelle anwenden, wobei Daten weggelassen werden, dann die restlichen Daten komprimieren, um Redundanzen zu vermeiden. Der zweite Schritt lässt keine Daten weg- er ist verlustfrei!
  • Die Frames werden in einen (seriellen) Bitstream umgewandelt, vor jedem Frame gibt es header-Informationen, welche essentielle Daten über das Frame angeben.

Der de-facto-Standard vor noch einem Jahr war es, mp3s mit einer Rate von 128 kbps zu komprimieren. Dabei gibt es z.T. heftige Kontroversen über die Frage, ob man in einem 128kbps-mp3 (stereo, 44.1 KHz) den unterschied zu CD-Qualität hört oder nicht, und weitere Kontroversen über die Frage, ob nicht etwas grundsätzliches verlorengeht, obwohl man den Unterschied nicht hören kann ("es ist nicht dasselbe!").
Inzwischen ist man vielfach dazu übergegangen, mp3s mit 160kbps und 192kbps zu komprimieren. Dies hat stark mit den beständig steigenden Kapazitäten von Festplatten und gleichzeitig sinkenden Preisen zu tun, außerdem besitzen- im Vergleich zu von vor 4 Jahren- sehr viele PC-Besitzer CD-Brenner und verwenden diese auch für die Archivierung von mp3s.
Es ist beim mp3-format (im Gegensatz zu JPEG) nicht möglich, den Verlustfaktor bei der Kompression direkt anzugeben. Stattdessen kann man die Anzahl der bits pro Sekunde angeben, was ein ähnliches Endresultat hat. Bei einer niedrigeren Bitrate wird das codec "strikter" angewendet bzw. Irrelevanz- und Redundanzkriterien werden schärfer beurteilt. Das hat natürlich zur Folge, dass mehr Daten verworfen werden, was eine geringere Qualität zur Folge hat.
Bitrates geben die Gesamtrate für alle komprimierten Kanäle an. Das bedeutet, dass 128kbps stereo gleichbedeutend ist (sowohl in Größe als auch in Qualität) mit 2 * 64kbps mono.
Variable Bitrate mp3s (VBR) sind mp3s, bei denen sich die Bitrate von Frame zu Frame ändern kann. Ursprünglich war die Bitrate durch alle Frames konstant (CBR). Tatsache ist jedoch, dass Musik in keinster Weise konstant strukturiert ist- Passagen mit vielen Instrumenten und Stimmen werden von Passagen mit sehr wenigen abgelöst usw. Bei der Kompression mit VBR wird eine Toleranzschwelle angegeben, welche- verwirrenderweise- bei verschiedenen Encodern verschiede mögliche Werte annehmen können (zB 0-10 oder 0-100).
Die Kompression von mp3s erfordert sehr viel mehr Ressourcen als die Dekompression (Wiedergabe). Wiedergabe in Stereo / 128 kbps / 44.1 KHz erfordert typischerweise mindestens einen Pentium 100.


Anwendung

Mp3s sind sehr weit verbreitet- man spricht oft von einem "mp3 boom". Sie werden überwiegend für die Wiedergabe von Musik in CD-Qualität über das Internet verwendet. Obwohl es inzwischen Formate gibt, welche über leicht bessere Kompressionsalgorithmen verfügen (wma), haben sie sich bis jetzt kaum durchgesetzt. Zu dieser Entwicklung gibt es zahllose historische Parallelen.


MOD

technisch

Anstatt das gesamte Musikstück in Samples zu zerlegen, werden hier nur die Samples der verwendeten Instrumente abgespeichert und die sog. "Partitur" des Musikstücks. Man unterteilt das Musikstück hier also nicht in Abschnitte, sondern gliedert es mehr inhaltlich.
In einem mod-file stehen mehrere kurze Samplings, welche jeweils ein Musikinstrument darstellen. Zusätzlich wird die Partitur mit den Noten abgespeichert.
Man kann damit vorhandene Musikstücke natürlich nicht einfach digitalisieren- es bedeutet einen hohen Produktionsaufwand. Auf der anderen Seite verringert sich hier die Datenmenge immens, da nur die Instrumente und nicht das ganze Stück als Sample abgespeichert werden.
Bis zur Position 20 ist der Titelname untergebracht. Falls dieser kürzer als 20 Zeichen sein sollte, wird der Rest mit Nullen aufgefüllt. Danach werden bis zu 30 Samples abgespeichert: Diese Samples sind die einzelnen Instrumente. Das bedeutet, daß nicht mehr als 30 Instrumente bei einem Musikstück im MOD-Format benutzt werden können. Die Tonhöhe der einzelnen Instrumente ist in achtel-Halbtonschritten variierbar. Sämtliche Informationen, wie welches Instrument einzusetzen ist, sind in der Partitur festgehalten.
Die ersten mod-files entstanden auf dem Amiga, zu einer Zeit, wo die Sound-Hardware von PCs nicht mehr als einige Piepser von sich geben konnte. So ist es nicht verwunderlich, dass das Format von MOD-files genau auf die Fähigkeiten der Amiga-Hardware abgestimmt ist (d.h. 8 Bit Auflösung, linear, max. 28KHz Abtastrate, max. 4 Stimmen). Das Mischen der Stimmen geschieht auf dem Amiga in Hardware, die Sample-Daten werden per DMA übertragen, sodass selbst für heutige Verhältnisse lahme Prozessoren nur zu einem geringen Teil belastet wurden.


historisch

1987 veröffentlichte Karsten Obarski, der damals für EIDOS Interactive arbeitete, ein Programm namens Soundtracker. Tatsächlich legte er mit diesem Schritt den Grundstein für eine ganze Szene.
Verglichen mit heutiger Musiksoftware bot Obarskis Software eher bescheidene Möglichkeiten. Es gab keine Unterstützung für externe Instrumente wie Sample oder Synthesizer, und dank des Amiga-Soundchips konnten nur 4 Stimmen gleichzeitig wiedergegeben werden, echte Stereoausgabe war ebenfalls unbekannt.
Die so genannten Modules bestehen aus einzelnen Samples und den Anweisungen darüber, wann und wie diese gespielt werden sollen. Die Daten werden von einem MOD-Player interpretiert.
Die Technik beeinflusste die Szene der Amiga-Musiker ganz wesentlich. Die Samples konnten exportiert werden, die Programmierung lag offen, jeder Track war eine Anleitung zum Selbermachen, jeder Remix nur einen Mausclick entfernt. Es gab keine Trennung zwischen Konsumenten und Produzenten.
Gerade aus diesen Gründen- weil jeder jedem in die Karten schauen darf- war Originalität besonders gefragt. Außerdem hatte damals im Wesentlichen jeder die gleichen technischen Voraussetzungen und konnte nicht aufgrund eines besseren Equipments bessere Tracks produzieren.
Der Internetboom bedeutete so etwas wie einen Wendepunkt für die Tracker-Szene: Mit der Zeit sahen die Musiker ihre Tracks nicht mehr nur als Beiwerk zu Demos und emanzipierten sich von dieser Szene. Eigene Music-Groups schlossen sich zusammen und bildeten im neuen Medium neue Vertriebsnetzwerke. Einen kräftigen Schub bekam diese Entwicklung dann mit dem Aufkommen des WWW.
Die Gruppen designten sich eigene Websites und gaben sich damit ein eigenes Gesicht; statt "music group" nannte man sich "net label". Anstatt musik stilistisch wild durcheinander zu veröffentlichen, suchte man sich seine Sparte. In den Jahren ´94 bis ´96 entstanden viele auch heute noch engagierte Netzlabels.
Als der mp3-Boom ausbrach, hatten viele Tracker Angst, vom neuen Format überrollt zu werden. Die öffentliche Diskussion spitzte sich auf mp3.com und illegale mp3s zu, Trackerlabels waren den meisten Neulingen im Netz unbekannt. Einige Sites sahen darin auch die Chance, mehr Aufmerksamkeit zu bekommen: Seit einem Jahr bietet die Site ModPlug Central (www.modplug.com) mp3s an, die gleichzeitig als mod veröffentlicht werden und so die "Angst" vor dem unbekannten Format nehmen sollen. Modplug Central möchte damit mod-files als unkommerzielle Alternative zu Plattenlabeln und Raubkopien empfehlen.
In den letzten Jahren haben jedoch immer mehr Trackerlabels das mp3-format für sich entdeckt, der open-source-Gedanke geht dabei zwangsläufig verloren. Bandbreite spielt heute eine geringere Rolle bei der Distribution der Musik, und auch der durchschnittliche PC ermöglicht, was früher nur Studios mit professionellem Equipment vorbehalten war. Auch die Trackerentwicklung hat eben vor dem technischen Fortschritt nicht haltgemacht.


Anwendung

Tatsächlich sind mod-files den vielen neuen Benutzern des Internet und Personen, welche sich nicht seit Anfang der 90er Jahre mit Computern befassen, weitgehend unbekannt. Tatsächlich gab es mod-files natürlich auch auf dem PC, doch ihre Nutzung beschränkte sich auf wenige Interessierte und "Power User" des PC. Der sog. "mp3 boom" beschränkt sich indessen nicht nur auf erfahrene PC-Benutzer, sondern hat unabhängig von der Erfahrung mit dem Umgang des Computers praktisch grosse Teile des Internets befallen. Diese Entwicklung hat sicher auch mit der fortschreitenden Vereinfachung der Bedienung eines Computers (Betriebssysteme mit grafischer Benutzeroberfläche etc) im Vergleich zum Stand Anfang der 90er Jahre zu tun.


MIDI

technisch

Midi erzeugt keine eigentlichen Tondateien, sondern legt "nur" intern eine Liste an, mit welchen Mitteln das vorhandene Hardware-Equipment (Soundkarte mit MIDI-Interface) bestimmte Instrumente "nach"spielen soll. "MIDI-Musikstücke" können auf jedem Rechner unterschiedlich klingen.
Das MIDI-Format ist dem MOD-Format im Prinzip sehr ähnlich, nur fehlen hier die Samples der einzelnen Instrumente. Statt der Informationen über die einzelnen Instrumente sind bei diesem Format dort nur Nummern verzeichnet. Die entsprechenden Instrumentinformationen zu den Nummern müssen dann in einer speziellen Software oder auf der Hardware realisiert werden.
Die meisten Soundkarten besitzen eine MIDI-Schnittstelle. Weiters sind sie in der Lage, selbst solche MIDI-Sequenzen zu verarbeiten und dazu die entsprechenden Töne zu erzeugen. Die Töne sind in digitaler Form auf der Karte abgelegt, im sog. Wavetable-ROM. Bessere Karten verfügen zusätzlich über ein RAM, wo man selbst neue Sounds ablegen kann. Der MIDI-Teil einer Soundkarte lässt sich jedoch auch in Software nachbilden.
Da keinerlei Samples untergebracht werden müssen, ist das Format natürlich unheimlich "klein". Andererseits ist eine getreue Wiedergabe des Musikstücks fast nicht möglich, da häufig die genauen Instrumenteninformationen nicht vorhanden sind und jeder Hersteller solche Instrumentensamples etwas anders gestaltet. Einigkeit besteht zumindest darin, dass eine Gitarre wie eine Gitarre klingen soll und ein bestimmter Grundvorrat an Instrumenten immer vorhanden ist.
Ein weiteres, grundsätzlicheres Problem bei MIDI ist- ebenso wie bei MOD- dass kein Gesang abgespeichert werden kann, da sich die Stimme nicht wie ein einfaches Instrument samplen lässt. Grade bei neueren Musikstilen wie Techno können diese Formate eine echte Alternative sein.


historisch

Mitte der 80er Jahre tasteten sich die Musikstudios vorsichtig auf das neue Feld der auf MIDI-Recording und Soundsampling basierenden Musikcomputer vor. Die ersten Geräte befanden sich damals z.T. in Privatbesitz von Dozenten an Universitäten. Anfang 1986 startete Wolfgang Martin Stroh eine Artikel-Serie in der Zeitschrift "Populäre Musik im Unterricht" mit Tips und Praxistests für den Commodore-Einsatz.
1987 begann der Einstieg in die Digitalära und das Midi-Recording. Bis heute wird z.T. noch auf den robusten Atari ST gearbeitet.
Der Atari ST war der erste Rechner, welcher über eine MIDI-Schnittstelle verfügte. Damit zog er in die Musikstudios ein.



Vergleiche

Eine Stunde aufgezeichneter Musik benötigt mit 16 bit, 44KHz Stereo (unter der Voraussetzung, dass sie in CD-Qualität wiedergegeben werden soll) im WAV-Format ca. 600 MB. Im MOD-Format erreicht man zwar keine CD-Qualität, kommt aber schon mit 1/10 des Speicherplatzes aus. Bei MIDI ist man dann schon bei nur 200 KB angekommen. Allerdings kann man hier auch beim besten Willen nicht mehr von CD-Qualität sprechen.
Wenn man sich den Speicherverbrauch und die Qualität der Wiedergabe der einzelnen Formate ansieht, versteht man, warum man so interessiert daran ist, die Musik als ganzes zu samplen, danach aber so zu komprimieren, dass man ohne spürbaren Qualitätsverlust mit einem Bruchteil des ursprünglichen Speicherplatzes auskommt -> mp3!
Während mp3s und wavs sich weltweit eines großen Nutzerkreises erfreuen, sind midi-files und wohl vor allem mod-files der "neuen Generation" der (Internet-) Benutzer wohl weitgehend unbekannt.



Soundtracker vs. Propellerhead Reason



Was ist ein Soundtracker?

Im wesentlichen handelt es sich bei einem Soundtracker um ein Tool, mit dem Samples in einer festgelegten zeitlichen Reihenfolge plaziert werden können. Zusätzlich können auf diesen Samples noch einfache DSP-Aktionen ausgeführt werden (Tonhöhe verändern, Echo, Portamento). In gewisser Weise ist also ein Soundtracker mit einem Midi-Sequencer vergleichbar, der ebenfalls für die Aufzeichnung der zeitlichen Aneinanderreihung von Events verantwortlich ist. Der große Unterschied ist aber einerseits die Art, wie Klänge erzeugt werden, und anderersseits das verwendetete Fileformat. Während im Midi-Format Zeitpunkt (Note On, Note Off-Events), das verwendete Instrument (z.B. nach dem GM-Standard), Höhe und einige andere Effektinformationen in einem standardisierten Format abgespeichert werden (siehe http://www.midi.org/), sind im MOD-Format der Soundtracker die verwendeten Samples bereits im File inkludiert (siehe http://www.wotsit.org/download.asp?f=modfil11).
Grundsätzlich ist ein Soundtracker-Modul (so werden die Songs genannt) aus Patterns aufgebaut, die dann beliebig oft wiederholt und aneinandergereiht werden können.
Die einzelnen Spuren ("Tracks") eines Moduls werden spaltenweise angeordnet, wobei jede Zeile in einer Spalte einem Beat in einem festgelegten Raster entspricht. So lässt sich beispielsweise eine Zeile mit einer 16tel-Note assozieren, 16 Zeilen entsprechen dann einem Takt. Für jede gesetzte Note steht an erster Stelle der Ton, die Oktave und dahinter noch zusätzliche Informationen (Portamento, Vibrato,...).
Die Eingabe findet bei Trackern grundsätzlich über die Tastatur statt, wobei eine Klaviertastatur auf das Computerkeyboard gemappt wird.
Die Eingabe der Patterns kann einerseits "in Echtzeit" geschehen, oder aber im Editiermodus, hier kann man dann auch Effektinformation genau angeben und beispielsweise fließende Übergänge zwischen Noten realisieren ("Portamento").


historisches

Der erste Soundtracker wurde von Karsten Obarski im Jahr 1987 für die Amiga-Plattform veröffentlicht. Der Amiga konnte bereits vier unabhängige Spuren mit 8 Bit Auflösung wiedergeben, dadurch konnten bei effizienter Ausnutzung der Ressourcen bereits relativ komplexe Musikstücke wiedergegeben werden. Die meisten Soundtracks für Amiga-Spiele wurden damals auf Soundtrackern komponiert.
Später gelang es, mit Hilfe von Tricks 8 Spuren auf einem Amiga wiederzugeben (Oktalyzer). Mit der steigenden Verbreitung von IBM-PC's (und kompatiblen) im Heimbereich und der Verfügbarkeit von technisch immer ausgereifteren Soundkarten (allen voran der Soundblaster von Creative Labs) verbreiteten sich auch in diesem Bereich die Soundtracker-Clones (Noisetracker).
Heute ist der Ur-Soundtracker nur für die Linux/XWindow-Plattform erhältlich (siehe http://www.soundtracker.org), für MS Windows gibt es derzeit keine funktionierende Portierung. Es existiert jedoch eine ganze Reihe von (oft um viele Features erweiterten) Tracker-Derivaten für Windows (siehe http://www.soundtrackers.de).


Features / Weiterentwicklungen

 

Abbildung 1: Main window eines typischen Soundtracker



Im Laufe der Zeit wurden die Soundtracker um immer ausgefeiltere Features erweitert. So wurden z.B. mehr oder weniger leistungsfähige Sample-Editoren integriert (Abbildung 2).


 

Abbildung 2: Sample-Editor



Sample-Editoren gestatten es, Sound aufzunehmen und ihn mit Hilfe von Cut-, Copy- und Paste-Operationen nachzubearbeiten. Ausserdem ist es möglich, Sounds als "Loop" zu definieren, d.h. dass man beispielsweise einen Drumbeat zyklisch wiederholen kann. Als besonders nützlich erweist sich auch ein Instrument-Editor, mit dem es möglich ist, Parameter wie das Ausklingen des Instruments oder Effekte festzulegen (Abbildung 3).

 

Abbildung 3: Instrument-Editor






Was ist Reason?

Ohne Übertreibung kann man Reason aus der schwedischen Musiksoftwareschmiede Propellerhead ( http://www.propellerhead.se/) als revolutionäre Software bezeichnen. Grundsätzlich besticht es durch folgende Features:

  • Intuitives UI, die Bedienung ähnelt in verblüffender Weise ähnlich funktionierender Hardware.
  • Qualität der erzeugten Sounds, bei verhältnismäßig niedrigen Anforderungen an den Rechner.
  • Außer einer 16 Bit-Soundkarte und einer hinreichend schnellen CPU (läuft problemlos auf einem PII 350) gibt es keine zusätzlichen Anforderungen an die Hardware.

Dem User präsentiert sich Reason als virtuelles Studio-Rack, in das verschiedene Klangerzeuger, Sequencer, Effektgeräte und Mischer eingesetzt werden können. Dabei geschieht die Zusammenstellung und Verkabelung der Geräte vollkommen grafisch und per Drag&Drop (siehe Abbildungen 4 und 5).


Welche Komponenten beinhaltet Reason?

Neben Geräten wie Sequencern, Analog-(Software)Synths, Mixern, Drumcomputern und Effektgeräten gibt es auch Sampler, Loop-Player und Midi-Input-Devices. Außerdem gibt es die Möglichkeit, den Audio-Output über das ReWire-Protokoll an Software wie Steinberg Cubase VST oder Logic Audio umzuleiten und dort zu mischen bzw. mit Effekten nachzubearbeiten.
Indem man [TAB] drückt, kann man das gesamte Rack von hinten betrachten (Abb. 5) und mit Hilfe der Maus die einzelnen Geräte miteinander verbinden. Dabei verfügt jedes klangerzeugende Gerät über einen CV (Control Voltage) und einen Gate-Eingang, das mit einem entsprechenden Ausgang eines steuernden Gerätes verbunden werden kann. Effektgeräte können - so wie bei einem echten Studiomischpult - in den Effektweg des Reason-Mischpultes eingeschleift werden.


MIDI-Integration

Alle Geräte in Reason können über Midi kontrolliert werden. Dabei kann Midi sowohl bei der Komposition (beispielsweise können Synthesizer-Spuren mit einem Keyboard eingespielt werden) als auch im Production Level eingesetzt werden. So kann Reason komplett über einen anderen Sequencer kontrolliert werden, und auf diese Weise kann es auch in komplexen Studio-Environments eingesetzt werden.
Mittels des ReWire2-Protokolls ist es möglich, Reason von Cubase aus zu verwenden. Cubase fungiert dann als Sequencer und Reason übernimmt nur mehr die Klangerzeugung.



Vergleich

Grundsätzlich muss gesagt werden, dass sich die Ansprüche, die an Musiksoftware gestellt werden, im Laufe der Zeit stark verändert haben. So ist es vor 10 Jahren noch undenkbar gewesen, mit Hilfe eines Software-Synthesizers hochqualitative Sounds zu erzeugen, sie durch ein Mischpult zu routen und gleichzeitig mit Effekten zu versehen und dann digital auf einer Harddisk zu speichern.
Es hätte also wenig Sinn, die technischen Daten der Programme direkt gegenüberzustellen. Ich werde jedoch versuchen, einige Anwendungsszenarios und (Un)Möglichkeiten für den Einsatz der Programme zu zeigen.
Während es sich bei einem Soundtracker - wie schon weiter oben erwähnt - um eine Software handelt, die im wesentlichen nichts anderes tut, als Samples in einer zeitlich festgelegten Abfolge und in unterschiedlicher Geschwindigkeit abzuspielen, bietet Reason viele Möglichkeiten, die in einem modernen Studio vorzufinden sind. Daraus folgt, dass sämtliche Sounds, die ein Tracker wiedergeben kann, in Form eines Samples vorliegen müssen, während Reason die Möglichkeiten der künstlichen Klangerzeugung mit Software-Synthesizern bietet. Reason kann jedoch auch die von einem Tracker gebotenen Möglichkeiten mit Hilfe des integrierten Pattern-Sequencers und des Digitalsamplers abdecken. Hier zeigt sich ein kleiner "Vorteil" der Soundtracker gegenüber dem modular aufgebauten Reason, da in die meisten Tracker bereits ein kleiner Sample-Editor mit Aufnahmemöglichkeit eingebaut ist. Dieser Vorteil wird jedoch durch die Verfügbarkeit leistungsfähiger Editoren (e.g. Cool Edit, Propellerhead ReCycle, Steinberg WaveLab) mehr als kompensiert. Genau hier schließt auch der nächste große Vorteil von Systemen wie Reason an: Durch die Midi-Fähigkeit und das ReWire-Protokoll von Propellerhead wird die Integration sowohl mit Midi-Hardware als auch mit anderer Software (Steinberg Cubase, Logic Audio) zum Kinderspiel. So kann man beispielsweise ein Laptop mit Reason und Cubase VST nahtlos in ein bestehendes Midi-Setup integrieren. Ein PC/Laptop wird somit zum (portablen) Synthesizer, Sampler, Sequencer und Effektgerät und das alles bei professioneller Soundqualität.
Somit sind eigentlich auch die Zielgruppen definiert: Während die Soundtracker eindeutig für den Homecomputer- und später Home-PC-Anwender und für Spieleprogrammierer entwickelt wurde, zielt Reason eindeutig auch auf den professionellen Bereich ab. Allerdings ist es aufgrund seines relativ niedrigen Preises auch für Homerecording-Anwendungen und Hobbymusiker erschwinglich.
Der Preis ist aber gleichzeitig der größte Vorteil der Soundtracker, da mittlerweile alle Tracker als freie Software bzw. Shareware existieren. Allerdings glaube ich, dass der hohe Entwicklungsaufwand den Preis von Reason mehr als rechtfertigt, und wenn man sich mal die Preise für entsprechende Hardware ansieht, ist das Preis/Leistungsverhältnis unschlagbar.



Fazit

Zweifelsohne waren die ersten Soundtracker mit den damals überragenden Soundfähigkeiten des Commodore Amiga beeindruckend. Allerdings sind die Schwächen der Tracker offensichtlich. Die nicht vorhandene Midi-Integration und die Beschränkung auf gesampelte Sounds schränken das Anwendungsfeld sehr ein, da es mittlerweile andere Sampler-Software gibt, die außerdem über Midi angesteuert werden kann, sind Tracker heute eine Spielerei für Freaks und nicht mehr.
Mit der Veröffentlichung des Realtime-Softwaresynthesizers mit integriertem Sequencer, Rebirth, sorgte Propellerhead bereits für Gesprächsstoff in der Szene. Mit dem neuen Tool Reason wurden jedoch sowohl in puncto Soundqualität und als auch Usability neue Maßstäbe gesetzt. Bereits nach kurzer Einarbeitungszeit kann man - einige Erfahrung mit Sound-Hardware vorausgesetzt - erste Ergebnisse erzielen, für den Profi bietet es alle nur erdenklichen Features, vor allem auch in der Integration mit anderer Software.
Natürlich muss gesagt werden, dass Reason/Rebirth bei weitem nicht die einzigen Softwaresynthesizer-Systeme sind. Für eine umfangreiche Liste siehe http://www.synthzone.com/softsyn.htm. Es gibt andere System, z.B. csound (http://www.csound.org), die über eine eigene Programmiersprache gesteuert werden können, und die noch viel weitreichendere Möglichkeiten, u.a. aber auch die Realtime-Softwaresynthese, bieten. Allerdings liegt der Schwerpunkt beim System Reason eben auch im User Interface, und dieses User Interface ist bisher wirklich einzigartig.
Der Trend hin zu den Softwaresynthesizern wird sicher Auswirkungen auf die Art, wie Musik komponiert und produziert wird, aber auch - zusammen mit Entwicklungen wie mp3 oder anderen "netztauglichen" Audioformaten - auf die gesamte Musikbranche, und das sowohl in qualitativer Hinsicht, als auch auf die Beziehung zwischen Komponisten/Künstlern, Produzenten und Plattenfirmen/Verlegern haben. Hier sehe ich aber auch Chancen für Musiker, da mit der Verfügbarkeit professioneller Software im Consumer-Bereich dem Trend hin zum völlig gesichtslosen Musiker, dessen Image nur noch von einer Marketingabteilung festgelegt wird und der aufgrund der Notwendigkeit professioneller Produktionstechnik und eines funktionierenden Vertriebs Produzenten und Plattenfirmen vollkommen ausgeliefert ist, entgegengewirkt werden könnte. Das trifft zwar nur auf den Bereich der elektronischen Musik zu ("richtige" Bands werden nach wie vor kaum um einen Vertrag herumkommen - man sehe sich einmal die Kosten für eine professionelle CD-Produktion im Detail an), gerade in diesem Bereich wird aber von den großen Konzernen am meisten Geld umgesetzt und gerade hier sinkt das Niveau immer tiefer. Das Argument, es könnte mit Hilfe solcher Tool "ein jeder so einen Mist produzieren", kann ich nicht gelten lassen, da gerade ein freier Wettbewerb, in dem nicht von Plattenfirmen diktiert wird was gut und was schlecht sei, für eine andere Bewertung der diversen "DJ Ötzis" und Konsorten sorgen könnte.

 

Abbildung 4: Frontansicht des Reason-Racks



 

Abbildung 5: Rückansicht des Reason-Racks




Tonträger



Langspielplatten

Die älteste Form Musik auf Scheiben zu verfrachten ist die Long Play Platte. Die Musikqualität ist in den von mir vorgestellten Trägern sicherlich die schlechteste, allerdings findet sie nichtsdestotrotz auch heute noch Anwendung. Im Gegensatz zu den Kontrahenten wird die Musik auf Schallplatten (LP's) in analoger Form gespeichert, was zwar eine genaue Aufzeichnung der Musik bedeutet, die Abtastung ist jedoch derart fehleranfällig und ungenau dass sie nicht mehr genau so widergegeben werden kann wie sie aufgenommen wurde.
Kurioses nebenbei: Schallplatten lassen sich inzwischen mittels eines 3D-Scanners so genau abtasten dass sich die dadurch gewonnenen Rillen und somit der gespeicherten Musikinformation auf der Plattenoberfläche mittels Berechnungen in Hochqualitative digitale Musik im MP3 Format umwandeln lassen.
Somit ist eine Schallplatte nicht mehr nutzlos, sondern eigentlich einer CD fast gleichwertig. Das Abtasten mittels 3D-Scanner ist jedoch mit hohen Kosten unterbunden, als noch nicht Marktreif und sicherlich nur für besondere Platten einsetzbar, da es sich sonst einfach nicht lohnt.
Der Schall wird bei Schallplatten so aufgezeichnet wie er in der Natur auch vorkommt, nämlich als sich fortbewegende Wellenform.
Die Aufzeichnung erfolgt mittels einer Nadel welche durch eine Membran, welche den Ton aus der Umgebung abnimmt in Schwingung gesetzt wird. Auf der Platte wird somit ein vertieftes Abbild dieser Schallschwingungen erstellt.


Das Abspielen der Schallplatte erfolgt auf die selbe Weise. Eine in der fortlaufenden Rille auf der Schallplatte angesetzte Nadel welche durch das abtasten in di selbe Schwingung versetzt wird wie auf der Platte eingeritzt, leitet die Schwingungen an eine Membran weiter, welche sie als Ton an die Umgebung abgeben kann.
Anfangs war die Schallplatte eine zylindrische mit einer Metallfolie beschichtete Walze. Da diese aber ziemlich schlecht in der Massenproduktion hergestellt werden konnte kam man zur heutigen Form, nämlich der Scheibe.

Die durchlaufende Rille beginnt dabei am äußersten Rand und folgt der Platte spiralenförmig bis kurz vor dem Mittelpunkt der Platte.
Im Jahre 1887 erfand der in Deutschland geborene Amerikaner Emil Berliner eben diese Form der Schallplatte, der heutigen Vinyl-platte. Anfangs benutzte man dafür ein Gemisch aus Schellack, Schiefer, Asbest, Ruß und Schwerspat. Diese Vinylplatten lassen sich schnell durch eine einfaches Pressverfahren beliebig oft vervielfältigen, was sehr positiv für die Massenproduktion ist.


Der Schall kann auf zwei verschiedene Arten auf die Platte aufgetragen werden. Es gibt dabei die Tiefenschrift, die sogenannte Edisonschrift und die Seitenschrift, die sogenannte Berlinerschrift. Die Tiefenschrift ist der historische Vorgänger der leichter maschinell zu erzeugenden Seitenschrift und wurde natürlich durch die Seitenschrift abgelöst welche auch heute noch gängig ist. Bei der Tiefenschrift wird die Schallwelle in Form von tieferen bzw weniger Tiefen Rillen auf die Platte aufgetragen. Hingegen wird bei der Seitenschrift, wie sicherlich bereits vermutet, die Welle durch Links -und Rechtsschwenkungen gespeichert.

Im Laufe der Zeit wurden die Platten ständig verbessert, es gab verschiedene Größen und verschiedene Abspielgeschwindigkeiten um mehr und mehr Ton auf eine Scheibe verfrachten zu können. Die Seitenschrift wurde aber stets beibehalten. Mit dem Einführen von elektronischen Geräten wurde es ermöglicht die Rillen durch einen Abtaster (meistens aus Diamant) in elektronische Impulse umzuwandeln welche beliebig verstärkt werden konnten. Während es bei alten Platten nur Monoaufnahmen gab wurden nun Stereo-Platten vonnöten.

Aus diesem Grund, nämlich um zwei Kanäle auf der Platte zugleich speichern zukönnen musste man eine Kombination aus Seiten- und Tiefenschrift einführen. Die Nadel muss somit nicht nur Nach links und rechts sondern auch nach oben und unten Ausschlagen. Aus diesem Grund konnte trotz der großen Platzersparnis und somit steigerund der Kapazität, welche die Tiefenschrift gebracht hätte nicht mehr auf sie zurückgegriffen werden.


Einige Daten

Die Standard LangspielPlatte (LP) hat einen Durchmesser von 12 Zoll und wird mit 33 r.p.m abgespielt.
Weiters gibt es Single-Platten mit zwei bis vier Titel pro Platte. Sie haben unterschiedliche Durchmesser werden jedoch mit 45 r.p.m abgespielt. Durch die beiden verschiedenen Abspielgeschwindigkeiten wurde ein Krieg der beiden Standards entfacht, denn man konnte lange Zeit am Plattenspieler die Abspielgeschwindigkeiten nicht auswählen.
Heutzutage ist dies natürlich möglich, allerdings kaum mehr notwendig, denn die Platte wurde um 1993 schnell durch die CD abgelöst.
Ein verzweifelter Versuch eines Comebacks der Schallplatten durch Einführung eines neuen Standards, dem Direct Metal Mastering (DMM) bei welchem die Platte durch einen Laser abgetastet wird, schlug kläglich fehl, da das Gerät im Gegensatz zum CD-Player einfach zu teuer war.
Heutzutage findet die Schallplatte nur mehr unter Nostalgikern und als Instrument der DJ's und "Scratcher" im Vergleich zu der CD minimalen Einzug.



Compact Disc (CD)

Die CD ist der Datenträger der sich in der letzen Zeit am schnellsten durchsetzen konnte. Sie löst die LP mit einer besseren Musikqualität und dazu noch einem kleineren und handlicherem Format ab.
Die CD hat im Normalfall eine Kapazität von 74 Minuten und 33 Sekunden, eine Umdrehungsgeschwindigkeit von 1,2-1,4 m/s das wären 200-500 U/sec. Der Durchmesser der CD ist 120 mm und damit eindeutig kleiner als die LP'S. Die Scheibe ist 1,2 mm dick und besteht aus einem transparenten Material mit einem Brechungsindex von 1.55 (z.B Polycarbonat).
Die Daten werden auf der CD in digitaler Form gespeichert. Das bedeutet dass der in der natur Vorkommende analoge Schall erst in digitale Werte umgewandelt werden muss. Dies erledigt ein Analog - Digital Wandler (A/D-Wandler). Diesem A/D Wandler muss durch eine Abtastfrequenz angegeben werden wie oft pro Zeiteinheit ein Wert von der Originalschwingung, also der Wert der Amplitude gelesen werden soll. Diese Abtastfrequenz ist normalerweise 44.100Hz. Eine höhere Abtastfrequenz wird eine genauere bzw. bessere Annäherung an die Originalschwingung liefern, jedoch geht dies auf Kosten des Speicherplatzes auf dem Medium.
Die Abtastfrequenz ist deshalb so gewählt, da das menschliche Gehöhr keine Signale oberhalb von 20kHz wahrnehmen kann. Das Nyquist Theorem besagt dass die Abtastfrequenz mindestens doppelt so groß sein soll wie die größtmögliche vorkommende Signalfrequenz. Werte welche über die 20KHz hinausgehen werden vom Aufnahmegerät durch einen Tiefpass abgeschnitten. Da es jedoch keinen so perfekten Tiefpass mit einer so steilen Flanke gibt können Werte bis zu 22kHz vorkommen. So erhält man den Wert von 44.1kHz.
Die so erhaltenen Werte werden nun quantisiert, d.H sie werden in Intervalle eingepasst. Im Normalfall wird der Wert mit 16 Bits codiert. Auch hier gilt, je größer das Intervall desto besser die Qualität desto größer die Anfallenden Datenmengen.
Die erhaltenen Werte sind nun Bitfolgen und können auf beliebige Medien abgespeichert werden. Die CD hat sich als solches Medium durchgesetzt, da sie ähnliche Qualitäten wie die Schallplatte aufwies und dabei qualitativ viel besser abschnitt.


Wie wird die Information nun genau abgespeichert?



Die erhaltenen Audiodaten bestehend aus einem binären Code der aus 0 und 1 besteht werden in Form von "Pits" und "Lands" auf der Cd gespeichert. Pits sind Vertiefungen und Lands sind nicht vertiefte Stellen. Ein Laserstrahl tastet beim abspielen dabei die sich drehende Scheibe von innen nach außen ab. Das kohärente Licht des Strahls wird von den Pits und Lands unterschiedlich zurückgestrahlt. Nach der Ablenkung durch ein Prisma wird der zurückgeworfene Laserstrahl von einem Photosensor aufgenommen und in elektrische Impulse umgewandelt.
Damit die Pits und Lands auch überhaupt Licht zurückwerfen wird die Cd mit einer sehr dünnen (50-100nm) Metallschicht (Aluminium, Silber, Gold) bedeckt. Zum Schutz dieser Schicht wird darauf noch eine dünne Kunststoffschicht (10-30µm) angebracht auf welcher das Label der Cd aufgedruckt ist. Der Laserstrahl durchwandert somit die transparente Schicht und landet auf den mit metallisierten Böden versehenen Pits und Lands. Bei Lands wird das Laserlicht als ganzes reflektiert und bei Pits wird der Strahl gestreut.




Fehlerkorrektur

Während sich bei der LP Fehler wie Kratzer oder Verunreinigungen durch Rauschen bemerkbar machten ist dies bei der CD nicht so stark der Fall und zwar aus einem einfachen Grund. Dadurch dass die Lands und Pits so mikroskopisch klein sind, gibt es bereits ab dem Werk Fehler innerhalb geregelter Toleranzen. Bei Gebrauch lassen sich Kratzer aber nicht vermeiden, deshalb muss die CD über eine Fehlerkorrektur verfügen. Die unvermeidbaren Fehler werden somit durch die Fehlerkorrektur ausgemerzt. Wenn eine CD sehr stark beschädigt ist kann natürlich die beste Fehlerkorrektur nicht mehr helfen.

Standards

Schon bald wurde die CD Standardisiert um jeglichem Benutzer unterschiedlicher CD-Player die selben Möglichkeiten zu bieten. Die Standards wurden in den sogenannten Books festgehalten.
Die meisten weiterentwickelten Books sind für Audio nicht interessant sondern beschreiben lediglich Videoformate Fotocds oder ähnliches.

Red Book (CD-DA)
Dieses Book erlaubt bis zu 74 Minuten digitale Musik.

  • Die Samplerate (Abtastfrequenz) ist auf 44,1kHz festgelegt, was 44100 Samples in der Sekunde entspricht.
  • Die Transferrate welche der Player schafft ist auf 150 kbytes in der Sekunde festgelegt. Dies ist auch als Singlespeed (1X) bekannt
  • Die CD kann bis zu 99 Tracks beinhalten

Das Redbook ist auch unter dem Namen CD-DA (Compact Disk Digital Audio) bekannt. Die beiden Firmen Sony und Philips schufen diesen Standard im Jahre 1980 als einen Standard der einfach eine universelle Methode digitalisierte Musik zu vertreiben darstellte.
Dieser Standard wurde jedoch bald dazu benutzt um andere Daten abspeichern zu können.
Eine Red Book Cd ist in drei Teile eingeteilt: Das Lead-In, die Daten und das Lead Out. Jeder Track auf der CD ist im TOC (Table of Contents) festgehalten, welches im Lead In einer jeden CD gespeichert ist.
Dieser Standard ist der Vorreiter aller darauffolgender Books.

Minidisc

Die MiniDisc sollte die CD ablösen konnte sich jedoch wegen des florierens des MP3 Formates durch das Internet nicht so richtig durchsetzen.
Der Unterschied zur CD besteht vor allem darin dass die MiniDisk um einiges kleiner und handlicher ist, dadurch werden die Player natürlich ebenfalls viel kleiner und handlicher, was der eigentliche Wunsch gewesen ist. Nebenbei kann man die MiniDisc auch beschreiben und wiederbeschreiben. Für die Musikindustrie ist dies nicht mehr so positiv, jedoch kann sie mit MiniDiscs und einer eingeschränkten Möglichkeit der Anfertigung von Kopien der Musikpiraterie entgegenwirken, da die illegale Anfertigung von CD Kopien inzwischen einem jeden offen steht. Die Idee wäre eigentlich gut gewesen, wenn nicht das MP3 Format das kopieren von Musik noch wesentlich vereinfacht hätte.
Die MiniDisc hat so viel Speicher auf so engem Raum vor allem deswegen Platz, weil Frequenzbereiche, welche das menschliche Gehöhr nicht wahrnehmen und Töne welche durch andere Töne so überlagert werden dass sie ebenfalls nicht hörbar sind, rausgeschnitten werden und somit eine stattliche Menge unnützer Daten entfernt wird.

 

Die Minidisc


Geschichtliches

Die Minidisc ist ein System zur Speicherung von Audiodaten. Es wurde im Jahre 1992 von Sony entwickelt und besteht aus einer 2,5“ großen Catridge die einem somit geschützten magnetooptischen Datenträger enthält. Man kann sie wie eine Kassette beschreiben, löschen und wieder beschreiben. Und das bis zu eine Million Mal.
Im gewissen Sinne ähnelt die Minidisc der CD, da sie mittels eines Lasers gelesen wird und die Speicherung der Daten digital erfolgt. MD’s, so die Kurzbezeichnung der Minidiscs, verwenden das im Computerbereich eingesetzte magneto-optische Verfahren.
MD’s sind in zwei Ausführungen erhätlich: 60 und 74 Minuten. Somit können die MD’s gleich viel Daten aufnehmen wie eine herkömmliche CD mit 650 MB. Die MD verfügt nur über ein Platzangebot von 140 MB. Sony erreichte durch das sogennannte ATRAC – Verfahren eine Kompressiondichte von 5:1. Die ATRAC Kompression verwendet dazu ein psychoakustisches Verfahren und der Unterschied ist für den Menschen nicht wahrnehmbar.
Die MD wurde anfangs nur in den USA verkauft und eingesetzt. Erst in den letzten Jahren interessierten sich immer mehr Hersteller wie SHARP, KENWOOD, JVC usw. für die MD und brachten ihre eigenen Geräte auf den Markt. Dies führte wiederum zu einer eindeutigen Verbilligung der Minidisc.

ATRAC Kompression

ATRAC steht für Adaptive Transform Acoustic Coding
Bei ATRAC handelt es sich um eine intelligente Komrpimierungsmethode, die nicht einfach nur blind aus einem Musikstück ausliest, sondern versucht, dem menschlichen Gehör vorzutäuschen, dass es sich hier um das Originalstück handelt, ohne Qualitätsverlust. Das Endresultat: Musik die kling wie die Originalvorlage, aber eben 1/5 der Größe des Ursprungsstückes. Da sich das Wahrnehmungsmodell ständig I made this logo with PhotoShopändert wird auch der ATRAC Algorithmus ständig verbessert, um so eine noch bessere Qualität zu gewährleisten. Deshalb wird der Minidisc nachgesagt, dass sie von besserer Qualität ist als MP3. Wie bereits erwähnt gibt es mehrere Versionen von ATRAC. Am Anfang hieß das Verfahren noch ADC und DAC. Da das Verfahren damals noch nicht ausgereift war und die Geräte noch extrem teuer waren, wurde die MD bald totgesagt. Erst die Verfahren ATRAC 2 und ATRAC 3 konnten überzeugen. Mit ATRAC 4 wurde sogar eine wesentlich bessere Qualität als die der CDs erreicht.

Aufbau der MD

Der prinzipielle Aufbau einer MO-Disc, ist hier schematisch dargestellt.


Ein aus Polycarbonat gesprizter Grundkörper trägt eine bereits vordefinierte Rillenstruktur, der für die exakte Führung der Optik sorgt. Darauf werden bei der Fertigung mittels Dünnfilmtechnologie verschiedene Schichten aufgetragen, welche dem Träger seine magneto-optischen Funktion verleihen.
Die magnetisch wirksame Schicht besteht aus Seltenerdmetallen (Godolinium, Terbium,  Dysprosium) bzw. deren Legierungen (z.B. Terbium-Ferrite-Cobalt bei der MD) und befindet sich zwischen einer reflektierenden und zwei dielektrischen Schichten. Die magnetische Schicht, welche ein Wiederbeschreiben überhaupt zulässt, besitzt bei Raumtemperatur eine extrem hohe Koerzitivfeldstärke, wodurch die Disc selbst gegen starke Magnetfelder unempfindlich wird.
Die Oberfläche wird zudem mit einem Schutzlack überdeckt und die fertige Disc als zusätzlichen mechanischen Schutz in ein Kunststoffgehäuse gepackt. Da für ein Schreiben auf die Disc ein Zugang von beiden Seiten her erforderlich ist, sind diese Gehäuse mit einem doppelseitigen Schieber ausgerüstet der sich aufgrund des relativ grossen Schreibkopfes meist über den ganzen Radius erstreckt.


Dieser Aufbau bewährt sich seit einigen Jahren bei MO-Speichern und erlaubt laut Hersteller das Beschreiben von über einer Million Zyklen ohne Qulitätsminderung.


Die Zukunft der Minidisc


Lange Zeit hatte das Minidisc-System grosse Schwierigkeiten, sich auf dem Markt durchzusetzen. Die früheren Versionen von ATRAC (Datenkompression) erreichten nicht CD-Qualität und viele Experten gaben der MD keine Chance.
Die heutige Version 6 von ATRAC ist punkto Audioqualität mit dem CD-Standard vergleichbar. Nach der Aufnahme eines CD-Tracks auf eine recordable MD sind keine hörbaren Unterschiede mehr feststellbar. Das System hat sich auf dem Markt etabliert und der Name Minidisc ist wohl jedem Musikkonsument ein Begriff. Besonders die Möglichkeit der digitalen Aufnahme liess die Minidisc (MD) zu den vorher bekannten Systemen wie Musikkassette (MC), Compact-Disc (CD) und Digital Audio Tape (DAT) aufsteigen.


Vergleich MC, CD, MD, DAT


Musikkasette, MC

Als Motivation zur Entwicklung des MD-Systems diente das Verlangen der Konsumenten für einen Ersatz der Compact-Kassette. Das neue Konzept sollte die Vorteile der Kassette (Robustheit, Erschütterungsfestigkeit, Mobilität) und die der CD (bessere Musikqualität, digitale Aufzeichnung) verschmelzen. Diese Ziele wurden vollständig erfüllt.
Sicherlich wird das MD-System die alte Compact-Kassette in den meisten Bereichen ablösen, aber wie sieht es mit den digitalen Medien aus?

Compact Disc, CD

Die MD wurde entwickelt um Musikdaten in digitaler Form aufzeichnen zu können, doch auch die wiederbeschreibbare CD-ROM hat sich in letzter Zeit auf dem Markt durchgesetzt. Jedoch ist die recordable MD kompatibel zu sämtlichen MD-Systemen, während die re-writable CD von vielen CD-Playern noch immer nicht gelesen werden kann.
Die technischen Daten der Minidisc sind deren der CD sehr ähnlich. Der grösste Unterschied ist die Speicherkapazität der CD mit 650 MB im Vergleich zur MD mit nur 140 MB. Beide Systeme weisen eine maximale Spieldauer von 74 Minuten auf. Trotz einigen Stimmen, welche behaupten, die Minidisc sei als CD-Ersatz eingeführt worden, wird sie aufgrund der enormen Verbreitung der CD diese nicht vom Markt verdrängen können. Vielmehr ist die MD als Ergänzung zur CD gedacht.

Digital Audio Tape, DAT

Es ist eher unwahrscheinlich, dass sich die MD im professionellen Bereich etablieren wird. Das Problem ist, dass die Musikqualität noch nicht den hohen Standard von DAT- und ADAT-Systemen erreicht hat.


Zukunftsaussichten

Der Produktionspreis einer pre-mastered Minidisc beträgt immer noch mindestens gleich viel wie der einer CD. Die Beliebtheit der bespielbaren Minidisc ist jedoch sehr gross und steigt weiter an.
Die Minidisc-Technologie breitet sich auch auf anderen Systeme wie Computer und digitale Kameras aus. Mit einer Kapazität von 100 Floppydiscs ist die MD gut als portables Speichermedium oder als Backupspeicher im Computerbereich geeignet. Die Firmen Syquest und Iomega sind dabei die führenden Anbieter in diesem Bereich.
Sharp entwickelte eine digitale Kamera, die fähig ist, 2000 Bilder mit einer Auflösung von 640 x 480 Pixel auf eine einzige MD zu speichern. Die Audio- und Videosysteme sind sowieso nicht von der 140 MB Standard-MD abhängig, denn die führenden Entwickler wie Sony, Sharp, Philips und Fujitsu arbeiten gemeinsam an einer hochkomplizierten Minidisc, die fähig sein wird, 8 GB an digitalen Videodaten zu speichern. Die Einführung eines solchen System würde dem heutigen digitalen Videodisc- (DVD) und LaserDisc-Markt echte Konkurrenz bieten.
Alle portablen Geräte wie Laptops, Palmtop-Organizer und Videospiele könnten von der Minidisc-Technologie profitieren, da die Systeme immer kleiner und leichter werden. Auch Hybrid Minidiscs (ein Teil Schreib- und Lesbar, ein Teil nur Lesbar) könnten in Videospiel-Konsolen Platz finden; Die Software wird im festen Teil und Spielstände und Einstellungen im beschreibbaren Teil gespeichert.
Diese Beispiele zeigen, dass die Anwendungsbereiche der Minidisc-Technologie sehr vielfältig sind. In naher Zukunft wird die Minidisc in erster Linie versuchen, unsere Wünsche nach leichteren, kleineren, genaueren und rentableren Systemen zu erfüllen.


Verweise auf Arbeiten anderer Gruppen

 

 

>Entstehung | Ausbreitung | Verlierer | Vergleich | Sicherheit | Veränderung | Auswirkungen | Interaktiv | Zukunft