Dokumentverantwortliche: Alexander Corradini, Hanns Tappeiner, Juergen Oberhofer, Peter Gfader

fit 2001 > Digitales Audio > Veränderung

Überblick

Komponieren früher und heute


Ein Federkiel mit Tusche und eine Idee – schon hatte Mozart das Stück "Die kleine Nachtmusik" fertig komponiert. Vor gut 200 Jahren komponierten Musiker wie Mozart oder Beethoven tatsächlich fast nur am Schreibtisch. Sie konnten sich genau vorstellen, wie ihre Musik klingen wird, die sie Note für Note auf das Papier malten. Wenn dann doch manchmal die Tusche verwischte – wie das bei Beethoven oft passierte – dann gab es zum Glück die Kopisten. Das waren Personen, die die Original-Noten noch mal abgeschrieben haben, damit die Musiker im Orchester ihre einzelnen Stimmen auch erkennen konnten. Die meisten Musiker spielten zu dem, was auf dem Notenblatt stand, noch was dazu, d.h. es wurde häufig improvisiert. Heute haben Komponisten als zentrales Instrument den Computer und zusätzlich noch viele Klangerzeuger. Eigentlich schreibt so gut wie kein Komponist seine Noten mehr selbst auf. Das übernimmt der Computer für ihn. Die Noteneingabe erfolgt mittels Keyboard: Der Komponist spielt eine Melodie und die entsprechenden Noten werden automatisch auf den Computer übertragen. Und keiner muss sich den Klang der Instrumente in einem Orchester heute noch vorstellen können. Denn dafür gibt es Sampler, mit deren Hilfe verschiedenste Instrumente simuliert werden können. So ist es mittlerweile möglich, über das Internet in Echtzeit mit anderen Musikern etwas zu komponieren, es kann also jemand in Neuseeland mit einer Person in Deutschland zusammen ein Stück schreiben, ohne dass sich die beiden jemals sehen müssen.

Mathematisches Komponieren

Naturwissenschaften und Mathematik spielen heute sowohl für den Fortschritt als auch im Alltag eine größere Rolle als je zuvor. Es ist nicht verwunderlich, dass auch die modernen Komponisten in der Mathematik schnell ein geeignetes Werkzeug für neue Schaffensmethoden entdeckten. Sie verwendeten dabei sehr unterschiedliche Teilbereiche der Mathematik für viele verschiedene Aspekte des Komponierens.

Ein Beispiel für einen Komponisten, welcher mit Hilfe mathematischer Methoden komponiert, ist Iannis Xenakis. Als griechischer Architekt versucht er, Gedanken vorsokratischer Philosophie mit modernen mathematischen und physikalischen Konzepten zu verbinden.

In Paris arbeitete Iannis Xenakis 12 Jahre lang bei dem Architekten Le Corbusier und begann seine kompositorische Arbeit, nachdem er von 1950 bis 1952 die Analysekurse bei Olivier Messiaen besucht hatte. 1955 wurde sein erstes Werk, das Orchesterstück Metastaseis, bei den Donaueschinger Musiktagen uraufgeführt.

Eine Kunst darf für Xenakis nicht isoliert von anderen Künsten bestehen, weswegen er immer wieder Gebäude entworfen hat, in denen seine Musik gespielt werden soll. Einige Beispiele sind der Phillips-Pavillon für die Brüsseler Weltausstellung, in der die Uraufführung seines Tonbandstückes Concret PH statt fand, oder Le Diatope, eine Zeltkonstruktion, in der seine von Lichtblitzen und Laserstrahlen begleitete Komposition La Légende D’Eer gespielt wurde. Dieses multimediale Gesamtkunstwerk stand lange Zeit für jeden frei zugänglich vor dem Centre Pompidou und später vor dem Hauptbahnhof in Bonn und hebt so Xenakis Anspruch heraus, die Musik den Menschen näher zu bringen.

Aus diesem Grund entwarf er das Computerprogramm UPIC (Unite Polyagogique Informatique du CEMAMu), das auf einen Touchscreen erstellte Zeichnungen in Klänge umsetzt.

Als für Xenakis Kompositionstechnik repräsentatives Werk betrachte man Psappha aus dem Jahre 1975. Diesem Percussion-Stück liegt die Idee einer universellen, von Periodizität ausgehenden Rhythmik, zugrunde. Abweichungen von den periodischen Schlägen werden von einer stochastischen Funktion bestimmt. Diese Funktion wählt Xenakis zwar so, dass die Makrostruktur seinen Vorstellungen entspricht, die Mikrostruktur jedoch wird vollkommen zufällig festgelegt. Xenakis erzeugt also einen Rhythmus, indem er einzelne, von der Funktion bestimmte, Schläge betont und, wiederum von der Funktion bestimmt, Pausen einfügt. Die Art der Betonung ist dem Interpreten überlassen. Er kann die Anschlagstärke erhöhen, den Schlägel wechseln, ein neues Instrument einsetzen oder diese Akzentuierungsmethoden kombinieren.

Es ist erstaunlich, dass die Zuhörer beim Hören des Stückes den Eindruck von afrikanischen, asiatischen oder fernöstlichen Rhythmen hatten, obwohl die Akzentuierung stochastisch festgelegt ist. Nach heftiger Diskussion kamen Psychologen zu dem Schluss, dass Xenakis sowohl die Funktion als auch die Umsetzung der Funktionswerte gut gewählt hat. Denn das Werk resultiert in einer für den Hörer erkennbaren Rhythmik. Für Xenakis steht fest, dass Musik auf mathematische Gesetze zurückzuführen ist und zumindest für den Rhythmus scheint ihm ein großer Teil des Beweises gelungen zu sein.

Musik mit dem Computer

Digitales Audio hat in den letzten Jahrzehnten immer mehr an Bedeutung angenommen. Nicht nur vereinzelt Komponisten verwenden dieses neue Medium für ihre Kompositionen, sondern es gibt bereits international anerkannte Institutionen, welche Forschungen auf dem Gebiet „Musik mit Computer“ durchführen. Ein Beispiel für eine solche weltweit anerkannte Institution ist das „Institut de Recherche et de Coordination Accoustique / Musique“ (Institut für Forschung und Koordination von Akustik und Musik), welches 1973 von Pierre Boulez gegründet wurde. Dank der finanziellen Unterstützung von vielen sehr bekannten wichtigen Institutionen ist es dem IRCAM möglich sein erstes Ziel, die gute Beziehung zwischen der Welt des Computers und der Welt der Instrumente zu verwirklichen. Das IRCAM hilft den Komponisten moderne Technologien zu entwickeln und sie in ihrem Werken einzusetzen.

1976 wurde der erste Musik-Prozessor, der „4A“, entwickelt und eine der letzten erfundenen Technologien ist der Raumklang-Simulator von 1995. Die Kollaboration zwischen dem Computer – und also den Technikern – und einem Orchester führt zu neuen Problemen. Die Techniker müssen sehr eng mit dem Komponisten zusammenarbeiten. Boulez und Gerzso schreiben in einem Artikel: „Vielleicht zum ersten Mal in der Musikgeschichte muss der Komponist erklären und formal festhalten, auf welcher Weise er musikalische Einfälle, Themen und Beziehungen entwickelt und variiert – denn nur dann können Techniker ohne musikalische Spezialausbildung sie in die Tat umsetzen.“ Das führt zu einer obligatorischen Entente zwischen dem Komponisten und den Technikern. Um ein Orchester und computertransformierte Klänge im gleichen Werk zu verbinden, gab es vor der Gründung des IRCAM nur die Möglichkeit, die Computerklänge vorher aufzunehmen und sie dann während der Aufführung abzuspielen. „Da die Instrumentalisten somit de facto Gefangener des mechanischen Timings des Tonbands wurden, gingen Lebendigkeit und Flexibilität, die für eine musikalische Aufführung ganz wesentlich sind, verloren“.

Deshalb hat das IRCAM versucht, die Technologie der „Realzeit“ zu entwickeln. Dank der Ergebnisse der Forscher ist es seit 1980 möglich, einen Klang sofort zu transformieren, so dass sich ein Orchester sofort mit seinen eigenen transformierten Klängen unterhalten kann. Diese Technik wendet Boulez in einer weiter entwickelten Form in Répons, einer Komposition für Orchester, sechs Solisten und ein elektro-akustisches System (1981–1988) an. In diesem ziemlich langen Werk (45’) unterhält sich das Orchester mit den vom Computer transformierten Klängen der Solisten. Der hier eingesetzte Computer (4X) wurde 1984 entwickelt, und verfügt über acht Prozessor-Platinen, die unabhängig voneinander programmierbar sind. Er kann den Klang der Solisten transformieren, in dem er zum Beispiel die Klangfrequenz modifiziert. Da der 4X bis zu 200 Millionen Rechenoperationen pro Sekunde durchführen kann, geschieht die Klangtransformation fast ohne Zeitverlust. Ein zweiter in Répons eingesetzter Computer (Matrix 32) ist ein programmierbarer Klangverteiler, der den Weg der Klangsignale von den verschiedenen Solisten zu den sechs Lautsprechern festlegen kann. Jeder Solist hat nicht nur seinen eigenen Lautsprecher, sondern seine Klänge können auch von drei anderen Lautsprechern wiedergegeben werden und so durch den Saal „wandern“. Sofort nach dem Spielbeginn der Solisten in Répons werden ihre Klänge von dem 4X transformiert. Die Geschwindigkeit, mit der sich der Klang durch den Saal bewegt, wird durch die Hüllkurve für das jeweilige Instrument bestimmt: anfangs schnell, beim Ausklingen langsamer und schließlich still stehend. Ein Abtastmodul bestimmt die Amplitude der Hüllkurve an vier Punkten und leitet diese Informationen über zwischengeschaltete Computer an die Lautsprecher. Je größer die Amplitude an einem Abtastpunkt, desto schneller passiert der Klang den entsprechenden Lautsprecher.

Nachdem er gegen alle alte Institutionen gekämpft hatte und nachdem er das IRCAM gründete, hat Boulez den anderen Komponisten sehr viele neue Kompositionsmittel sowie neue moderne Spielmöglichkeiten an die Hand gegeben.

Komponieren im Netz - Teil 1

In diesem Kapitel wird beschrieben, welche Möglichkeiten digitales Audio im Zusammenhang mit dem Internet bietet. Dies soll anhand von Schulprojekten in Deutschland gezeigt werden, in welchen Mittelschulklassen mit Hilfe von Computern komponieren und bei Ihren Kompositionen mit Partnerklassen in anderen Ländern zusammenarbeiten:

Komponieren von Deutschland bis Japan

Eine besonders interessante Form, die über den bloßen Austausch hinausgeht, haben an der Cäcilienschule in Oldenburg der Musik- und der Informatiklehrer in Kooperation initiiert. Im Musikunterricht komponieren SchülerInnen kurze musikalische Grundideen, die sie dann als MIDI-Dateien über das Internet an Schulen in Tokio, Stuttgart und Paris verschicken. Sie werden von den dortigen SchülerInnen weiter verarbeitet und dann nach Oldenburg zurückgeschickt. Die begleitende Korrespondenz erfolgt auf Englisch. Neben der Musik werden später auch Bilder und Informationen über die beteiligten SchülerInnen ausgetauscht. Inzwischen ist es auch zu persönlichen Begegnungen zwischen den Beteiligten gekommen.

Musikunterricht werden seit 5 Jahren am Gymnasium ‚Cäcilienschule‘ in Oldenburg begangen. Aus der Kooperation eines Musiklehrers mit einem Informatiklehrer ist das ‚International-Compsoing-and-Communicating-Project‘ (ICC) entstanden, an dem inzwischen Schulen auf mehreren Kontinenten beteiligt sind.

Kinder musizieren im Internet


Zuerst werden mit Hilfe von Sequenzerprogammen musikalische Grundideen entwickelt und als MIDI-Standardfiles gespeichert. Die Files werden dann an die anderen beteiligten Schulen über das Internet verschickt, dort bearbeitet und anschließend zurückgeschickt. So entstehen in Kooperation die verschiedensten Musikstücke. Begleitend zu den MIDI-Files schreiben sich die SchülerInnen Briefe mit Anmerkungen zu ihrer kompositorischen Arbeit. Aber auch Persönliches wird berichtet. ‚Geschäftssprache‘ ist Englisch. Einige SchülerInnen haben persönliche Webseiten, auf denen sie sich (mit Photo) vorstellen und wo ihre Kompositionen abgerufen werden können. Ideen, mit Live-Streaming in Echtzeit miteinander zu musizieren, werden zwischen den beteiligten Lehrern diskutiert, sind aber beim derzeitigen Stand der Technik (in den Schulen) nicht zu realisieren.

Kinder musizieren im Internet


Die zeitliche und räumliche Distanz zwischen den verschiedenen Akteuren ist jedoch gewöhnungsbedürftig. Während beim Musizieren im Klassenverband durch Zuruf oder nonverbal reagiert werden kann, oder beim Arbeiten mit Sequenzerprogrammen oft heftig miteinander vor dem Bildschirm diskutiert wird und Alternativen sofort ausprobiert werden können, muss bei diesem Projekt alles auf- und damit festgeschrieben werden.

An der Ostsee wird mathematisch musiziert

Hier wird ein weiteres Beispiel für moderne Verfahren des Komponierens mit Hilfe von digitalem Audio angeführt. Und zwar wird im Rahmen eines Schulprojektes versucht mit Hilfe von mathematischen Grundlagen zu komponieren (die Schüler entwickeln dabei selbst die notwendige Software! http://www.san-ev.de/text14.asp.html):

Auch in Schleswig-Holstein bringen Schüler Computern die "Flötentöne" bei: Um an der Kieler Gelehrtenschule zu komponieren, bedarf es dagegen keiner musikalischen Idee, sondern der Vorliebe für Mathematik und Logik. Hier wurde das Projekt "Optosys" – Synonym für kollektives Komponieren mit fraktalen Strukturen – 1996 aus der Taufe gehoben. In Kiel möchte man wie in Oldenburg eine weltweite, musikalische Kommunikation in Gang setzen.

Physiklehrer Thomas Nagel, innerhalb der Neuen Musik-Szene bereits als Komponist populär, leitet musikalisch das Projekt. Unterstützt wird er von Klaus-Peter Reimers, der die technische Seite betreut. Aus zwei Arbeitsgemeinschaften – der Musikwerkstatt und der Informatik-AG – haben die beiden Pädagogen eine interessante Symbiose von Schülern aus der 9. bis 13. Klassenstufe geschaffen (http://www.kieler-gelehrtenschule.de/optosys).

Die Informatik-AG liefert die Grundlagenarbeit für die Komponisten. "Chefprogrammierer" Sebastian (17) kümmert sich darum, die vorhandenen veralteten Musikprogramme umzuschreiben und durch moderne, benutzerfreundlichere zu ersetzen. "Ohne uns könnte die Musikwerkstatt nicht komponieren, und für uns fallen interessante Tätigkeiten ab", erklärt Sebastian.

Der von seinen Schülern anerkennend als "Meister" angesprochene Nagel erläutert die Technik: "Bei dem von uns praktizierten Komponieren wird nicht wie ursprünglich in sich hineingehört und diese "innere" Melodie in Form von Noten aufgeschrieben. Wir gehen von einer mathematischen Gleichung aus, in die wir eine Zahl einsetzen." Die daraus auf dem Computerbildschirm entstehenden sogenannten Fraktale – ein Sammelsurium von Punkten – ähneln Blumenkohl, Luftschlange oder Undefinierbarem. Aus diesen Punkten entwickelt der Computer ein visuelles Notenbild. Hält das künstlerische Auge die Noten für brauchbar, nutzt der Komponist diese für sein Stück. Fraktale, Rohkompositionen und Kompositions-Software will Nagel ins Internet stellen und somit zum kollektiven Komponieren und Diskutieren anregen. Bereits heute bestehen Kontakte zur Rutgers-University in den USA.

Der 19jährige Paul Grütter feilt an seinem Werk "Touching Parallels" – ein Stück für drei Schlagzeuger und Klavier. Einem Textzitat von Novalis hat Caspar Frantz (18) seinen Titel entlehnt: "Entzündet sich ein eigenes Licht". Wie der Titel es andeutet, bewegt sich die Musik in aufschwingenden Linien und gibt sich selbst immer neue Impulse. Es scheint, als könne der junge Künstler Mathematik hörbar machen.


Diese beiden Beispiele sollen zeigen, welche neue Möglichkeiten der Zusammenarbeit von Komponisten mit Hilfe von digitalem Audio geboten werden. Komponisten müssen sich nicht mehr physisch treffen um zusammenzuarbeiten, sondern können an ihrem jeweiligen Standort via Internet miteinander arbeiten. Außerdem sind diese Kommunikationsmöglichkeiten inzwischen so einfach geworden, dass „sogar“ Schüler einer Mittelschule imstande sind semiprofessionelle Kompositionen zu erstellen und mit Partnerschulen die tausende von Kilometern entfernt sind, zusammenzuarbeiten.

Komponieren im Netz - Teil 2

Veränderung für den Komponisten

Mit den neuen technischen Möglichkeiten verändern sich auch die Werkzeuge für Künstler und neue künstlerische Ausdrucksformen werden möglich. Karlheinz Essl, ein österreichischer Komponist, setzt die Möglichkeiten der Informationstechnologie bzw. Netzkommunikation ein. Mit dem Aufkommen der technischen Errungenschaften in Bezug auf die Computertechnologie zeigen sich ganz neue Fragestellungen für den Komponisten. Durch den Einsatz neuer Techniken ergeben sich neue Möglichkeiten des Schaffens, und auch der Kommunikation mit dem Publikum. Das heißt, dass die Aufführung der Werke nicht unbedingt im Konzerthaus oder im Musikverein stattfinden muss, sondern auch zum Beispiel im Internet.

Laut Essl bietet das digitale Audio und das Komponieren und Musizieren im Internet die einmalige Möglichkeit, über den gesamten Internet-Globus Menschen anzusprechen und sie als Hörer zu gewinnen. Eine weitere Änderung in Bezug auf Musik mit neuen Technologien ist vor allem die Tatsache, dass durch den Computer Musikstücke geschaffen werden können, in denen der Interpret überhaupt keine Rolle spielt. Das musikalische Werk existiert nun nicht mehr als interpretier- und reproduzierbare Code (sei es als gedruckte Partitur oder gespeicherter Klang), sondern einzig und allein als Software. Diese generiert im Moment der Aufführung eine jeweils neue Variante des "Meta-Modells" in Echtzeit. Der Generierungsprozess kann entweder automatisch und autonom ablaufen, oder durch Veränderung der Systemparameter gesteuert werden. Durch Einsatz geeigneter Kontrollmöglichkeiten (Interfaces) wird das Computerprogramm schließlich zu einem Instrument. Dieser Vorgang lässt sich auch ins Internet übertragen, wo statt des bloßen Abspielens konservierter Klangdateien echtzeitgenerierte Musikformen erscheinen.

Virtuelle Musikstudios

Besonders umstritten sind virtuelle Studios für Musiker, wie sie etwa RocketNetwork anbietet. Unter dem Motto "Musik ist Kommunikation" können sich dort Musiker aus aller Welt zu globalen Sessionstreffen. Befürworter heben die Ersparnis an Zeit und (Reise)Kosten hervor. Hans Günther Bastian schreibt: "Die Musik und das Internet haben eins gemeinsam: Beide führen Menschen zusammen." Und beide fördern die Kommunikation. Kommunikation über Musik und mit Hilfe von Musik soll durch das Internet nicht verdrängt, sondern ergänzt und gefördert werden. Der Cyberspace bietet einen hervorragenden Raum für künstlerische Aktivitäten. Die Kritiker befürchten hingegen den Abbruch menschlicher Kontakte, die Anonymität und eine verminderte Kreativität. "Eine Gesellschaft, in der man immer mehr kommuniziert und sich immer weniger begegnet."

Anfangs war die Teilnahme an diesem Projekt kostenlos, heute wird - wie bei immer mehr interessanten Angeboten - eine monatliche Mitgliedsgebühr verlangt. „ResRocket" ist wie ein Gebäudekomplex aufgebaut, in dem sich verschiedene Räume befinden. In manchen Räumen können sich die Musikerinnen unterhalten. Daneben gibt es drei Studios, in denen gemeinsam „gejammt" werden kann. Die Verständigung und das Musizieren erfolgt mittels einer besonderen Software. Gemeinsam Musizieren heißt hier nicht zeitgleich, sondern dass die eigene, zu Hause erstellte MIDI-Spur sofort nach Fertigstellung - wie beim „Chat" - auf dem Bildschirm der anderen beteiligten Musikerinnen erscheint. Diese können sie dann zusammen mit den schon vorhandenen Spuren des Arrangements abspielen, um anschließend darauf wieder musikalisch zu reagieren, in dem sie das vorhandene Material bearbeiten oder eine neue Spur hinzufügen.

Rocket Network ist der Industrie-Standard “Global Production Network for Audio Professionals”; es wird gleichzeitiger multi-user Zugang zu Audio-Session-Files, welche dynamisch über ein sicheres zentrales Server-Netzwerk updatet und gespeichert werden können, zur Verfügung gestellt. Dies vereinfacht den Audioproduktionsprozess dramatisch und gibt den Benutzern rund um die Uhr Zugriff zu ihren kreativen Projekten, unabhängig vom Standort. Zudem kann mit Kollegen und Audiospezialisten rund um die ganze Welt kommuniziert werden. Benutzer können auch über einen globalen “talent pool” (Talent Brokerage) zusammenarbeiten und können auf online lizenzierter Musik, Soundeffekten und Samples (Audio Content Service) zugreifen.


Screenshot von Cubase mit RocketNetworks


Das Netzwerk wird für die Kreation von Audio für Filme, TV, Radio, Computerspiele und Webseiten verwendet. Rocket Network wurde ein de facto Standard aufgrund von Partnerschaften mit den größten weltweitführenden Unternehmen von Audio Produkten (z. B. Emagic, Euphonix, Steinberg, DSP Media, MOTU, Waveframe). Diese Unternehmen entwickeln “RocketPower” Versionen für ihre führenden Produkte. Rocket Network’s Central Server koordiniert ein “master arrangement” von audio und MIDI Stücken, welche von jedem Benutzer in einer Session geshared werden. Die Benutzer „posten“ ihre Audio und MIDI Files zur Session mittels ihrer RocketPower Audiosoftware. Jeder „post“ updatet den “master arrangement”; dann verteilt der zentrale Server die neuen Stücke zu anderen Teilnehmern der Session. Immer wenn ein Benutzer eine Session, in welcher ein Projekt in Arbeit ist, betritt, wird die aktuellste “arrangement” direkt in die lokale Audiosoftware des Benutzers heruntergeladen. Dieses Verfahren eliminiert die Notwendigkeit, dass Benutzer ihre erstellten Tracks per Email an die anderen Teilnehmer der Session schicken, dann die Tracks importieren und ins jeweilige Fileformat konvertieren müssen

Rocket Network erlaubt es den Benutzer desweiteren über unterschiedliche Plattformen Musikstücke zu komponieren. Zudem können sich die Benutzer üben ein effizientes Chatsystem ihre Meinungen zum Fortlauf des Projektes zukommen lassen. Dadurch dass Rocket Network eine API zur Verfügung stellt, haben sich viele führende Softwarefirmen dazu entschlossen in ihre Produkte Rocket Network zu integrieren. Rocket Network’s Central Server system benutzt die API um folgendes Feature bereitzustellen: in einer einzelnen Session können Benutzer auf verschiedenen Plattformen über verschiedene Audioprodukte in Realzeit miteinander Musik erstellen und kommunizieren.

CUBASE VST – ein professionelles System zur Musikproduktion

Mittlerweile gibt es zahlreiche qualitativ hochstehende Produkte, mit denen die Musikproduktion im Vergleich zu früheren Jahren, in denen der Begriff des digitalen Audios noch nicht geboren war, um ein Vielfaches vereinfacht wird. Cubase VST ist sicherlich eines der weltweit erfolgreichste Profi-System zur Musikproduktion. Viele Plattenstudios, aber auch private Anwender verwenden dieses System zur digitalen Musikproduktion. In Cubase VST ist die Aufnahme von Audio- und MIDI-Material gleichermaßen einfach: eine Spur auswählen und den Aufnahmeknopf drücken. Der Benutzer kann entweder eine Spur fortlaufend bespielen - wie man es vom Tonband her gewöhnt ist - oder aber kleine Sequenzen erzeugen. Diese Parts sind dann die Bausteine, aus denen man den zu gewünschten Song arrangieren kann.




Cubase ist aber nicht nur ein Audio-Sequenzer, sondern ein komplettes Audiostudio. Die Kanalzüge des virtuellen Mehrspur-Recorders verfügen über Lautstärke- und Pan-Regler, sowie Solo- und Mute-Schalter, Effekte, EQs und eine großzügig ausgestattete Dynamik-Sektion. Eines der größten Vorteile von Cubase ist die Tatsache, dass sich das Programm stets erweitern lässt. Enthalten ist eine umfangreiche Sammlung von Effektprozessoren in Studio-Qualität, welche unter anderem von den DSP-Spezialisten Spectral Design programmiert wurden. Die Palette reicht von Standards wie Phaser, Flanger und Chorus bis hin zu außergewöhnlichen Effekten wie dem Metalizer, dem Chopper und dem Transformer. Durch dieses offene System, für welches es schon Hunderte von zusätzlichen Effekten gibt, ist die Auswahl von Effekten kaum zu beschreiben. Von hervorragenden Freeware PlugIns bis hin zu den Schöpfungen der besten DSP Designer.

Basierend auf der gleichen offenen Technologie unterstützt Cubase VST nicht nur Effekt-PlugIns, sondern erlaubt es auch, die Brücke zwischen MIDI und Audio zu schlagen. Diese PlugIns können MIDI-Events sowohl live vom MIDI-Eingang als auch vom Playback einer MIDI-Spur empfangen. Dabei wird das erzeugte Audiosignal direkt in den Mixer geleitet. Diese werden von Cubase Virtual Instruments genannt.




Desweiteren bietet Cubase dem Benutzer einen professionellen Notensatz und –druck, mit welchem das Schreiben von Noten leichter und schneller vor sich geht, als es man mit der Hand imstande wäre. Ein besonderes Feature von Cubase zum Schluss: es unterstützt unter anderem RocketNetworks; die InWire™ Technologie von Cubase VST 5.0 eröffnet einen freien Zugang zu den Cubase Internet-Studios. Auf www.inwire-studios.com kann sich der Musiker bzw. der Musikproduzent mit anderen Musikern/Musikproduzenten treffen und an gemeinsamen Produktionen arbeiten - live und weltweit. Sobald man sich einen Account erstellt hat und die Internet-Produktionen aktualisiert wurden, werden die Spuren und Mixer-Einstellungen des jeweiligen Benutzers an die anderen Musiker, die der Musiksession beiwohnen, übertragen. Die Ideen der Mitmusiker fügen sich genauso automatisch und nahtlos ins eigene Arrangement ein. Für perfekte Kompatibilität sorgt das Universal Sound Module, ein mitgeliefertes VST Instrument. So können alle User jederzeit und überall auf dieselbe Klangbibliothek zurückgreifen. Während der Produktion können sich die Benutzer über das integrierten Chat-programm oder sogar Audio- und Video-Streams unterhalten, um die jeweilige Meinung mit den anderen Studio-Musikern auszutauschen. InWire™ wird von der Rocket Network® Technologie voll unterstützt und erweitert die Internet-Fähigkeit auf alle VST-Parameter, sowie die Mix- und Effekt-Automation.

Audiotechnische Berufe im Wandel der Zeit


Veränderung der Wissensordnung

Früher, und damit meine ich zu einer Zeit, als es noch keinen elektrischen Strom, keine Computer, MP3s, Keyboards, elektrische Gitarren, Techno, Samples, Scooter, Rave eJay usw. gab, brachten es die Menschen dennoch irgend wie fertig, Musik zu machen, richtige Musik!

Es gab Komponisten, die Opern schrieben, ohne dabei einem anderen Komponisten den „Background Drum“ oder die „Voices“ zu klauen. Musik machen war damals noch echte Arbeit.

Neben den Musik „Schreibern“ gab es auch lebende Musiker (man glaubt es kaum), in der Gruppe auch Orchester genannt. Betrachtet man am Ende noch die kleine Gruppe der Instrumentenbauer, ist man bereits am Ende der für damalige Musik notwenigen Berufe.

Heute, in einer Zeit, in der es nicht mehr primär darum geht, ein gutes Lied zu schreiben, sondern viel mehr, es durch Werbung bekannt zu machen, in der Musik immer und überall abrufbereit sein soll (muss) und in sekundenschnelle von einem Ende der Welt ans andere transportiert werden kann, haben sich aus den damals gerade 3 Berufsgruppen unzählige neue Berufe gebildet, ob sinnvoll oder nicht sei dahingestellt.

Was ist heute notwendig, um Musik zu machen? Bedeutet Musik „machen“ heute immer noch „nur“ ein Lied zu komponieren und zu texten, oder ist das Computerlabor, wo „rohe“ Musik verbessert, verfeinert und zum nächsten Hit gestylt wird heute schon wichtiger als die Musik selbst?

Das folgende Dokument ist eine kurze Übersicht über einige moderne (also früher nicht existente) Berufe, die sehr gefragt sind, aber nicht im alt bekannten Sinn etwas mit der Musik selbst zu tun haben. Von keiner Person, die die unten beschrieben Anforderungen erfüllt, wird primär verlangt, dass Sie ein musikalischen Talent irgend einer Art aufweist. Trotzdem sind solche Stellen hoch bezahlt, demnach also aus der heutigen Musikindustrie nicht wegzudenken. Die Berufe „Kaufmann für audiovisuelle Medien“, „Audio- Techniker“, „Audio Engineer“ und „Audio Producer“ sind nur Beispiele und dienen nur dazu, um dem Leser einen Überblick über heutige Berufe in der Musikindustrie zu verschaffen.

Kaufmann für audiovisuelle Medien

Ihr arbeitet z. B. für die Musikproduktionsfirma, die das neue Herbert Grönemeyer-Album aufnimmt. Ihr beschafft die erforderlichen Lizenzen, damit bestimmte Samples benutzt werden können. Ihr beobachtet den gesamten Musikmarkt und erstellt Marktanalysen. Ihr überlegt, welche Marketingkampagnen durchgezogen werden und guckt, ob die Firma dafür auch genügend Kohle ranschafft. Sprich: Ihr seid verantwortlich für alle mediensspezifischen kaufmännischen Sachen.

Medienkaufleute arbeiten für Musik-, Film- und Multimediafirmen, sowie bei Radio- und Fernsehsendern.

Audio Engineer

Audio Engineers bedienen Tonaufzeichnungs- und Tonwiedergabegeräte, Mischpulteinheiten, Computer, einfache Funksende- und Empfangseinrichtungen, Beschallungsanlagen. Audio-Engineers arbeiten häufig in unregelmäßigem Schichtdienst, einschließlich Nacht-, Sonn- und Feiertagsarbeit. Audio-Engineers bedienen die unterschiedlichsten tontechnischen Geräte und Anlagen.

Audio-Engineers installieren tontechnische Einrichtungen, bedienen Steuerpulte, überwachen Kontrollmonitore. Audio-Engineers üben ihre Tätigkeiten zum Teil an wechselnden Arbeitsorten aus bzw. im Übertragungswagen.

Die Aufgabenbereiche der Audio-Engineers sind abhängig vom jeweiligen beruflichen Ansatz. Audio-Engineers überprüfen die jeweiligen akustischen Verhältnisse und bereiten die technische Ausrüstung vor. Audio-Engineers überwachen Tonschnitt, Tonaufzeichnung, Tonmischung und -sendung.

Audio-Producer/in

Gegenüber dem Beruf Audio-Techniker/in sind Audio-Producer/innen auch in der unmittelbaren Produktion von Tonmedien tätig. Audio-Producer/innen bedienen die unterschiedlichsten tontechnischen Geräte und Anlagen.

Audio-Producer/innen verwenden tontechnische Einrichtungen, bedienen Steuerpulte, überwachen Kontrollmonitore. Im Vergleich zum Beruf Audio-Techniker/in sind Audio-Producer/innen auch in der unmittelbaren Produktion von Tonmedien tätig. Audio-Producer/innen arbeiten meist in unregelmäßigem Schichtdienst, einschließlich Nacht-, Sonn- und Feiertagsarbeit.

Audio-Techniker/in

Audio-Techniker/innen bedienen Tonaufzeichnungs- und Tonwiedergabegeräte, Mischpulteinheiten, Computer, Beschallungsanlagen, einfache Funksende- und Empfangseinrichtungen. Audio-Techniker/innen bedienen die unterschiedlichsten tontechnischen Geräte und Anlagen.

Audio-Techniker/innen installieren tontechnische Einrichtungen, bedienen Steuerpulte, überwachen Kontrollmonitore. Audio-Techniker/innen überprüfen die jeweiligen akustischen Verhältnisse und bereiten die technische Ausrüstung vor. Audio-Techniker/innen überwachen Tonschnitt, Tonaufzeichnung, Tonmischung und -sendung.

Schlussbemerkung

Natürlich gibt es nicht nur neue, hier etwas abwertend dargestellte Berufe im Bereich der digitalen Audioverarbeitung. Ebenso wie früher gibt es heute richtige Komponisten, richtige Texter, Musiker usw. Auch deren Berufsbild hat sich verändert und konnte sich dem durch Computer & Co. herbeigeführten Wandel in der Musik nicht verschließen.

Zukunft der Musik im Internet

Unsere These: Napster überlebt seine Entwicklung nicht!

Korrekt!
Wenn Napster diese Strategie beibehält, wird diese MP3 Tauschplattform wohl oder übel nicht überleben können.
Napster war eine kostenlose und uneingeschränkte MP3-Tauschplattform die zentral gesteuert wurde. Zentral bedeutet in diesem Zusammenhang,, dass es einen (sicher mehrere) Server gibt an dem sich ein eingeloggter Benutzer anmeldet und über diesen sucht. Sobald eine Musikdatei heruntergeladen wird, verbindet man sich mit einem anderen Benutzer und ladet von seinem Rechner die Datei runter.
Napster ist zur Zeit, eine legale zahlungspflichtige MP3 Tauschplattform, die durch Urheberrechte und Künstlerrechte eingeschränkt ist. Das heißt, dass zur Zeit nur Musik heruntergeladen werden kann, die nicht Urheberrechtlich geschützt ist und deren Künstler es nicht verboten hat. Zu diesem Zustand kam es durch mehrere Gerichtsverhandlungen gegen Napster.
Napster wird eine legale zahlungspflichtige MP3 Tauschplattform, die "fast sämtliche" Musik anbietet, aber dafür ziemlich teuer wird. Man muss für Napster bezahlen, einerseits für die benötigten Ressourcen, andererseits für die Lizenzen für Musik.
Allein schon die Tatsache dass für Napster bezahlt werden muss, wird viele Nutzer dieses Dienstes abschrecken, da es ja eine Unmenge an Alternativen zu Napster gibt, die gegenwärtig im Gegensatz zu Napster immer stärker wachsen.
Zweiter Grund für den Rückgang von Napster wird sein, dass einfach das Musikangebot zu stark eingeschränkt ist und wird. Wenn man auch Lizenzen nachkauft, wird das Musikangebot trotzdem immer beschränkt bleiben.

Wer verdient denn nun heute mit Musik im Internet?

Ein Bombengeschäft machen die Telekommunikationsunternehmen, PC-Hersteller, Softwarefirmen, CD- Rohling- Hersteller und sicher auch noch die Audioindustrie. Aber auch Plattenlabel und Produktionsfirmen von Musik müssen sich nicht beschweren. Sie verdienen auch heute noch ihren Teil am großen Musikgeldkuchen. Früher wurde Musik über Audiokassetten getauscht und verbreitet, heute übernimmt das das Internet. Wenn auch die Verbreitung übers Internet größere Dimensionen annimmt.
Vergleichbar sind diese zwei Medien aber schon, wenn es um die Verbreitung geht. Echte Fans werden aber immer noch in den Plattenladen gehen und die Original CD kaufen, die besitzt einfach mehr an Wert, Besonderheit und Originalität.
Plattenfirmen sollten aber nicht die Hoffnung aufs Geschäft aufgeben. Sie werden sicher immer noch benötigt, sei es für die Vermarktung, Talentsuche und bei der Bereitstellung von Ressourcen. Zum Beispiel für ein hochwertiges Tonstudio.
Produktionsfirmen und Plattenlabels sollten sich aber auf jeden Fall neu positionieren um die Vermarktung im Netz zu sichern und neue Wege einschlagen.

Weiterführende Informationen

 

Verweise auf Arbeiten anderer Gruppen



>Entstehung | Ausbreitung | Verlierer | Vergleich | Sicherheit | Veränderung | Auswirkungen | Interaktiv | Zukunft