Drum-Programming Teil III: MIDI
Ich weiß, lange habt ihr warten müssen, nun aber geht es weiter mit dem Drum-Programming.
Wir haben uns bisher mit dem Schlagzeug als solchem und dem Schlagzeuger als Instrumentalisten beschäftigt. Eine wichtige Sache haben wir bereits gelernt: Automatismen. Daran werden wir anknüpfen, und weiter daran arbeiten, eine schöne Schlagzeugkomposition auf die Beine zu stellen. Gleich, nachdem wir uns ein wenig über das Technische in Bezug auf das Arrangieren am Rechner informiert haben.
Der Sequenzer und Plug-Ins
Seit die Entwicklung im Bereich der Computermusik an Fahrt gewonnen hat, verzichten viele auf die Anschaffung von separaten Drumcomputern, und erledigen die Arbeit direkt im Sequenzer ihrer Wahl. Diese Wahl fiel bei mir irgendwann auf Cakewalk Sonar aus dem Hause Twelve Tone. Mittlerweile liegt es in der Version 6 vor und ist eine ziemlich brauchbare Engine für die Musikproduktion. Aus Mangel an Moneten arbeite ich allerdings noch mit der Version 5. Ich denke aber, das Programmieren von Drums erfolgt auf den einschlägigen Systemen ziemlich ähnlich. So sollte es auch kein Problem sein Cubase oder Logic zu benutzen. Je nachdem, womit man am besten zurecht kommt.
Die Klangerzeugung läuft dabei (meist) über sogenannte Virtuelle Instrumente, in Form von Plug-Ins, die über eine standardisierte Schnittstelle in das System eingebunden werden. Ich sage meist, da es auch viele Hardware Synthesiser gibt, die für die Produktion herhalten können. Teilweise befinden sich diese Synthies direkt auf den Soundkarten. Da Hardware allerdings nicht so flexibel ist wie Software (insbesondere, was das Einspeisen neuer Sounds angeht), nehmen auch Hardware Synthesiser immer mehr an Bedeutung ab. Unter Sonar war es lange Zeit üblich (bzw. nur möglich) Plug-Ins im Windows eigenen Direkt X Format zu benutzen. Cubase und Logic benutzen dagegen überwiegend den VST-Standard aus dem Hause Steinberg. Seit der (ich glaube) vierten Version von Sonar ist allerdings ein Einbinden von VST-Effekten und Instrumenten im VST-Format völlig unproblematisch geworden. Ein weiterer bekannter Standard ist RTAS, das aus dem ProTools Dunstkreis stammt. ProTools ist, im Gegensatz zu den anderen drei Systemen, keine reine Softwarelösung, sondern an bestimmte Hardware gekoppelt und war für kleinere Studios lange Zeit das System der Wahl, weil sich damit schon früh sehr gute Soundergebnisse realisieren ließen. Mit steigender Rechnerkapazität hat dieses (Hybrid-) System allerdings ebenfalls an Bedeutung verloren. Zudem ist der Markt mittlerweile derart groß und qualitativ gut; die reine Konzentration auf nur ein Produkt scheint dieser Tage eigentlich nicht mehr angebracht.
Was aber macht man mit einem Sequenzer und was ist MIDI?
Der Sequenzer unterstützt uns bei der Entwicklung des Arrangements für eine Komposition. Ursprünglich dienten sie wohl nur dazu, MIDI-Daten darzustellen und zu bearbeiten. Mittlerweile sind die meisten Sequenzer über dieses Stadium längst hinaus und können auch Audio-Daten in allen möglichen Formaten bearbeiten. Daneben wird auch die Einbindung von Video immer wichtiger, um zum Beispiel Werbeclips zu vertonen.
MIDI und Audio Daten können dabei auf einzelne Spuren verteilt aufgenommen, bearbeitet, mit Effekten versehen und hinterher abgemischt werden. Sie sind also virutelle Studios oder Mehrspurbandmaschinen, die mit allerlei Werkzeugen ausgestattet sind, um das aufgenommene Material zu manipulieren. Schneiden, verschieben, Tonhöhen und Timingkorrektur etc sind mittlerweile eigentlich Standard. Für die Programmierung von Schlagzeugen sind für uns allerdings zunächst mal die MIDI Eigenschaften unseres Softwarestudios von Belang.
Die Verarbeitung von Audio Signalen kann man grob in zwei Kategorien einteilen. Zum einen wäre da das sogenannte Sampling. Von Sampling spricht man, wenn ein Audiosignal abgetastet und in digitale Daten übertragen wird. Die Daten liegen dann meist in einem .wav oder ähnlichen Format vor. Eine andere Variante ist es, MIDI-Daten aufzuzeichnen. MIDI-Daten enthalten nur Informationen, die es einem Synthesizer zu Steuern, dieser erzeugt dann auch den Informationen wieder die Klänge. Im Gegensatz zum Audio-Material können MIDI-Daten nicht ohne einen Synthesiser abgespielt werden. Sie enthalten im wesentlichen Daten darüber, wann welche Note, wie stark angeschlagen wurde und wie lange sie gehalten werden soll. Aus diesen Informationen generiert der Synth dann einen Klang, der abhängig von dem verwendeten Instrument ist. So lassen sich verschiedene Klänge laden (meist verschiedene Instrumente) und über den MIDI-Standard steuern. Der MIDI Standard ist bereits verflucht alt und schon zig mal totgesagt worden. Ich für meinen Teil komme nicht mehr ohne aus.
Die hauptsächlich verwendeten Informationen zerfallen dabei in Tonhöhe, Anschlagstärke (Velocity) und Zeitpunkt. Aufgezeichnet werden dabei sogenannte Note-On und Note-Off Befehle aus denen sich die Länge der gespielten Note errechnen läßt. (Es gibt noch eine ganze Reihe weiterer Daten, die das MIDI-Protokoll verarbeitet. Diese sind für die Programmierung allerdings nicht so wichtig oder werden ohne Zutun des Anwenders erzeugt und berechnet).
Was machen wir mit diesem Wissen?
Nun stellt sich die Frage, was Tonhöhen bei einem Schlagzeug sollen. Das Anfang und Ende eines Events gespeichert werden, leuchtet ja noch ein aber Tonhöhen bei perkussiven Instrumenten? Bei den gespielten Tönen im MIDI-Standard handelt es sich aber um kaum mehr als eine Reihe von Schaltern, die den Synthesizer veranlassen bestimmte Töne wieder zu geben. Es spielt also für unsere Zwecke keine entscheidende Rolle, welche Information ursprünglich gespeichert werden sollten. Die Töne werden einfach den Instrumenten des Schagzeugs zugeordnet und diese entsprechend wiedergeben. Welche Töne, welchem Instrument zugeordnet sind, lässt sich auf der Seite midi-kompendium nachschauen. Für uns hat die Tatsache, wie per MIDI der Synthesizer gesteuert wird eine wichtige Erkenntnis. Wir können unsere Automatismen nämlich leicht variieren, indem wir das “Transponieren Tool” des Sequenzers unserer Wahl benutzen. Ein Pattern klingt plötzlich ganz anders, wenn die Osszinato-Figur statt auf der HiHat auf dem Ride-Becken oder den Toms gespielt wird. Wir brauchen die Figur dafür lediglich entsprechend zu transponieren, ganz ohne die gesamte Figur neu zu erstellen. Darum wird sich dann der vierte Teil der Serie drehen. Ideen sammeln und das ganze musikalisch ausgestalten.
Hier geht es weiter zum vierten Teil.
Kein ähnlichen Artikel.
[...] Hier geht es weiter zum dritten Teil. [...]
[...] das Schlagzeug gesprochen, den Drummer als Musiker kennengelernt und kurz einen Ausflug in die MIDI-Welt unternommen haben. Jetzt versuchen wir das Ganze sinnvoll zusammen zu fügen. Machen wir endlich [...]