Cubase 6 - Note Expression (5)

(Themenanfang)

Controller-Daten im MIDI-Protokoll haben drei grundsätzliche Probleme:

  • Zunächst ist die Auflösung der Parameter kläglich. Pitchbend läßt sich noch am feinsten steuern – das ist ein 14Bit-Parameter, der einen Bereich von 16.384 unterschiedlichen Werten abdeckt. Die übrigen MIDI-Controller sind beschränkt auf 7Bit, dh. auf gerade mal 128 unterschiedliche „Zustände”.

  • MIDI-Controller bewegen sich frei im Datenstrom, und existieren „zwischen“ den Noten, „neben“ ihnen, auf der gleichen hierarchischen Ebene. Das läuft darauf hinaus, daß man, wenn man eine Note (im Editor der Sequenzer-Software) bewegt, nur eben diese Note bewegt, nicht aber die mit ihr „eigentlich“ assoziierten Controller. Wenn man zB. Pitchbend in einem vom Spiel einer verzerrten Gitarre inspirierten Solo auf dem Synthesizer verwendet, stehen die Pitchbend-Daten auf derselben Ebene wie die Noten. Wenn man dieses Solo im Sequenzer aufgenommen hat und die Performance zB. quantisieren will, kann man entweder alle Daten quantisieren (was für Pitchbend hier überhaupt keinen Sinn macht), oder die Quantisierung auf die Noten beschränken (wie das in jedem Sequencer auch gehandhabt wird; was aber die Pitchbend-Daten von den ihnen „eigentlich“ zugehörigen Noten zeitlich entfernt – mit radikalen klanglichen Konsequenzen).

  • MIDI-Controller sind „kanalbezogen“ – und das ist ein sehr abstraktes Konzept. Es besagt, daß man die unterschiedlichen Stimmen (z.B. die vier Instrumente in einem Streichersatz) eines „Instruments“ (einer „Spur“ auf dem virtuellen Tonband) nur dann unabhängig voneinander adressieren kann, wenn sie über unterschiedliche MIDI-Channels verteilt sind. Das kann man machen – das ist aber eine Sache allenfalls für Spezialisten, die sich mit den Details des MIDI-Protokolls auskennen. In der Praxis läuft es letztlich darauf hinaus, daß man pro Sound genau eine Ebene von Controllern benutzen kann: MIDI-Controller sind auf monophone Sounds beschränkt.