logo

Neuer Ausdruck mit digitalen Musikinstrumenten – Expressive Controller und die MIDI-Spezifikation MPE

Matthias Krebs | 31. Dezember 2016

Die zunehmende Immatrialisierung und Abstraktheit der digitalen Klangproduktion ist nicht zu übersehen. Jedoch genügt es Instrumentalisten (wie mir) nicht einfach zuzuschauen, wie die Komplexität des Klangs durch ausgefeilte digitale Algorithmen und Syntheseformen besonders von Software-Entwicklern stetig erhöht wird. Wie soll man all die Parameter sinnvoll steuern? Daher müssen parallel dazu Wege gefunden werden, die klanglichen Strukturen live zu modifizieren, um Melodien, Klangverläufe, Rhythmen und musikalischen Ausdruck mit Hilfe eines instrumentalen Steuersystems zu gestalten.

Für die diesjährigen Weihnachtsfeiertage habe ich mir eine Auswahl unterschiedlicher digitaler Steuergeräte (Controller) angeschafft, um – gewissermaßen in einem Selbstversuch – verschiedene moderne Möglichkeiten zum instrumentalen Spiel von digitalen Klangerzeugern praktisch kennenzulernen. In diesem Beitrag will ich einige dieser Musiktechnologien kurz vorstellen. Neben den verschiedenen Controllern (Hardware und Apps) gehe ich dabei auf die neue MIDI-Spezifikation „Multidimensional Polyphonic Expression“ (kurz: MPE) ein, die für die Übersetzung der Controllerdaten zur Klangerzeugung eine entscheidende Rolle spielt.

Mein diesjähriges Weihnachtssetup: ROLI Blocks, LinnStrument, JamStik+. Außerdem abgebildet: Novation LaunchPad MK2 und die Apps GeoShred und AniMoog.

Als Musikinstrumente will ich in diesem Artikel Geräte zum Selbsterzeugen von Musik bezeichnen, die sich durch eine gezielte Kontrollierbarkeit innerhalb einer spezifischen, fein abstufbaren Bandbreite an Klangfarben, durch Klangmodulation, charakterisieren. Sie geben Musizierenden Möglichkeiten an die Hand, sich durch Kombination verschiedener Klangfarben und die Gestaltung von Tonverläufen musikalisch auszudrücken. Alles muss im Augenblick entstehen, muss expressiv und gleichzeitig intim sein (vgl. Krebs 2011).

Die Musikproduktion mittels digitaler Musiktechnologien ermöglicht gerade im Bereich der Klangerzeugung bislang ungekannte Nuancierungen (mehr dazu im Folgenden). Lange Zeit waren jedoch Sequenzer-Programme und sog. Digital Audio Workstations (DAWs) die gewählten Werkzeuge, um die vielen Parameter der sich gerade durch die Digitalisierung explosiv entwickelnden (Software-)Klangerzeuger zu bedienen – sowohl im Heim- als auch im Profi-Musikstudio. Mit der verbreiteten Computertechnik sowie spezifischer Soundkarten und verschiedener Software-Programme wie Ableton Live, Cubase, Logic und Co. können alle zur Verfügung stehenden Parameter dieser digitalen Klangerzeuger einzeln adressiert und automatisiert werden. Die Programmierung erfolgt unterstützt von einer graphischen Oberfläche per Computermaus, Tastatur und Masterkeyboard. Möglichkeiten zum Musizieren und Improvisieren in Echtzeit, waren mit diesem Setup deutlich eingeschränkt.

Homestudio: MPC, Laptop, Software-Sequenzer, Soundkarte, Masterkeyboard, Mikrophon, Monitor-Lautsprecher.

Jedoch beobachte ich, wie sich seit 2010 immer mehr Hardware-Controller etablieren, die den immer komplexer werdenden Klangerzeugern auch entsprechende leistungsfähige Steuermöglichkeiten zur Verfügung stellen. Dabei entwickelten die Ingenieure und Programmierer zunächst parallel Hardware-Controller wie Ableton Push und ein breites Angebot an Musikapps wie Lemur auf Smartphones und Tablets, um Klangerzeuger zu steuern. Doch werden sie schließlich auch auf einander bezogen und viele Hersteller verbinden die verschiedenen Vorteile. So können Hardware und Musikapps zusammengeschlossen werden, z.B. Arturia Spark und die App iSpark oder Elektron Analog Rytm und die App Strom.

Digitale Musiktechnologien

Mit der Verlagerung der musiktechnologischen Entwicklung weg von speziell konstruierten Instrumenten (Hardware-Synthesizer, E-Orgeln usw.) hin zur Entwicklung von entsprechender Software, die auf praktisch jedem handelsüblichen Computer mit geeigneter Audio- und MIDI-Hardware (Soundkarte, Keyboard etc.) laufen, beschleunigt sich mit der Jahrhundertwende die (Software-)Virtualisierung von Instrumenten und musikspezifischen Produktionsszenarien.

,,Alle Schritte im Bereich der Musikproduktion sind mittlerweile von Virtualisierung betroffen und unterliegen diversen Transformationsprozessen – so auch das Musikinstrument. Es scheint zwischen Software-Synthesizern, Sound-Samplern, Grooveboxen, ,virtuellen Instrumenten‘, Digital Audio Workstations, verschiedensten Controllern und musikalischen Interfaces gewissermaßen verschwunden zu sein: Instrumentenkunde befindet sich in einer Phase der Neukonfiguration – die Instrumentenkunde der Computergesellschaft steht offenbar noch aus.“ (Bense 2013: 149)

Mit modernen Sequenzer-Programmen wird schließlich eine kaum noch steigerungsfähige Virtualisierung aller Funktionen eines Musikproduktionsprozesses erreicht. Dazu werden auch die Funktionen eines Instruments virtuell rekonstruiert. So genannte PlugIns, d. h. spezielle Software-Pakete, erweitern über geeignete Schnittstellen (z. B. Steinbergs VST-Norm oder Apples Universal Audio) modulartig die Funktionalität eines Musikcomputersystems mit ausgefeilten Effektroutinen und verschiedenen Klangerzeugern (Sampler und Synthesizer).

Ein Beispiel, das die Modulationsvielfalt, die programmierbare Lebendigkeit und den Klangreichtum von digitalen Klangerzeugern aufzeigt, ist etwa die professionelle Samplebibliothek Vienna Symphonie Library (VSL). Sie ist mittlerweile in den Soundtracks vieler Kino- und TV-Filme zu hören.

Historische Syntheseformen wie Subtraktive Klangsynthese und FM-Synthese wurden schon früh digital nachgebildet. Hochkomplexe Klangsyntheseverfahren wie Waveshaping oder Granular Synthese lassen sich nur mit digitalen Methoden realisieren. Auch lassen sich mit Software (Stichwort: Physical Modelling) Instrumentenklänge modellieren, deren Konstruktion mit herkömmlichen Mitteln physikalisch kaum realisierbar wäre. Oder es werden geschickte Kombinationen von bewährten und innovativen Verfahren entwickelt, die neuartige musikalische Konzeptionen erlauben, die mit den bisherigen mechanischen und elektronischen Konstruktionsprinzipien nicht oder nur sehr aufwändig realisierbar sind.

Darüber hinaus lassen sich mit diesen digitalen Musiktechnologien diverse Modulationsformen von Klängen realisieren, die für die subtile Tongebung einer ausdrucksstarken Interpretation notwendig sind.

Yamaha TYROS 2 Kontakt Instrument

Dabei bezieht sich die Virtualisierung der Musikproduktion vornehmlich auf die Klangerzeugung und -verarbeitung. Sogar die von den Hardware-Vorbildern gewohnten Bedienungselemente und Optik des firmenspezifischen Designs werden auf dem Bildschirm foto-realistisch dargestellt. Darunter liebevoll nachgebildete ‚historische‘ Vorbilder z.B. Vintage Synthesizer, Hammondorgel, Fender Rhodes. Wobei jedoch die zur Bedienung verwendeten Steuergeräte (insb. Maus, Klaviatur, Regler) zunächst größtenteils doch noch mechanisch funktionieren (Stichwort: Haptik) und somit in der realen Welt physischer Funktionalität verbleiben müssen.

Mit dem Aufkommen von Smartphones und Tablets mit Bedienung per Touch und verschiedener anderer eingebauter digitaler Sensoren verändert sich diese Trennung von virtueller Klangerzeugung und physischer Steuerung.

Das iPad als expressives Musikinstrument

Vor einem Jahr hatte ich in dem Blogartikel „Das iPad als expressives Musikinstrument“ meine Gedanken und Erfahrungen zum Thema ausdrucksstarkes Musizieren mit Musikapps veröffentlicht. In dem Artikel beschreibe ich, wie ich mit einem iPad expressiv Musizieren kann, indem ich mehrere verschiedene Musikapps miteinander kombiniere. Dazu wähle man (1) eine App als Spieloberfläche (z.B. eine Art Tabulator-Griffbrett) auf dem Touchscreen aus, verwende zusätzlich (2) eine App, um die eingebauten Sensoren des Mobilgerätes (z.B. Bewegungssensoren, mehr dazu hier) zur Klangmodulation zu nutzen. Schließlich steuere man mit diesem Steuersetup (3) verschiedene Apps an, die als Klangerzeuger (Sampler oder Synthesizer) dienen. Dabei laufen alle diese Apps auf demselben Gerät (Stichwort: Multitasking).

Im Laufe des Jahres habe ich mein Setup jedoch immer weiterentwickelt. Grund dafür sind sowohl Software-Updates, neue Schnittstellen-Standards (z.B. Ableton Link), neue Musikapps, als auch viel Praxis in Proben und Konzerten, um alles zu erproben. Aktuell habe ich Apps wie GeoShred (tactile interface), MidiFlow (motion control) sowie verschiedenste Sampler und Synthesizer als Klangerzeuger (z.B. iSymphonic, Magellan, Arturia iSEM, bs-16i und iM1) im Setup. Zusätzlich laufen auf meinem iPad die Apps AUM und Audiobus als Mischpulte im Hintergrund mit, um die Lautstärkeverhältnisse der klangerzeugenden Apps zu steuern und Effekt-Apps zu nutzen.

Dabei ist mein Fokus auf die Virtualisierung des Spielinterfaces und damit den Möglichkeiten zur differenzierten Klangsteuerung gerichtet. Trotz der stetig fortschreitenden Entwicklung, bleiben jedoch weiter technische Wünsche offen. So bestätigt sich für mich die Erkenntnis: Dass trotz der Freiheiten, die das von mir genutzte Instrumentarium iPad und Apps bietet, ich stets – so wie mit jedem anderen mechanischen oder elektronischen Instrumentarium auch – mit Limitierungen konfrontiert bleibe. Sodass ich als Instrumentalist gezwungen bin, kreative Lösungen zu finden, um so musizieren zu können, wie ich es mir vorstelle.

Blogbeitrag: Musikmachen mit sensorgesteuerten Musikapps

Mit den Sensoren der Tablets und der Möglichkeiten von Apps wie Lemur, die es dem Nutzer erlauben, seine eigene graphische Spieloberfläche zu gestalten, können diese ihre Instrumentensteuerung ziemlich frei konfigurieren. Durch die digitale Klangerzeugung kann die Klangmodulation ohne Einschränkungen durch mechanische bzw. akustische Bedingungen der Klangerzeugung umgesetzt werden.

So ermöglicht das Display die Bedienung von bis zu 11 Fingern gleichzeitig. Dabei können neben dem einfachen Touch (Tippen) verschiedene Gesten verwendet werden, in dem die Finger über das Display gewischt werden. Mit den neuen Technologien wie 3D-Touch (bisher nur im iPhone 6S und 7 verbaut) und dem Apple Pencil (bisher nur mit iPad Pro verwendbar) kann man Klänge auch drucksensitive steuern. (Keine Neuerfinden: Der Ende der 1970er Jahre für Aufmerksamkeit sorgende Lightpen des Fairlight CMI, mit dem die Menüelemente der zugrundeliegenden Software angeklickt und praktisch beliebige Schwingungen, Hüllkurven und Sequenzer Noten auf dem Bildschirm gezeichnet werden konnten, zeigte schon damals Bedienungsmöglichkeiten auf, die das Tippen und Wischen auf den aktuellen Tablets vorausahnen ließen.)

Peripherie: Das iPad um musiktechnisch erweitern

Wie elektronische und andere digitale Musiksysteme lassen sich heute auch Smartphones und Tablets durch Peripherie erweitern, um zusätzliche Expressivität für das musikalische Spiel zu erreichen. Dadurch ist das Musizieren mit Tablets und Smartphones nicht auf die Verwendung der Mobilgeräte und zahlreicher Apps allein beschränkt. Vielmehr lassen sie sich heute in bestehende Studio-Setups integrieren, wie zahlreiche Beispiele besonders von Sound-Designern zeigen (siehe hier, hier und hier). Dabei ist das iPad besonders verbreitet. Auch im Kontext der musikalischen Experimente des DigiEnsemble Berlin spielt die Erweiterung durch Soundkarten und externe Hardware-Controller eine große Rolle.

Zur Erweiterung der Tablets und Smartphones durch zusätzliche Peripherie haben sich im Laufe der letzten 4 Jahren die digitalen Schnittstellen Lightning (Apple) und micro-USB (android) etabliert. Mittels Adapterkabel lassen sich somit heute beinahe alle aktuellen Studio-Geräten der verschiedenen Hersteller aus dem Einsteiger- und Profibereich, die über einen Computeranschluss verfügen, auch an die Mobilgeräte anschließen und verwenden. Darunter Masterkeyboards, Pads, Mischpulte und professionelle Soundkarten (mit allen Sound-Ein- und Ausgängen, Mikrofonvorverstärker und Midi-Schnittstellen etc.).

Musizieren mit digitalen Technologien kann ziemlich kabelintensiv sein. Das Foto zeigt den „Operationstisch“ einer Probe in einem Workshop. // Foto: Matthias Krebs

Für unsere Musikpraxis im DigiEnsemble Berlin bedeutete dies noch bis Mitte 2015 eine Unmenge an Kabeln und Adaptern, die zu jeder wöchentlichen Probe und zu den Auftritten verlegt werden mussten. Zwar existierten auch schon Lösungen zur drahtlosen Übertragung von Steuer- und Audiodaten, doch war dies mit hoher Unsicherheit in der Übertragungsverbindung und mit Verzögerungen verbunden. Somit entschieden wir uns gegen WLAN- und Bluetooth-Verbindungen im Rahmen des musikalischen Spiels. Allein zur Fernsteuerung des digitalen Mischpultes zeigte sich WLAN und Bluetooth als komfortabel.

Seit Ende 2015 wurden schließlich mehre neue digitale Technologien für das digitale Musizieren verfügbar, die einerseits Kabel ersetzen und darüber hinaus einige der komplexen Konfigurationen vereinfachen.

Neben dem Ableton Link-Standard, ist für mich in diesem Jahr besonders aber die Möglichkeiten über Bluetooth LE verschiedene Geräte drahtlos in das Setup als Steuergeräte integrieren zu können, interessant geworden. Dieser neue Standard ermöglicht es nicht nur mehrere Geräte gleichzeitig mit einem Gerät zu verknüpfen, sondern auch eine deutlich geringe Verzögerung. Dafür ist die Übertragung aufgrund geringer Bandbreite jedoch auf Steuerdaten beschränkt. Bluetooth LE ist daher aktuell besonders zur Verbindung mit MIDI-Controllern verbreitet.

Hardware-MIDI-Controller

MIDI spielt eine herausragende Rolle bei der digitalen Klangsteuerung. Das MIDI-Protokoll (MIDI = Musical Instrument Digital Interface) ist ein musikspezifisches Standardformat, das seit Entwicklung Ende der 70er Jahre, auf eine erstaunlich lange Anwendungsphase zurückblicken kann. Dabei ist MIDI im Grunde eine digital-elektronische Variante der in historischen Musikautomaten verwendeten Stiftwalze, die als Speicher von Noteninformationen dient.

Stiftwalze und MIDI-Pianoroll-Darstellung

Dabei enthalten MIDI-Streams keine Klangdaten, sondern senden lediglich eine Noteninformation an einen elektronisch oder digitalen Klangerzeuger in einer geringen Bandbreite. Man kann sagen, dass MIDI das musizierende Spiel der Hände auf einer Klaviatur dokumentiert und zeigt daher eine gewisse Nähe zu aktionsabbildenden Tabulaturen wie die Griffschriften für Gitarristen.

Trotz der langen Historie aus den Anfängen der digitalen Datenübertragung, hat MIDI heute den Sprung in fast alle digitalen Musikpraxen geschafft. Auch, wenn sich viele Musiker*innen aufgrund der vielen Limitierungen längst eine moderne Technologie wünschen. Siehe hier…

Der Intrumentenerfinder Roger Linn beschreibt eine solche Tastatur als bloße Ansammlung von Schaltern: Es können einzelne Töne angeschalten und wieder ausgeschalten werden. Das genügt vielen Instrumentalisten nicht. Daher haben sich bald Pitch Bend und Modulationsrad und auch viele weitere Technologien entwickelt, wie Aftertouch und Control Change Messages.

Dabei ist das sog. Masterkeyboard eines der ältesten und bis heute der verbreitetste MIDI-Controller. In erster Linie ist der Zweck eines Masterkeyboards das Ansteuern der Tonhöhe via MIDI zum Einspielen eigener Melodien in den Sequenzer oder als Tastatur zur Steuerung der Klänge von Soundmodulen oder der Soundkarte.

Ein Masterkeyboard bietet normalerweise keine eingebauten Klänge an oder ist auf ein paar wenige Sounds beschränkt. Stattdessen zeichnen sich Masterkeyboards durch eine gut spielbare Tastatur, Pads und Knöpfe bzw. Regler zur MIDI-Steuerung (Klangauswahl, Pitch Bend, Modulation, Lautstärke usw.) aus.

Masterkeyboard-Controller: Dieses Exemplar habe ich zur Anschauung gewählt, da es viele der Möglichkeiten kombiniert – Piano-Tastatur, Pads, (Endlos-)Regler, Switches, Pitch-Wheel, Modulationsrat und einfache Anzeige.

Interessant ist, dass sich Instrumentenentwickler, wie Roger Linn, an herkömmlichen mechanischen Instrumenten orientieren. „For truly expressive performance, you need to capture the same sort of human gestures that are used to play solo acoustic instruments, including gestural control of each note’s loudness, pitch and timbre continously over time. It should be able to perform convincing performances of expressive traditional acoustic instruments.” (Roger Linn)

Dabei reichen ihm die Steuermöglichkeiten eines Masterkeyboards nicht aus: “However, if you’ve ever tried to play a convincing guitar, sax, violin, clarinet or cello solo on a MIDI keyboard, you’ve found it to sound static and lifeless. This is because keyboards can’t do much more than turn sounds on and off at different volumes, and their bend and mod wheels aren’t a big help.” (Roger Linn)

Um die klanglichen Möglichkeiten moderner Klangerzeuger musikalisch-expressiv spielbar zu machen, reicht das MIDI-Masterkeyboard also nicht aus.

Neue digitale Controller

Da der digitale Klang völlig unabhängig von der Art der Klangsteuerung entsteht und unabhängig davon moduliert werden kann, bieten sich Experimente mit innovativen Interaktionsformen zwischen Mensch und Computersystem an. Völlig ungewohnte Spieltechniken mit neuartigen Steuereinrichtungen (Pads, Sensoren aller Art) werden von Künstlern und Entwicklung erprobt. Wobei die Haptik unterschiedlicher Materialien und Formen und Gestik menschlicher Motorik neu zugeschnittene Interface-Technologien, die z.T. aus anderen, nicht-musikalischen Anwendungsbereichen stammen, werden auf musikelektronische Geräte und Instrumente übertragen (mehr dazu: Kim 2012).

Dabei sind in den letzten Jahren verschiedene digitale Controller entstanden, die weit über das hinausgehen, was mit Masterkeyboards möglich ist. Eine Auswahl möchte ich im Folgenden kurz vorstellen:

Eigenharp Alpha

Das 1,23 Meter lange Instrument sieht aus wie der verlängerte Hals einer elektrischen Gitarre ohne Klangkörper, der bei der E-Gitarre ohnehin nur ästhetischen Wert besitzt. Allerdings besitzt die Eigenharp Alpha keine Saiten, sondern 120 berührungsempfindliche Tasten, 12 Perkussion Tasten und zwei Kontaktleisten, ein Mundstück und verschiedenste Fußteile zur Klangsteuerung.

“This duality nicely summarizes what the Eigenharp is about: a physical and sensual instrument that gives intimate control over the digital world (Geert Bevin).”

Mehr dazu:

Leap Motion zur kontaktlosen Klangsteuerung

Ende 2013 wurde auch in Deutschland mit Leap Motion ein Kistchen zur Gestensteuerung – etwa so groß wie eine Zigarettenschachtel – ausgeliefert. Mit diesem Controller kann man einen Computer durch Gesten mit deinen Händen steuern. Das Theremin des 21. Jahrhunderts? Das Gerät für etwa 100€ funktioniert zwar nicht perfekt, jedoch sind seine Anwendungsmöglichkeiten hochinteressant. In kurzer Zeit haben Entwickler Dutzende von Apps im Airspace-Store veröffentlicht. Davon sorgten vor allem Musik-Anwendungen für Aufmerksamkeit.

Eine besonders ausgereifte App für Leap Motion ist GECO. Künstler wie Anton Sergeev kann damit seine musikalischen Ausdrucksmöglichkeiten durch Gesten und Körperbewegungen noch erweitern. Beim Performen nutzt er die LEAP Motion und die GECO-App, zusammen mit einem Akai MPD32-MIDI-Controller, dem Korg Kaoss Pad 3-Sampler, Ableton Live und Resolume für die Visuals. Mit diesem Setup kann er mit einer Handbewegung einen speziellen Video-Effekt und Audio-Effekt simultan und synchronisiert steuern. Jede Handbewegung erzeugt ein spezielles Geräusch oder einen Sound-Effekt, zusammen mit einer bestimmten Projektion. Dabei wird die Bedeutung einer direkten physischen Beziehung zur Musik deutlich.

„Wir erleben Musik – und alles andere auch – ja nicht nur auf einem Kanal, sondern mit allen unseren Sinnen. Sie wirken zusammen und sind aufeinander bezogen“ (Anton Sergeev).

Er nutzt die digitalen Musiktechnologien, um das Spektrum seines Ausdrucks zu erweitern. „Ich will dem Publikum eine Show bieten! Ich lebe, während ich live spiele. Dabei kann ich mich wie ein Zauberer fühlen. Es ist einfach toll, Musik körperlich zu machen.“

Andere Apps wie SoundLeap ermöglichen dem Nutzer durch einfache Handbewegungen verschiedene Instrumente zu spielen. Die Software ermöglicht es, mehrere Spuren aufzunehmen, Parts auszuwählen und zu einem Song zusammenzufügen.

Mehr dazu:

 

Haken Continuum

Der Entwickler Dr. Lippold Haken beschäftigt sich seit Jahren mit Sensorik und hat einen expressiven Midi-Performance-Controller entwickelt, dessen berührungsempfindliche Spieloberfläche aus Neopren ist. Sie ist ca. 19 cm breit und je nach Version entweder 137 cm (Full-size: fast 8 Oktaven) oder 72 cm (Half-size: knapp vier Oktaven) lang. Durch über 200 Sensoren unter der Oberfläche wird jede Berührung durch die Finger des Musikers, an dem die Berührung stattfindet, in drei Dimensionen registriert (Pitchbending horizontal, Modulation vertikal und Druck). Aufgrund dieser aufwändigen Bauart mit den zahlreichen Sensoren, ist ein Haken Continuum ziemlich teuer.

Um die komplexen Steuerdaten optimal zu verklanglichen, integriert die aktuelle Version des Haken Continuums zudem einen speziell auf die expressionistischen Möglichkeiten des Continuums angepassten Soundprozessor. Damit können wirkungsvolle atmosphärische und drastische Sounds hervorgebracht werden, die polyphon gespielt und moduliert werden können. Die interne Pitch Funktion erlaubt darüber hinaus gestimmte Tonlagen bis hin zu „temperierten“ Stimmungen und andere Nutzer-definierbare Skalierungen.

Mehr dazu:

 

LinnStrument

Das LinnStrument ist ein MIDI-Controller und wurde von Instrumentenbauer Roger Linn entwickelt. Es sind aktuell zwei Versionen erhältlich, das LinnStrument 128 ist ca. ein Drittel kleiner als die große Version und besitzt 128 Pads anstelle von 200 Pads als Spielfläche, die ähnlich wie bei einer Gitarre angeordnet sind. Damit lassen sich stufenlose Glides über mehrere Noten realisieren. Mit den Pads lassen sich fünf Spielbewegungen umsetzen: Strike Velocity (Anschlag), Pressure (Druck), Left-Right (Pitch Band), Front-Back (Modulation) und Release Velocity (Loslassen), womit ein sehr differenziertes Spiel möglich ist.

„In einer idealen Welt würden in jeder Musikschule LinnStrumente verwendet werden, um die Grundlagen der Musiklehre zu vermitteln. Sehr demonstrativ und intuitiv zu bedienen. Die Möglichkeiten erstrecken sich aber nicht nur auf die Musikpädagogik, durch die geschickte Erweiterung der Möglichkeiten von MIDI (Stichwort 1 Kanal pro Note) ist expressives Spiel mit Velocity, Vibrato, Glide und Tremolo auf den Pads möglich“ (Thomann-Rezension).

Mehr dazu:

 

Weitere Vertreter:

Daneben gibt es noch einige weitere interessante Instrumente, die im Handel erhältlich sind und die ich hier nicht näher vorstellen kann:

Wie nicht zuletzt die Crowdfunding-Projekte demonstrieren, kann insgesamt eine stete Zunahme an expressiven Controllern und ein steigendes Interesse beobachtet werden.

“With more of these sorts of instruments (the Madrona Soundplane being another fine example), we begin to reach a critical mass of expressive instruments. Just as modular synthesizers have grown in success as they’ve multiplied, a greater range of expressive controllers could transform the category from outlying edge case into something with its own scene. And that seems long overdue” (Peter Kirn).

 

Die Zukunft von MIDI: Multidimensional Polyphonic Expression

Die Entwickler solcher Controller stehen vor der Herausforderung bestimmte Limitationen des MIDI-Standards zu umschiffen: Funktionen wie Pitch Bend und CC-Steuerdaten sind so festgelegt, dass sie immer auf alle Noten eines Midikanals wirken. Das verhindert polyphones Modulieren des Tones. D.h. z.B. das unabhängige modulieren der Lautstärke per Finderdruck, das Erzeugen eines Vibrato oder das Verändern des Tembres.

Schematische Darstellung verschiedener Steuermöglichkeiten.

Wie können die mehrdimensionalen Steuermöglichkeiten von Controllern wie LinnStrument und Eigenharp mit ihren expressiven Möglichkeiten einzelne Töne zu gestalten, dazu verwendet werden, um verschiedene Klangerzeuger und DAWs zu steuern?

Eine neue MIDI-Spezifikation muss her. Seit der Musikmesse Winter NAMM 2015 (Wo?) gibt es einiges an Bewegung. Einer der Initiatoren ist Geert Bevin. Gemeinsam mit vielen Größen der Musikindustrie, darunter Apple, Bitwig, Haken Audio, KMI, Madrona Labs, Moog Music, Roger Linn Design, ROLI wird daran gearbeitet. Die vorläufige Bezeichnung ist Multidimensional Polyphonic Expression (kurz: MPE) für multidimensionalen polyphonen Ausdruck.

Die Limitierung, dass immer alle Noten gleichzeitig verändert werden und nicht individuell moduliert werden können, löst MPE, indem die Steuerdaten für jeden Anschlag auf verschiedenen MIDI-Kanälen in Rotation gesendet werden.

Each note’s messages are sent on a unique MIDI channel, rotating through all channels (or a defined contiguous block of channels). The per-note messages sent over each Per-Note channel are limited to Note On, Note Off, Channel Pressure (for finger pressure), Pitch Bend (for x-axis movement) and CC74 (for Y-axis movement). Any other messages sent (like Program Change, CC7/volume, CC64/Sustain, etc.) apply to all voices, regardless of the channel over which they are sent. (In LinnStrument, MPE is called „Channel Per Note“ mode.)

Die neue MIDI-Spezifikation MPE ist daher keine Neuentwicklung, vielmehr handelt es sich dabei um nicht mehr als einen pragmatischen Ansatz. Eine Auswahl an aktuell zur Verfügung stehenden Ansätzen von verschiedenen Akteuren von Controller-Entwicklern und Softwareentwicklern wurden zusammengenommen und systematisiert. Damit stellt MPE eine Art Schnittstelle dar, um komplexere Controllerdaten stimmig mit entsprechenden Klangerzeugern zu verbinden.

Eine Dokumentation der Spezifikation findet sich hier…

„Multidimensional Polyphonic Expression or MPE is a term that applies to a new class of controllers called PMCs (Polyphonic Multidimensional Controllers). The arrival of this technology has sparked a controller revolution, with hardware now capable of sending multiple dimensions of finger movement control. […] A big thank you to Roland Lamb from ROLI, who took the lead in this movement and invited all the key stakeholders relevant to this discussion to the table. Thanks to his efforts the industry now has a standard instead of various home grown solutions.” (Bitwig)

Zusammenfassend können anhand der oben vorgestellten Beispiele an Controllern folgende expressive Funktionen identifiziert werden, die via MPE übertragen werden können und über die Funktionen eines herkömmlichen Masterkeyboards hinausgehen:

  • 3D Polyphonie: Auf MPE-fähigen Controllern können demnach mehrstimmig expressiv musiziert werden.
    • Jeder Fingerkontakt auf dem Spielbereich generiert dazu Y (rauf/runter), X (min/max) sowie Z (Druck) für die Anschlagdynamik.
      • Dieser Prozess arbeitet intelligent, akkurat und erhält Vibrato and Glissando Effekte.
    • Darüber hinaus können „Anschlag und Loslassen“ als individuelle MIDI-Controller programmiert werden.
      • Damit ergeben sich insgesamt 5 Werte: Strike Velocity (Anschlagstärke), Pressure (Druck), Left-Right (Pitch Bend), Front-Back (Modulation) und Release Velocity (Loslassgeschwindigkeit), womit ein sehr differenziertes Spiel möglich ist.
  • ROLI beschreibt dieses Set (Strike, Press, Glide, Slide und Lift) von Steuerdaten als „5D Touch“ und will damit beschreiben, wie Nutzer mit einem physischen Interface/Controller interagiert, wenn sie musizieren. Mehr dazu hier…

The 5 dimensions are called: Strike, Press, Glide, Slide and Lift.

  • Hinzu kommt eine besonders optimierter MIDI Signalfluss, damit es bei den Klangerzeugern nicht zu Überlastung oder Fehlinterpretationen und damit zu MIDI-Hängern kommt.
    • 7 and 14-Bit MIDI (14-bit with a range of 16,384 values instead of CC’s 7-bit with a range of 128) to get much smoother operations

Hinweise für Entwickler von Klangerzeugern und Controllern

Roger Linn fasst auf seiner Webseite die wichtigsten Punkte zusammen, auf die sich Entwickler beziehen sollen, wenn sie ihre Klangerzeuger oder Controller MPE-konform machen wollen: hier…

Meiner Erfahrung nach sind folgende Punkte entscheidend, soll das Setup möglichst einfach zu realisieren sein:

  • Wahlmöglichkeit „Single Channel“/“MPE“
  • Each note’s messages are sent on a unique MIDI channel, rotating through all channels (or a defined contiguous block of channels). The per-note messages sent over each channel are limited to Note On, Note Off,
    • Channel Pressure (for finger pressure),
    • Pitch Bend (for x-axis movement) and
    • CC74 (for Y-axis movement).
  • Any other messages sent (like Program Change, CC7/volume, CC64/Sustain, etc.) apply to all voices, regardless of the channel over which they are sent.
  • If a Pitch Bend Range message is received – useful for changing between the common +/- 2 semitone range of traditional MIDI keyboards and the default +/- 48 semitone range of MPE controllers – it simply follows the rule of applying to all voices.

Expressives Spiel in 7 Dimensionen

Im digitalisierten Raum sind aber noch mehr Spielbewegungen als fünf möglich. Ein eindrucksvolles Beispiel zeigt der Entwickler Hari Karam Singh, der für die App „AC Sabre“ (Air Craft Media) Verantwortung zeichnet. Erst im Sommer hatte ich mich länger – im Rahmen seines Besuchs in Berlin – mit ihm über effektive Möglichkeiten unterhalten, die Daten der eingebauten Sensoren von Smartphones und Tablets zur Klangsteuerung zu verwenden.

Doch ist die Verwendung der App sehr aufwändig in der Einstellung bezogen auf den oder die Klangerzeuger, was mich bisher von intensiveren Nutzung abgehalten hat. (Auf meine Mail-Anfrage, ob er eine MPE-Unterstützung plant, hat er bisher noch nicht geantwortet. Ich werde hier darüber berichten.)

Noch eine Dimension weiter bringt virtual realty. Zum Beispiel ist mit Chroma Coda‘s Music Room eine Anwendung für die VR-Technologie HTC Vive verfügbar, mit der sich virtuelle Instrumente spielen lassen. Die Software läuft als VST-PlugIn z.B. in Bitwig Studio und eröffnet eine neue Perspektive auf einen expressiven Controller. VR erlaubt die Steuerung in verschiedenen Dimensionen: Die Position im 3D-Raum sowie velocity, pitch, yaw und roll.

“The Music Room comes with an amazing collection of samples, effects and synths included in Bitwig. With MPE The Music Room can control pitch, volume (aftertouch), timbre, note on and off velocity and 3 more dimensions continuously per note. This gives you amazing creative freedom with your music.” (Music Room)

Wo wird MPE heute schon verwendet?

Die Etablierung von MPE schreitet relativ zügig voran. Dabei lässt sich MPE besonders schnell in Software integrieren. So existieren bereits für Sequenzer-Programme wie Bitwig, Logic, Ableton Live und Cubase entsprechende Workarounds zur Steuerung von verschiedenen Software-Klangerzeugern. Mehr dazu hier…

Eine relativ schnelle Entwicklung beobachte ich bei den Musikapps. Dabei besteht die Besonderheit, dass einige der Musikapps sowohl Klangerzeuger als auch Controller sein können. Im Folgenden eine Liste der verfügbaren Apps für Geräte mit iOS (Apple) und dazu Hinweise zur Konfiguration:

App-Klangerzeuger (zuletzt aktualisiert: 25.12.2016):

  • Moog Music: Modul 15 Modular, AniMoog
    • To enable MPE mode, in the Settings page set Input Channel to MPE, Pitch Bend Range to 24, and turn off Load From Preset. Then set LinnStrument to MPE mode by holding Per-Split Settings > Midi Mode column > ChPerNote.
  • Wizdom Music: Geo Shred, SampleWiz
  • ThumbJam, DrumJam
  • PPG Apps: WaveGenerator, WaveMapper
    • To enable Channel Per Note function, in the Setup screen > MIDI section, set the Mode field to VpC (Voice per Channel).
  • SpringSound (Link: Synthtopia)
  • Arctic ProSynth
  • SynthMaster Player (mit Pro-Upgrade)
  • Seaboard 5D, NOISE

Controller-Apps (zuletzt aktualisiert: 25.12.2016):

  • Geo Shred
  • Seaboard 5D, NOISE (iPhone mit 3D Touch)
    • provides all 5 Dimensions of touch through the iPhone 6’s touch-sensitive screen
  • Aftertouch (iPhone mit 3D Touch)
  • Miditure (iPhone mit 3D Touch)
  • Moog Music: AniMoog (mit MIDI Expansion Pack (iAA))
  • Moog Music: Modul 15 Modular (iPhone mit 3D Touch und Apple Pencil integration for after pressure)

Per Mail hatte ich Kontakt zu Roger Linn, der mich darum bat, ihm ein paar Tipps zu diesem Thema Musikapps mit MPE-Unterstützung zukommen zu lassen. Daher die englischen Begriffe.

First Contact: Meine ersten Schritte

Mit expressiven digitalen Controllern beschäftige ich mich schon seit einigen Jahren, doch besaß ich keine eigenen Hardwaregeräte, da ich mir mit Hilfe verschiedener Musikapps Controller konfigurieren konnte, die auch ähnliche Steuermöglichkeiten in die Hand geben. Die verschiedenen Controller lerne ich über verschiedene YouTube-Beiträge kennen.

Die Spieloberfläche des LinnStrument ist dem Interface der App GeoSynth nicht nur optisch sehr ähnlich. // Foto Matthias Krebs

Bei der Synthesizer-Messe Superbooth 2016 hatte ich zum ersten Mal ein Haken Continuum, LinnStrument und ein ROLI Seaboard gespielt und war vom Spielgefühl beeindruckt, wobei mich die Unterschiedlichkeit der Controller-Prinzipien überraschte. Da ich vom Keyboardähnlichen Prinzip des ROLI Seaboard nicht so überzeugt und das Haken zu teuer, das Antiphon nicht in Deutschland erhältlich und das Zoom ARQ Rhythm Track AR-96 bisher zu wenig dokumentiert ist, entschied ich mich für die Weihnachtsfeiertage, ein LinnStrument und ein ROLI Blocks anzuschaffen. Eine Entscheidung, die ich bisher nicht bereue.

Die Superbooth ist eine große Synthesizer-Messe. Ein riesiger Tummelplatz für Musiker, Freaks, Kleinhersteller, Exoten und natürlich der ganze Modular-Wahnsinn, aber auch für größere Hersteller sowie Software- und Musikapp-Entwickler.

Zuerst probierte ich (natürlich) meine beiden neuen Geräte in Kombination mit Musikapps aus, die ich als Klangerzeuger via Bluetooth ansteuerte. Ich startete meine ersten Schritte mit dieser Technologie mit dem LinnStrument. Es lässt sich über zwei Setup-Tasten umfangreich konfigurieren ohne dass ein Computer oder ähnlich als Konfigurationshilfe benötigt wird. Dazu wird die gesamte Spieloberfläche als Einstellungsinterface genutzt. Die Aufdrucke am Rand der Fläche geben Hinweise zu den Einstellungsoptionen. Im übersichtlichen Online-Handbuch sind weitere Optionen dokumentiert. Darunter auch die Funktion, die aktiviert werden, wenn man gewisse Felder 2-Sekunden drückt.

Die Spieloberfläche lässt sich auch zum Einstellungsdashboard umschalten. Darüber hinaus kann damit sogar ein Sequenzer programmiert werden. // Foto: Matthias Krebs

Zunächst galt es zu verstehen, was MPE ist und wie sich eine entsprechende Konfiguration klingt und mit dem LinnStrument spielt. Dazu habe ich versucht, zunächst einen Überblick über die vielen Einstellungsparameter des Controllers zu gewinnen. Dabei machte ich gute Erfahrungen, zu Beginn die App Seaboard 5D (iOS) als Klangerzeuger zu verwenden. Da diese App eher eine Demo-App für MPE-Controller (insb. das Seaboard von ROLI) darstellt, lässt sie sich leicht in den MPE-Modus einstellen und bieten wirkungsvolle Sounds sowie ein Interface, über das ich visuell Feedback über meine Versuche, den Klang zu modulieren erhalte.

Dann machte ich mich daran auch andere Musikapps entsprechend zu konfigurieren. In mehreren Anläufen hatte ich fast alle Einstellungen des LinnStrument variiert, um die beschriebenen Steuermöglichkeiten der MPE-Spezifikation selbstständig per Trail und Error zu erkundet. Dabei orientierte ich mich an dem expressiven Spiel, in YouTube-Videos auf dem Haken Continuum oder dem LinnStrument, ein Tutorial oder für mich verständliche Hinweise in den Dokumentationen zu den Apps brachten mich häufig nicht weiter. Erkenntnis No1: Apps, die nicht explizit MPE unterstützen, lassen sich eben nur wie mit einem normalen MIDI-Controller steuern – das musste ich erst unterscheiden lernen.

Aber selbst bei Apps, die laut Internet-Recherchen MPE unterstützen, ist die das Umschalten in den MPE-Modus nicht immer leicht ersichtlich. Die Einstellungen sind versteckt oder ich musste eine Reihe von Einstellungen einzeln vornehmen, damit sie die vom LinnStrument gelieferten Steuerdaten, entsprechend interpretieren und die gewünschte Klangmodulation hörbar wurde. Da es für einige der Apps in der Dokumentation nur minimale Hinweise dazu gab, dauerte es teilweise eine Stunde, bis es klappte. Dabei musste ich erst herausfinden, dass (Erkenntnis No2) auch bei MPE-Klangerzeugern nicht alle Klang-Presets überhaupt MPE-Spiel unterstützten. Das hat mich lange mit der App AniMoog aufgehalten.

Ich habe verschiedene Musikapps auf ihre MPE-Setup untersucht. Bei Animoog muss MPE bei der Kanalauswahl ausgewählt werden (ganz unten). // Foto: Matthias Krebs

Ich denke, diesen Herausforderungen der Konfiguration muss man sich aktuell noch stellen, da die neue MIDI-Spezifikation noch von zu frisch sind. Viele der App-Entwickler besitzen kein MPE-Controller und sind so auf Nutzerfeedback angewiesen. Andererseits geben ROLI oder Roger Linn auf ihrer Webseite für Entwickler entsprechende Hinweise (siehe dazu auch weiter oben in diesem Beitrag).

Um den Einstieg für Interessierte zu erleichtern, habe ich versucht, die notwendigen Einstellungen der Musikapps, die aktuell MPE unterstützen, zu dokumentieren (siehe oben – die Liste kann auch im Kommentarbereich dieses Artikels erweitert werden). Für eigene Versuche kann ich die Tipps geben, als erstes bei der App die Einstellungen „Note per Chanel“ die Wahl der MIDI-Channels zu überprüfen. Die Einstellung ist gelungen, wenn beim gleichzeitigen Spiel von zwei Tönen, für beide die Modulationen Pitch Bend, Y-Modulation und Aftertouch unabhängig gesteuert werden können.

—–

Kurze Zwischenreflexion:

Bei meinen ersten Versuchen war ich bald darüber frustriert, dass mich die Konfiguration von Hardware-Controller und Musikapp vor einige unerwartete technische Herausforderungen stellte und mich davon abhielt, mit dem Musizieren beginnen zu können…

Nachdem ich diesen Satz geschrieben habe, fällt mir auf, dass viele Instrumente, die ich bisher einigermaßen spielen gelernt habe, bestimmte technische Herausforderungen stellten, so z.B. das Wechseln oder das Stimmen der Seiten. Ich kenne Instrumentalschüler, die selbst nach Jahren darin noch unsicher sind. Es bleibt zu untersuchen, worin wohl die Gründe für die spontane Erwartungshaltung liegen, dass elektronische oder digitale Geräte besonders kompliziert zu bedienen sind und doch gleichzeitig die Hoffnung besteht, dass sie das Musizieren erleichtern.

—–

Bevor ich zum Ausblick über das Thema „expressive Controller“ komme, will noch ein paar ausgewählte Zitate aus Forenbeiträgen von Nutzern solcher Geräte aufführen (siehe hier: www.sequencer.de – Thread-Link). Sie sollen ein paar weitere Aspekte der Spielpraxis illustrieren:

„Zudem kann man absurd große Akkorde greifen (mal den Daumen 2-3 Oktaven tiefer legen). Bringt Freude. Ich mag auch die kurze Y-Achse überraschend gerne. Klar, wo man die Anschlägt ist viel schlechter kontrollierbar als bei der langen Y-Achse beim Continuum. Dafür kann man aber auch mal beim Akordhalten mit einem Finger durch den ganzen Wertebereich fahren bzw. ein breites Y-Vibrato hinlegen.“

„In Sachen LinnStrument sei noch erwähnt, dass es für mich als Keyboarder schon faszinierend war, ein Eingabemedium vor mir zu haben, bei dem ich einmal gefundene Melodien und Akkord einfach dadurch transponieren konnte, dass ich die „Hand-und-Finger-Figur“ schlicht beibehielt und nur nach links oder rechts oder oben oder unten zu verschieben brauchte, um sie zu transponieren. Für einen Gitarristen ist das wohl kalter Kaffee, aber als Keyboarder spielt man dadurch gänzlich anderen Stoff.“

„Es hilft natürlich auch nicht, dass man sich in Sachen Software viel selber stricken muss. Ist zwar alles nicht sooo kompliziert, ist aber eher was für Computermenschen als für „klassische Musiker“.“

„Erster Eindruck ist sehr positiv. Und ja, ich denke, das ist wirklich ein eigenständiges Instrument mit viel Potenzial zur Ausdrucksstärke, will aber sicher auch gelernt werden.“

„Setze das Continuum sehr viel ein, ist mittlerweile mein wichtigster Synthesizer geworden. Das Erlernen steht in direkter Abhängigkeit von der Zeit, die du fürs üben aufwendest. Komme mittlerweile gut zurecht, spiele es aber fast täglich, seit 2009“ (mehr zu Bernd-Michael Land).

via: www.amazona.de-top-news-roger-linn-design-linnstrument-midi-controller

Nachtrag 14.01.2017

Im neuen Jahr habe ich mir nun doch noch die Eigenharp Pico und das Antiphon bestellt. Wie sich herausstellte ist die Eigenharp leider (noch) nicht so flexibel einsetzbar, wie etwas das LinnStrument. Das äußerte sich schon beim öffnen der Produktverpackung; enthalten war eine DVD und ein USB-Stick auf denen Software für den MAC/PC zu finden ist, die Voraussetzung für den Betrieb des Controllers ist. Eine direkte Midiverbindung ist weder per USB, Bluetooth LE möglich.

Es brauchte eine Weile, bis ich die Software-Controller-Konfiguration zum Laufen bekam und orientierte mich dabei an den Tutorialvideos. Leider ist die Software von 2012 und entsprechend nicht mehr auf aktuellem Standard. Den mitgelieferte Demo-Sound einer Klarinette, den ich mit dem Blascontroller mit der Luft steuern kann, finde ich sehr gelungen. Damit lässt sich sehr differenziert und – im Gegensatz zu einer herkömmlichen Klarinette – auch polyphon spielen. Dabei ändert sich bei höherem Atemdruck nicht nur die Lautstärke des Tons, sondern auch das Tembre.

Mein Interesse war es schließlich, mit den gegebenen Steuermöglichkeiten nun auch MPE-Klangerzeuger auf dem iPad zu steuern. Dabei hat mich dieses Video von Geert Bevin besonders weitergeholfen:

Nachdem ich zuerst versuchte eine Bluetooth-Midi-Verbindung von Mac zum iPad zu realisieren, was aber zu einer starken Verzögerung führte. Bin ich auf midimux umgestiegen, um die Controllerdaten der Eigenharp meine Klangerzeuger auf dem iPad zu steuern. Damit gelang es mir sinnvoll mit der Eigenharp über den Mac schließlich die verschiedenen Musikapps zu steuern. Dabei fand ich wiederum die Verwendung des Blascontrollers in Verbindung mit der App ThumbJam überzeugend. Indem ich die MIDI-Setting auf Mac und in der App entsprechend konfiguriere, kann ich mit Atem, Anschlagstärke der Tasten und durch die anderen Steuermöglichkeiten sehr expressiv spielen.

Antiphon: coming soon

Ausblick: Von der Komposition zum Sound-Design

Das Potential der digitalen Musiktechnologie verspricht aber nicht nur erweiterte oder auch völlig ungewohnte Spieltechniken mit vielfältigen Artikulationsmöglichkeiten, die es für die musikalische Interpretation im Live-Konzert zu entdecken und zu nutzen gilt. Es ergeben sich auch neue/ unerwartete Umgangsformen künstlerisch interessierter Menschen (mit und ohne besondere Musizierfertigkeiten) mit den inzwischen massenhaft verfügbaren und preisgünstigen digitalen Musiktechnologien des Computerzeitalters.

“In 50 years, what musical instruments do you think people will be playing? While keyboard, guitar and other contemporary instruments will likely still be in use, I’d be willing to bet that a few new ones will be popular. What will they be?” Roger Linn

Dabei erleichtern die digitalen Datenformate die apparative Verarbeitung unterschiedlicher Informationstypen, so dass verschiedene Wahrnehmungsebenen, insbesondere Video und Audio, perfekt miteinander synchronisiert werden und zu erweiterten künstlerischen Ausdrucks- und Erlebnisformen einer zukunftsträchtigen, vielleicht synästhetischen, Multimedia-Kunst führen können.

In steter Wechselwirkung von Musikkultur und Technologie werden so die neu gefundenen Möglichkeiten der Klanggestaltung und das Instrumentenspiel künstlerisch ausgelotet und als Anregung für weitere Entwicklungen – musikalisch wie technisch – verstanden.

Dabei liefern digitale Musiktechnologien potenziell nicht nur ein Medium und eine Musikproduktionsumgebung für Musik. Vielmehr zielen sie letztlich auf die Erzeugung virtueller ästhetischer Erfahrungswelten, die den Nutzern den Eindruck vermitteln, sie seien Teil und Schöpfer dieser erfahrenen Welt und nicht nur externe Beobachter.

Das mit der Digitalisierung der musiktechnologischen Instrumente und Musikproduktionssysteme verfügbare ästhetische Potential des künstlerischen Umgangs mit musikalischen und multimedialen Daten im weitesten Sinne scheint immens zu sein.

Ich finde es sehr spannend mich weiter mit den vielfältigen Möglichkeiten von digitalem Instrumentarium zu beschäftigen. Daraus ergeben sich viele unterschiedliche musikalische Erlebnisse in gemeinsamen Projekten und Proben, die auch spannende Fragen aufwerfen: Wo beginnt die Musik, bei dem was wir hier machen? Ist das (noch) ein Instrument? Wie können wir unser Musizieren dem Publikum wirksam vermitteln?  etc.

 

Diskussion

Nicht zuletzt möchte ich Sie gern dazu einladen, mitzudiskutieren. Nutzen Sie dazu gern den Kommentarbereich oder schreiben Sie selbst einen Blogartikel zum Thema und verlinken diesen.

Links:

Um die Diskussion zu unterstützen, will ich hier noch ein paar weitere interessante Links anbieten.

Literatur

Im Format Blogartikeln versuche ich der besseren Lesbarkeit wegen auf die im wissenschaftlichen Kontext übliche Literaturverweise zu verzichten. Hier also nur ein paar Eckpunkte:

  • Bense, A. (2013). Musik und Virtualität- Digitale Virtualität im Kontext computerbasierter Musikproduktion, Osnabrück: epOs-Music.
  • Enders, B., Oberschmidt, J. & Schmitt, G. (Hg. 2013). Die Metapher als ,Medium‘ des Musikverstehens, Osnabrück: epOs-Music.
  • Harenberg, M. (2012). Virtuelle Instrumente im akustischen Cyberspace. Zur musikalischen Ästhetik des digitalen Zeitalters. Bielefeld: transcript.
  • Hemker, T. & Müllensiefen, D. (Hg. 1997). Medien – Musik – Mensch. Neue Medien und Musikwissenschaft. Hamburg: von Bockel.
  • Jauk, W. (2009). pop/music+medien/kunst. Der musikalisierte Alltag der digital culture. Osnabrück: epOs.
  • Krebs, M. (2011). Appmusik – neues Musizieren? Üben&Musizieren. Mainz: Schott.
  • Lehman, H. (2012). Die digitale Revolution der Musik. Eine Musikphilosophie. Mainz: Schott.

Matthias Krebs

ist Appmusiker, Diplom-Musik- und Medienpädagoge und wissenschaftlich tätig.

Matthias Krebs ist Gründer und Leiter des Smartphone-Orchesters DigiEnsemble Berlin und beschäftigt sich im Rahmen seiner Promotion mit der Aneignung digitaler Musikinstrumente. Weitere Forschungsschwerpunkte betreffen: Digitale Medien in Lehre und Forschung, Kommunikation im Social Web, Netzkunst, digitale Musikinstrumente und Musiker-Selbstvermarktung.

Er arbeitet und wirkt an der Universität der Künste Berlin als wissenschaftlicher Mitarbeiter, ist als Lehrbeauftragter an mehreren deutschen Musikhochschulen tätig und leitet regelmäßig Workshops.

Mehr: www.matthiaskrebs.de



2 Antworten zu “Neuer Ausdruck mit digitalen Musikinstrumenten – Expressive Controller und die MIDI-Spezifikation MPE”

  1. Martin sagt:

    Klasse Artikel, sehr spannend!

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.