Você está na página 1de 57

SOLO- UND ENSEMBLE-KOMPOSITIONEN MIT

LIVE-ELEKTRONIK
-
Zwischen IRCAM und SWR
am Beispiel von Luigi Nonos Omaggio a György Kurtág

MAGISTERARBEIT
zur Erlangung des Grades Magistra der Künste

Universität Mozarteum Salzburg

Verfasserin: Catalina Leonor Peralta Cáceres

Studium: Ergänzungsstudium (§ 80a Abs.11 UniStG)

Begutachter: Ao. Univ. Prof. Dr. Joachim Brügge

Abteilung: Abteilung für Dirigieren/Komposition und


Musiktheorie

Salzburg, April 2007


INHALTSVERZEICHNIS

VORWORT 4

EINLEITUNG 5

1 WAS IST LIVE-ELEKTRONIK? 6

1.1 DEFINITIONEN 6

1.2 ELEKTRONISCHE MUSIK DES 20. JAHRHUNDERTS 10

1.3 STADIEN DER ENTSTEHUNG 19

2 TECHNIK DER LIVE-ELEKTRONIK 28

2.1 GRUNDLAGEN 28

2.1.1 TECHNISCHE KONFIGURATIONEN 28

2.1.2 FILTERUNG 29

2.1.3 VERZÖGERUNG (DELAY) 36

2.1.4 PITCHSHIFTING & FREQUENZSHIFTING, HARMONIZER 41

2.1.5 MODULATION 43

2.1.6 RÄUMLICHKEIT 47

2.1.7 INTERAKTIVE SYSTEME 50

-2-
3 ANALYSE VON OMAGGIO A GYÖRGY KURTÁG, für Alt, Flöte, Klarinette in B,
Tuba und live-electronics (1983-86), von Luigi Nono 54

3.1 BESETZUNG 55

3.2 AUFSTELLUNG 56

3.3 GROSSFORM 57

3.3.1 FUNKTIONEN, MUSIKALISCHE CHARAKTERISTIKA und AKTIVE


ELEMENTE bei der L.-E. 57

3.3.2 VERLAUF 66

3.4 KONFIGURATION der LIVE-ELEKTRONIK 69

3.5 ANWENDUNGEN DER LIVE ELEKTRONIK 70

4 ZUSAMMENFASSUNG 76

5 LITERATUR- UND QUELLEN-VERZEICHNIS 77

6 PARTITURENÜBERSICHT 80

7 DISKOGRAPHIE 82

-3-
VORWORT

Mein besonderer Dank gilt alle jenen, die mir die innerliche Kraft, den Mut, viele
Anregungen und freundschaftlichen Rat gaben und mich unterstützten.
Als ich vor einigen Jahren mit der Arbeit begann, war es Univ. Prof. Dr. André
Ruschkowski, der mich dazu inspirierte. Nach einer fünfjährigen Unterbrechung übernahm
Achim Bornhöft die weitere Betreuung und half mir mit zahlreichen Informationen bei den
technisch-analytischen Fragestellungen. Vor allem danke ich meinem Mentor Ao.Univ. Prof.
Dr. Joachim Brügge für seine präzisen Gedankenanstöße. Er war mir Ansporn, die
vorliegende Arbeit rasch umzusetzen.
Von der Fakultät für Kunst und Geisteswissenschaften von der Universität de Los
Andes in Bogota danke ich der verstorbenen Dekanin, Fr. Dr. Gretel Wernher, und der
jetzigen Fr. Dr. Claudia Montilla. Sie beide ermöglichten es, dass ich in Salzburg studieren
konnte.
Den Direktoren der Musik-Abteilung der Fakultät Fr. Pilar Azula und Hrn. Armando Fuentes
danke ich ebenso, die diese Entscheidung mittrugen, da sie auch ein großes Interesse an dieser
Arbeit hegten.
Meine Eltern und Geschwister ermutigten mich immer wieder aufs Neue, meine
akademische Ausbildung fortzuführen. - Danke!
Meinen Freunden in Salzburg, Bogota und Lissabon sei hier ebenso von Herzen
gedankt. Einige begleiteten mich ein großes Stück auf dem steinigen Weg der
„germanistischen“ Ausformulierung meiner Gedanken.

-4-
EINLEITUNG

Diese Arbeit versucht einen Überblick über die Entwicklung der Elektronischen
Musik zu geben, die in Verbindung mit Instrumenten und Interpreten in
kammermusikalischen Konfigurationen wie Solo- und Ensemble-Kompositionen steht, und
als Live-Elektronik bekannt ist.
Das vorliegende Werk soll dazu beitragen, ein besseres Verständnis über die
Elektroakustische Musik in der Realzeit zu vermitteln. Sie entsteht mit Hilfe von Interpreten
auf der Bühne, wobei das klangliche „Basismaterial“ während einer Aufführung umgewandelt
wird.
Anhand der unterschiedlichen Definitionen wird im Kapitel 1 der Begriff „Live-
Elektronik“ (L.-E.) näher beleuchtet.
Hilfreich ist dabei die Darstellung des geschichtlichen Abrisses der Entwicklung der
Elektronischen Musik im 20. Jahrhundert, die zur Entstehung der L.-E. führte. Mit Hilfe des
historischen Überblicks ist auch eine Einteilung in einzelne Stadien möglich. Als Vorschritte
zählen die Versuche des Komponisten John Cage, die er schon seit Ende der 1930er Jahre
unternahm, setzte sich fort mit dem Komponisten Karlheinz Stockhausen, der seit den späten
1950er Jahren sich immer mehr der L.-E. annäherte, bis hin zu den Werken der 1980er und
1990er Jahren, die zum Teil im Studio der Heinrich-Strobel-Stiftung des Südwestfunks (heute
SWR) und des IRCAMs (Institut de Recherche et de Coordination Acoustique/Musique)
entstanden sind.
Eine Darstellung technischer Grundlagen der elektronischen Musik, die in direkter
Beziehung zur L.-E. steht, wird im Kapitel 2 aufgezeigt. Insbesondere werden hier die
analogen Techniken betrachtet, die die Möglichkeiten des Ableitens und Variierens von
Klängen betreffen; daher wird speziell auf analoge Transformationsgeräte eingegangen.
Filterung, Verzögerung (Delay) und Rückkopplung (Feedback), Pitchshifting bzw. Frequenz-
Shifting und Harmonizer sowie Modulation, Räumlichkeit und eine Annäherung zu
interaktiven Systemen werden im Hinblick auf ihre technisch-musikalischen Grundlagen
behandelt.
Schließlich folgt in Kapitel 3 exemplarisch eine analytische Betrachtung der
Komposition Omaggio a György Kurtág von Luigi Nono, wobei besonders auf die
Funktionen, musikalische Charakteristika und aktiven Elemente bei der L.-E. näher
eingegangen und in Beziehung mit der Großform sowie den vier Stimmen der Besetzung mit
ihrem Verlauf gegenüber der Wiedergabe bzw. der klingenden L.-E. erörtert wird.

-5-
1 WAS IST LIVE-ELEKTRONIK?
1.1 DEFINITIONEN

Betrachten wir zuerst die Wortzusammensetzung: „Live-Elektronik“ bzw. „Live-


elektronische Musik“ kommt aus dem anglo-amerikanischen Sprachraum. Es steht für das
Lebendige, das direkt im Moment auf die Musik wirkt, d. h. die direkt aufgeführte Elektronik
im aktuellen Zusammenwirken mit Musik, das Unmittelbare, Wirkliche, sich Verbindende
zwischen Musik und Elektronik. Das englische Adjektiv „live“ bedeutet lebend, lebendig,
wirklich, aktuell, direkt, unmittelbar.1
Historisch gesehen wird der Begriff Anfang der 1960er Jahre geprägt: „Live
Electronic (engl., auch als ‚Live-Elektronik’ eingedeutscht) bezeichnet eine Entwicklung der
E.n M. [Elektronischen Musik], die zu Anfang der 1960er Jahre einsetzte [...].”2
Der Sinngehalt wurde auch von dem geprägt, was die Musik selbst durch neue
Aspekte der elektronischen Realisation erreichte, nämlich eine „Akzentuierung“ ihrer
„Vitalelemente”, die „die Musikszene der sechziger Jahre” als „Besonderheiten zutage”3
brachte.
Diese neuen Aspekte bei der elektronischen Realisation wurden als Antwort auf eine
starke, durchdringende Notwendigkeit „die menschliche Unmittelbarkeit zu retten”4, und auf
die Sehnsucht nach Spontaneität gegeben, die ebenfalls durch die Feststellung einer kritischen
Tendenz zur Isolierung in den Beziehungen zwischen Musikschaffenden und
Musikempfängern auftraten.
Um einen Ausweg aus „der Gefahr der Isolation” zu finden, in der sich die Neue
Musik in den 1960er Jahren befand, wurde evident, dass die „Musik erst im charakteristischen
Zusammenwirken von Produzent und Konsument, von Komponist/Interpret und Hörer zu
ihrer vollen Existenzweise gelange“. Neue Wege der Realisation und Vorstellung von Musik
wurden als „Ausdruck einer neuerlichen Sehnsucht nach Unmittelbarkeit“5 angestrebt.

1
Albrecht von Massow, Live-elektronische Musik, Live-Elektronik, in: Hans H. Eggebrecht
(Hrsg.), Terminologie der Musik im 20. Jahrhundert, Stuttgart: Franz Steiner Verlag, 1995, S.
235.
2
Herbert Eimert/Hans Ulrich Humpert, Das Lexikon der elektronischen Musik, Regensburg:
Gustav Bosse Verlag, 1973-1981, S. 190.
3
Vgl. Walter Gieseler, Komposition im 20. Jahrhundert. Details - Zusammenhänge. Eine
Übersicht, Celle: Moeck Verlag, 1975, S. 191.
4
Ebd.
5
Vgl. ebd.

-6-
Bei der Tonbandmusik gab es immer die Problematik der Realisation elektronischer Klänge
im Studio und ihre Übertragung durch Lautsprecherverstärkung in einer
Aufführungssituation, die aber grundsätzlich keine Interpreten brauchte. Dagegen ist „Live-
elektronische Musik der Versuch, die Realisation elektronischer Klänge nicht mehr nur im
Studio vorzunehmen, sondern in die Konzertsäle selbst zu verlegen”6.
Auf diesen Aspekt der Definition wird immer wieder zurückgegriffen: „Live
Electronic“ stellt den Versuch dar, „die Realisation elektronischer Klänge aus der
Abgeschiedenheit der Studios in die Konzertsäle zu verlegen”7.
Aber gleich hier treten neue Aspekte und Ausdrücke auf, die bestimmend sind, wie die
von Realzeit gegenüber dissoziierter Zeit:
“Die sogenannte live-elektronische Musik entstand in dem Augenblick, als versucht wurde,
elektronische Klänge nicht mehr durch Generatoren und in einem Studio sukzessive zu
erzeugen und anschließend zu synchronisieren, sondern das klangliche ‚Basismaterial’ von
Musikern wieder im Konzertsaal ‚erzeugen’ zu lassen und es gleichzeitig, in der Realzeit - im
Gegensatz zur ‚dissoziierten Zeit’ im Studio - durch elektroakustische Apparaturen klanglich
zu verändern, zu transformieren, oder - im einfacheren Fall - durch Verstärkung sonst nicht
oder kaum hörbare Klänge und ‚Effekte’ für den Hörer wahrnehmbar zu machen.”8
Erweitern wir die Definitionen und beleuchten sie aus einer anderen Perspektive, so
lassen sich noch weitere Aspekte finden, die die inneren Unterschiede der Live-Elektronik
näher beschreiben:
„I. Im Engl. begegnet der Ausdruck live electronic music Anfang der 1960er Jahre im
Umfeld der von J. Cage zusammen mit D. Tudor durchgeführten EXPERIMENTE MIT
ELEKTROAKUSTISCHEN APPARATEN UND IHRER VERWENDUNG IN
MUSIKTHEATRALISCHEN AKTIONEN.“9

„II. K. Stockhausen verwendet die Bezeichnung live-elektronische Musik 1968 im


Blick auf jene Phase seines kompositorischen Schaffens seit 1965, in der die
VERMITTLUNG VON INSTRUMENTALEN KLÄNGEN MIT ELEKTRONISCHEN
KLÄNGEN WÄHREND EINER AUFFÜHRUNG in den Vordergrund des Interesses trat.“10

6
Ebd.
7
Eimert/Humpert, Lexikon, S. 190.
8
Hans Ulrich Humpert, Elektronische Musik. Geschichte-Technik-Kompositionen, Mainz:
Schott’s Söhne, 1987, S. 209.
9
Massow, Live-elektronische Musik, S. 235.
10
Ebd.

-7-
„III. [Bei der] Neuen Musik sowie der Jazz- und Rockmusik [...] wird die
Begriffsbedeutung häufig auf den REIN TECHNISCHEN ASPEKT DER
ELEKTRONISCHEN KLANGUMWANDLUNG IM KONZERTSAAL bezogen.“11

Andererseits werden spezielle „Verfahrensweisen ELEKTRONISCHER


KLANGUMFORMUNG WÄHREND EINER AUFFÜHRUNG IN VERBINDUNG MIT
BESTIMMTEN KOMPOSITORISCHEN KONZEPTIONEN seit Mitte der 1960er Jahre“12
berücksichtigt.

Trotz der feinen Unterschiede zwischen den letzten drei erwähnten Definitionen
werden Faktoren wie: Aktion auf der Bühne, Beziehung von instrumentalen und
elektronischen Klangwelten, Verwandlung mit elektronischen Mitteln, in der zeitlichen
Situation und dem Moment einer Aufführung untereinander verknüpft. Auch die Entwicklung
von neuen, spezifischen kompositorischen Einstellungen kann man darin erahnen.

Die Begriffe „live electronics“ bzw. „Live Electronic Music“ werden


gleichbedeutend verwendet und bezeichnen damit, wie oben erwähnt, Konzertdarbietungen,
„bei denen Elektroakustische Musik mit Hilfe von Interpreten in Echtzeit auf der Bühne
entstand“13.
Ursprünglich scheint der Begriff auf einen Begleittext aus dem Jahre 1962 zu einer
Schallplattenaufnahme des Stückes Cartridge music (1960) von John Cage zurückzugehen.14
Er brachte sein konzeptionelles Verständnis von electronic music in Beziehung zum Wort
live: „Cartridge Music, in: R. Kostelanetz, John Cage (New York 1970): [...] when I supplied
the material for Cartridge Music. First, to bring about a situation in which any determination
made by a performer would not necessarily be realizable ... Second, to make electronic music
live. There are many ways to do this. The one I here chose was to make a theatrical situation

11
Ebd.
12
Ebd.
13
Martin Supper, Elektroakustische Musik ab 1950, in: Ludwig Finscher [Hrsg.], Die Musik
in Geschichte und Gegenwart. Allgemeine Enzyklopädie der Musik begründet von Friedrich
Blume. Sachteil Bd. 2. 2., neubearbeitete Ausgabe, Kassel u. a.: Bärenreiter u. a., 1995, S.
1750.
14
Vgl. Massow, Live-elektronische Musik, S. 235.

-8-
involving amplifiers and loud-speakers and live musicians (144 f.).“15 Cage beschreibt den
experimentellen Charakter der Aktionen, er verbindet seine Musikauffassung mit dem Wort
live und erklärt die technische Seite in Bezug auf die Gestaltung einer theatralischen
Situation, damit verbindet er innerhalb des Wortes live technische Innovationen mit seinen
grundsätzlichen ideellen Konzeptionen über Musik.16 Der Begriff fand wahrscheinlich zum
ersten Mal in einer schriftlichen Programmnotiz zur Aufführung von Atlas Eclipticalis (1961-
62) und Winter music (1956-57) in einer elektronischen Fassung von 1964 Erwähnung, wobei
beide Werke vereinigt wurden.17 „‚Atlas Eclipticalis’ with ‚Winter music’ (1964), [...] It is
also an example of what may be called „live“ electronic music. Most electronic music is
dependent on magnetic tape for its performance and so becomes a recording. This music uses
electronic circuits (microphones, amplifiers, loud-speakers) in connection with musical
instruments.“18 Cage hob besonders den Adjektiv ‚live’ als Aspekt der direkten
Klangveränderung hervor, bemängelte aber an der elektronischen Musik die fehlende
Spontaneität, d. h. ursprünglich wurde damit eine Opposition zwischen live und elektronisch
mit dem Wort live-elektronisch ausgedrückt.19
Die unterschiedlichen Definitionen zeigen, dass einerseits im deutschsprachigen
Raum der Begriff als eine „Erweiterung der interpretenlosen Elektroakustischen Musik“
verstanden wird, der sich in zwei Richtungen entwickelte, nämlich:
1. Die Synthese des nun mehr auf der Bühne elektronisch erzeugten Klangmaterials
findet nicht mehr im Studio statt.
2. Die elektronische Transformation des Klanges akustischer Instrumente oder der
menschlichen Stimme geschieht unmittelbar.
Andererseits wird in Nordamerika der Begriff weiter gefasst. Bereits die
Einspielung eines vorproduzierten Tonträgers zusammen mit einem oder mehreren Musikern
wird schon als Live Electronic Music angesehen.20
M. Supper teilt die live-elektronische Musik zur präziseren Begriffsbildung in
folgende Kategorien ein:
„- Instrumentalaufführung mit Einspielung von vorproduziertem Klangmaterial
- Instrumentalaufführung mit elektronischer Klangumformung

15
Ebd.
16
Vgl. ebd.
17
Vgl. ebd., S. 236.
18
Ebd., S. 236.
19
Vgl. ebd.
20
Supper, Elektroakustische Musik ab 1950, S. 1750.

-9-
- Synthezisereinsatz bei Konzerten
- Live-elektronische Ensembles
- Computergestützte, interaktive Systeme.“21

Ergänzend zu erwähnen ist, dass die Live Electronic Music von Barry Schraeder
dem Oberbegriff Electro-Acoustic Music zugeordnet wird, wobei Live/Electronic Music sich
in verschiedenen Aufführungssituationen präsentiert, nämlich „music for live electronics“,
„music for instruments and tape“ und „music for live electronics and instruments“. Weitere
Kombinationen sind: „live and prerecorded electronic music“ und „live instrumental music
modified in real-time by prerecorded electronic material.“22
Darüber hinaus entwickelte sich für H. U. Humpert die Elektronische Musik von der
Spannungssteuerung über den Synthesizer hin zur Live Electronic, die am nächsten zum
Konzertsaal liegt.23
Aufgrund der unterschiedlichen Deutung des Begriffes ist es für ein besseres
Verständnis hilfreich, die geschichtliche Entwicklung der Elektronischen Musik des 20.
Jahrhunderts zu betrachten.

1.2 ELEKTRONISCHE MUSIK DES 20. JAHRHUNDERTS

Das 20. Jahrhundert gilt als das Zeitalter der Neuen Musik, der zeitgenössischen
Musik, der Moderne, des starken Bruchs mit der Geschichte, sowohl der Avantgarde, des
Indeterminismus und Zufalls, der Experimentation, des Postmodernismus als auch des
Suchens nach neuen Klangquellen und neuen musikalischen Erscheinungen. Somit ist dieses
Zeitalter geprägt von den vielschichtigsten Phänomenen, Tendenzen und charakteristischen
Ausdruckskräften.
Die Vielseitigkeit der musikalischen Praxis des 20. Jahrhunderts beinhaltet auch einen
Stilpluralismus, der gleichzeitig dem Zeitgeist einer viel gestaltigen Epoche entspricht.
Stilpluralismus und Dissonanz sind die wichtigsten charakteristischen Elemente der

21
Martin Supper, Elektroakustische Musik und Computermusik. Geschichte - Ästhetik -
Methoden - Systeme, Hofheim: Wolke Verlag, 1997, S. 13.
22
Vgl. Barry Schraeder, Introduction to Electro-acoustic Music, Englewood Cliffs: Prentice
Hall, 1982, S. 2 f.
23
Vgl. Humpert, Elektronische Musik, S. 51.

- 10 -
zeitgenössischen Musik. Das 20. Jahrhundert ist eine eigene Epoche, die als das Ende des
tonalen Musik-Zeitalters und vor allem als eine Krise der Neuzeit betrachtet wird.
Während der ersten Hälfte des 20. Jahrhunderts erklingen die Ausläufer des
Impressionismus und Expressionismus als Erscheinungen zum Futurismus und „Folgen einer
hyperromantischen Haltung“ nach. Ebenfalls schwingt noch ein sehr starker Ausdruck der
subtilen Gefühle des Innern, der Seele, des späten Geistescharakters des vorangegangenen 19.
Jahrhunderts mit.24
Auf dem Impressionismus folgte der (musikalische) Expressionismus, der die Dur-
Moll-Tonikalität überwand und überhaupt klassisch-romantische Strukturen bzw. Formen
aufgab. Anstelle von Melodik und Harmonie entwickelte er sich in Richtung „Atonalität,
Polytonalität, Polyharmonik, Polyrhythmik, Dissonanzenhäufungen, Engführungen bis zur
Bildung von Tontrauben"25 (clusterartige Klangüberlagerungen) und übernahm
verschiedenste „Geräusche als essentielles Kompositionselement"26 bis hin zum Bruitismus.
Für den Expressionismus wurden laufend neue Ausdrucksmethoden gefunden. Es wurde der
Klang des gesprochenen Worts verwendet und auf Tonbändern neben den Klängen
konventioneller Instrumente aufgenommen und bis zur Unkenntlichkeit verfremdet. Auch
wurden elektronische Klang- und Geräuscherzeuger konstruiert, die gemischt und verformt
neue, bisher nie gehörte Geräusche und Töne erzeugten.27
Schon seit Anfang des 20. Jahrhunderts, als eine Art von Vorstadium elektronischer
Musik, und dann bei ihrer Konsolidierung um die 1950er Jahre, wird jede Komposition als
Elektronische Musik verstanden, wenn ihre Klangerzeugung, Produktion oder ursprüngliche
Tonaufnahme, - durch Mikrophon -, und ihre Transformation, durch elektronische,
elektroakustische Apparaturen erfolgt.
Seit dieser Zeit wurden auch Geräusche als neue musikalische Klangquellen
behandelt, als Neuerung und Erfindung einer neuwertigen fortschrittlichen musikalischen
Sprache, wie ein Nachhall an der Wende des modernen industriellen Zeitalters.
Auf der Basis elektrischer Tonerzeugung begann um 1900 die Konstruktion von
elektrischen Musikinstrumenten wie das Dynamophon, auch Telharmonium genannt. Es ist

24
Vgl. Ulrich Michels, dtv-Atlas Musik, Musikgeschichte vom Barock bis zur Gegenwart,
Band 2, München: Deutscher Taschenbuch Verlag, 1985, S. 485 ff.
25
Alfred Baumgartner [Hrsg.], Musik des 20. Jahrhunderts, (= Der große Musikführer)
Salzburg: Kiesel, 1985, S. 8.
26
Ebd.
27
Vgl. ebd.

- 11 -
ein mechanisch-elektrisches Instrument, das der Amerikaner Dr. Thaddeus Cahill (1867-
1934) baute.28
Zahlreiche Elektrophone, d. h. Musikinstrumente, die mit Elektrizität arbeiten,
entstanden in den 1920er und 1930er Jahre; hervorzuheben sind die elektrischen
Instrumentenkonstruktionen, die noch heute im Konzertsaal Verwendung finden,29 wie das
„Ätherwellen“-Instrument Leon Theremins,30 auch als „Ätherophon“ (1920 gebaut),
„Thereminvox“ oder in den Vereinigten Staaten einfach als „Theremin“ bekannt, so wie die in
1928 von Maurice Martenot erfundene „Ondes Martenot“,31 und die darauffolgende
Konstruktion von Elektro-Orgeln, besonders die amerikanische Hammond-Orgel, die sich
sehr stark durchsetzen konnte.32 Diese Zeit gilt als Vorstadium der Elektronischen Musik.
„Was die elektrischen Musikinstrumente nicht leisten konnten, war [...] die
Schallaufzeichnung auf Magnettonträgern.“33 Die generelle Einführung des
Magnettonvorgangs und der Tonbandtechnik machte erst den „elektronisch erzeugte[n] Klang
auch als Kompositionsmittel frei verfügbar“34: „Ohne eine hochentwickelte Magnettontechnik
wäre die elektronische Musik im Stadium der elektrischen Spielinstrumente
steckengeblieben.“35
1935 präsentierte das Unternehmen AEG-Telefunken das erste Tonbandgerät der
Welt, das sogenannte Magnetophon.36 Damit waren die „technischen Voraussetzungen
spätestens seit der Erfindung des schneidbaren Tonbandes“37 bzw. des Magnetbandgerätes für
die Entstehung der „Musique Concrète“ gegeben. Das im Oktober 1948 vom Pariser
Rundfunk vorgestellte „Concert de Bruits“ bedeutete eine legitime historische Verbindung
mit dem Futurismus.38
Im Futurismus kann man schon die Entstehung der Elektronischen Musik vorahnen,
mit dessen Begeisterung für die „Geräusche der Technik und Industrie“, die in die Musik
miteinbezogen wurden, wie das von den futuristischen Manifesten Manifesto dei Musicisti

28
Vgl. Hans Vogt, Neue Musik seit 1945, Stuttgart: Philipp Reclam jun., 1972, S. 33.
29
Vgl. Humpert, Elektronische Musik, S. 20.
30
Vgl. Vogt, Neue Musik, S. 33.
31
Vgl. Humpert, Elektronische Musik, S. 20.
32
Vgl. Vogt, Neue Musik, S. 33.
33
Humpert, Elektronische Musik, S. 20.
34
Ebd., S. 20 f.
35
Eimert/Humpert, Lexikon, S. 195 f.
36
Vgl. ebd., S. 197.
37
Vogt, Neue Musik, S. 33.
38
Vgl. Eimert/Humpert, Lexikon, S. 216.

- 12 -
Futuristi und La Musica Futurista. Manifesto Tecnico (beide Anfang 1911)39 Balilla Pratellas
(1880-1955) gefordert wurde. Luigi Russolo (1885-1947) experimentierte mit Geräuschen
(Bruitismus) bei L’arte dei Rumori (März 1913)40, deren spezifische musikalische Wirkung
bzw. Aussage zu ergründen. „So versuchte der Futurismus den industriellen Lärm direkt in
Musik umzusetzen.“41 Der in diesem Zusammenhang oft genannte Edgar Varèse setzte das
emanzipierte Schlagzeug für Geräuscheffekte ein.42 Er gebrauchte es „für höchst
differenzierte Geräuschfarben“43, Beispiele dafür sind die Kompositionen Hyperprism (1923)
und Intégrales (1925). Seine Kompositionsprozesse und die gelungene, parallele
Emanzipation des Geräusches bedeuteten schon eine direkte Vorahnung von dem, was später
einmal die Elektronische Musik sein würde.44 Der Bruitist Luigi Russolo führte eine
Einordnung der Geräusche kompositorisch durch und berücksichtigte sie „nicht bloß“ als
„tonmalerisch-dekorative Zutaten“45.
Nach der Rückkehr zur klassischen Ästhetik des Neoklassizismus der 1930er und
1940er Jahre, um 1950, kam der starke Umbruch „zu Neuem“: Serielle Musik, Elektronische
Musik, Aleatorik, Postserielle Musik, Neue Einfachheit, Minimal Music, Postmoderne.46
Während ca. der ersten zehn Jahre der elektronischen Musikentwicklung fand die
Klangherstellung und ihre Umwandlung ausschließlich im Studio (musique concrète, music
for tape, frühe elektronische Musik der 1950er Jahre in Köln) statt.47
„Die Experimente mit Tonbändern führten zur musique concrète, bei der im
Gegensatz zu der zunächst aufgenommenen Musik von konventionellen Instrumenten oder
von elektronischen Klangerzeugern das Material aus dem Gesamtbereich des Hörbaren
geschöpft wird."48
Die neue Geräuschkunst der „Musique Concrète“, von Pierre Schaeffer 1948/49 als
autonome Lautsprecher-Musik bezeichnet, gilt als die früheste, die nur in gespeicherter Form
auf einem Tonträger (Schallplatte, Tonband) festgehalten und über Lautsprecher abgespielt

39
Vgl. ebd., S. 110.
40
Vgl. ebd., S. 110 f.
41
Michels, dtv-Atlas Musik, S. 487.
42
Vgl. Humpert, Elektronische Musik, S. 22.
43
Ebd.
44
Vgl. ebd.
45
Vgl. Eimert/Humpert, Lexikon, S. 111.
46
Vgl. Michels, dtv-Atlas Musik, S. 485 ff.
47
Vgl. Humpert, Elektronische Musik, S. 11.
48
Baumgartner, Musik des 20. Jhds., S. 9.

- 13 -
(„aufgeführt“) wurde.49 Die mit Mikrophon aufgenommenen „konkreten“ Klangmaterialien
hatten verschiedene Tonquellen als Herkunft, z. B. Lärm, traditionelle Instrumentalklänge,
Vogelstimmen, die menschliche Stimme, alle Umweltgeräusche, d. h. „alle nicht-
synthetischen Klänge“50, gewissermaßen wurden den „musikalischen und außermusikalischen
Schallquellen, also auch Naturlauten, [...] fragmentarische Elemente entnommen und neu
zusammengesetzt und gemischt. Man ging dabei vom Gedanken aus, daß der musikalische
Wert jener Elemente und der durch ihre neue Zusammensetzung erarbeiteten Klänge und
Geräusche von ihrer Herkunft vollständig abgelöst und unabhängig beurteilt werden“51.
Die resultierenden zusammengesetzten Stücke waren Geräuschmontagen von
elektrisch modulierten, real produzierten Klängen, die mit Tonband aufgenommen und im
Studio durch Verfremdung, Veränderung, Schnitt, Auswahl sowie Collage verarbeitet und mit
Hilfe von Generatoren, Filtern u. a. manipuliert wurden.52
„Diese neugewonnenen Schallphänomene haben der Elektronischen Musik voraus,
daß sie Dauer, Tonhöhe und Intensität in einem weit größeren Ausmaß charakterisieren und
profilieren können und infolgedessen eine unendliche Vielfalt an Farbe, Dichte, Dynamik und
Variabilität dem Komponisten zur Verfügung stellen.“53
Als Gegensatz zur „Musique Concrète“ kam um 1950 die „Elektronische Musik“
hinzu, als neue Musikart zur Vokal- und Instrumentalmusik,54 die ebenso in direkter
Beziehung mit der Erfindung des Magnettonbandes stand. Das waren Kompositionen, die aus
elektronisch erstellten Klängen geschaffen wurden.
Musik, die ihre Klangbilder ausschließlich aus Generatoren erzeugt, wird als
Elektronische Musik bezeichnet. Diese Klänge werden nicht mehr für Instrumente oder
Stimmen komponiert, und daher auch nicht von Interpreten aufgeführt, sondern mittels der
elektroakustischen Studio- und Tonbandtechnik vom Komponisten selbst verarbeitet.55

49
Vgl. Humpert, Elektronische Musik, S. 23. Ferner vgl. Vogt, Neue Musik, S. 33.
50
Hans-Peter Raiß, Elektronische Musik. Musique concrète, in: Hans Vogt, Neue Musik seit
1945, Stuttgart: Philipp Reclam jun., 1972, S. 151.
51
Baumgartner, Musik des 20. Jhds., S. 9.
52
Vgl. Raiß, Elektronische Musik. Musique concrète, S. 151.
53
Baumgartner, Musik des 20. Jhds., S. 9.
54
Vgl. Michels, dtv-Atlas Musik, S. 521.
55
Vgl. Baumgartner, Musik des 20. Jhds., S. 694. Ferner vgl. Hans Ulrich Humpert,
Elektronische Musik, in: Günther Massenkeil [Hrsg.], Musiklexikon, erster Band. 2.,
aktualisierte und erweiterte Auflage, Stuttgart u. a.: Verlag J. B. Metzler, 2005, S. 785.

- 14 -
Die Elektronische Musik bedeutete vor allem, dass neue technische Möglichkeiten
eine neue Musik erlaubten,56 die aber „nicht eine elektronisch verstärkte mechan. Musik“57
ist, „sondern elektron. erstellte Klänge, Kompositionen“58.
Elektronische Musik heißt ‚Musik aus elektronisch erzeugten Klängen’. Dabei ist zu
beachten, dass es sich nicht wie früher um „Musik aus instrumentalen oder vokalen Klängen
handelt, sondern um eine Musik, bei der elektronische Geräte für die Herstellung der Klänge
verwendet werden“59. Der sprachlich eingebürgerte Begriff hebt zunächst den technischen
Sachverhalt hervor.60
Die Bandtechnik erlaubte „direkte mechanische Eingriffe in die Aufzeichnung“61
durch Schneiden und Zusammenkleben der Tonbänder. Trotzdem ist es nicht so, dass das
Komponieren mit elektronisch erstellten Klängen die Antwort auf die Beachtung und
Beherrschung des reinen technischen Sachverhalts sei. Die Einsicht des Komponisten in
innerkompositorische Verhältnisse und Probleme bestimmte die Intention seines Suchens und
auch die Art seines Findens.62 Als sich die verschiedenen technischen und musikalischen
Bestrebungen 1951 trafen, wurde die Basis zur Entstehung der Elektronischen Musik gelegt.63
So war das Wesen der Elektronischen Musik vom ständigen Ineinandergreifen zwischen
technischen und kompositorischen Erfordernissen geprägt, ganz gleich ob es sich um eine
auslösende Idee oder die praktische Studioarbeit handelte.64 Von Anfang an hatte die
Elektronische Musik es vielmehr mit einer „durchgreifende[n] Strukturierung der
musikalischen Vorgänge entsprechend dem seriellen Konzept“65 zu tun.
Das serielle System stand zur Verfügung. „Die Reihe zeigte einen Weg, aus Millionen
von denkbaren Kombinationen eine sinnvolle Auswahl zu treffen; die Elemente konnten
koordiniert und nach einem Übergeordneten Prinzip ausgerichtet werden.“66
Als bedeutender musikhistorischer Moment kann das Zusammentreffen der zwei
Entwicklungsstadien synthetische Klangproduktion und Reihenprinzip angesehen werden.67

56
Vgl. Michels, dtv-Atlas Musik, S. 485.
57
Ebd., S. 521.
58
Ebd.
59
Ulrich Dibelius, Moderne Musik 1945-1965. Voraussetzungen, Verlauf, Material, 2.
Auflage, München u. a.: Piper, 1972, S. 322.
60
Vgl. ebd.
61
Ebd., S. 323.
62
Vgl. ebd., S. 323.
63
Vgl. ebd., S. 323.
64
Vgl. ebd., S. 323.
65
Ebd., S. 324.
66
Vogt, Neue Musik, S. 35.

- 15 -
Der Komponist war im Studio sein eigener Interpret.68 Das Werk wurde
unveränderlich auf Tonband festgehalten.69 Er stand einer völlig neuen ästhetischen Situation
gegenüber, die sich als natürliche Konsequenz seiner Einstellung zum elektronischen Klang
ergab.
Das Reproduktionsstadium fiel aus - eine ohnehin neue Prämisse in der Musikpraxis,
„die mit der Schallplatte oder der sonstigen mechanischen Fixierung einer realen Aufführung
nicht vergleichbar“70 war. Der Reproduktionsvorgang wurde lediglich in einem quasi
„akustischen Film“ aufgezeichnet.71
Die erste Phase der Elektronischen Musik begann ab 1951, wobei die Arbeit des
Komponisten „aus der Herstellung des Materials (Sinustöne samt Schichtungen, Impulse,
Rauschen, Filtern usw., [...]), seiner Verwandlung (Verzerren, Verhallen) und
Synchronisation (Zusammenbau)“72 bestand. Kein Interpret und keine Partitur waren mehr
nötig. Das Tonband trat als Endergebnis auf.73
Hier ist wieder das Faktum beachtenswert, dass die auf elektrischem Weg
produzierten Signale auf einem Magnettonband gespeichert und von dort beliebig oft
reproduziert bzw. durch einen oder mehrere Lautsprecher hörbar gemacht wurden.74
Seit 1951 arbeitete John Cage in den USA an Versuchen mit Tonbändern, um
Kompositionen „direkt auf ein Magnettonband“ zu realisieren. Musik, die nur auf dem
Magnettonband existiert, wird als „Tape music“ bezeichnet.75
„Elektronische Musik und Musique Concrète als tape music benötigen demnach zu ihrer
Reproduktion [...] keinen Interpreten mehr.“76 Hier begann die entscheidende Wende, „die
Elektronik ganz von der herkömmlichen Musik zu lösen.“77
Herbert Eimert (1897 geboren) war der erste, der alle Möglichkeiten ausschöpfte, um
synthetische Töne in „jeder nur denkbaren Frequenz und Frequenzmischung zu erzeugen“78.

67
Vgl. ebd.
68
Vgl. Dibelius, Moderne Musik 1945-1965, S. 325.
69
Vgl. Vogt, Neue Musik, S. 35.
70
Ebd., S. 35.
71
Vgl. ebd.
72
Michels, dtv-Atlas Musik, S. 521 (Hervorhebungen im Original).
73
Vgl. ebd.
74
Vgl. Raiß, Elektronische Musik. Musique concrète, S. 150.
75
Vgl. ebd., S. 151.
76
Ebd.
77
Vogt, Neue Musik, S. 33.
78
Ebd., S. 33 f.

- 16 -
Zu Beginn wurde die Elektronische Musik mit elektrischen Tongeneratoren
produziert. Als Tonquellen fungierten die folgenden wichtigsten elektrischen Tonerzeuger:
Sinustongenerator, Multivibrator (erzeugt Klänge, die eine große Zahl an Obertönen haben)79,
Rauschgenerator (für weißes Rauschen), Rechteckgenerator und der Sägezahngenerator,
später auch der Impulsgenerator (Knacke)80.
Herbert Eimert gründete 1951 das erste Studio für Elektronische Musik im Kölner
Funkhaus des damaligen NWDR. Kurz danach „kamen junge Komponisten nach Köln (u. a.
K. Stockhausen, P. Gredinger, H. Pousseur und K. Goeyvaerts, später auch G. M. Koenig, G.
Ligeti, M. Kagel, B. Nilsson), die die E. M. als Teil der seriellen Kompositionsidee
verstanden, sogar als die eigentlich serielle Musik“81. „Dieser systematisch-serielle Ansatz
[...] wurde bereits um 1955 allmählich aufgegeben, weil erkannt worden war, daß die
musikalischen Parameter [...] keineswegs gleichberechtigt nebeneinanderstehen.“82
Die zweite Phase begann 1956, als die Elektronik mit Schallaufnahmen (wie musique
concrète) bzw. mit Sprache gemischt wurde.83 Insbesondere „erfolgte eine Erweiterung der
rein elektronischen Klangbestände um Mikrophonaufnahmen von instrumentalen und vokalen
Klängen“84.
„Der anfängliche Autonomieanspruch wurde nach und nach aufgegeben:
Elektronische Musik verband sich mit vokalen und instrumentalen Klängen, überwand
überhaupt die Phase ihrer strengen Studioaskese.“85 K. Stockhausen gebrauchte die Sprache
als Rohmaterial und zwar für Gesang der Jünglinge, Köln 1956, wobei die menschliche
Stimme „nach einem bestimmten Kompositionsplan elektronisch manipuliert“86, indem die
elektroakustischen Klänge im Raum verfremdet und verteilt87 wurden. Anschließend geschah
auch die Umformung der Aufnahmen von Umweltgeräuschen durch
Transformationsprozeduren, aber dennoch wurde die Bezeichnung Elektronische Musik
beibehalten.88

79
Vgl. Raiß, Elektronische Musik. Musique concrète, S. 150.
80
Vgl. Dibelius, Moderne Musik 1945-1965, S. 325.
81
Humpert, Elektronische Musik, in: Massenkeil, Musiklexikon, S. 785.
82
Ebd.
83
Vgl. Michels, dtv-Atlas Musik, S. 521.
84
Humpert, Elektronische Musik, in: Massenkeil, Musiklexikon, S. 785.
85
Dibelius, Moderne Musik 1945-1965, S. 325.
86
Raiß, Elektronische Musik. Musique concrète, S. 151.
87
Vgl. Michels, dtv-Atlas Musik, S. 521.
88
Vgl. Humpert, Elektronische Musik, in: Massenkeil, Musiklexikon, S. 785.

- 17 -
Hinzu kommt als Extremfall die elektronische Sprachkomposition, in der nicht ein
einziger elektronisch-erzeugter Klang mehr enthalten ist. Die Sprache wurde nicht mehr
„vertont“, sondern als klanglicher Vorgang behandelt.89
Die dritte Phase begann etwa um 1959/61, als das gemischte Medium erschien, d. h.
die Interpreten musizierten auf dem Podium und dazu wurde ein vorbereitetes Tonband
wiedergegeben.90 Dadurch entstand die „Verbindung von elektronischen Klängen und (live
spielenden) Instrumenten“91. K. Stockhausen komponierte Kontakte für elektronische Klänge,
Klavier und Schlagzeug (1959/60) und stellte Verbindungen zwischen Band und Spielern
her.92 Bruno Maderna ging auch dazu über, live gespielte Instrumente mit einzubeziehen
(Musica su due dimensioni von 1952, revidiert 1958), ebenfalls Synchronisms (1963-70) von
Mario Davidovsky. 93
Die Live-Elektronik tauchte gerade in dieser Phase auf. Sie wirkte „nach Erfindung
des Synthesizers u. a. mit direktem elektron. Spiel auf der Bühne“94 durch unmittelbare
Verfremdung und Manipulation mit Rückkopplung, Vermischen usw. noch lebendiger,
wodurch auch wieder „spontane Kreativität“95 ermöglicht wurde, indem „die Instrumente
während des Spielens gleichzeitig elektronisch transformiert“96 wurden.
Um 1956 begann sich schließlich die Computermusik zu entwickeln mit dem
Bestreben einer fortschreitenden Automatisierung, wie das Beispiel der Illiac Suite für
Streichquartett von Lejaren A. Hiller und Leonard M. Isaacson, als erster „grössere
modellartige Versuch, einen Computer ‚komponieren’ zu lassen“97, zeigt.
Als Vorschritte bis die Konsolidierung der Live-Elektronik in den 60er Jahren
geschehen war, musste man die Entwicklung in Amerika, besonders bei dem Komponisten
John Cage, beobachten. Wie sich die Stadien der Entstehung der Live-Elektronik vollzogen,
wird im folgenden Abschnitt näher erläutert.
Die erste Komposition, die als live-elektronische Musik erachtet wurde, ist Imaginary
Landscape No. 1, für zwei Schallplattenspieler mit variabler Geschwindigkeit, Test-

89
Vgl. Humpert, Elektronische Musik, S. 42.
90
Vgl. Michels, dtv-Atlas Musik, S. 521.
91
Humpert, Elektronische Musik, S. 42.
92
Vgl. Michels, dtv-Atlas Musik, S. 521.
93
Vgl. Humpert, Elektronische Musik, S. 41. Ferner vgl. Supper, Elektroakustische Musik, S.
14.
94
Michels, dtv-Atlas Musik, S. 521.
95
Ebd., S. 485.
96
Humpert, Elektronische Musik, S. 42.
97
Ebd., S. 43.

- 18 -
Schallplatten mit Aufnahmen einzelner Sinustöne, gedämpftes Klavier und ein Becken (1939)
von John Cage.98

1.3 STADIEN DER ENTSTEHUNG

Als erster Schritt in der Entstehung von Live-Elektronik werden die Experimente in
den USA seit den späten 1950er Jahren und am Anfang der 1960er Jahre genannt:
„Vor allem die amerikanischen Musiker um John Cage und den Pianisten David Tudor
haben bereits sehr früh (in den späten 50er Jahren) Versuche angestellt, um herauszufinden,
wie sich die elektroakustische Verstärkung - zu der [...] auch die Rückkopplung zu zählen ist -
auf die Beschaffenheit von Klängen und Geräuschen sowie auf die Wahrnehmung des Hörers
auswirkt.”99 Als Beispiel wird „die Realisation von Cages VARIATIONS II (1961), in der
Tudor mit diversen Gegenständen die Saiten eines verstärkten Klaviers ‚bearbeitet‘ und die
resultierenden Geräuschfolgen gelegentlich mit gezielt hervorgebrachten
Rückkopplungstönen verbindet”100, erwähnt. Dabei ist zu beachten, dass es in der Partitur
selbst keine Angaben über die spezifische Benutzung weder von Verstärkung noch von
Rückkopplung gibt, sondern wie der Titel schon andeutet, ist es für irgendwelche Klang-
erzeugungsmittel komponiert worden.101

Die Improvisationskunst, die sich seit den 1950er Jahren entwickelt hatte, bezog auch
die technischen Instrumente mit ein.102 David Tudor selbst entwickelte „eine breitere Praxis
der Kombination zwischen Klavier [...] und technischen Mitteln“103. Seine
Komposition/Performance Rainforest (diverse Versionen ab 1968) ist in diesem
Zusammenhang besonders zu erwähnen.104

98
Vgl. Martin Supper, Elektroakustische Musik und Computermusik. Geschichte - Ästhetik -
Methoden - Systeme, Hofheim: Wolke Verlag, 1997, S. 13.
99
Humpert, Elektronische Musik, S. 210.
100
Ebd.
101
Vgl. John Cage, Variations II (1961) for any number of players and any sound producing
means, New York: Peters, 1961.
102
Pascal Decroupet, Komponieren im analogen Studio - eine historisch-systematische
Betrachtung, in: Elena Ungeheuer [Hrsg.]: Elektroakustische Musik, Bd. 5. (= Handbuch der
Musik im 20. Jahrhundert) Laaber: Laaber-Verlag, 2002, S. 64.
103
Ebd., S. 64 f.
104
Vgl. ebd., S. 65.

- 19 -
Gegen Mitte der 1960er Jahre wurde begonnen, die Klangtransformation in Form von
neuen Entwicklungen im Bereich der Audiotechnik, außerhalb der spezialisierten
elektronischen Studios zu verwenden.105 „Die elektronische Musik verlässt das Studio“106, die
Klangspektren der originalen live gespielten Instrumentalklänge wurden erheblich erweitert,
„durch ein Mikrophon aufgenommen und durch die elektronischen Apparaturen, unmittelbar,
in Real-time, bearbeitet, verformt, modifiziert“107. Schließlich wurden diese Verfahren als
Live-Elektronik bezeichnet; dies bedeutete für die Komponisten Unabhängigkeit „von der
mühevollen Bandschnitt-Arbeit im Studio“ sowie die Möglichkeit eines direkten Eingriffs in
den Kompositions- und Interpretationsprozesses.108

Erst mit der Verwendung der Transformationsgeräte in Echtzeit konnte dem Problem
der festgelegten Zeit auf dem Tonträger erfolgreich begegnet und eine flexible Zeitgestaltung
wiedergewonnen werden.109 Folgende Verfahren wurden vorwiegend verwendet - „die
Ringmodulation (inkl. ihrer Ableger wie z. B. der Frequenzumsetzung) und die Filterung“110.
Als erste Erfahrung der neuen Musikform und Gattung der Live-Elektronik erwähnt Hans
Peter Haller die Komposition Redox für Flöte und Hoch-Tief-Paß (1964) von Hans-Heinrich
Wiese111; hier wurden die „Instrumentalklänge durch variierende Filtereinstellungen in
Realzeit verändert“112.

Als zweiten Entwicklungsschritt wird die Annäherung des Komponisten K.


Stockhausen an die Live-Elektronik betrachtet, der bereits „in seiner ersten live-
elektronischen Komposition Mixtur für Orchester, Sinusgeneratoren und Ringmodulatoren”
(1964/67, Fassung v. 1967 f. kl. Besetzung; Dauer: 26 Min.; die Original-Version ist 1964
komponiert worden) noch weiter geht.
„Das Neue dieser Musik bestand darin, dass die während des Spielens durch
Mikrophone aufgenommenen Instrumentalgruppen als jeweils eine Klangquelle einem
Ringmodulator eingegeben wurden, als zweite Tonquelle fungierten Sinusgeneratoren [...]
deren Frequenzeinstellungen und –bewegungen [...] von Musikern, die jeweils einer
105
Vgl. André Ruschkowski, Elektronische Klänge und musikalische Entdeckungen,
Stuttgart: Philipp Reclam jun., S. 247 f.
106
Ebd., S. 248.
107
Ebd.
108
Vgl. ebd.
109
Vgl. Decroupet, Komponieren, S. 62.
110
Ebd.
111
Vgl. ebd.
112
Ebd.

- 20 -
Orchestergruppe zugeordnet sind, realisiert werden müssen. Das klangliche Gesamtergebnis,
die Mixtur von Orchesterklang und dessen ringmodulierter Transformation, muss in seinen
Mischungs- und Balance-Verhältnissen über ein zentrales Mischpult [...] während der
Aufführung geregelt werden.“113
Es ist anzumerken, dass hier „Stockhausen den Ringmodulator nicht als technische
114
Transpositionshilfe (sprich: Klangumsetzer)“ einsetzte, „sondern als
Klangfarbentransformator.“115

Aufgrund der Erfahrungen Stockhausens an der Arbeit von Mixtur mit bestimmten
technischen Problemen und Unzulänglichkeiten versuchte er für seine nächsten komponierten
Stücke Lösungen zu finden.
„In Mikrophonie I für Tamtam, 2 Mikrophone, 2 Filter und Regler aus dem Jahre 1965
[komponiert 1964], wird das Mikrophon nicht, wie bisher üblich, als fixiertes Aufnahmegerät
verwendet, sondern wie ein Musikinstrument aktiviert. Die von zwei Spielern mit den
unterschiedlichsten Materialien erzeugten Tamtam-Schwingungen werden von zwei weiteren
Spielern durch Mikrophone mit starker Richtwirkung abgetastet.“116 Diese Situation wird in
der Praxis von K. Stockhausen als „Abstand zwischen Mikrophonen und Tamtam (was
Dynamik und Klangfarbe beeinflußt), relative Entfernung des Mikrophons vom
Erregungspunkt (was die Tonhöhe, die Klangfarbe und vor allem den räumlichen Eindruck
des Klanges zwischen weit entfernt, verhallt und äußerst nah bestimmt) und der Rhythmus
der Mikrophonbewegung“117 beschrieben. „Die auf solche Weise abgetasteten Tamtamklänge
werden anschließend durch Filter und Regler in Klangfarbe, Dynamik und räumlicher
Wirkung nochmals transformiert, wodurch eher flächige Klangfolgen entstehen“118 als die
voluminösen Eigenschaften, die man erwarten würde.

Bei mechanischen Musikinstrumenten bzw. Stimmen wurde versucht, in der


zeitgenössischen E-Musik, besonders in der Live-Elektronik der 1960er Jahre, ihre

113
Humpert, Elektronische Musik, S. 210.
114
Decroupet, Komponieren, S. 62.
115
Ebd.
116
Humpert, Elektronische Musik, S. 210 f.
117
Karlheinz Stockhausen, Texte zur Musik, Bd. 3. Köln: Verlag DuMont Schauberg, 1971, S.
61.
118
Humpert, Elektronische Musik, S. 210 f.

- 21 -
klanglichen Variationsmöglichkeiten durch die Anwendung des Ringmodulators zu
erweitern.119

Im darauf folgenden Entwicklungsstadium wurde mit Mikrophonie II (1965) versucht,


eine direkt realisierte Synthese von Gesang und elektronischen Klängen120 zu schaffen,
sozusagen eine durchdringende Einheit, die Dank der verbindenden Live-Elektronik auch
ermöglicht werden konnte.
Für dieses Werk bediente sich K. Stockhausen zweier Hauptschallquellen, nämlich
einem Kammerchor aus 12 Choristen, diese wurden durch 4 Mikrophone aufgenommen, und,
anstatt des Sinustongenerators (Schwebungssummer), der in Mixtur benutzt wurde, einer
Hammond-Orgel. Diese ermöglichte Tonänderungen ohne Glissandi und war daher als zweite
Quelle für die Ringmodulationen, die die Aufgabe hatten, durch vier Ringmodulatoren die
Klänge des Chores zu transformieren, sehr geeignet.121
Die Aufgabe der Ringmodulation war es, die eingegebenen Frequenzen der zwei
Schallquellen zu unterdrücken, so dass nur „die Summen und Differenzen der Frequenzen
aus den Modulatoren“122 herauskamen.
Dieses entwickelte technische Verfahren wandte K. Stockhausen in weiteren Werken
(Prozession, Kurzwellen u. a.) an, d. h. live hervorgebrachte Musik aus Mikrophonaufnahmen
wurde über Filter, Regler und zum Teil Ringmodulatoren „direkt in transformierter Form über
Lautsprecher hörbar“123. Zudem tauchte das improvisatorische Element auf.
Damals wurde als spezifisches Problem der Live-Elektronik die Abhängigkeit des
Interpreten von Personen betrachtet, die die Technik der elektronischen Manipulationen und
Bearbeitungen durchführten.124
Dabei ist darauf zu achten, dass die Tonbandmanipulationen während einer
Aufführung vorgenommen werden, und wird als „performed tape“ bezeichnet und innerhalb
der Kategorie der Instrumentalkonzerte mit elektronischer Klangumformung zugeordnet.125
„Die Benutzung von Magnetophongeräten bei live-elektronischen Konzerten kann jedoch

119
Vgl. Ruschkowski, Elektronische Klänge, S. 172.
120
Vgl. Humpert, Elektronische Musik, S. 211.
121
Vgl. ebd.
122
Ebd.
123
Ebd., S. 211 f.
124
Vgl. Ruschkowski, Elektronische Klänge, S. 248.
125
Vgl. Supper, Elektroakustische Musik, S. 15.

- 22 -
weit mehr sein als reine Tonbandeinspielung.“126 Beispiele dafür sind Transición II für
Klavier, Schlagzeug und zwei Tonbänder (1958/59) von Mauricio Kagel ebenso frühere
Stücke wie Williams Mix (1952) und Fontana Mix (1956) von John Cage, The Fourth of July
(1960) von Robert Ashley und später SOLO für Melodie-Instrumente mit Rückkopplung
(1966) von K. Stockhausen.127
Instrumentalkonzert mit elektronischer Klangumformung ist seit den 1970er Jahre bis
heute vorwiegend stark präsent vorhanden und wird als die aktuellste Ausprägung der Live-
Elektronik angesehen.128 Eine Unterteilung zeigt die Bereiche Transposition, Klangselektion
und Bewegung des Klanges im Raum,129 dazu gehört die Komposition Mantra.

Mantra für 2 Pianisten (1970) von K. Stockhausen bedeutete einen weiteren wichtigen
Schritt in der Entstehungsgeschichte der Live-Elektronik. Die Klavierklänge wurden durch
zwei so genannten Klangumwandler, die vom Experimentalstudio des Südwestfunks gebaut
worden waren, „die alle nötigen Bedienungselemente in einem Gehäuse versammelten“130,
mit Sinustönen ringmoduliert. Die beiden Pianisten bedienten „live“ die Ringmodulation.
Mantra wurde in präziser Notation und mit einem streng bestimmten Formplan
komponiert.131

Mit 1964, dem Jahr der Entwicklung und Einführung des Synthesizers in die
Studiotechnik, begann ein bedeutungsvoller Umbruch in der Geschichte der Elektronischen
Musik und ebenso der Live-Elektronik.132 Diese erreichte in der Mitte der 1960er Jahre „jene
notwendige Mobilität, die die Komponisten in die Lage versetzte, nicht nur Instrumente im
sog. Real-Time-Verfahren klanglich umformen, sondern auch elektronische Klangfolgen
‚live’ hervorbringen zu können (J. Fritsch, Y. Höller, H. U. Humpert, A. Lanza, T. Souster u.
a.)“133. Zum ersten Mal war die Möglichkeiten zur „Erzeugung wirklicher live-elektronischer

126
Ebd., S. 14.
127
Vgl. ebd., S. 14 f.
128
Vgl. ebd., S. 15.
129
Vgl. ebd., S. 15.
130
Decroupet, Komponieren, S. 63.
131
Vgl. Humpert, Elektronische Musik, S. 212.
132
Vgl. Eimert/Humpert, Lexikon, S. 191. Ferner vgl. Ruschkowski, Elektronische Klänge, S.
248.
133
Humpert, Live Electronic, in: Massenkeil, Musiklexikon, S. 102.

- 23 -
Musik“134gegeben, das Stadium einfacher elektronischer Klangverschiebungen wurde
überholt.
Die Synthesizer waren das „Ergebnis der durch Volltransistorisierung und
Verwendung integrierter Schaltkreise entstandenen Mini-Dimensionen, sowie ihr
135
Funktionieren auf der Basis der Spannungssteuerung“ , was für die damalige Zeit erhebliche
Vorteile wie „große Überschaubarkeit und verhältnismäßig einfache Bedienbarkeit“ bot. Er
war im Stande im Ensemble (zusammen mit anderen Instrumenten) live-elektronische
Aufgaben zu übernehmen, aber auch mit sich selbst konnte er musikalisch befriedigende
elektronische Strukturen hervorbringen, als ob er ein Ensemble selbst wäre.136 Er konnte
einerseits von Musikinstrumenten angesteuert werden, andererseits diente er „zur
Transformation instrumentaler und anderer mechanisch erzeugter Klänge“137. Üblicherweise
wurde im Verlauf eines Stückes eine Grundschaltung am Synthesizer weiterentwickelt.
„Vor allem die zahlreichen Möglichkeiten der Klangmodulation gewannen an
Bedeutung.“138 Auch halbautomatisierte Prozesse bei der Klangbearbeitung wurden durch die
neue Technik zunehmend möglich.139
Beispiele für live-elektronische Kompositionen, bei denen die Steuermöglichkeiten
des Synthesizers mit einbezogen wurden, sind: Violectra III für Viola d’amore und
Synthesizer (1972) von J. Fritsch sowie Synesis für Moog-Synthesizer und elektronische Orgel
(1970-71) von Hans Ulrich Humpert.140
Weiters wurden die mobilen elektronischen Klangumformer im Experimentalstudio
des Südwestfunks (Baden-Baden in Freiburg) entwickelt, um neue Aspekte der Live-
Elektronik zu erforschen.141 Diese Klangumformer funktionieren ähnlich spannungsgesteuert
wie die Synthesizer. Sie übernehmen „Voltage Control“-Funktionen und können dadurch
(nach Hans Peter Haller, Leiter des Experimentalstudios) sinnvoll eingesetzt werden, wenn
sie über eine Programmsteuerung verfügen.142 Diese Steuerungen verändern die Tonhöhen (z.
B. durch Ringmodulatoren), Klangfarben (durch Filter), Lautstärken (durch Regler), auch

134
Eimert/Humpert, Lexikon, S. 191.
135
Ebd.
136
Vgl. ebd.
137
Ebd.
138
Ruschkowski, Elektronische Klänge, S. 248.
139
Vgl. ebd.
140
Vgl. Eimert/Humpert, Lexikon, S. 191.
141
Vgl. Humpert, Elektronische Musik, S. 212 f.
142
Vgl. ebd., S. 213.

- 24 -
werden die musikalischen Parameter durch Modulationen umgewandelt143 bis hin zur
„Steuerung von Klangbewegungen im Raum“144. Zudem konnten gleichzeitig „eigene“
elektronische Klangfolgen live hervorgebracht werden, sofern ein umfangreiches
spannungsgesteuertes System vorhanden war.145
Beispiele dafür sind Tangens von York Höller, Nada von Peter Michael Hamel,
Electronic Maniac von Hans Ulrich Humpert sowie Cristobal Halffters Variaciones sobre la
Resonancia de un Grito, Milko Kelemens Mirabilia und Joel Chadabes Echoes, nicht zu
vergessen sind Komponisten in den USA und Kanada Eric Ross und Alcides Lanza bzw. in
England Tim Souster.
Thomas Kessler setzte mit Piano Control für Klavier und Synthesizer (1974) die von
Stockhausen mit Mantra eröffnete Linie fort. Es ist gerade deshalb hervorzuheben, da „alle
tongenerierenden und transformierenden Instrumente vom Pianisten selbst betätigt
werden“146, er muss „neben der Klaviatur auch einen AKS-Synthesizer in seinen
Einstellungen kontrollieren und variieren [...] um die Variabilität des Klangraums in der
Komposition sicher zu stellen.“147
Der Synthesizereinsatz bei Konzerten zeigte das Phänomen des Aufkommens von
live-elektronischen Ensembles, die vorwiegend in den 1960er Jahren entstanden. Darunter
The Sonic Art Union in den USA, in Italien MEV, Musica Elettronica Viva und die
Improvisationsgruppe Nuova Consonanza, in England AMM, weiters in Westdeutschland die
Gruppe, die sich um Stockhausen bildete (Alfred Alings, Harald Bojé, Peter Eötvös, Johannes
Fritsch, Rolf Gehlhaar und Aloys Kontarsky).148
Das improvisatorische Element als gemeinsame musikalische Praxis dieser Ensembles
entstand zusammen mit den aleatorischen Freiheiten der 1960er Jahren.149
„Schließlich ermöglichte es die technische Entwicklung des Synthesizers, im real-
time-Verfahren auf demselben Gerät elektronische Musik im Sinne der frühen Tonband-
Studiotechnik, der avantgardistischen Live-Elektronik und der Popmusik zu produzieren.“150

143
Vgl. ebd.
144
Ebd.
145
Vgl. ebd.
146
Decroupet, Komponieren, S. 63.
147
Ebd.
148
Vgl. Supper, Elektroakustische Musik, S. 16.
149
Vgl. Wolfgang Martin Stroh, Elektronische Musik, in: Hans H. Eggebrecht [Hrsg.]:
Terminologie der Musik im 20. Jahrhundert, Sonderbd. I. Stuttgart: Franz Steiner Verlag,
1995, S. 116.
150
Ebd.

- 25 -
1970 gründeten die Komponisten Johannes G. Fritsch, Rolf Gelhaar und David
Johnson das Feedback-Studio in Köln. Sie kamen aus der Stockhausen-Gruppe und hatten
Kompositionen im Studio für elektronische Musik des WDR realisiert.151 Das Feedback-
Studio ermöglichte „Komposition elektroakustischer Musik und experimentelles
152
Improvisieren mit neuen Instrumenten in enger Nachbarschaft“ . Besonders wichtig waren
die oben erwähnte verkabelte Bratsche („Violectra“) von Fritsch und „Superstring“ von
Gelhaar.153 „Der Aspekt der Improvisation eignete sich hervorragend für die
grenzüberschreitenden Aktivitäten der Gruppe, sei es in die Bereiche Jazz oder Pop hinein
oder bei der Zusammenarbeit mit bildenden Künstlern.“154
Zu Beginn der 1970er Jahre trat die live-elektronische Musik wegen der
Perfektionierung der Apparaturen in eine neue Phase ein, denn „zunehmend wurde versucht,
über technische Mittel die Instrumente selbst in Beziehung zueinander zu setzen.“155 Im
Studio der Heinrich-Strobel-Stiftung des Südwestfunks (heute SWR) wurde ein Verfahren zur
Umwandlung von Informationen eines Instrumentes in elektrische Spannungen entwickelt,
um auf dieser Grundlage andere Instrumente zu transformieren.156 Pierre Boulez war an der
„Idee der stufenlosen Transposition eines Instrumentes und der damit verbundenen
Klangveränderung“157 interessiert. Er beauftragte 1972 das Experimentalstudio der Heinrich-
Strobel-Stiftung, ein Realisierungskonzept für die elektronische Klangumformung von seiner
Komposition ... explosante-fixe ... für Flöte, Klarinette, Trompete, Harfe, Vibraphon, Violine,
Bratsche, Cello und Elektronik - èlectronique en direct - (1972/1974) zu erstellen.158 Diese
erste Version wurde von ihm mehrfach revidiert, später aber zurückgezogen, da er mit dem
damaligen technischen Stand der Live-Elektronik nicht mehr zufrieden war. 1991 entstand die
Lösung mit der Technik des Institut de Recherche et de Coordination Acoustique/Musique,
IRCAM in Paris, für eine erneuerte Fassung, nämlich ... explosante-fixe ... für MIDI-Flöte, 2
Soloflöten, Ensemble und Live-Elektronik (1991/1993).159
Im Stück ging es darum, den Instrumenten mehr Zusammenhang zu geben. Waren
bisher die Interaktionen auf die Tonhöhen beschränkt, so wurden sie nun mit Hilfe der Live-

151
Vgl. Decroupet, Komponieren, S. 66.
152
Ebd.
153
Vgl. ebd.
154
Ebd.
155
Decroupet, Komponieren, S. 64.
156
Vgl. ebd.
157
Supper, Elektroakustische Musik, S. 15.
158
Vgl. ebd.
159
Vgl. ebd., S. 128.

- 26 -
Elektronik um die Reaktion im Raum, der Dynamik und auch des Tonbereichs erweitert.160
Die Instrumente modulierten untereinander, wodurch als Resultat neue Tonhöhen entstanden,
die gegenüber den Originaltonhöhen zu unterscheiden waren.161
Noch zwei wichtige Bereiche der live-elektronischen Verarbeitung mit analogen
Mitteln sind die Zeitversetzung und die Verräumlichung der Klänge.162 Ein hervorragendes
Beispiel dafür ist Time and Motion Study II for solo ‘cello and electronics (1973/1976) von
Brian Ferneyhough. Er setzte „bewußt auf die Vervielfältigung des Cellisten.“163

Einer der früheren Aufgaben des Ringmodulators, nämlich die elektronische


Transposition eines Instrumentes in Echtzeit, wurde „später mit computergestützten Geräten
wie dem Harmonizer“ realisiert.164 Die allmähliche Anwendung von Computern führte zu
neuen Möglichkeiten der nun computergestützten Live-Elektronik bzw. zu den musikalisch
interaktiven Systemen.165 Seit dieser Zeit „werden Computer eingesetzt, um
Klangtransformations-, Synchronisations- und Raumverteilungsprozesse zu steuern.“166
Mitte der 1980er Jahre setzte die allgemeine Digitalisierung ein. Vom Kleincomputer,
Sampler, über MIDI-Sequenzer, digitale Aufzeichnungsgeräte „bis hin zum Einsatz von
Computerprogrammen zur Interaktiven Steuerung kompositorischer Prozesse in Echtzeit
(Real time)“167, all das wurde nun für die elektronische Musikproduktion verwendet. Seit den
1990er Jahren agiert der Komponist in privaten („Heim“)Studios als sein eigener Techniker
und Musikinformatiker.168 Heute werden Computer ebenso für das programmierbare real-time
digital signal processing (DSP) eingesetzt, wie für die Komposition, Aufführungspraxis und
Netzwerkkommunikation.169

Die frühe Elektronik bis hin zur heutigen Computertechnik ist somit Grundlage für die Live-
Elektronik, weshalb im nächsten Kapitel noch genauer darauf eingegangen wird.

160
Vgl. ebd., S. 15.
161
Vgl. ebd.
162
Vgl. Decroupet, Komponieren, S. 64.
163
Ebd.
164
Vgl. Supper, Elektroakustische Musik, S. 15.
165
Vgl. ebd., S. 16.
166
Humpert, Live Electronic, S. 102.
167
Humpert, Elektronische Musik, in: Massenkeil, Musiklexikon, S. 786.
168
Vgl. ebd.
169
Vgl. Joan Wildman, Electronic Music. The Computer Revolution, in: Lee Stacy/Lol
Henderson [Ed.], Encyclopedia of music in the 20th century, 1. publ., London u. a.:
Dearborn, 1999, S. 191.

- 27 -
2 TECHNIK DER LIVE-ELEKTRONIK

2.1 GRUNDLAGEN

Als einen zentralen Kompositionsvorgang werden „die Möglichkeiten des Ableitens


und Variieren von Klängen“170 erachtet, besonders Transformationsgeräte bestimmen diese
Möglichkeiten mit.
Das Umformen von Tönen, Klängen und Geräuschen zählen zu den wichtigsten
Gestaltungsmitteln der Elektronischen Musik.171 Neben den unterschiedlichen Verfahren der
„aktivierten“ Tonbandtechnik sind für die Realisation Elektronischer Musik in Echtzeit die
Transformationsgeräte besonders wichtig.172
Das sind Apparaturen, die „nicht der unmittelbaren Produktion von Klängen und deren
Aufzeichnung dienen“173, sondern sie „vielmehr in irgendeiner Form verändern. [...] Dazu
zählen [...] Filter und Verzerrer, Ringmodulatoren, Laufzeitregler und Hallplatten, aber auch
die Geräte der Spannungssteuerungstechnik mit ihren vielfältigen
Modulationsmöglichkeiten“.174
Viele Apparaturen haben eine Doppelfunktion, wie im Fall des Impulsgenerators, der
einen Klangvorgang „zerhackt“ und auch als Transformationsgerät verwendet wird; sowie das
Magnetbandgerät, „das durch Geschwindigkeitsänderungen und viele andere
Umwandlungsmöglichkeiten einen aufgezeichneten Klang [...] transformieren kann“175.
Die Filter zählen zu den wichtigsten Transformationsgeräten, die in der Live-
Elektronik Einsatz finden.

2.1.1 TECHNISCHE KONFIGURATIONEN

Die technischen Konfigurationen der Live-Elektronischen Musik müssen genau


durchdacht sein und gilt für jedes Werk, das auf der Bühne aufgeführt wird.176

170
Humpert, Elektronische Musik, S. 81.
171
Vgl. ebd.
172
Vgl. ebd.
173
Ebd.
174
Eimert/Humpert, Lexikon, S. 362 f.
175
Ebd., S. 393.
176
Vgl. Allen Strange, Electronic Music. Systems, Techniques, and Controls, 1. Edition,
Dubuque: Wm. C. Brown Company Publishers, 1972, S. 126.

- 28 -
Auch bei gemischten Werken gibt es eine große Anzahl von Kompositionen für
verschiedene Ensembles, die mit einem vorbereiteten Tonband aufzuführen sind, bei denen
ein Interpret (engl. performer) gebraucht wird, um die Wiedergabe einer bestimmten
Maschine synchron mit einem Dirigenten- oder mit einem Partitur-Einsatz (engl. cue) zu
steuern.177 Dabei findet die elektronische Umformung der Klänge zu einer anderen Zeit und
an einem anderen Ort außerhalb der Aufführung statt. Im Gegensatz dazu braucht die Live-
elektronische Musik die Klangumformung (engl. sound manipulation) als Teil der im
Moment stattfindenden Aufführung.178
Das bedeutet, dass ein oder mehrere Interpreten für die Produktion von Signalen durch
akustische oder elektronische Instrumente und für die Kontrolle von Echtzeit Prozeduren
(engl. real-time processing) jener Signale benötigt werden.179
Die Folge davon war, dass die Live-elektronische Musik den Toningenieur in die
Rolle eines Musik-Interpreten versetzte.180 Eine live-elektronische Situation kann so einfach
wie die normalen Methoden der Verstärkung akustischer Instrumente oder sehr komplex wie
bei bestimmten Schaltkonfigurationen sein; einige Situationen sind für reine akustische
Klangquellen bestimmt, während andere Kompositionen die Addierung von elektronischen
Klangquellen benötigen.181 Zudem gibt es noch Stücke, die allein für die exklusive
Anwendung von elektronisch generierten Signalen während einer Live-Aufführung bestimmt
sind.182
Die technischen Konfigurationen von Luigi Nonos Omaggio a György Kurtág werden
im Kapitel 3 bei der Analyse genauer betrachtet.

2.1.2 FILTERUNG

Filter wurden früher auch Siebe genannt und sind selektive Geräte, die „bestimmte
Frequenzgebiete ungeschwächt durchlassen, andere hingegen unterdrücken“183.
Ein Filter ist eine elektronische Kreisschaltung (engl. circuit) oder ein
Kreisschaltungsnetzwerk. Er besitzt hauptsächlich ein Design und eine Funktion, um

177
Vgl. ebd.
178
Vgl. ebd.
179
Vgl. ebd.
180
Vgl. ebd., S. 127.
181
Vgl. ebd., S. 126 f.
182
Vgl. ebd., S. 127.
183
Eimert/Humpert, Lexikon, S. 93.

- 29 -
bestimmte Frequenzbänder, Frequenzbereiche bzw. Frequenzzonen zu übertragen und
gänzlich zu unterdrücken.184 Die Breite der Frequenzbänder definiert die Filterung, wobei die
Klänge bearbeitet werden.
Ein Tiefpass-Filter (engl. low-pass filter) lässt tiefe Frequenzen durchgehen, ohne dass
sie von irgendeinem Prozess bearbeitet werden, aber unterdrückt dann die älteren Frequenzen
(Abbildung 1).185

Abbildung 1: Graphische Darstellung eines Tiefpasses.186

Ähnlich, aber als umgekehrter Effekt unterdrückt ein Hochpass-Filter (engl. high-pass
filter) die tieferen Frequenzen und lässt die höheren passieren (Abbildung 2).187

Abbildung 2: Graphische Darstellung eines Hochpasses. 188

Diese beiden Typen formen den Basisaufbau der Blöcke für mehrere komplexe
Filterungsprozesse.

184
Vgl. Strange, Electronic Music, S. 53.
185
Vgl. ebd., S. 54 f.
186
Eimert/Humpert, Lexikon, S. 93.
187
Vgl. Strange, Electronic Music, S. 53.
188
Eimert/Humpert, Lexikon, S. 93.

- 30 -
Der wichtigste Parameter eines Filters ist die Frequenz, an der er seine Veränderungen
vornimmt und dadurch seine klanglichen Effekte hörbar macht.
Im Allgemeinen wird der Punkt des Signals, an dem die Unterdrückung des Spektrums
beginnt, als Beschneidungsfrequenz (engl. cut-off frequency) bezeichnet.189 Dabei wurde das
Signalniveau um mindestens 3 dB vermindert.190
Generell kann mit variablen Filtern diese Cut-off-Frequenz des Tiefpass- so wie des
Hochpass-Filters, auf einen fast beliebigen Punkt des hörbaren Audiospektrums gesetzt
werden,191 d. h. „sie läßt sich innerhalb des Frequenzspektrums frei wählen“192.
Andererseits gibt es im sogenannten Bandpass-Filter (engl. band-pass filter) zwei
solche Beschneidungsfrequenzpunkte (Abbildung 3). Die Entfernung zwischen diesen beiden
wird als Bandbreite (engl. bandwith) des Filters bezeichnet.193

Abbildung 3: Graphische Darstellung eines Bandpasses.194

Für die Klangformung werden Kombinationen zwischen Hoch- und Tiefpass-Filter


verwendet, dadurch entstehen die sogenannten Bandpass-Filter und die Bandsperre.195 Der
Bandpass-Filter „entsteht durch Hintereinanderschalten von Hoch- und Tiefpass,
entsprechend auch die Bandsperre“196. Beide haben eine in sich variable Bandbreite.197 Der
Bandpass-Filter lässt nur einen Frequenzbereich ungedämpft passieren. Umgekehrt ist es bei

189
Vgl. Strange, Electronic Music, S. 54.
190
Vgl. ebd.
191
Vgl. ebd., S. 54 f.
192
Ruschkowski, Elektronische Klänge, S. 159.
193
Vgl. Strange, Electronic Music, S. 57.
194
Eimert/Humpert, Lexikon, S. 94.
195
Vgl. Ruschkowski, Elektronische Klänge, S. 159 f.
196
Eimert/Humpert, Lexikon, S. 93.
197
Vgl. ebd.

- 31 -
der Bandsperre (Abbildung 4), wo ein spezielles Frequenzband gedämpft wird, während die
übrigen Frequenzanteile ungehindert passieren können198.

Abbildung 4: Graphische Darstellung einer Bandsperre.199

Abhängig von der präzisen Konfiguration und von der Kombinierung zwischen einem
Hochpass- und einem Tiefpass-Filter erfolgt eine Unterdrückung entweder von allen
Frequenzen oder von einem selektierten Frequenzband, d. h. von einem bestimmten
Mittelbereich von Frequenzen. So entsteht die Bandsperre, engl. band-reject, band-stop oder
notch filter bezeichnet, manchmal auch als band-elimination und exclusion filter.200 Die
Frequenzen, die beibehaltet werden, sind als band-pass bekannt.201
In der Mitte des Bandpasses bzw. der Bandsperre entsteht die sogenannte
Scheitelfrequenz (engl. center frequency).202
Neben der Frequenz gibt es noch einen wichtigen Parameter, der das Verhältnis der
Unterdrückung pro Oktave und dadurch das Maß der Wirksamkeit des Filters („Q“) angibt,
auch als „slope“ bezeichnet.203
So ist normalerweise ein hohes „Q“ oder scharfer Cut-off-Filter der erstrebenswerteste
für die Arbeit in der Elektronischen Musik.204
Der ideale Filter würde sofort alle Frequenzen ab der Cut-off-Frequenz unterdrücken.
Diese Charakteristik der sofortigen Unterdrückung wird als 90° Flankensteilheit (engl. slope)

198
Vgl. Ruschkowski, Elektronische Klänge, S. 160.
199
Eimert/Humpert, Lexikon, S. 94.
200
Vgl. Strange, Electronic Music, S. 53 f., 58.
201
Vgl. ebd., S. 54.
202
Vgl. Ruschkowski, Elektronische Klänge, S. 159.
203
Vgl. Strange, Electronic Music, S. 54.
204
Vgl. ebd.

- 32 -
bezeichnet, aber normalerweise funktionieren Filter nur als graduelle „slope“ Filterungen.205
Die Wegnahme der Frequenzen ist daher ein allmählicher Prozess.
Die „Flanken“ begrenzen den Durchlassbereich. Die Flankensteilheit gilt als variables
Maß.206 Die Flankensteilheit (Abbildung 5), auch einfach Steilheit genannt, bestimmt die
klangliche Qualität der Filter und wird in dB-Dämpfung pro Oktave gemessen.207 Eine
„größere Steilheit, ausgedrückt durch einen höheren dB-Wert, bewirkt eine stärkere
Dämpfung der Klanganteile, jenseits der Cut-off-Frequenz“.208 So gab es schon früher Filter
mit einer Dämpfung von 42 dB pro Oktave (-42 dB/Oktave), die für damalige Verhältnisse
bereits eine sehr hohe Flankensteilheit aufwiesen; während jene mit nur -6 dB pro Oktave
weniger effektiv waren.209 Die größte, d. h. die ideale Flankensteilheit „stellt den
Durchlassbereich ohne Übergang unmittelbar neben den benachbarten Sperrbereich“210.

Abbildung 5: Graphische Darstellung der Flankensteilheit.211

In der Regel werden Filter mit 12 dB und 24 dB Flankensteilheit verwendet. Der erste
erzeugt einen eher weichen, der zweite einen härteren bzw. kräftigeren Klang.212

205
Vgl. ebd.
206
Vgl. Eimert/Humpert, Lexikon, S. 93.
207
Vgl. ebd., S. 94.
208
Ruschkowski, Elektronische Klänge, S. 160.
209
Vgl. Eimert/Humpert, Lexikon, S. 94 f.
210
Ebd.
211
Ebd., S. 95.

- 33 -
Andere Aspekte beziehen sich auf die Energiezufuhr: ein aktiver Filter („active“)
basiert auf einer Verstärkerschaltung und benötigt deswegen eine Energiezufuhr („power
supply“), ein passiver Filter („passive“) hingegen nicht.
Eine der wichtigsten musikalischen Anwendungen von Hochpass- und Tiefpass-
Filtern liegt bei der Umformung verschiedener Klangfarben, in dem Obertöne weggenommen
werden können.213 Auch einzelne Obertonbereiche lassen sich isolieren, z. B. bei der
Anwendung des Hochpass-Filters.214
Mit einer sehr engen Bandbreite eines Band-pass-Filters kann jede einzelne
Frequenzkomponente eines Klangfarbspektrums isoliert werden, wenn dafür der „Q“-Faktor
stark erhöht und dann die Scheitelfrequenz allmählich bewegt wird.215
Obertöne im Gebiet der Cut-off-Frequenz zu verstärken kann einen ähnlichen Effekt
wie bei mechanischen Musikinstrumenten hervorrufen, bei denen „bestimmte
Obertonbereiche durch Resonanz ihres Klangkörpers“216 verstärkt werden. Dieser Effekt kann
„bis zur Selbstoszillation gesteigert werden. In diesem Fall wird das Filter selbst zum
Oszillator einer reinen Sinusschwingung“217.
Dieser sogenannte Resonanzfilter „dient der elektronischen Nachbildung von
Formantbereichen“218. Diese Formanten sind Obertonbereiche, die besonders hervortreten.
Ihnen wird eine wichtige Bedeutung für die Klangfarbenbildung beigemessen.219
Normalerweise funktioniert das Resonanzfiltermodul mit mehreren Bandpässen,
veränderlichen Scheitelfrequenzen und Flankensteilheit.220 Die Feinstruktur der Klänge lässt
sich dadurch umformen, so werden auch individuelle Klänge neu entwickelt.221
Aktive Filterkreisschaltungen können dazu eine Rückkopplungssteuerung (engl.
regeneration oder feedback) besitzen. Sie bilden den Resonanzfilter (engl. resonant oder
formant filter).222
Die Rückkopplungskreisschaltung hat die Eigenschaft, einen „resonant peak“ an der
Cut-off-Frequenz zu produzieren223, indem das Signal durch einen Filter geht und
212
Vgl. Ruschkowski, Elektronische Klänge, S. 160.
213
Vgl. Strange, Electronic Music, S. 55.
214
Vgl. Ruschkowski, Elektronische Klänge, S. 159.
215
Vgl. Strange, Electronic Music, S. 58.
216
Ruschkowski, Elektronische Klänge, S. 160.
217
Ebd.
218
Ebd., S. 174.
219
Vgl. ebd.
220
Vgl. ebd.
221
Vgl. ebd.
222
Vgl. Strange, Electronic Music, S. 56.

- 34 -
anschließend der generierte Band-Pass in den Filtereingang wieder rückgekoppelt wird.224 Das
erzeugt wiederum eine Verstärkung, vermindert die Verzerrung (engl. distortion) und führt zu
einer Resonanz an der Cut-off-Frequenz.225 Diese Rückkopplungssteuerung ist sehr praktisch,
um Klangfarben mit mehreren Formantencharakteristiken zu bilden. Damit können unendlich
viele neue Klangfarben erzeugt werden, in dem die Formanten auf verschiedenen Teilen eines
bestimmten Klangfarbspektrums draufgesetzt werden.226
Filterschaltungen beliebiger Kombinationen zwischen Tief-, Hoch- und Bandpässen
werden für die Zerlegung von Klangspektren verwendet und als spezifische Klangfarbe
ausgewertet.227
Bandsperre und Bandpass dienen zur „systematischen Erzeugung von
Klangfarbenvarianten“228.
Filtertechniken sind auch im Allgemeinen als subtraktive Synthese (engl. subtractive
synthesis) bekannt und durch die Anwendung der Spannungssteuerung weit verbreitet.229
Mit äußeren Spannungen können ebenfalls die Frequenz und Amplitude gesteuert
werden. Die spannungsgesteuerten Filter benützen wiederum die äußeren Spannungen dazu,
um Bandbreite, Cut-off- und Scheitel-Frequenz zu bestimmen.230
Die Filteranwendungen werden in die beiden Kategorien „musikalisch“ und
„technisch“ unterteilt. Der technische Bereich enthält die Tonkontrolle der elektrischen
Gitarre „tone control“, den Vocoder und die benutzten Filter, die in der Klangsynthese
angewendet werden. Filter wurden auch als musikalische Instrumente in Aufführungen („live-
performances“) benutzt, wie in mehreren Werken Karlheinz Stockhausens.
„Der Vocoder dient der elektronischen Veränderung von Sprache sowie der
Zusammensetzung sprachähnlicher Klänge und Artikulationen. Durch ein System von Filtern
und Entzerrern, Amplitudendemodulatoren, VC-Oszillatoren, Ringmodulatoren, Sequencer
und anderen Einheiten wird Sprache zunächst in unterschiedliche Frequenzbänder zerlegt und
anschließend, durch die Steuermöglichkeiten und Modulatoren beeinflußt, in veränderten
Proportionen wieder zusammengesetzt.“231

223
Vgl. ebd.
224
Vgl. ebd.
225
Vgl. ebd.
226
Vgl. ebd.
227
Vgl. Eimert/Humpert, Lexikon, S. 94.
228
Ebd., S. 41.
229
Vgl. Strange, Electronic Music, S. 62.
230
Vgl. ebd.
231
Humpert, Elektronische Musik, S. 108.

- 35 -
Der Vocoder oder Voder (Abkürzung für engl. von Voice Operation DEmonstratoR),
ist das Gerät „zur Erzeugung von Sprachklängen, die je nach ihrer Charakteristik durch
Impulsgenerator, Rauschgenerator und durch Formantfilter hergestellt werden“232.
Es besteht „aus dem Aufnahmeteil (Coder) und dem Wiedergabeteil (Voder)“233. Er
wurde 1939 in den USA konstruiert und erlaubt „codierte Sprache über Leitungen in die
ursprüngliche Sprache zurückzuverwandeln“234.
Obwohl das Gerät ursprünglich zur Sprachsynthese entwickelt wurde, wird es „heute
im elektronischen Studio vorzugsweise zur Modifikation von Sprache oder Gesang“235
eingesetzt. Das Eingangssignal wird „in zahlreiche Frequenzbänder aufgespalten, die
anschließend verschiedenen Veränderungen unterworfen werden können, bis hin zur
Ausstattung mit eigenen Hüllkurven pro Frequenzband“236.
Werden ausgesuchte Frequenzbereiche durch den Vocoder moduliert, dann wird „die
Realisierung geisterhafter irrealer Stimmen“237 möglich.
Alle Bereiche der Sprache können unter Einfluss des Vocoders verwandelt werden, z.
B. charakteristische Eigenschaften wie Alter oder Geschlecht, Parameter der Sprache wie
Klangfarbe, Sprechhöhe und Geschwindigkeit sind modifizierbar, „eine einzige Stimme kann
zu einem ganzen Chor anschwellen“238. Meistens lassen sich unartikulierte Klänge im
Sprachrhythmus artikulieren.239 „Der Sprachfluß kann mitten im Wort auf einem Sprachklang
‚angehalten’ (= stationär gemacht) werden; auf jeder Tonhöhe ist ‚synthetische Sprache’
herstellbar.“240

2.1.3 VERZÖGERUNG (DELAY) UND RÜCKKOPPLUNG (FEEDBACK)

Die Rückkopplung (engl. feedback) ist nicht nur ein natürlicher Effekt, der immer
wieder auftritt, wenn ein Mikrophon oder ein Tonabnehmer (engl. audio pickup) benutzt wird,

232
Eimert/Humpert, Lexikon, S. 380.
233
Ebd.
234
Ebd.
235
Ruschkowski, Elektronische Klänge, S. 323.
236
Ebd.
237
Eimert/Humpert, Lexikon, S. 380.
238
Humpert, Elektronische Musik, S. 108.
239
Vgl. ebd.
240
Ebd.

- 36 -
sondern führt auch die Verwendung von stehenden Klängen (engl. sustained sounds) ein, die
eine inhärente Eigenschaft der Elektronischen Musik ist.241
Obwohl sie eine der üblichsten und zugleich einfachsten Effekte ist, wenn ein
Mikrophon oder ein verstärktes Instrument angewendet wird, so ist sie doch ein der
empfindlichsten und schwierigsten zu kontrollierenden Effekte überhaupt.242
Die Rückkopplung ist auch als Selbsterregung bekannt und „entsteht, wenn ein Teil
der Ausgangsspannung einer Verstärkerröhre wieder dem Eingang zugeführt wird“243. Sie ist
ein Prozess des ständigen Wiederholens und kann sehr oft zu „unerwünschten Erscheinungen
wie Pfeifen, Heulen oder Brummen führen“244. Dadurch lassen sich bei elektrisch und
elektromechanisch schwingenden Gegenständen Dauerschwingungen anregen. Es entsteht
eine kontinuierliche Erregung des Schwingkreises, weil der Schwingungskreis sich gleichsam
selbst steuert, „indem er die beim Stromdurchgang entstehenden Widerstände im ‚Rhythmus’
seiner eigenen Schwingung ‚dirigiert’“245, d. h. dieser Prozess kann „den Verlust an
Schwingungsenergie wieder ausgleichen“246.
Hall- und Echowirkungen können durch Rückkopplung des Magnetbandgerätes
produziert werden, nur muss dabei „die Amplitude konstant gehalten werden, sonst entstehen
bei der Rückkopplung sich ständig steigernde Aufladeerscheinungen“247.
Es muss bedacht werden, dass rückgekoppelte Klänge zu einer maschinellen sowie
rein mechanischen Wirkung führen, dadurch ostinate Effekte leichter erzeugt werden und die
Gefahr von stereotypen Klangmuster entstehen können.248
Es ist möglich, einen Echo-Effekt mit Hilfe der Rückkoppelung elektronisch zu
erzeugen. Auf diese Weise entsteht durch die Iteration der Charakter eines Flatterechos.249
Bei offenen Räumen entsteht ein Echo dann, wenn in der Natur der „Schall, der als
Widerhall an Hindernissen zurückgeworfen und mit einer gewissen zeitlichen Verzögerung,

241
Vgl. Thom Holmes, Electronic and Experimental Music. Pioneers in Technology and
Composition, 2. Edition, New York u. a.: Routledge, 2002, S. 27.
242
Vgl. ebd.
243
Eimert/Humpert, Lexikon, S. 291.
244
Ebd.
245
Ebd.
246
Ebd.
247
Ebd.
248
Vgl. ebd.
249
Vgl. ebd., S. 71.

- 37 -
die nicht weniger als 1/20 sec betragen darf, wahrgenommen wird“250. Hingegen wird bei
geschlossenen Räumen vom Nachhall (engl. reverberation) gesprochen.251
Elektronisch produzierte Echos können aus verschiedenen Quellen gewonnen werden.
Sie beruhen alle auf demselben Prinzip der verzögerten Wiedergabe von aufgenommenen
Ereignissen.252
Bei der Tonbandaufnahme eines Ereignisses, das durch verschiedene individuelle und
regelmäßig getrennte Wiedergabeköpfe wiedergegeben wird, kann damit ziemlich präzise die
Simulation eines natürlichen Echos erzeugt werden.253 Da jeder aufeinanderfolgende
Wiedergabekopf die Aufnahme abtastet, wird sie dadurch wiederholt abgespielt. Auf diese
Weise entsteht ein Effekt wie bei einem akustisch produzierten Echo.254
Die Geschwindigkeit des Echos ist mathematisch gesehen eine Funktion der
Geschwindigkeit des Tonbandes und der Entfernung zwischen den Wiedergabeköpfen. Die
Zahl der Echos oder Wiederholungen ist von der Zahl der Wiedergabeköpfe, die in Aktion
treten, abhängig.255
Um ein natürliches Echo zu simulieren, das gewöhnlich durch ein wiederkehrendes
Muster charakterisiert ist, muss darauf geachtet werden, dass die Wiedergabeköpfe mit
präzisen regelmäßigen Intervallen getrennt werden, damit die Wiederholungsrate konstant
bleibt.256
Diese Methode, um verlängerte Echos mittels mehrerer Wiedergabeköpfe zu erzeugen
(engl. multiple head echo), hat eventuell für den Komponisten den Nachteil, dass
möglicherweise nicht genügend Wiedergabeköpfe zur Verfügung stehen.257
Weitere Verfahren zur Produktion von Tonbandechos sind die, mit nur einem
einzelnen Wiedergabekopf oder mit einer Rückkopplungsschaltung. Das erste ermöglicht nur
eine einzige Wiederholung des Echos (engl. single repetition tape echo), während die
Intervention einer Rückkopplungsschaltung zur Gestaltung von mehrfachen Echos dient.258
Der Komponist ist normalerweise an mehreren Wiederholungen eines Echos interessiert, als

250
Ebd.
251
Vgl. ebd.
252
Vgl. Strange, Electronic Music, S. 89.
253
Vgl. ebd.
254
Vgl. ebd.
255
Vgl. ebd.
256
Vgl. ebd., S. 89 f.
257
Vgl. ebd., S. 90.
258
Vgl. ebd. Ferner vgl. Thomas H. Wells, The Technique of Electronic Music, New York u.
a.: Schirmer Books, 1981, S. 227-230.

- 38 -
nur an einem einzigen (engl. single echo). Mehrfache Echos sind möglich, wenn das
Ausgangssignal wieder zur Eingangsschaltung geführt wird. Dieses Ausgangssignal wird
aufgenommen, dann wiedergegeben, um einen Moment später noch einmal aufgenommen
und gleich wieder mit derselben Zeitverschiebung abgespielt zu werden. So entsteht eine
Rückkopplungsschleife (engl. feedback loop).259 Die Zahl und Amplitude der
Wiederholungen sind eine Funktion des kombinierten Eingangs- (engl. input gain) und
Wiedergabepegels (engl. output gain). Für die Produktion von künstlichen Echos wurden
Schaltungen und Mechanismen kommerziell verkauft, die im Englischen als „repeater“ oder
„echo loop deck“ bekannt wurden.260
Es gab also die Möglichkeit, Echos mit variablen Echoraten zu produzieren, ähnlich
wie bei der Benutzung von Mehrfachwiederholungen (engl. multiple repeaters).261 Auch
wurden Tonbandechos mittels akustischer Rückkopplung und gleichzeitigem Einsatz von
Mikrophon und Line-Eingang (engl. line input) möglich. Zudem wurden Tonbandechos mit
Hilfe von alternierenden Kanälen, von vier kanäligen Echoschaltungen und „reverse echo“
möglich.262
Die Anwendung von zwei oder mehreren Tonbandmaschinen zusammen mit der
Möglichkeit der Benutzung variierender Tonbandgeschwindigkeiten, dazu mit variierenden
Entfernungen zwischen den Köpfen, gestattete dem Komponisten unzählige
Tonbandverzögerungen (engl. tape-delay) zu konfigurieren.263
Für den Komponisten können genauso die Verzögerung (engl. delay) und
Rückkopplungsschleifen (feedback loops) ein wichtiges Werkzeug sein, um eine
Klangmodifikation zu ermöglichen. Die Mischung und Überlappung von Einschwingvorgang
(engl. attack) und Ausschwing-Transienten (engl. decay transients) dienen der Produktion von
gewissen Klangfarbenmodifikationen. Dieser Effekt wird an den gehaltenen Tönen am besten
wahrgenommen, bei denen die Rückkopplung eine variierende Zahl von Phasenmodulationen
zusammen mit der Wiederholung von Transienten (engl. transients) zur Folge hat.264 Auch
wenn nur zwei Kanäle benutzt werden, kann eine Zahl von mehrfachen Einschwing- (engl.
attacks) und Ausschwingvorgängen (engl. decays) sowie zeitlichen Verzerrungen (engl.

259
Vgl. Strange, Electronic Music, S. 90.
260
Vgl. ebd.
261
Vgl. ebd., S. 90 f.
262
Vgl. ebd., S. 91 ff.
263
Vgl. ebd., S. 93.
264
Vgl. ebd., S. 93 f.

- 39 -
distortions) erzeugt werden. Das Klangfeld erscheint so, als ob es mit einer Klangwolke
gefüllt wäre, deren Herkunftsrichtung nicht bestimmt werden kann.265
Phasenmodulationen (auch Phasenverschiebungen) „von Schwingungen bewirken
Intensitätsunterschiede, die bei Überlagerungen zweier tonfrequenter Schwingungen mit
gleicher Frequenz und Amplitude von der Amplitudenverdoppelung [...] bis zur Auslöschung
[...] führen können. Das sogenannte Phasing nützt diesen Sachverhalt zur Umformung von
Klängen und Klangfolgen aus“266.
Der bekannte Phasing-Effekt ist durch einen Phasenverschieber (engl. phase shifter)
zu erzielen. „Durch Phasenvergleich entsteht ein genau kontrollierbarer Phasing-Effekt.“267
Dieser wird auch „Jet-Effekt“ (engl. phasing oder flanging) genannt und „ist die
klangliche Ausnützung von Phasenverschiebungen“268. Wenn ein in zwei identische Signale
aufgeteiltes Ausgangssignal „gleichzeitig und phasengleich von zwei Magnetbandgeräten
aufgenommen“269 wird, und dann bei der Wiedergabe beider Maschinen eine geringfügige
Änderung der Geschwindigkeit bei einem der Geräte erfolgt, so „entsteht in Relation ‚zum
anderen Gerät’ eine andere Phasenlage des Signals“270. Das heißt, dass die Synchronisation
zwischen zwei verschiedenen Tonbandgeräten sich während der Wiedergabe ändern wird.271
„Beim Zusammenspielen der nun nicht mehr phasengleichen Signale ergeben sich
Anhebungen und Auslöschungen der Amplituden. [...] So kann der subjektive Eindruck
entstehen, als ob die Signale durch ein laufendes Düsentriebwerk geschickt würden (‚Jet-
Effekt’).“272 Im Englischen wird der Sound als „swoosh“ oder „churning“ bezeichnet und
charakterisiert sich durch ein enges Geräuschband, das durch ein komplexes Signal gleitet.
Das bedeutet, dass die verschiedenen Komponenten einer komplexen Welle ständig
untereinander in und außer Phase sind, so dass sie eine unterschiedliche Anzahl von
Auslöschungen erzeugen.273

265
Vgl. ebd., S. 94.
266
Eimert/Humpert, Lexikon, S. 251.
267
Ebd., S. 252.
268
Ebd. Ferner vgl. Wells, Technique of Electronic Music, S. 163.
269
Eimert/Humpert, Lexikon, S. 252.
270
Ebd.
271
Vgl. Strange, Electronic Music, S. 118.
272
Eimert/Humpert, Lexikon, S. 252.
273
Vgl. Strange, Electronic Music, S. 118.

- 40 -
Echtzeitprozesse der Phasenverschiebung (engl. phase shifting) sind als Phasen- oder
Winkelmodulation (engl. phase oder angle modulation) bekannt und werden zur
Signalmodifikation (engl. signal modification) benutzt.274

2.1.4 PITCHSHIFTING & FREQUENZSHIFTING, HARMONIZER

Die Durchführung der Frequenzverschiebung (engl. frequency shifting, auch als


spectrum shifting oder pitch shifting bekannt)275 erfolgt durch einen modifizierten
Ringmodulator namens Frequenzverschieber (engl. frequency shifter),276 der als Verfeinerung
der Ringmodulatoren-Techniken auch als Klangumwandler und in englischer Sprache als
„single sideband generator“ bekannt ist.277
„Eine praktische Modifizierung des Ringmodulators stellt der sogennante Frequency
Shifter (Frequenzverschieber) dar, bei dem sich die ringmodulierte Mischung durch einfaches
Umschalten in ein oberes und unteres Frequenzband [...] teilen läßt.“278 So lassen sich das
obere und untere Frequenzband der ringmodulierten Mischung beim Ausgang trennen.279
Dieses Gerät, ursprünglich von der amerikanischen Firma Bode hergestellt, hat zwei
Signaleingänge und einen oder zwei getrennte Ausgänge.280 Die beiden Eingänge haben
verschiedene Funktionen.281
Der Trägereingang (engl. carrier input) ist für das Signal zuständig, das verschoben
wird, und der Programmeingang (engl. program input) für jenes, das die Verschiebung
verursacht.282
Diese Art der Transposition, Tonverschiebung, erfolgt durch einen Additionsprozess,
der auf unterschiedliche Frequenzen angewendet werden kann. Ihre harmonische
Obertonstruktur wird dadurch umstrukturiert. Die Obertöne können nicht mehr ihre
harmonischen Verhältnisse untereinander beibehalten.283

274
Vgl. ebd.
275
Vgl. ebd., S. 11.
276
Vgl. Eimert/Humpert, Lexikon, S. 101.
277
Vgl. Strange, Electronic Music, S. 11.
278
Humpert, Elektronische Musik, S. 86.
279
Vgl. Eimert/Humpert, Lexikon, S. 101.
280
Vgl. ebd.
281
Vgl. ebd.
282
Vgl. Strange, Electronic Music, S. 11. Ferner vgl. Eimert/Humpert, Lexikon, S. 101.
283
Vgl. Strange, Electronic Music, S. 11.

- 41 -
Auf eine bestimmte Frequenz wird ein in Hertz (Hz) gemessener Faktor addiert. Die
dadurch entstandene Verschiebung wird als Programm-Frequenz (engl. index) bezeichnet.284
Durch die Programm-Frequenz ist es möglich, das Spektrum um ein definiertes
Intervall hinauf- oder hinunter zu verschieben. Wird z. B. eine Sinusschwingung von 600 Hz
um eine Programm-Frequenz von 327 Hz verschoben, so bekommt ein Eingang die 600 Hz
Sinuswelle und der andere ein Signal (normalerweise eine Sinusschwingung) von 327 Hz.285
Die Richtung der Verschiebung wird entweder mit einem sogenannten „de-tuning“
Schalter ausgewählt, oder aber der Frequenzverschieber hat zwei getrennte Ausgänge, einen
für nach oben (oberes Seitenband) und einen für nach unten (unteres Seitenband).
Das ist möglich, weil die Frequenzverschiebung die Isolierung des oberen oder
unteren Seitenbandes eines ringmodulierten Produktes ist, das im Englischen auch als „single
sideband“ generation bezeichnet wird.286
Außerdem hat der Frequenzverschieber „eine einstellbare Spannungsschwelle, ab der
das Gerät zu arbeiten beginnt“287, und unterscheidet sich dadurch von den üblichen
Ringmodulatoren.
Je reicher die Komponenten beim Trägereingang oder beim Programmeingang sind,
desto mehr Seitenbänder können erzeugt werden und umso komplexere Wellenformen
entstehen.
Der Klangumwandler fand große Verbreitung und wurde viele Jahre für die Schaffung
elektronischer Musik verwendet. Heute noch wird er als Werkzeug bei der Komposition von
neuen Klangfarben sehr geschätzt.288
Bei Omaggio a György Kurtág, für Alt, Flöte, Klarinette in B, Tuba und live-
electronics (1983-86) von Luigi Nono werden Frequenzverschiebungen mittels eines
Harmonizers durchgeführt, der im Experimentalstudio der Heinrich-Strobel-Stiftung des
Südwestfunks Anwendung fand. Dort wurden zwei Harmonizer benutzt, die bestimmte
Instrumentalklänge um einen Tritonus tiefer und eine Oktave tiefer entsprechend
transponierten.289

284
Vgl. ebd. Ferner vgl. Eimert/Humpert, Lexikon, S. 101.
285
Vgl. Strange, Electronic Music, S. 11.
286
Vgl. ebd.
287
Eimert/Humpert, Lexikon, S. 101.
288
Vgl. Strange, Electronic Music, S. 11.
289
Luigi Nono, Omaggio a György Kurtág, für Alt, Flöte, Klarinette in B, Tuba und live-
electronics (1983- 86), 1996, S. XII.

- 42 -
2.1.5 MODULATION

Modulation in der Akustik zeigt „die Veränderungen der physikalischen


Bestimmungsgrößen einer Schwingung“290. Es wird unterschieden zwischen
Amplitudenmodulation, Frequenzmodulation und Phasenmodulation, je nachdem, was für ein
Parameter sich verändert. Schwebungen werden als Sonderfall von Modulationen
angesehen.291
Modulatoren sind Geräte, „mit denen Umformungen von Tönen und Klängen
vorgenommen werden können“292.
Die Modulationsverfahren beziehen sich zunächst einmal auf spannungsgesteuerte
Synthesizermodule, wie das der Fall im LFO (engl. low frequency oscillator) ist, der „aus
einem regelbaren Oszillator mit sehr niedriger Frequenz“293 besteht. Typische
Frequenzbereiche eines LFOs liegen zwischen 0,01 bis 100 Hz.294
Er wird prinzipiell zur Modulation anderer spannungsgesteuerten Synthesizermodule
eingesetzt und nur sehr selten für die Erzeugung hörbarer Töne. Das würde z. B. bedeuten,
dass innerhalb einer LFO-Einstellung das Durchlaufen verschiedener Spannungskurven
(Rechteck-, Sägezahn-, Dreieck- und Sinusschwingungen), die von einem
spannungsgesteuerten Oszillator stammen, dem VCOs (engl. voltage controlled oscillator),
dann als Steuerspannungen für die Modulation anderer Module verwendet werden.295
Ein anderer Modulationseffekt, der sehr häufig benutzt wird, ist „die
Frequenzmodulation, die das Vibrato erzeugt“296. In diesem Fall moduliert der LFO den VCO
mit einer Sinus- oder Dreieckschwingung.297
Die Frequenzmodulation (engl. frequency modulation FM) verwendet eine
Spannungssteuerung, um die Frequenz (engl. pitch) eines Klanges zu verändern.298
Die Definition zeigt, dass mit FM jede Art von Wechsel einer Frequenz gemeint sein
kann; aber in der Elektronischen Musik bezieht sich der Begriff normalerweise auf eine

290
Eimert/Humpert, Lexikon, S. 207.
291
Vgl. ebd.
292
Ebd.
293
Ruschkowski, Elektronische Klänge, S. 165.
294
Vgl. ebd.
295
Vgl. ebd.
296
Ebd., S. 166.
297
Vgl. ebd.
298
Holmes, Electronic and Experimental Music, S. 26.

- 43 -
spezielle Art der Interaktion zwischen den Wellenformen, mit der verschiedene
Veränderungen der Klangfarbe erzeugt werden.299
Bei der Modulation der Pulsweite (engl. pulse-width-modulation) einer generierten
VCO-Rechteckschwingung liefert der LFO eine Steuerspannung. Diese Spannung variiert
Breite und Abstand einzelner Halbwellen.300 Mit der Pulsweite ändert sich dadurch auch der
Obertonanteil der Rechteckschwingung. Auf diese Weise entstehen „eine ganze Reihe von
klanglichen Gestaltungsmöglichkeiten“301, so dient z. B. die Pulsweitenmodulation zur
Simulation von Schwebungen.
Als weitere Möglichkeit kann der LFO mit den unterschiedlichen Wellenformen den
VCF (engl. voltage controlled filter) modulieren. Dadurch entstehen reiche Varianten des
Wah-Wah-Effektes sowie interessante Phasing-Klänge, die „ständig wechselnde interne
Phasenverschiebungen“302 enthalten.
Amplitudenmodulation (engl. amplitude modulation AM) ist die Benutzung einer
Spannungssteuerung, um die Lautstärke eines anderen Signals zu verändern.303 Wenn z. B.
eine Frequenz generiert und sie dann durch die Lautstärke-Eingangssteuerung (engl. gain
control) eines Verstärkers gespeist wird, ist es damit möglich, einen extrem schnellen
Wechsel der Amplitude zu erzielen. Dazu wird eine variable Spannung (engl. varying
voltage) verwendet.304
Wenn LFO-Signale mit Sinus- oder Dreieckwellenformen einen VCA (engl. voltage
controlled amplifier) modulieren, dann entsteht „eine beliebig intensive
Amplitudenmodulation“305, was musikalisch einem Tremolo entspricht. Andererseits wird bei
der Modulation mit einem Rechtecksignal des LFOs ein „Mandolineneffekt“ erzeugt, d. h. ein
ton wird dauernd wiederholt.306
Werden mehrere LFOs verwenden, sind komplexe Modulationen möglich.307
Die genannten Möglichkeiten des LFOs als modulierendes Signal wurden besonders
für die Herstellung neuer elektronischer Klänge in den analogen Synthesizern benutzt.

299
Vgl. Strange, Electronic Music, S. 12.
300
Vgl. Ruschkowski, Elektronische Klänge, S. 167.
301
Ebd.
302
Ebd., S. 168.
303
Vgl. Holmes, Electronic and Experimental Music, S. 25.
304
Vgl. Strange, Electronic Music, S. 9.
305
Ruschkowski, Elektronische Klänge, S. 168.
306
Vgl. ebd.
307
Vgl. ebd.

- 44 -
Bei der Spektralmodulation steuert ein Zufallsgenerator einen VCF
(spannungsgesteuerter Filter) an. Der Zufallsgenerator hat die Aufgabe, eine sich „zufällig
ändernde Ausgangsspannung (engl. random voltage)“308 zu liefern. Die Töne werden
abwechselnd heller oder dunkler, da der Obertonanteil der gespielten Töne zufälligen
Veränderungen unterworfen ist.309
Im Bereich der Live-Elektronik wird häufig die Ringmodulation (engl. balanced
modulation) eingesetzt. Sie erfolgt durch ein Modul namens Ringmodulator, der auch als
Frequenzmodulator oder Frequenzumsetzer bekannt ist.310
Aus zwei beliebigen Klängen entstehen neue komplexere Klänge, die meistens nicht
der temperierten Stimmung entsprechen, weshalb die Töne metallisch oder glockenartig
erklingen, was charakteristisch für die Ringmodulation ist.311
Als Gerät stellt der Ringmodulator „die ‚multiplikative Mischung’ von Tönen oder
Klangvorgängen“312 her. „Dem Ringmodulator müssen also immer zwei Ton- oder
Klangquellen zur Verfügung stehen.“313
Er multipliziert die Spannungen an zwei vorhandenen Signaleingängen. Dadurch
entstehen am Ausgang ein „oberes Seitenband“ (Summe der Eingangsfrequenzen) und ein
„unteres Seitenband“ (Differenz der Eingangsfrequenzen).314 Die beiden ursprünglichen
Eingangsfrequenzen verschwinden, und als Ausgangssignal wird das Ergebnis einer
Summen- und Differenzmischung geliefert.315
Da der Ringmodulator Einfluss auf die Frequenzzusammensetzung von Klängen
nimmt, erscheinen „zwei gänzlich neue Töne“, die „nicht als additive Mischung, also als
Zweiklang erklingen“316, sondern ineinander gemischt werden.
Die resultierenden Töne lassen sich nicht mehr in die Ursprungstöne
zurückverwandeln,317 d. h. der demodulatorische Weg ist nicht möglich, weil die
Ringmodulationsergebnisse ganz miteinander und ineinander verschmolzen sind.318

308
Ebd., S. 169 f.
309
Vgl. ebd., S. 170.
310
Vgl. Eimert/Humpert, Lexikon, S. 289.
311
Vgl. Ruschkowski, Elektronische Klänge, S. 171.
312
Eimert/Humpert, Lexikon, S. 289.
313
Humpert, Elektronische Musik, S. 86.
314
Vgl. Ruschkowski, Elektronische Klänge, S. 171. Ferner vgl. Strange, Electronic Music, S.
11.
315
Vgl. Eimert/Humpert, Lexikon, S. 290.
316
Humpert, Elektronische Musik, S. 85.
317
Vgl. Ruschkowski, Elektronische Klänge, S. 171.
318
Vgl. Eimert/Humpert, Lexikon, S. 290.

- 45 -
Musikalische und kompositorische Vorteile beim Einsatz der Ringmodulation sind z.
B. die Addition und Subtraktion beider Eingangsfrequenzen, die eine genaue Planung der
klanglichen Resultate der Modulation gestatten.319
Als Eingangsmaterial sind außer den einzelnen Tönen auch alle externen Signale wie
Tongemische, Rauschen, Sprache oder verschiedene instrumentale Klänge möglich.320
Das bedeutet spezifisch, dass die multiplikative Mischung zwischen Ton mit Ton, Ton
mit Klang, Ton mit Tongemisch, Ton mit farbigem Rauschen, Ton mit Instrumentalmusik,
Ton mit Sprache, Klang mit Tongemisch, Klang mit farbigem Rauschen, Klang mit
Instrumentalmusik, Klang mit Sprache, Tongemisch mit farbigem Rauschen usw. bis hin
Sprache mit Sprache erfolgen kann.321
Die erwähnte mathematische Verknüpfung betrifft nicht nur die Grundtöne, sondern
auch die Obertöne. Alle Oberschwingungen werden mit allen gemischt,322 d. h. sämtliche
Teiltöne, Geräuschbeimischungen und was sonst zu einem Klangspektrum gehören kann,
werden miteinander moduliert.323
„Dabei können leicht nicht mehr definierbare Teilfrequenz-Verhältnisse von sehr
rauhem, geräuschhaftem, häufig auch ‚kratzigem’ Klangcharakter entstehen“324, was
musikalisch zu berücksichtigen ist.
„Daher werden komplexe Klänge und Geräusche meist nur mit einem Sinuston
ringmoduliert.“325
Bei reichem Obertonanteil der Eingangstönen wächst die Komplexität der klanglichen
Resultate, das bedeutet auch, dass „durch Dynamikvariation nur eines Eingangssignals“, z. B.
einer Flöte, sich „das Modulationsergebnis in weiten Grenzen“326 verändern lässt.
Die Ringmodulation war für die Live-Elektronik der 1960er Jahre besonders wichtig.
Damals wurde versucht, „die klanglichen Variationsmöglichkeiten mechanischer
Musikinstrumente“327 zu erweitern. „Vor allem durch die Live Electronic wurde der
Ringmodulator [...] zu einem der bekanntesten Transformationsgeräte.“328

319
Vgl. Ruschkowski, Elektronische Klänge, S. 171.
320
Vgl. ebd.
321
Vgl. Eimert/Humpert, Lexikon, S. 290.
322
Vgl. ebd. Ferner vgl. Ruschkowski, Elektronische Klänge, S. 171.
323
Vgl. Humpert, Elektronische Musik, S. 86.
324
Ebd.
325
Ebd.
326
Ruschkowski, Elektronische Klänge, S. 172.
327
Ebd.
328
Eimert/Humpert, Lexikon, S. 207.

- 46 -
Die Ringmodulation war als Methode der Live-Elektronik sehr gefragt, da sie eine
große „Flexibilität bei der unmittelbaren elektronischen Umformung beliebiger
Schallereignisse“329 besaß.
Obwohl Klangumwandlungen durch den Ringmodulator „zu den umfassendsten und
tiefgreifendsten Transformationsmöglichkeiten der elektronischen Musik“330 zählen, ist das
klangliche Ergebnis stereotypisch in der Wirkung geworden.331 Deshalb wird er heute sehr
viel vorsichtiger und zurückhaltender eingesetzt als in der Vergangenheit332. „Früher waren
viele Komponisten im Bereich der Klangtransformation allein auf Ringmodulator und Filter
angewiesen“333, heute ist das nicht mehr so.

2.1.6 RÄUMLICHKEIT

Ein amerikanischer Projektor der „Allen Organ Company“ wurde 1951 als
gyrophonisch bezeichnet und war mit einem rotierenden Lautsprecher ausgestattet.334
Die Frage nach der Rotation von Klängen im Raum führte P. Schaeffer u. a. schon
1951/52 zum ersten Mal zu der Vorstellung eines gyrophonischen Systems,335 aber er
erreichte „auf technisch anderem Weg die räumliche Verteilung des Klangbildes auf vier
Lautsprecher durch induktive Kopplung“336. Eine Kreisbewegung dreier Kanäle wurde
dadurch möglich. Damit komponierte P. Boulez 1952 die erste Raumklangstudie.337
Für die Elektronische Musik wurde das „erst durch die Einführung der
Vierspurmagnetbandgeräte realisierbar“338.
Es ist zu erwähnen, dass mit der Entwicklung des binauralen Multi-Spur-Systems
(engl. binaural multi-track) bei der Darbietung von Tonbandaufnahmen die Lokalisierung
verschiedener Klänge entsprechend der Platzierung von Lautsprechern möglich wurde. Die
Verarbeitung der stereophonischen Aufnahme und Wiedergabe ermöglicht dem Komponisten,
eine Klangquelle auf irgendeinen Punkt innerhalb eines Stereofeldes, das nur durch zwei

329
Ruschkowski, Elektronische Klänge, S. 172.
330
Humpert, Elektronische Musik, S. 86.
331
Vgl. ebd.
332
Vgl. ebd.
333
Ebd.
334
Vgl. Eimert/Humpert, Lexikon, S. 125.
335
Vgl. ebd., S. 290 f.
336
Ebd., S. 126.
337
Vgl. ebd.
338
Ebd., S. 290.

- 47 -
Lautsprecher generiert wurde, zu richten.339 Auf diese Weise können mit den entsprechend
justierten relativen Ausgangssignalen bis zu fünf oder sechs individuelle
Klanglokalisierungen simuliert werden.340
Aufgrund der beobachteten Schwierigkeiten ab bestimmten Rotations-
Geschwindigkeiten und bei der manuellen Gestaltung der Rotationen durch Regler am
Mischpult, baute das Kölner Rundfunkstudio den Rotations-Lautsprecher.341
Er besteht aus einem „drehbaren Tisch, auf dem ein Lautsprecher mit stark
ausgeprägtem Schalltrichter montiert war“342. Vier Mikrophone wurden im Quadrat um den
Tisch aufgestellt, wobei jedes Mikrophon an „einen Kanal einer Vierspurmaschine“343
angeschlossen war. Sie „nahmen den vom Lautsprecher im Augenblick des Vorbeilaufens
gebündelt abgestrahlten Schall auf“344. Auf diese Weise entstanden Aufnahmen von
schnelleren Rotationen, die zur Wiedergabe musikalischer Anwendungen eingesetzt
wurden.345
Ebenfalls im elektronischen Studio der Musikhochschule Köln wurde der „Variable
Vierkanal-Rotationsregler“ praktisch als eine Weiterführung des Rotations-Lautsprechers
entwickelt. Die digitale Steuerung ermöglichte unabhängige Hüllkurvengestaltungen und
Kanalüberlappungen sowie eine freie Wahl der Kanalabfolge.346 Somit ist „das Gerät eine Art
Sequencer für die Verteilung von Klängen im Raum“347.
„Die Möglichkeiten der Verteilung elektronischer Klänge im Raum [...] sind durch die
Anwendung der Spannungssteuerung wesentlich erweitert worden.“348 Für die Realisation
aller denkbaren Raumbewegungen wurde der Quadrophonischer Effekt-Generator gebaut.349
„Jedes eingegebene Signal wird über vier spannungsgesteuerte Verstärker ins
quadrophonische Panorama gesetzt oder bewegt sich in ihm, entweder unmittelbar manuell
geregelt [...] oder automatisch durch Steuerspannungen, die von einem internen VC-Oszillator
abgegeben werden.“350

339
Vgl. Strange, Electronic Music, S. 75.
340
Vgl. ebd.
341
Vgl. Eimert/Humpert, Lexikon, S. 291.
342
Ebd.
343
Ebd.
344
Ebd.
345
Vgl. ebd.
346
Vgl. ebd.
347
Ebd.
348
Humpert, Elektronische Musik, S. 108.
349
Vgl. ebd.
350
Ebd.

- 48 -
Für die Realisation regelmäßiger Bewegungen, wie z. B. für Rotationen oder
Flutklänge, werden gewöhnlich automatische Steuermöglichkeiten eingesetzt.351 Die
manuelle Steuerung erfolgt durch einen sogenannten x-y-Regler, und ist dann vorzuziehen,
„wenn unregelmäßige, gleichsam räumlich improvisierte Bewegungen stattfinden sollen“352.
„In dem 1971 gegründeten Experimentalstudio der Heinrich-Strobel-Stiftung des
Südwestfunks, Freiburg, wurde die Einbeziehung des Raumes in die Live-Elektronik von
Anfang an verfolgt.“353 Dort wurde ein Raumklang-Verteiler namens Halaphon entwickelt.354
Benannt wurde das Halaphon nach den beiden Erfindern Hans Peter Haller, dem Leiter des
Studios, der das Gerät entworfen hatte, und nach Peter Lawo, seinem Assistenten und
Mitarbeiter.355
Es ist ein elektronisches „Raumklang-Steuergerät“, bei der die
Spannungssteuerungstechnik (Voltage Control-Technik) eine wichtige Rolle spielt.356 Sie
bedient sich vor allem der live-elektronischen klanglichen bzw. dynamischen Steuerung
„durch spannungsgesteuerte Filter und entsprechende Verstärker“357. Dadurch können mit
Hilfe von Amplituden-Demodulatoren (engl. envelope follower), z. B. verschiedene
Instrumentalgruppen, untereinander gebracht werden.358 Ebenso ist es möglich, „Richtungen
und Geschwindigkeiten von quadrophonischen Raumklang-Bewegungen vollautomatisch“359
zu steuern.
Zum ersten Mal wurde das Halaphon bei den Donaueschinger Musiktagen 1971
benützt, in der Komposition Planto por las victimas de la violencia von C. Halffter, danach
auch bei der Uraufführung 1973 von explosante/fixe von P. Boulez.360
Als eine Art Dokumentation der Forschungsergebnisse des IRCAM in Paris wird P.
Boulez’ Komposition Répons für sechs Solisten, Kammerensemble, Computerklänge und

351
Vgl. ebd.
352
Ebd.
353
Supper, Elektroakustische Musik, S. 126.
354
Vgl. ebd.
355
Vgl. ebd.
356
Vgl. Eimert/Humpert, Lexikon, S. 127.
357
Ebd.
358
Vgl. ebd.
359
Ebd. Ferner vgl. F. Richard Moore, Spatialization of Sounds over Loudspeakers, in: Max
V. Mathews/John R. Pierce [Hrsg.]: Current directions in computer music Research, (=
System Development Foundation Benchmark Series) Cambridge u. a.: The MIT Press, 1989,
S. 89-103.
360
Vgl. Eimert/Humpert, Lexikon, S. 127.

- 49 -
Live-Elektronik (1981/1988) betrachtet.361 Sie verwendet die Einbeziehung des Raumes
sowie fast „alle technischen Möglichkeiten der Elektroakustischen Musik und der
Computermusik“362. „In Répons gibt es Dialoge zwischen den Solisten und dem Ensemble,
zwischen den Solisten sowie zwischen transformierten und nichttransformierten Abschnitten.
Jedes Soloinstrument ist mit einem Mikrophon versehen, damit sein Klang in Echtzeit
transformiert und über die Lautsprecher wiedergegeben werden kann.“363

2.1.7 INTERAKTIVE SYSTEME

„Eine Sonderform des algorithmischen Komponierens ist das Komponieren während


eines Konzertes. Voraussetzung dafür ist ein Computermusiksystem, das in Echtzeit arbeitet,
d. h. ein System, bei dem scheinbar keine Zeitverzögerung durch die aktuellen Berechnungen
entsteht.“364 Dadurch erhält der Begriff „interaktiv“ eine neue Dimension.365 So weist er
„beim interaktiven Komponieren auf die Beziehung Mensch-Maschine. Wesentlich dabei ist
die Schnittstelle zwischen beiden. Schnittstellen sind die Werkzeuge zur Interaktion und
Kommunikation zwischen Maschinen, zwischen Menschen und zwischen Menschen und
Maschinen.“366 Der amerikanische Komponist Joel Chadabe führte den Begriff ‚Interaktives
Komponieren’ (Interactive Composing) 1967 ein. Er verstand darunter das Komponieren mit
einem Echtzeit-System während eines Konzertes. Andere Termini für interaktives
Komponieren in Echtzeit bzw. für das dazugehörige Instrumentarium sind „composed
improvisation“, „extended instrument“, „Hyperinstruments“ und „intelligent instruments“.367
Komponisten, wie z. B. Robert Rowe, haben verschiedene Motive, um interaktive
Musiksysteme (engl. interactive music systems) und Computer in der Musik einzusetzen.
Einerseits eröffnen sie neue kompositorische Domänen, andererseits benötigen interaktive

361
Vgl. Supper, Elektroakustische Musik, S. 126.
362
Ebd. Ferner vgl. F. Richard Moore, Elements of Computer Music, Englewood Cliffs:
Prentice Hall, 1990, S. 350-396.
363
Supper, Elektroakustische Musik, S. 126.
364
Ebd., S. 85.
365
Vgl. Guy E. Garnett, The Aesthetics of Interactive Computer Music, in: Computer Music
Journal. Vol. 25, Issue 1. (2001), Cambridge u. a.: The MIT Press, S. 21-33.
366
Supper, Elektroakustische Musik, S. 85. Ferner vgl. Roger Dannenberg, Real-Time
Scheduling and Computer Accompaniment, in: Max V. Mathews/John R. Pierce [Hrsg.]:
Current directions in computer music Research, (= System Development Foundation
Benchmark Series) Cambridge u. a.: The MIT Press, 1989, S. 225-261.
367
Vgl. ebd.

- 50 -
Musiksysteme die Teilnahme von Menschen, die musizieren.368 Nur auf diese Weise kann das
interaktive System überhaupt funktionieren.369
Die Formalisierung von Prozessen für die Musikgenerierung und Prozesse, die
mehrere hervorstechende Aspekte der Musik beherrschen, haben durch mehrere Jahrhunderte
der Kompositionsgeschichte hindurch eine lange Tradition in der westlichen Musik. Mit der
Benutzung von interaktiven Musiksystemen werden jetzt solche Prozesse so schnell
durchgeführt, dass sie auf der Bühne als Teil einer laufenden Aufführung realisiert werden
können. Außerdem werden interaktive Systeme beeinflusst, die an ihrem Eingang (engl.
input) von Geräten (engl. devices) gespeist werden, die das Spiel von Teilnehmern eines
Ensembles abtasten, so dass der Computer-Interpret imstande ist, auf Spieler (oder andere
Computer-Interpreten) entsprechend der gerade aufgeführten Musik zu reagieren. Wenn
Prozesse für die Generierung von Musik benutzt werden, so wird der Charakter der Musik
durch die Manipulation einer beschränkten Zahl von Parametern gesteuert.370 Interaktive
Systeme wechseln die Werte dieser Parameter durch Algorithmen, die mehrere
unterschiedliche Arten der Eingangsinformationen übernehmen, einschließlich der Daten
einer Live-Aufführung (engl. live performance data) von anderen Ensembleteilnehmern.371
Bei einem interaktiven Computermusik-System wird „nicht ein lebender Spieler
formalisiert, sondern lediglich ein komplexes Regelsystem, mit dem der Musiker innerhalb
der Konzertsituation in Interaktion tritt“372.
„Ein Algorithmus kann sinngemäß als Handlungsanweisung oder auch als
Verhaltensmuster betrachtet werden. Algorithmen, die auf einen Computer übertragen
werden, d. h. entsprechend codiert werden, nennt man auch Programme. Die Codierung eines
Algorithmus’ geschieht mit Hilfe von Programmiersprachen, beispielsweise Lisp, Smalltalk
oder Forth.“373

368
Vgl. Max V. Mathews, The Conductor Program and Mechanical Baton, in: Max V.
Mathews/John R. Pierce [Hrsg.]: Current directions in computer music Research, (= System
Development Foundation Benchmark Series) Cambridge u. a.: The MIT Press, 1989, S. 263-
281.
369
Vgl. Robert Rowe, The Aesthetics of Interactive Music Systems, in: Marc Battier [Ed.]:
Aesthetics of Live Electronic Music, Vol. 18, Part 3. (= Contemporary Music Review) O. O.:
Harwood Academic Publishers, 2000, S. 84.
370
Vgl. ebd.
371
Vgl. ebd. Ferner vgl. Jerry Hunt, Interactive performance systems, in: Montague,
Stephen/Nelson, Peter [Ed.]: Live Electronics. Vol. 6, Part 1. (= Contemporary Music Review)
O. O.: Harwood Academic Publishers, 1991, S. 131-138.
372
Supper, Elektroakustische Musik, S. 89.
373
Ebd., S. 63.

- 51 -
„Mit dem Begriff ‚Algorithmus’ bzw. ‚Algorithmisches Komponieren’ verbindet man
heute die Anwendung eines Computers. Ein Algorithmus ist jedoch auch eine bestimmte
Verdrahtung einzelner Module eines spannungskontrollierten Studios ohne Computer.“374 Das
CEMS (Coordinated Electronic Music Studio) an der State University of New York in Albany
(1969) ist ein solches spannungsgesteuertes System und imstande, eine ganze Komposition
und damit auch ihre Aufführung zu automatisieren.375
Zum Beispiel analysiert das Programm Cypher von R. Rowe MIDI-Daten (engl.
musical instrument digital interface data) auf zwei Ebenen: erstens klassifiziert es eingehende
musikalische Ereignisse anhand einer Anzahl an Charakteristika wie Lautstärke,
Geschwindigkeit und Register; zweitens wird das Verhalten dieser Charakteristika innerhalb
einer bestimmten Phrase unterschieden, ob sie regelmäßig oder unregelmäßig sind.376
Der Komponist bildet Regeln, indem er die Ausgabe dieser Analyse benutzt. Diese
Regeln bestimmen dann, welche kompositorischen Algorithmen in Frage kommen werden,
als Antwort auf die entsprechenden Analysen, und wie das Verhalten der Algorithmen mit der
Zeit wechseln wird.377
Als Resultat dieses Prozesses werden neue MIDI-Ausgangsdaten (engl. Midi output)
durch das Programm generiert, die zu den Synthesizern gesendet werden, um eine zusätzliche
Stimme zu der laufenden musikalischen Textur hinzuzufügen.378
Interaktive Musiksysteme gewinnen ihre Steuerungsparameter aus der Analyse einer
Live-Aufführung. Sie können Material, das auf Improvisationsanalysen basiert, so einfach
generieren wie das bei der Analyse von notierter Musik.379
Die musikalische Aufgabenstellung bei einem interaktiven Echtzeitsystem lässt sich
als Folge von drei Einheiten darstellen:
- Eingabe: über Tastatur, Klaviatur, Datenhandschuh, Bewegungsmelder, Mikrophon.
- Berechnung: von Transposition, Zeitverzögerung, Bewegung des Klanges im Raum,
Klangumformung eines akustischen Instrumentes. Improvisation und Komposition finden
in Echtzeit nach programmierten kompositorischen Regeln statt.

374
Ebd., S. 73.
375
Vgl. ebd.
376
Vgl. Rowe, Aesthetics of Interactive Music, S. 84.
377
Vgl. ebd., S. 84 f.
378
Vgl. ebd., S. 85. Ferner vgl. David Behrman, Designing interactive computer-based music
installations, in: Montague, Stephen/Nelson, Peter [Ed.]: Live Electronics. Vol. 6, Part 1. (=
Contemporary Music Review) O. O.: Harwood Academic Publishers, 1991, S. 139-142.
379
Vgl. ebd.

- 52 -
- Ausgabe: über Lautsprecher, selbstspielendes Klavier, Lichtorgel, Synthesizer,
Sampler.380
Wenn der Komponist etwas von der kreativen Verantwortung dem Interpreten und
einem Computerprogramm übergibt, hebt er die Komposition auf ein anderes Niveau (engl.
meta-level), das vom Computer während der durchgeführten Prozesse gewonnen wurde. Eine
interaktive Komposition wechselt und reift auf die Weise, wie Menschen und Computer-
Aufführungen sich miteinander immer mehr verflechten.381
Vor dem Aufkommen von Computern und interaktiven Musiksystemen war die
Benutzung von Prozessen, die ihr Verhalten entsprechend der Analyse von anderen
Musikspielern wechselte, in Aufführungen nicht möglich.382 Werden die musikalische
Kenntnis zu einem Computerprogramm und die kompositorische Verantwortung zu
Interpreten auf der Bühne übertragen, entdeckt der Komponist interaktiver Werke die
kreativen Potentiale dieser neuen Technologie. Gleichzeitig schafft er damit eine fruchtbare
und gewinnbringende Umgebung für die Zusammenarbeit zwischen Menschen und
Computern.383
„Mit Echtzeitsystemen läßt sich auch das tun, was bisher in den Bereich der Live-
Elektronik gehörte, wobei dann auch von computergestützter Live-Elektronik gesprochen
werden kann.“384

380
Supper, Elektroakustische Musik, S. 87.
381
Vgl. Rowe, Aesthetics of Interactive Music, S. 85.
382
Vgl. ebd., S. 87.
383
Vgl. ebd.
384
Supper, Elektroakustische Musik, S. 87.

- 53 -
3 ANALYSE VON OMAGGIO A GYÖRGY KURTÁG, für Alt, Flöte, Klarinette in B,
Tuba und live-electronics (1983-86), von Luigi Nono

Improvisationen mit dem Flötisten Roberto Fabbriciani, dem Klarinettisten Ciro


Scarponi und dem Tubisten Giancarlo Schiaffini, neben den im Freiburger
Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestfunks (heute SWR)
durchgeführten Klanganalysen, führten zur Entstehung dieses Omaggios.385 Das Werk zählt
zu den Vorarbeiten für die umfangsreiche Komposition Prometeo und zu den
Klanggeschenken, Huldigungen und Grüßen an Freunde und Kollegen, wie z. B. an den
Maler Emilio Vedova, den Komponisten Paul Dessau, auch den schon verstorbenen L.
Dallapiccola in Con Luigi Dallapiccola oder den Architekten Carlo Scarpa.386 „Der Omaggio
a György Kurtág von 1983/86 ist eine Gegengabe, die Antwort auf einen Omaggio a Luigi
Nono für Chor a cappella, den Kurtág bereits 1979 geschrieben hatte.“387
Nono hatte die Erfahrung gemacht, „daß sehr leise gespielte Töne, und zwar in für das
jeweilige Instrument extremen Lagen, keine Obertöne mehr aufweisen, daß also die
Individualität der Instrumente, die unterschiedlichen Ansätze, die Position der Klangquelle
nicht mehr zu bestimmen war (Nono sprach diesbezüglich vom ‚Nicht-Ursprung’ des
Klangs)“388. Nono ging von diesen Erfahrungen aus und erprobte auf vielfältige Weise das
Improvisieren mit leisen, langgehaltenen Tönen. Dabei bediente er sich einer Altstimme, die
über das ganze Klangspektrum verfügen konnte.389

Die Altistin artikuliert ausschließlich Phoneme aus dem Namen György Kurtág. Ihre
singenden Partien bestehen vielmehr „in dem graduellen Übergehen vom Hauch zum Ton,
vom sauberen Ton zu intonierter Luft sowie in der Gestaltung von minimalen Crescendi und
Decrescendi im Piano-Bereich. [...] Es ist eine Stimme, die aus weiter Ferne erklingt und oft
von den Instrumenten - selbst Träger zurückgehaltener, inwendiger Expressivität - nicht

385
Vgl. Gianmario Borio, Omaggio a György Kurtág. Konzert am 15. August,
Kollegienkirche, in: Josef Häusler [Hrsg.]: Brennpunkt Nono. Programmbuch Zeitfluß 93 in
Zusammenarbeit mit den Salzburger Festspielen, Salzburg: Rezidenz Verlag, 1993, S. 63.
386
Vgl. Josef Häusler, Versuch über Nono, in: Josef Häusler [Hrsg.]: Brennpunkt Nono.
Programmbuch Zeitfluß 93 in Zusammenarbeit mit den Salzburger Festspielen, Salzburg:
Rezidenz Verlag, 1993, S. 134.
387
Ebd.
388
Borio, Omaggio a György Kurtág, S. 63.
389
Vgl. ebd.

- 54 -
unterscheidbar ist“390. „Nachzutragen wäre allenfalls als sehr bezeichnendes Detail, daß Nono
in der Kurtág-Huldigung die Möglichkeiten der Altstimme ganz gegen seine frühere
Verfahrensweise vorwiegend in tiefen und tiefsten Registern erkundet.“391
In Io, Frammento dal Prometeo und auch in Omaggio a György Kurtág werden
einfachere Intervalle verwendet. Zudem spielt in beiden Werken die Elektronik eine
ausgeprägtere, doch immer funktionale, nie eigenwertige Rolle. Sie wirkt nicht nur als
Moment der Verstärkung und der augenblicklichen Transformation, sondern vielfach auch in
Verlängerung und Echo als Belebungselement der Stille.392
In diesem Zusammenhang spricht Luigi Nono von „Verschiedenheit in der Erzeugung
des Klangs [...] der [...] aus anderen Vielfältigkeiten entsteht: aus den verschiedenen
Eigenschaften der Artikulationsorgane oder der Instrumente, die von der in Realzeit
wirkenden Live-Elektronik hervorgehoben werden“393.

3.1 BESETZUNG

Die vollständige Besetzung lautet:


- Alt
- Flöte
- Klarinette in B
- Baßtuba
- Live-Elektronik:
Halaphon
2 Harmonizer
4 Delay
1 Filterbank mit 5 Bandpassfiltern
4 Hallgeräte (4 Kanäle)
6 Lautsprecher
5 Dynamische Mikrophone394

390
Ebd.
391
Häusler, Versuch über Nono, S. 135.
392
Vgl. ebd., S. 134.
393
Ebd., S. 135.
394
Nono, Omaggio a György Kurtág, S. IV.

- 55 -
Es handelt sich hier um ein vokales Kammermusikwerk mit einer Alt-Stimme, drei
Bläsern und Live-Elektronik bzw. einer tiefen Frauenstimme, zwei Holzbläsern und ein tiefes
Blechblasinstrument. Es ist ein Quartett mit Live-Elektronik, das durch sechs im Raum
verteilte Lautsprecher projiziert wird. Es ist bemerkenswert, dass bei der vorgeschriebenen
Aufstellung395 eine deutliche Teilung der Stimme und Instrumente in zwei Gruppen von zwei
Duetten, Flöte-Klarinette und Alt-Tuba, gebildet wird.

3.2 AUFSTELLUNG

Die Lautsprecher Anordnung beginnt hinter dem Dirigenten und ist wie ein virtueller
Kreis um das Publikum herum aufgebaut (Abbildung 6). Links stehen die Lautsprecher L1,
L6, L5, die voneinander getrennt auf das Zentrum gerichtet sind und diese Seite des Raumes
akustisch füllen. Die Lautsprecher L2, L3, L4 stehen analog rechts dazu. Der Grund dafür
liegt an der Position der Klangregieperspektive, die die elektroakustische Projektion der
Klangsignale aus der Mitte des Saales kontrolliert und deswegen die Klangwanderung im
Uhrzeigersinn erfolgen kann: beginnend von L1 nach L2 über L3 bis zu L6. Zu beachten ist,
dass das Publikum von den Lautsprechern umkreist bleibt und gleichzeitig um die Klangregie
herum sitzt.

Abbildung 6: Graphische Darstellung der Aufstellung bei L. Nono, Omaggio a György


Kurtág.396

395
Ebd.
396
Ebd., S. IV.

- 56 -
3.3 GROSSFORM

Eine äußere Gliederung der Form wird in der Partitur durch Doppelstriche am Ende
eines jeden Teiles bestimmt, die L. Nono deutlich und sichtbar machte.
Es entstehen auf den ersten Blick 14 Hauptteile mit unterschiedlicher Dauer und
Disposition, die es zu berücksichtigen gilt. Sie sind durch eine Fermate oder eine
Generalpause (die längste beträgt zehn leere Takte und dauert länger als eine Minute)
voneinander abgehoben.

Die verschiedenen Prinzipien charakterisieren die einzelnen Episoden: Das geschieht


durch Kreisen um einen Einzelton mit Hervorbringung mehrerer Vierteltöne und
gelegentlicher Entgrenzung in manche Teiltöne des Spektrums, durch chromatische
Erweiterung eines Ausgangsintervalls (oft einer reinen Quinte) oder auch durch Phänomene
der Klangfarbe (Überlagerung von Trillern).397

3.3.1 FUNKTIONEN, MUSIKALISCHE CHARAKTERISTIKA und AKTIVE


ELEMENTE bei der L.-E.

Diese werden in Beziehung auf die Großform, die Dauer der Teile, das Tempo, den
Einsatz und auf die Dauer der L.-E. in der folgenden Tabelle 1 gezeigt:398

Tabelle 1: Funktionen, musikalische Charakteristika und aktive Elemente bei der L.-E.

397
Vgl. Borio, Omaggio a György Kurtág, S. 63.
398
Vgl. Nono, Omaggio a György Kurtág, S. 2-15.

- 57 -

Você também pode gostar