OD REDAKCJI: Zachęcamy również do lektury II części artykułu. Polecamy także uwadze rozmowę Aleksandry Kozickiej z Wojciechem Błażejczykiem dostępną TUTAJ.
_____
Instrumenty muzyczne rozwijają się od czasów najdawniejszych. Jedne z nich ewoluują, inne powstają wraz z rozwojem techniki i muzyki. Szczególnie wiele nowych instrumentów muzycznych powstało od początku XX wieku. Było to związane z dwoma czynnikami: rewolucyjnymi zmianami w podejściu do samej istoty muzyki i dźwięku, jakie zaszły w zeszłym stuleciu, oraz powstaniem elektrofonów, co otworzyło przed twórcami instrumentów i kompozytorami całkowicie nowe perspektywy.
W pierwszej połowie XX wieku dokonała się w muzyce europejskiej rewolucja polegająca na odejściu od systemu dur-moll, zanegowaniu jego podstawowych elementów – melodyki, harmonii, a także rytmiki i myślenia o formie. Nastąpiła zmiana postrzegania zależności między muzyką a dźwiękiem, w efekcie której doszło do emancypacji barwy i faktury. „Do tej pory muzyka zachodnia była na ogół «muzyką wysokości dźwięku». (…) Powstała zatem myśl, by porzucić gotowe dźwięki instrumentalne i komponować same dźwięki do danej kompozycji” – mówił w 1958 roku Karlheinz Stockhausen[1]. Edgar Varèse muzykę nazywał „zorganizowanym dźwiękiem”, „ruchem mas dźwiękowych i zmieniających się płaszczyzn” i „uporządkowanym hałasem”[2]. Zdaniem Johna Cage’a „muzyka to dźwięki, dźwięki dające się słyszeć wokół nas bez względu na to, czy jesteśmy w sali koncertowej, czy też poza nią[3]”.
Ta rewolucyjna zmiana w myśleniu o dźwięku miała znamienne skutki. Po pierwsze, barwa i faktura dźwięku uznane zostały za równorzędny ze strukturą wysokościową czy rytmiką element utworu. W wielu utworach – zarówno elektroakustycznych, jak i akustycznych – wartości czysto brzmieniowe są wysunięte na pierwszy plan jako „główny środek ekspresji i tym samym jako czynnik konstrukcyjny”[4]. Niektórzy kompozytorzy używają nawet pojęcia „komponowanie barwy”[5]. Po drugie, muzyka otworzyła się na dźwięki otaczającego świata – zarówno wytwarzane przez człowieka, maszyny, przedmioty codziennego użytku, jak i odgłosy natury (pejzaże dźwiękowe). Dźwięki te – można je określić jako nieinstrumentalne – uznane zostały za pełnoprawny materiał muzyczny. Duża w tym zasługa Pierre’a Schaeffera i jego koncepcji zredukowanego słuchania akuzmatycznego, polegającego na uwolnieniu dźwięków od ich oryginalnych znaczeń. W muzyce konkretnej, której był twórcą, kompozycja budowana jest ze specyficznego materiału dźwiękowego – nagrań konkretnych dźwięków. Powoduje to odwrócenie procesu komponowania – zamiast konkretyzacji abstrakcji, jaką jest tworzenie partytury na podstawie idei kompozytorskiej, kompozytor wydobywa abstrakcyjne cechy muzyczne z konkretnego materiału dźwiękowego poprzez jego przeorganizowanie, transformacje i przeorganizowanie formalne[6].
Nieco wcześniej, przed wprowadzeniem do warsztatu kompozytora techniki nagraniowej, dźwięki nieinstrumentalne eksploatowali bruityści, tworząc urządzenia generujące różnego rodzaju hałasy, szumy, ryki, grzmoty. Intona rumori tworzone przez Luigi Russolo to instrumenty, które miały produkować dźwięki nieinstrumentalne. To tylko pozorna sprzeczność. W istocie od prawie stu lat kompozytorzy i wykonawcy muzyki współczesnej nie ustają w poszukiwaniach nowych technik wykonawczych i sposobów preparacji, pozwalających uzyskać na tradycyjnych instrumentach dźwięki szumowe, różnego rodzaju hałasy, szurania, skrzypienia, trzaski, dźwięki nieharmoniczne – czyli tzw. dźwięki niemuzyczne. Dzisiejsze partytury, zarówno kameralne, jak i orkiestrowe, zawierają często niewiele (bądź w ogóle nie zawierają) dźwięków wydobywanych tradycyjnymi technikami[7]. Użycie dźwięków instrumentalnych (czyli wydobywanych za pomocą tradycyjnych technik wykonawczych) jest dziś w wielu kręgach uznawane za wstecznictwo i konserwatyzm.
Według Tomasza Misiaka „budulcem kompozycji muzycznej może (…) stać się wszystko, co brzmi, co wydaje dźwięk, wyostrzając naszą uwagę na różnorodność zjawisk akustycznych, których wcześniej nie dostrzegaliśmy”[8]. Sztywna wcześniej granica między dźwiękami określanymi jako „niemuzyczne” czy „pozamuzyczne” a dźwiękami „muzycznymi” została zniesiona; „muzyka wchłonęła dźwięk w jego różnorodności”[9]. Wezwanie Russolo „musimy wyrwać się z tego ograniczonego kręgu czystych dźwięków i podbić nieskończenie różnorodny świat dźwięków-hałasów”[10] zostało wprowadzone w życie.
Jednym z przejawów emancypacji barwy i faktury w muzyce XX wieku było nowe spojrzenie na stosowane do tej pory instrumenty oraz powstanie nowych, dających nowe możliwości dźwiękowe. Wprowadzane były (i są nadal) nowe techniki wydobycia dźwięku z tradycyjnych instrumentów[11]. Stosuje się preparację różnych instrumentów, np. fortepianu – poprzez umieszczanie na strunach różnych obiektów (śrub, gumek, kamieni), a także instrumentów smyczkowych czy dętych (np. poprzez umieszczenie pręcika między strunami wiolonczeli czy użycie ustnika fagotu w puzonie)[12].
Spośród nowych instrumentów muzycznych, nie licząc elektrofonów, które szerzej omówione są w dalszym przebiegu artykułu, większość zaliczyć można do grupy instrumentów perkusyjnych (idiofonów i membranofonów). Krotale, waterphone czy flexaton to instrumenty nowe, powszechnie dziś używane. Pionierem i orędownikiem poszerzania instrumentarium był Edgar Varèse, autor pierwszego utworu na zespół instrumentów perkusyjnych Jonizacje (1931), w którym wykorzystał m.in. syreny strażackie. Niektórzy kompozytorzy konstruowali instrumenty na potrzeby konkretnego utworu – np. Krzysztof Penderecki w Siedmiu bramach Jerozolimy (1997) używa kilkumetrowej długości rur z PCV, w które uderza się specjalnymi paletkami. Powstają też specjalne odmiany tradycyjnych instrumentów – akordeon ćwierćtonowy, trąbka podwójna, klarnet kontrabasowy czy kontrabasowy flet Paetzolda – instrumenty bardzo rzadkie, ale wystandaryzowane, posiadające aplikaturę analogiczną do swoich tradycyjnych odpowiedników. Takie zabiegi mają na celu poszerzenie możliwości brzmieniowych muzyki współczesnej, przy jednoczesnym zachowaniu pewnej standaryzacji zapewniającej zrozumiałą notację i powtarzalność wykonań.
Nieco na uboczu opisanego nurtu poszerzania instrumentarium funkcjonuje spora grupa konstruktorów-pasjonatów, tworzących (najczęściej na własny użytek) nowe, nietypowe instrumenty. Powstają one zwykle w jednym egzemplarzu, a grać na nich potrafią jedynie ich twórcy. Co skłania ich do poświęcania wielu godzin mozolnej pracy na budowę instrumentu pozbawionego tradycji wykonawczej i istniejącego repertuaru, a więc skazanego na funkcjonowanie poza głównym nurtem muzycznym? Bart Hopkin, twórca instrumentów i redaktor wydawanego w latach 1985–1999 pisma „Experimental Musical Instruments”, oprócz powodów oczywistych, jak ciekawość i radość majsterkowania, wymienia kilka innych istotnych czynników. Jest to, po pierwsze, inspiracja instrumentami etnicznymi z różnych, odległych kultur, po drugie, chęć wykorzystania alternatywnych systemów strojenia (np. strojów mikrotonowych[13]) lub po trzecie – tworów natury, takich jak tykwa, rogi czy bambus, o naturalnych muzycznych właściwościach. Czwartym czynnikiem jest dążenie do tworzenia instrumentów, na których można się łatwo i szybko nauczyć grać, niewymagających wirtuozerii, przeznaczonych dla muzyków amatorów i dzieci, ale także takich, które są trudne do kontrolowania, przez co gra na nich sprowadza się do nieustannego eksperymentowania i nieco wymykającej się spod kontroli improwizacji[14]. Piątym czynnikiem rozwoju nietypowego instrumentarium jest chęć budowania instrumentów dających zupełnie inne możliwości muzyczne niż instrumenty klasyczne, stworzone w przeważającej większości do grania melodycznego lub harmonicznego (a więc wytwarzające drgania harmoniczne) oraz perkusyjnego (generujące dźwięki nieharmoniczne). Instrumenty takie wytwarzają interesujące i niewątpliwie muzyczne dźwięki, które jednak nie dają się kontrolować w tradycyjny – zakładający precyzyjną regulację wysokości dźwięku i rytmiki – sposób, umożliwiają za to szeroki zakres zmian barwy i faktury[15]. Nowo konstruowane instrumenty, niezależnie od swej innowacyjności, można zaliczyć do jednej z kategorii instrumentów Hornbostela i Sachsa, jednak niektóre z nich wykorzystują znane sposoby wytwarzania dźwięku w sposób nietypowy, generując nowe jakości dźwiękowe[16]. Niektóre instrumenty przyjmują formę rzeźb dźwiękowych, łącząc funkcję wytwarzania dźwięku i funkcje wizualne.
Live electronics – komponowanie instrumentu
W wywiadzie z 2009 roku Max Mathews, nazywany „ojcem muzyki elektronicznej”, stwierdza: „Jeśli miałbym być za coś zapamiętany, chciałbym być zapamiętany jako jeden z twórców nowych instrumentów” i dalej: „niemal wszystkie instrumenty, które stworzyłem, to programy komputerowe”[17]. To zdanie oddaje istotę zmiany, jaką muzyka elektroakustyczna wniosła do pojmowania instrumentu muzycznego. Polega ona na porzuceniu idei instrumentu muzycznego jako narzędzia służącego do wykonywania wielu zróżnicowanych utworów na rzecz tworzenia przez muzyków swoich własnych instrumentów, dostosowanych do ich potrzeb wykonawczych, a nawet do potrzeb jednego konkretnego utworu[18]. Na obecnym etapie rozwoju muzyki elektroakustycznej kompozytorzy w trakcie pracy nad utworem tworzą często nowy instrument, stanowiący określoną konfigurację interfejsu zamieniającego akcje wykonawcy na strumień danych zrozumiały przez komputer (np. kontroler lub zestaw czujników zamieniających ruch na komunikaty MIDI), programu komputerowego (np. patch w programie MAX/MSP czy Pure Data) i systemu projekcji dźwięku. Takie działanie określa się mianem „komponowania instrumentu”[19]. Sergi Jordà jeden ze swych artykułów zatytułował znamiennie Lutnictwo cyfrowe: konstruowanie [crafting] komputerów muzycznych do wykonań muzyki nowej i improwizowanej[20]. Ten sam autor stwierdza, że „większość wykonawców muzyki komputerowej wciąż obawia się jednoznacznie uznać komputer za pełnoprawny instrument muzyczny, tymczasem jego stopień zadomowienia na scenie osiągnął obecnie poziom analogiczny do saksofonu czy gitary elektrycznej”[21].
Opublikowana przez CIMCIM (Międzynarodowy Komitet do spraw Muzeów i Kolekcji Instrumentów Muzycznych) klasyfikacja instrumentów muzycznych, bazująca na zrewidowanej klasyfikacji Hornbostela-Sachsa, zawiera kategorię elektrofonów[22], obejmującą opisane trendy, jest jednak mocno niedoskonała. Zgodnie z CIMCIM elektrofony to „instrumenty wykorzystujące materiały generujące dźwięki akustyczne, mechanicznie napędzane źródła sygnałów, elektronicznie gromadzone dane lub elektroniczne obwody do wytwarzania sygnałów elektrycznych, które są przekazywane do głośników celem emitowania dźwięków”[23]. Elektrofony dzielą się na instrumenty elektroakustyczne (np. gitara elektryczna, Fender Rhodes), elektromechaniczne (np. organy Hammonda), elektroniczne (np. theremin, syntezator analogowy), cyfrowe (np. cyfrowy sampler) oraz oprogramowanie (np. patch w programie MAX/MSP)[24]. Klasyfikacja CIMCIM kładzie nacisk na sposób generowania i przetwarzania dźwięku, niemal całkowicie pomijając kwestię sterowania generatorami i urządzeniami transformującymi dźwięk, która obecnie jest kluczowym zagadnieniem w muzyce elektroakustycznej. W przypadku utworu, w którym wykonawca live electronics za pomocą rękawic z czujnikami ruchu steruje komputerową transformacją dźwięku wiolonczelisty grającego na żywo, czy instrumentem jest wiolonczela, komputer czy rękawice?
Bardziej odpowiedni wydaje się podział elektrofonów na „zamknięte” i „otwarte”. Elektrofony „zamknięte” mają charakter analogiczny do instrumentów akustycznych, a więc posiadają zdefiniowane – akustyczne, mechaniczne lub elektroniczne – źródło dźwięku i techniki gry zbliżone do gry na instrumentach akustycznych, gdzie ruch wykonawcy przekłada się bezpośrednio na dźwięk (np. theremin, gitara elektryczna, organy Hammonda czy proste syntezatory analogowe)[25]. Kształtowały się w początkach muzyki elektroakustycznej. Ich rolą było najczęściej kopiowanie instrumentów tradycyjnych. „Większość wynalazców instrumentów elektrycznych stara się imitować XVIII- i XIX-wieczne instrumenty, podobnie jak konstruktorzy pierwszych automobili kopiowali karety” – pisał w 1937 roku John Cage[26]. „Wykonawcy grający na thereminach za wszelką cenę próbują nadać im charakter starych instrumentów, używając chorobliwie słodkiego wibrato i wykonując na nich (…) arcydzieła z przeszłości”, stając się „cenzorami” nowych możliwości dźwiękowych[27].
W przypadku elektrofonów „otwartych” kompozytor (często we współpracy z informatykiem lub inżynierem) buduje nowe urządzenie lub nową konfigurację istniejących urządzeń o indywidualnych możliwościach dźwiękowych oraz dostosowanych technikach kontroli dźwięku, używając częściowo wystandaryzowanych elementów, takich jak: komputer z odpowiednim oprogramowaniem, kontroler MIDI, zestaw czujników, fizyczne źródło dźwięku. Do tej grupy można zaliczyć analogowe syntezatory modularne oraz komputer wraz z dodatkowymi urządzeniami, ale także gramofon czy urządzenia powstające na drodze działań określanych jako circuit bending[28].
Istotą podziału na elektrofony „zamknięte” i „otwarte” jest wielofunkcyjność i nieograniczona różnorodność elektrofonów otwartych, zarówno w kwestii metod przetwarzania i generowania dźwięku, jak i elementów wykorzystywanych w charakterze interfejsu między wykonawcą i komputerem oraz źródeł dźwięku. Instrumenty te składają się najczęściej z wielu komponentów. Te same komponenty mogą zostać użyte w innej konfiguracji jako inny instrument (a także służyć do celów niemuzycznych, np. wysyłania e-maila lub prowadzenia badań medycznych). Elektrofony „zamknięte” mają postać skończonego, fizycznego urządzenia, wytwarzającego dźwięki zdefiniowane i ograniczone do określonej metody syntezy, podlegającego standaryzacji w większym lub mniejszym zakresie. Kompozycje z użyciem takich instrumentów często nie są w ogóle uznawane za utwory elektroakustyczne.
W okresie powstawania studiów muzyki elektronicznej w Paryżu, Kolonii, Nowym Jorku, Warszawie[29] i innych ośrodkach, ze względu na rozmiary ówczesnego sprzętu dźwiękowego i skomplikowanie procesu tworzenia nowych dźwięków, w muzyce elektroakustycznej dominować zaczęły utwory na taśmę w całości nagrane i zmiksowane w studio i jedynie odtwarzane w czasie koncertu. Pomimo powstawania niezwykle interesujących utworów z udziałem wykonawców live electronics, jak np. Imaginary Landscape I Cage’a na fortepian, talerz i 2 gramofony (1939) czy Musica su due diminsioni Bruno Maderny na flet i elektronikę (1952), kompozytorzy wrócili do wykonywania muzyki elektroakustycznej na żywo dopiero w latach 60. XX wieku. Miniaturyzacja urządzeń i rozwój komputerów pod koniec ubiegłego stulecia umożliwił dojście do etapu, w którym za pomocą laptopa i kontrolera MIDI na żywo w trakcie koncertu osiągnąć można rezultaty dźwiękowe dorównujące pracy w studio[30]. Możliwe stało się wykonywanie muzyki elektroakustycznej na żywo w niemal nieograniczonym zakresie za pomocą wciąż powstających, nowych „otwartych” instrumentów elektrycznych.
Nie każdy utwór elektroakustyczny, nawet zakładający udział wykonawcy live electronics, wykorzystuje „otwarte” instrumenty elektryczne. Stopień interakcji między wykonawcą a komputerem jest zróżnicowany i nie zawsze odpowiada relacji wykonawca–instrument. Nawiązując do obszarów wykonawstwa muzyki elektroakustycznej na żywo, nakreślonych przez Karlheinza Stockhausena w 1961 roku[31], można stworzyć następującą klasyfikację muzyki elektroakustycznej ze względu na stopień interakcji między wykonawcą a aparaturą elektroakustyczną:
- utwory na taśmę[32], bez udziału jakiegokolwiek wykonawcy z wyjątkiem reżysera dźwięku dokonującego projekcji, którego rola nie jest jednak porównywalna z rolą instrumentalisty;
- utwory z wykorzystaniem elektrofonów „zamkniętych”, pełniących rolę analogiczną do instrumentów tradycyjnych;
- utwory z udziałem instrumentów akustycznych, których dźwięk jest przetwarzany na żywo;
- utwory z udziałem elektrofonów „otwartych”, z udziałem wykonawcy live electronics, którego stopień interakcji z komputerem lub innymi urządzeniami za pośrednictwem specjalnie zaprojektowanego interfejsu ma charakter mniej lub bardziej zbliżony do gry na instrumencie; źródłem dźwięku jest najczęściej komputer;
- utwory, w których komputer, na skutek zamierzonego działania kompozytora, w dużym stopniu przejmuje rolę wykonawcy, pozostawiając człowiekowi zadania sprowadzające się do wyzwalania określonych sekwencji zdarzeń lub inicjowania kolejnych segmentów utworu (muzyka algorytmiczna, generatywna).
Powyższe kategorie nie są sztywne, niejednokrotnie w jednym utworze łączy się różne rodzaje kontroli nad dźwiękiem elektronicznym. Klasyfikacja ta częściowo pokrywa się z kategoryzacją modeli interakcji proponowaną przez Marka Chołoniewskiego. Wyróżnia on model organowy (jeden gest – jeden dźwięk; np. syntezator sterowany za pomocą klawiatury MIDI), model szyfrowany (jeden gest – wiele dźwięków; gest wyzwala sekwencję zdarzeń dźwiękowych), model dyrygencki (gest kontroluje wybrane grupy parametrów, np. Radio Baton Maxa Mathewsa), automatyczny akompaniament (komputer śledzi pewne parametry wykonania zgodnie z partyturą i na podstawie ich analizy na żywo realizuje synchroniczną warstwę elektroniczną), model odtwarzacza (muzyka na taśmę, interakcja ogranicza się do włączenia taśmy i ewentualnej regulacji głośności), model „muzyka minus jeden” (połączenie modelu odtwarzacza i organowego)[33]. W przypadku użycia instrumentów „otwartych” stosuje się model organowy, szyfrowany i dyrygencki. W ten sposób dochodzi do rozszerzenia dotychczasowego paradygmatu wykonywania muzyki elektroakustycznej, w którym jeden gest odpowiadał jednemu zdarzeniu dźwiękowemu (model organowy) o wykonawstwo wyższego poziomu, gdzie wykonawca kontroluje całe procesy, sekwencje, a nawet podejmuje w trakcie wykonania decyzje kompozytorskie[34].
Kluczową rolę w live electronics odgrywa interfejs tłumaczący akcje wykonawcy na strumień danych zrozumiały przez komputer. Interfejs to kontroler sterowany akcjami wykonawcy wraz z systemem ich mapowania na określone akcje i zdarzenia w komputerze. To właśnie rozwój interaktywnych interfejsów jest obecnie jednym z głównych wyzwań w muzyce elektroakustycznej. Martin Russ stwierdza wręcz, że „w pewnym sensie rozwój metod syntezy dźwięku można uznać za niemal zakończony. (…) Ale głównym obszarem, wymagającym dalszego rozwoju są interfejsy, łączące wykonawcę z instrumentem”[35]. Interfejs jako element kompozycji może „przywrócić fizyczność utraconą przez muzykę cyfrową”[36]. Obecnie w muzyce elektroakustycznej istnieje trend tworzenia nowych interfejsów, które zbliżają grę na instrumencie elektrycznym do gry na instrumentach tradycyjnych, zarówno pod względem stopnia kontroli dźwięku, komplikacji roli wykonawcy, możliwości ekspresyjnych, jak i wizualnym[37]. Należy jednak zwrócić uwagę, że wielu artystów zajmujących się muzyką elektroakustyczną nie ma intencji tworzenia nowych instrumentów – interesują ich inne aspekty użycia technologii w celach muzycznych[38].
Wykorzystanie obiektów w charakterze instrumentów
Powstawaniu nowych instrumentów oraz rozwojowi elektrofonów towarzyszył inny trend – wykorzystanie obiektów (przedmiotów niebędących instrumentami) w charakterze instrumentów. Takie działania wydają się bliskie koncepcji zarówno Russolo, jak i Pierre’a Schaeffera. Wykorzystanie mikrofonów do amplifikacji dźwięków wydobywanych na obiektach pozwala uniknąć konieczności budowania skomplikowanych maszyn, jakimi były intona rumori – ich mechanizm służył przede wszystkim do akustycznej amplifikacji hałasów. Wydobywanie dźwięków z przedmiotów to nic innego jak generowanie materiału konkretnego na żywo, zamiast odtwarzania uprzednio nagranego dźwięku.
Jednym z pierwszych utworów, w których użyto amplifikacji obiektów, jest Cartridge Music Johna Cage’a (1960). Utwór wykonuje się na gramofonach, umieszczając we wkładce gramofonowej drobne przedmioty, których drgania są amplifikowane przez urządzenie. Bogactwo uzyskanych dźwięków jest zadziwiające. Natomiast pionierem wykorzystania obiektów w muzyce na szerszą skalę był Hugh Davies. Od końca lat 60. XX wieku wykorzystywał on różne drobne przedmioty (sprężyny, siekacz do jaj, grzebyki, plastikowe łyżki, druty) zamocowane na płaszczyźnie i amplifikowane za pomocą mikrofonów kontaktowych. Zestaw takich przedmiotów stawał się instrumentem – np. ShoZyg, Springboard, Diaphragm. Instrumenty te mogły produkować bardzo interesujące dźwięki. „Wielu kompozytorów mówiło mi, że na moich instrumentach z łatwością można zagrać dźwięki, których wygenerowanie zajmowało im wiele godzin w studio muzyki elektronicznej” – pisze Davies[39]. To właśnie łatwość, z jaką za pomocą amplifikowanych obiektów uzyskuje się bogate, organiczne dźwięki, których dynamika i barwa kontrolowane są przez wykonawcę za pomocą fizycznego kontaktu z przedmiotem, czyni je interesującą alternatywą dla metod wytwarzania dźwięku w studio. Co więcej, zdaniem Daviesa nowe instrumenty elektroakustyczne w obszarze muzyki współczesnej mają przewagę nad instrumentami tradycyjnymi – ze względu na łatwość uzyskiwania za ich pomocą barw o bogatym widmie, z wyeksponowanymi wyższymi składowymi, dźwięków nieczystych („wilczych nut”), a także z uwagi na brak historycznego obciążenia, czyli skojarzeń łączących brzmienie z określonym stylem muzycznym. „Dźwięki pożądane przez dzisiejszych kompozytorów, do tej pory możliwe do uzyskania tylko poprzez użycie tradycyjnych instrumentów niezgodnie z ich naturą, co często wiązało się z ryzykiem ich uszkodzenia (…), okazują się naturalne dla [nowych – W.B.] instrumentów elektroakustycznych”[40].
Obiekty jako instrumenty wykorzystuje w swej muzyce Adam Bohman[41]. Wykonuje on muzykę improwizowaną, pocierając smyczkiem, metalowym prętem czy piłką do metalu szereg obiektów umieszczonych na stole, amplifikowanym za pomocą mikrofonów kontaktowych. Wykorzystuje m.in.: kieliszki, metalowe puszki, foremkę na ciasto, sprężyny, śruby, metalowe struny, żarówki, szczotki.
Podobnego instrumentarium, także ulokowanego na amplifikowanym stole, używa Johannes Bergmark[42]. Jest on również twórcą dźwiękowych instalacji, m.in. Down and Up, zaprezentowanej na festiwalu Musica Genera w 2005 roku, wykorzystującej przedmioty znalezione na poddaszu starego budynku (np. zniszczona beczka, stara rama od obrazu, zardzewiała metalowa pokrywa), w którym zostały one podwieszone. Ich dźwięk został wzmocniony za pomocą mikrofonów kontaktowych[43]. Amerykański malarz Robert Rutman pod koniec lat 60. stworzył rzeźby dźwiękowe Steel Cello i Bow Chime, zbudowane z dużej płachty blachy oraz – w przypadku Bow Chime – metalowych, strojonych prętów do niej przymocowanych. Pocierane smyczkiem obiekty te generują bogate, fascynujące dźwięki i były wielokrotnie wykorzystywane na koncertach[44].
Wymienieni artyści wykonują muzykę improwizowaną, a dźwięki generowane przez obiekty nie są przetwarzane. Natomiast Michael Maierhof wykorzystuje przedmioty jako instrumenty w utworach precyzyjnie zanotowanych, pisanych na obiekty i instrumenty tradycyjne. Jest autorem cykli utworów Splitting oraz Shopping (lata 2005–2015), w których wykorzystuje m.in. balony, plastikowe kubki, pleksiglas. Wykonawca pobudza je do drgań, używając m.in. gąbki kuchennej, różnego rodzaju szczotek czy elektrycznej szczoteczki do zębów. Utwory Maierhofa bazują na jednym, wyrazistym pomyśle dźwiękowym, który jest eksploatowany na wiele sposobów.
W zupełnie inny sposób wykorzystuje obiekty Bruno Zambrolin. Bazując na doświadczeniach wyniesionych ze współpracy z IRCAM, stworzył on Mogees – aplikację na smartfony, która zamienia stukania i pocierania w dowolną powierzchnię (drzwi, szyba, barierka, krzesło etc.) na dźwięki muzyczne. Za pomocą podłączonego do smartfona mikrofonu kontaktowego drgania powierzchni są konwertowane na cyfrowy sygnał audio, który podlega analizie. Następnie grający przyporządkowuje określonym gestom (uderzenie, pocieranie, uderzenie w inaczej brzmiącą część powierzchni, uderzenie innym obiektem) wybrane dźwięki, korzystając z syntezatora, maszyny perkusyjnej lub modułu modelowania fizycznego, bazującego na dźwięku z mikrofonu kontaktowego[45]. Mogees jako produkt skierowany jest w stronę środowiska muzyki rozrywkowej, ale technologia rozpoznawania gestu (Gesture Recognition) za pomocą mikrofonu kontaktowego przyczepionego do dowolnej powierzchni daje duże możliwości performatywne także na polu muzyki współczesnej.
W intrygujący sposób łączą brzmienia przedmiotów z idiomem muzyki rockowej muzycy zespołu Einstürzende Neubauten. Obok dźwięków gitar, perkusji czy syntezatorów na płytach zespołu pojawiają się dźwięki tłuczonego szkła, pompowania wody, uderzania dłonią w mięso czy odgłosy wydobywane z tektury falistej, podkreślając surowość dekadenckiej muzyki zespołu[46]. Jeszcze dalej poszedł polski zespół All Sounds Allowed, tworzący popowe piosenki z towarzyszeniem piły tarczowej, młota pneumatycznego (używanych w czasie koncertów na żywo) oraz dwóch zestawów perkusyjnych stworzonych z metalowych prętów, pił tarczowych, kanistrów na benzynę itp.[47]. Ogromną popularność zdobył brytyjski zespół STOMP, tworzący widowiska na wielką skalę z połączenia żywiołowego tańca z grą na beczkach, kanistrach, wiadrach i podobnych przedmiotach[48]. Na wyrastającym z tej estetyki pomyśle opiera się fabuła filmu Nieściszalni (reż. Ola Simonsson, Johannes Stjärne Nilsson, 2010). Grupa muzyków dokonuje dźwiękowej wendety na mieście, które swymi hałasami rani ich uszy. Bohaterowie dokonują napadów, w czasie których grają na wszystkim, co wpadnie im w ręce, m.in. sprzęcie medycznym w szpitalu czy wyposażeniu placówki bankowej.
_____
[1] Stockhausen Karlheinz, Muzyka elektroniczna i instrumentalna, [w:] Kultura dźwięku, teksty o muzyce nowoczesnej, Cox Cristoph, Warner Daniel (red.), słowo/obraz terytoria, Gdańsk 2010, s. 457, 459.
[2] Varèse Edgar, Wyzwolenie dźwięku, [w:] ibid., s. 43.
[3] Schafer Raymond Murray, Muzyka środowiska, tłum. D. Gwizdalanka, „Res Facta” 9, Kraków 1982, s. 296.
[4] Chomiński Józef, Muzyka Polski Ludowej, Warszawa 1968, s. 127.
[5] Lyon Eric, The Future of Spatial Computer Music, [w:] Materiały konferencji ICMC, Ateny 2014, s. 850.
[6] Kotoński Włodzimierz, Muzyka elektroniczna, Kraków 1989, s. 23.
[7] Por. Eduardo Moguillansky b wie berliner rohrpost (aide-mémoire II) (2009); Marcin Stańczyk Trzy powidoki na kontrabas solo (2008), Andrzej Kwieciński, Concerto. Re Maggiore (2013).
[8] Misiak Tomasz, Muzyka a dźwięk. Idea dźwięków niemuzycznych oraz próby jej przekroczenia od awangardy do współczesności, [w:] Radomski Andrzej, Bomba Radosław (red.), Granice w kulturze, Wydawnictwo Portalu Wiedza i Edukacja, Lublin 2010, s. 162.
[9] Ibid., s. 162.
[10] Russolo Luigi, Manifest futurystyczny, [w:] Kultura dźwięku…, op. cit., s. 34.
[11] Są to m.in.: wielodźwięki, whistle tone, slap, granie ze śpiewaniem, efekty szumowe, gra bez ustnika na instrumentach dętych; gra za podstawkiem, uderzenia w pudło, glissanda, wydobycie bardzo wysokich alikwotów, efekty szumowe na instrumentach smyczkowych; gra smyczkiem po różnych instrumentach perkusyjnych; granie bezpośrednio na strunach fortepianu za pomocą różnych incytatorów itd.
[12] Nowe techniki wykonawcze w dużym stopniu rozwinęli w latach 60. XX wieku kompozytorzy zaliczani do nurtu sonorystycznego (Krzysztof Penderecki, Henryk Mikołaj Górecki, Witold Szalonek). Grę na strunach fortepianu wprowadził Henry Cowell w utworze Aeolian Harp (1923), natomiast skomplikowany i precyzyjnie opisany system preparacji fortepianu, polegający na umieszczaniu pomiędzy strunami śrub, metalowych elementów i gumek, stworzył John Cage.
[13] Wybitny konstruktor instrumentów Harry Partch stworzył szereg instrumentów, stosując rozwijany przez siebie system mikrotonowy, oparty na podziale oktawy na 43 nierówne tony.
[14] Niemniej jednak niektórzy konstruktorzy dochodzą do wirtuozerii w grze na swych instrumentach, tworząc ich różne odmiany i rodzaje, jak Hans Reichel, twórca Daxophonu. Jest to idiofon smyczkowy – niewielkich rozmiarów, płaskie, odpowiednio wyprofilowane drewniane języki pociera się smyczkiem, uzyskując poprzez przesuwanie po języku drewnianym klockiem różne wysokości dźwięku.
[15] Hopkin Bart, Trends in New Acoustic Musical Instrument Design, [w:] „Leonardo Music Journal”, 1991, Vol. 1, Nr 1, s. 11–14.
[16] Np. zbudowany przez Barta Hopkinsa zither, w którym struny są ze sobą połączone w 12-strunowe klastry, dzięki czemu szarpnięcie jednej powoduje drgania wszystkich, co prowadzi do generowania dźwięków nieharmonicznych, lub wielokomorowa okaryna, zbudowana przez Sharon Rowell, a także instrumenty ze stałym źródłem dźwięku, lecz zmiennym rozmiarem lub kształtem rezonatora (np. waterphone Richarda Watersa).
[17] Park Tae Hong, wywiad z Max Mathewsem [w:] „Computer Music Journal”, 2009, Vol. 33, Nr 3, s. 22, tłum. W.B.
[18] Steiner Hans-Christoph, Building Your Own Instrument with Pd, [w:] Bang Pure Data, Wolke Verlag, Hofheim, 2006, s. 78.
[19] Murray-Browne Tim, Mainstone Di, Bryan-Kinns Nick, Plumbey Mark D., The medium is the message: Composing instruments and performing mappings, materiały konferencji New Interfaces of Musical Expression, Oslo 2011.
[20] Jordà Sergi. Digital Lutherie: Crafting musical computers for new musics performance and improvisation, praca doktorska, Pompeu Fabra University, Barcelona 2005, tłum. W.B.
[21] Jordà Sergi, Interactivity and live computer music, [w:] Collins Nick (red.), The Cambridge Companion to Electronic Music, Cambridge University Press, Cambridge 2007, s. 89, tłum. W.B.
[22] W Encyklopedii muzyki PWN kategoria ta określana jest jako „elektryczne instrumenty muzyczne” (Szlifirski K., Elektryczne instrumenty muzyczne, [w:] Chodkowski Andrzej (red.), Encyklopedia muzyki, Wydawnictwo Naukowe PWN, Warszawa 2006, s. 224).
[23] Klasyfikacja, Instrumenty.edu.pl (dostęp: 18.08.2015).
[24] Instrumenty elektroakustyczne to „moduły i konfiguracje akustycznych mechanizmów wibrujących (często przypominających tradycyjne instrumenty akustyczne) i obwodów elektronicznych, takich jak przetworniki i wzmacniacze. Akustyczna lub mechaniczna wibracja jest przetwarzana w analogową fluktuację prądu elektrycznego”. Instrumenty elektromechaniczne to „konfiguracje (…) mechanicznie poruszanych części z zakodowanym wzorcem i układów elektronicznych. Ruch pozwala przetworzyć zakodowane wzorce w analogową fluktuację prądu elektrycznego”. Instrumenty elektroniczne to „moduły i konfiguracje złożone z analogowych, w pełni elektronicznych urządzeń (…) stosowane do emitowania, przetwarzania i przekazywania elektronicznych sygnałów dźwiękowych i/lub sekwencji sygnałów”. W instrumentach cyfrowych „sygnały elektryczne są generowane w formie kwantyfikowanych sekwencji drgań (funkcji dyskretnej). Te z kolei są zamienione w sygnał ciągły, który pobudza głośnik”. Ibid. oraz Davies Hugh, Electronic Instruments i Electrophones, [w:] Stanley Sadie (red.), New Grove Dictionary of Musical Instruments, t. 1, London i New York 1984, s. 657–690, 694–695.
[25] Schrader Barry, Live/Electro-acoustic Music – a Perspective From History and California, [w:] „Contemporary Music Review”, 1991 Harwood Academic Publishers GmbH, Vol. 6, Part 1, s. 91.
[26] Cage John, Credo, [w:] Cage John, Silence, Cambridge, MA; MIT Press, 1966.
[27] Ibid.
[28] Circuit bending to łączenie ze sobą różnych elementów prostych, najczęściej używanych urządzeń elektronicznych (np. zabawek i prostych syntezatorów), w celu uzyskania ciekawych dźwięków. Kluczowe jest tu pomijanie zasad elektroniki i rola przypadku, prowadzącego do ciekawych odkryć lub zniszczenia urządzenia (Collins, Nicolas, Live electronic music, [w:] Collins Nick (red.), The Cambridge Companion to Electronic Music, Cambridge University Press, Cambridge 2007, s. 52).
[29] Pierwsze studio muzyki elektronicznej powstało w Paryżu w 1948 roku. W 1951 roku powołane zostało Studio Muzyki Elektronicznej przy Nordwestdeutscher Rundfunk w Kolonii oraz The Columbia Tape Music Center w Nowym Jorku. Studio Eksperymentalne Polskiego Radia powstało w roku 1957 (zob. Mieczysław Kominek, Muzyka elektroakustyczna w Polsce, Culture.pl, dostęp: 20.12.2015).
[30] Zapała Rafał, op. cit., s. 548.
[31] Stockhausem Karlheinz, Johanes Kohl, Electroacoustic Performance Practise, [w:] Perspectives of New Music, Vol. 34, No. 1, str. 75.
[32] Partia taśmy, często towarzysząca instrumentom akustycznym, może być odtwarzana w całości lub podzielona na fragmenty, często bardzo krótkie, wyzwalane przez dodatkowego wykonawcę obsługującego sampler (jak np. w utworze Simona Steen Andersena Ouvertures z 2008 roku). Taśma w czasie koncertu jest po prostu odtwarzana. Chociaż jest to sytuacja komfortowa dla kompozytora, bo warstwa elektroniczna powinna z założenia zabrzmieć identycznie jak w studio (na ostateczne brzmienie wpływ mają także akustyka sali i reżyser dźwięku dokonujący projekcji), to w istocie oznacza to granie z playbacku. Równie dobrze można na koncercie muzyki fortepianowej odtworzyć nagranie pianisty, nagrane i zmontowane w studio. Analogia ta jest pewnym uproszczeniem ze względu na charakter muzyki elektroakustycznej oraz różnorodność wykorzystanego materiału dźwiękowego, niemniej jednak moce obliczeniowe dzisiejszych komputerów umożliwiają wykonywanie wielu bardzo zaawansowanych transformacji dźwięku na żywo. Montowanie taśmy w studio i odtwarzanie jej na żywo oceniam jako pójście na skróty.
[33] Chołoniewski Marek, Interakcja – instrument, technologia, przestrzeń, materiały szkoleniowe Międzyuczelnianej Specjalności Multimedialnej UMFC w Warszawie, Warszawa 2010, s. 3.
[34] Jordà Sergi, Interactivity and live computer music, op. cit., s. 95, tłum. W.B.
[35] Russ Martin, Sound Synthesis and Sampling, Focal Press, Oxford 2009, s. 509, tłum. W.B.
[36] Tonder Cobi van, Music Composition and Performance in Interactive Computer/Human Systems, praca doktorska, Johannesburg, 2004, s. 3, tłum. W.B.
[37] Od wielu lat nowym interfejsom i kontrolerom poświęcona jest coroczna konferencja „New Interfaces for Musical Expression”.
[38] Marko Ciciliani dzieli praktykę wykonawczą muzyki elektroakustycznej na dwie przeciwstawne kategorie: dośrodkową (wykonawca jest obecny, a jego akcje widoczne, gesty są silnie i czytelnie skorelowane z rezultatem dźwiękowym) i odśrodkową (wykonawca może być ukryty, jego akcje nie są widoczne, brak korelacji między gestem a rezultatem dźwiękowym). Ciciliani Marko, Towards an Aesthetic of Electronic-Music Performance Practice, [w:] materiały konferencji ICMC, Ateny 2014, s. 262–264.
[39] Davies Hugh, Making and performing simple electroacoustic instruments, [w:] Richard Orton (ed.), Electronic Music for Schools, Cambridge U Press, 1981, s. 160.
[40] Ibid., s. 162.
[41] Stalk.net (dostęp: 19.10.2015).
[42] Bergmark.org (dostęp: 19.10.2015).
[43] Johannes Bergmark, Down and Up, Vimeo.com (dostęp: 19.10.2015).
[44] Steel cello, University of East London (dostęp: 19.10.2015).
[45] Mogees – Transform anything into a musical instrument, Kickstarter (dostęp: 19.10.2015).
[46] Neubauten.org (dostęp: 19.10.2015).
[47] AllSoundsAllowed.com (dostęp: 19.10.2015).
[48] Stomp (dostęp: 19.10.2015).
_____
OD REDAKCJI: Powyższy artykuł powstał na podstawie fragmentów publikacji Wojciecha Błażejczyka – Obiektofony. Wykorzystanie odpadów cywilizacyjnych w utworze „Trash Music”, Chopin University Press, Uniwersytet Muzyczny Fryderyka Chopina 2017.