kontakt o nas intro kronika makulatura archiwalia filmy

Rys. Max Skorwider
POSTMUZYKA

Krzysztof Moraczewski

Ponad pół wieku temu Karlheinz Stockhausen, zachwycony możliwościami nowego wówczas medium prorokował nastanie nowej epoki w dziejach muzyki – epoki muzyki elektronicznej, przychodzącej po wielkich epokach muzyki wokalnej i instrumentalnej. Nie głosił oczywiście zaniku wcześniejszych form muzyki – chodziło mu raczej o to, które jej postacie będą miarodajne. Pracowało się wówczas, w drugiej połowie lat czterdziestych i na początku lat pięćdziesiątych, w sposób heroiczny, później niemal zmitologizowany: cięło się i sklejało minimalne odcinki taśmy magnetofonowej, wielodziesięciokrotnie dogrywało tony sinusoidalne, nieustannie ryzykowało niepowodzeniem; kilka minut muzyki powstawało przez parę tygodni lub nawet miesięcy. Nic też dziwnego, że potężne narzędzia muzyczne, jakimi okazały się komputery, kompozytorzy przywitali z wielką, ale skrywaną ulgą. Pracując nawet za pomocą taśmy perforowanej, już nie wspominając o późniejszych i dzisiejszych komputerach, wypada podziwiać wysiłek pionierów, którzy zresztą z owego przypominania uczynili regułę dyskusji o muzyce elektronicznej. Woleli ewokować wspomnienia niż wracać do przedkomputerowych metod.

W latach siedemdziesiątych wydawało się, że proroctwo Stockhausena przejdzie do historii jako kolejna ciekawostka, forma niespełnionego manifestu i źródło dla historyka badającego samoświadomość ówczesnej awangardy. W latach dziewięćdziesiątych, po upowszechnieniu się komputerów osobistych, nabrało ono jednak nowej powagi, a dzisiaj wydaje się przepowiednią w całości spełnioną. Media elektroniczne, zwłaszcza komputery, odmieniły muzykę i rzeczywiście mamy wrażenie życia i słuchania w innej epoce. Aby zrozumieć, co za pomocą elektronicznych mediów z muzyką zrobiono, wypada zacząć od tego, co za ich pomocą zrobić chciano.

U początków muzyki elektronicznej stoi kilka sporów, po pierwsze nieaktualna już dla nas waśń muzyki konkretnej i elektronowej. Projekt muzyki konkretnej miał francuski rodowód. W drugiej połowie lat czterdziestych Pierre Schaeffer zaprezentował utwory, które opierały się na montażu dźwiękowych przedmiotów znalezionych – dźwięków ludzkiego ciała i mowy, odgłosów przyrody i życia miejskiego. Nazywał te dźwięki „konkretnymi”, w przeciwieństwie do dźwięków „abstrakcyjnych”, czyli nie tylko nienależących do naszego codziennego, dźwiękowego otoczenia, ale też specjalnie generowanych na potrzeby muzyki (dźwięki instrumentów czy szkolonego głosu). Po drugiej stronie usytuowali się, zgodnie z tradycją, Niemcy: pracujący w kolońskim studiu Herbert Eimert i Stockhausen. Ich idea „muzyki elektronowej” opierała się na koncepcji komponowania dźwięku. Operując aparaturą elektroniczną, rychło zaś w dużej mierze komputerami, bezpośrednio na fizycznej charakterystyce dźwięku – nie wysokości, ale częstotliwości, nie dynamice, ale obwiedni, nie głośności, ale amplitudzie – zaczęli kreować rzeczywistość akustyczną nie daną dotąd w żadnym doświadczeniu. Składanie dźwięków z tonów prostych (sinusoidalnych) pozwoliło dowolnie kontrolować ich barwę, a filtrowanie białego szumu (czyli pasma zawierającego wszystkie częstotliwości) umożliwiło operowanie swoistymi wyselekcjonowanymi pasmami wielobarwnych szmerów. Za przeciwieństwem muzyki konkretnej i elektronowej kryło się dużo więcej niż techniczna kwestia materiału nowej muzyki, bowiem w spór wchodziły dwie różne awangardy. Surrealizm, futuryzm, ale przede wszystkim dadaizm (wraz z twórczością osobnych artystów, takich jak Kurt Schwitters i Marcel Duchamp poszukujących zniesienia odziedziczonej po dziewiętnastym wieku autonomii sztuki) stanowiły tradycję dla poczynań Pierre’a Schaeffera, podczas gdy projekt muzyki elektronowej, jak malarstwo Malewicza i Mondriana, zmierzał we wprost przeciwnym kierunku, ku absolutyzacji autonomii, sterylnej czystości estetycznej abstrakcji. Tak jakby muzyka, która właściwie poza drugoplanowym wówczas ruchem musica futurista i niektórymi poczynaniami kompozytorów francuskich z kręgu Apollinaire’a nie miała przed drugą wojną światową awangardy, odtwarzała z opóźnieniem wcześniejszy dualizm dwu różnych awangard plastyków; i tak jak dwie awangardy plastyków w dużym stopniu zatraciły swe przeciwieństwo zaraz po wojnie, tak też i muzyka konkretna zaczęła się szybko zlewać z muzyką elektronową w nową całość, nazwaną z czasem muzyką elektroakustyczną lub po prostu elektroniczną. Pośredniczył między nimi paradoks, którego nie przewidział Pierre Schaeffer: konkretny charakter tradycyjnego utworu muzycznego, który – należąc przecież do potocznego doświadczenia słuchowego – może zostać wykorzystany jako przedmiot znaleziony. W taki sposób w utworze „Hymnen” Stockhausen posłużył się zebranymi hymnami różnych państw.

Ważniejszy niż aktualne tylko przez krótki czas przeciwieństwo muzyki elektronowej i konkretnej okazał się konflikt – chociaż nie musiał to być, z dzisiejszej perspektywy, aż konflikt – różnych przekonań co do celów, jakie ma realizować muzyka elektroniczna. Jedną z opcji najpełniej prezentował Milton Babbit, czołowy przedstawiciel orientacji charakterystycznej dla amerykańskich kompozytorów uniwersyteckich powiązanych głównie z Princeton i nazywanej przez Amerykanów „Ph. D. Music” – trochę złośliwie, trochę prześmiewczo i zawsze ze źle skrywaną dawką zawiści. Babbit, twórca chyba najbardziej konsekwentnej muzyki serialnej w ramach awangardy po obu stronach Atlantyku, od dawna już doświadczał kłopotów z wykonywaniem przez żywego instrumentalistę najbardziej złożonych struktur serialnych. Poziom ich organizacji, zwłaszcza co do czasu trwania dźwięków i ich poziomu dynamicznego, przekraczał bowiem możliwości jakiegokolwiek człowieka. Jaki pianista czy skrzypek jest w stanie, dla przykładu, odróżniać precyzyjnie i zachować na przestrzeni kilkunastu minut, zwłaszcza w grze zespołowej, dwanaście różnych poziomów głośności? Babbit przywitał zatem elektronikę jako środek umożliwiający dopiero naprawdę konsekwentną realizację zależności dźwiękowych właściwych muzyce serialnej. Kontynuował zatem, świadomie czy nie, ideę „muzyki syntetycznej”, którą Arnold Schönberg wyobrażał sobie właśnie jako rozwiązanie za pomocą technologii problemu niewykonalności niektórych całości muzycznych. W tym ujęciu elektronika okazuje się ostatecznym środkiem elitarnej, muzycznej kultury pisma i umożliwionej przez pismo konstrukcyjnej dyscypliny; komputer ma po prostu, bez zmiany koncepcji muzyki, zrobić to, czego przez swe ułomności nie mógł dokonać człowiek. Babbit i inni rychło mieli się przekonać, jak paradoksalne jest to powiązanie.

Drugą opcję wywodzić można od Edgara Varèse’a i jeszcze wcześniej od ideału „wolnej muzyki” Ferrucia Busoniego, a nawet od postulatów futurystów. Miała to być muzyka uwolniona od tradycyjnej dyscypliny dźwiękowej i tradycyjnego repertuaru dźwięków; muzyka, w której możliwe będą wszelkie dostępne dla wyobraźni formy kształtowania i której materiałem staną się wszelkie możliwe dźwięki – słowem, muzyka zrywająca z własną pamięcią, pojęta jako nieskrępowany strumień twórczości poza światem dawnej kultury pisma. Pierwszym środkiem stała się dla Varèse’a perkusja, ale na właściwe narzędzie trafił dopiero zająwszy się elektroniką. Niezwykła umiejętność budowania dramatycznych przebiegów dźwiękowych, ogromna wyobraźnia brzmieniowa i retoryka emancypacji dały z czasem muzyce tego lekceważonego przed drugą wojną światową kompozytora wielką siłą oddziaływania na twórczość innych.

Tego kompozytorzy od elektroniki chcieli, a cóż otrzymali? Więcej niż można było przewidzieć. Po pierwsze bowiem, ku radości Miltona Babbitta, elektronika rzeczywiście eliminuje wykonawcę. W ten sposób jednak nie tylko usuwa znane serialistom niewygody, ale też zmienia charakter wszystkich społecznych wyznaczników muzyki. Instytucja koncertu staje się dość zabawnym anachronizmem: po co zbierać się publicznie przed głośnikami, zwłaszcza od czasu gdy nasz domowy sprzęt hi-fi niewiele ustępuje temu, który wykorzystują instytucje koncertowe? Chyba po to tylko, by celebrować swą nobilitującą przynależność do elitarnej grupy słuchaczy „trudnej muzyki” (nie tak „trudnej” jak muzyka Ockeghema, Bacha czy Weberna, ale vox populi jest odmiennej opinii). Brak pośrednictwa wykonawcy powoduje też, że muzyka elektroniczna jest nieznośnie przywiązana do swojego wyjściowego kontekstu, nie zawiera w sobie potencjału dla nieustannie ponawianych interpretacji, które powodują, że każde pokolenie ma swojego niepowtarzalnego Mozarta, Mahlera i Szostakowicza. Dlatego też muzyka elektroniczna nadspodziewanie szybko się starzeje. Całe światy nowych dźwięków z początku lat pięćdziesiątych, zbanalizowanych przez użycia w filmowych soundtrackach i muzyce disco, potrafią dziś bardziej śmieszyć niż poruszać. Przywodzą na myśl przestarzałą technologię. W muzyce zwanej popularną problem ten rozwiązuje remiks, jednak muzyka kompozytorska pozostaje przy klasycznej koncepcji integralnego dzieła muzycznego, w tym wypadku utrwalonego w postaci niezmiennej. Koncepcja dzieła miała sens, gdy zakładała żywego wykonawcę pośredniczącego między czasem dzieła a czasem percepcji,  jednak zaaplikowana do utworów dosłownie niezmiennych nie wytwarza już żywego kanonu, lecz tylko zakurzone archiwum. Najważniejsza jednak zmiana to eliminacja pisma, od czasu Karolingów podstawowej charakterystyki sztuki muzycznej w Europie. Gdzie nie ma wykonawcy, tam pismo staje się zbędne, a partytury muzyki elektronicznej – z wyjątkiem nielicznych przypadków, celowo problematyzujących status pisma – stają się przedmiotami przede wszystkim prestiżowymi, rodzajem przyznania się (ale na jakiej właściwie podstawie?) do dziedzictwa muzyki artystycznej.

Nie tworząc tekstu dla wykonawcy kompozytor może jednak pracować wreszcie bezpośrednio w swoim materiale, czyli dźwięku, a nie w jego abstrakcyjnych symbolach. Twórczość muzyka zbliża się oto po raz pierwszy do pracy rzeźbiarza i malarza, staje się operowaniem konkretem, zyskuje fizyczną dotykalność – nawet jeśli pośredniczy w niej interfejs programu komputerowego, to pozostaje odczuwalna zależność decyzji, ruchu myszy, dotknięcia klawiatury i przekształcenia dźwięku. Kompozytor wytwarza dźwiękowy przedmiot – namacalny jak obraz, choć dla innych zmysłów – a nie jego symboliczny zapis. Czyni to jednak z perspektywy tysiącletniego doświadczenia pisma, które ciągle jeszcze formuje jego wyobrażenia o kształtowaniu muzycznym, przebiegach czasowych i tak dalej. Nie zachodzi więc żaden prosty powrót do stanu sprzed pisma, ale wytwarza się nowa, złożona sytuacja, którą amerykański historyk muzyki, Richard Taruskin, określił celnym terminem „postpisemność”.

Ale jeśli postpisemność, to także postoralność. Do czasu popularyzacji komputerów osobistych mogło wydawać się, że zmiana zachodzi wewnątrz elitarnej muzyki kompozytorów. Muzycy zwani popularnymi wykorzystywali instrumentarium elektroniczne jako rozszerzenie własnej tradycji. Czasem dla oszczędności i wygody, elektronicznego pianina nie trzeba bowiem stroić, a i kosztuje kilkadziesiąt razy mniej niż fortepian Steinwaya. Czasem dla prezentacji nowych, „futurystycznych” dźwięków, ale i wtedy – zwróćmy uwagę na ten szczegół – syntezatory posiadały wzorowane na fortepianie klawiatury, aby nie naruszać przyzwyczajeń dość zwykle konserwatywnego muzyka.

Jedna rzecz wymaga podkreślenia: muzyka, nazywana dziś w świecie zachodnim popularną, wywodzi się z arfoamerykańskiej kultury muzycznej, zjawiska hybrydycznego, dziedziczącego cechy europejskie i zachodnioafrykańskie, zresztą także z innymi dodatkami (na przykład indyjskimi w muzyce kubańskiej). W swej klasycznej postaci reprezentowała ona wzorcowy właściwie model oralnej kultury muzycznej, z charakterystycznymi dla niej cechami, jakie opisuje etnomuzykologia. Zanim jednak dawne blues i spiritual stały się rockiem, soulem i disco, przeszły przez transformujące doświadczenie fonografii. Fonografia zmieniła wiele w kulturach oralnych, przede wszystkim dała im własne archiwum i nowy rodzaj pamięci, ale tutaj wydobądźmy tylko jedną innowację: pojawienie się studia nagraniowego i inżyniera dźwięku. Inżynier dźwięku, który w tradycyjnym sensie nie jest muzykiem, pracuje jednak jak kompozytor muzyki elektronicznej traktujący tradycyjny utwór muzyczny jak przedmiot znaleziony: dokonuje jego modyfikacji, przekształceń, nadaje mu postać. Pracuje bezpośrednio na dźwięku (tak jak każdy muzyk w kulturach oralnych, niezapośredniczonych przez pismo), ale bez charakterystycznych umiejętności muzyka, takich jak śpiew i gra na instrumencie, i bez charakterystycznej dla muzyka (także „oralnego”) wiedzy. Inżynier dźwięku to więc twórca nowego rodzaju. Im doskonalsze stawały się dostępne mu technologie, tym bardziej rósł jego udział, a w coraz większym stopniu „pseudooralny” już muzyk stawał się nie twórcą, ale trademarkiem. Przypomnijmy – koronny, ale nieodosobniony przykład – głos Madonny, będący dziełem inżynierów.

Techno i kultura didżejska wyciągnęły z tej sytuacji konsekwencje, zamieniając techniki obróbki muzyki w techniki jej tworzenia. Muzyk z tego kręgu pracuje na przedmiotach znalezionych, konkretnie kształtując dźwięk jak farbę, nie musi posiadać i zwykle nie posiada tradycyjnych, muzycznych umiejętności. Nie musi nawet umieć nastroić gitary. Po co mu dokładny słuch, kiedy może porównywać częstotliwości? Jest w dokładnie takim stosunku do wcześniejszej muzyki rockowej czy bluesowej, jak idealni (a więc wyimaginowani) kompozytorzy muzyki elektronicznej do Beethovena i Strawińskiego, na tyle postoralny, na ile ci są postpisemni.

Żadna poprzednia zmiana w kulturze muzycznej nie była – mówię to z pełnym przekonaniem – tak gruntowna, nawet powstanie pisma dźwiękowego. Obecność wykonawcy zagwarantowała to, że w muzyce kompozytorskiej czynnik oralny był nieredukowalny. To dlatego kompozytorzy lat dwudziestych mogli tak oszaleć na punkcie jazzu, a jazzmani na punkcie Bacha i Chopina. Tradycje te miały punkty przecięcia, możliwości wzajemnej inspiracji, cały zestaw wspólnych wartości. Heavy-metalowy gitarzysta i klasyczny pianista mogą wzajemnie podziwiać własną sprawność instrumentalisty; Freddie Mercury i Monserrat Caballé mogli wzajem zachwycać się, mimo wszelkich odmienności, swoim śpiewaczym kunsztem; Chopin, Bartók czy Musorgski mogli szukać inspiracji w świecie oralnych kultur muzycznych europejskiej wsi; muzycy z kręgu rocka progresywnego mogli podpatrywać tajniki warsztatu kompozytorów (przede wszystkim, jedni i drudzy mieli warsztat). Pojęcie kunsztu było wspólne.

Wobec postpisemnej/postoralnej muzyki, które na naszych oczach zlewają się w jedną całość jeszcze bez nazwy, zawodzą nawyki i ludzi z kręgu pisma, i ludzi z kręgu tradycji oralnych: na imprezie techno bluesman będzie czuł się równie źle, jak miłośnik Mozarta i Strawińskiego. Zapewne nie znajdą nawet kryteriów, wedle których mogliby zaklasyfikować didżeja jako muzyka: nie umie grać, nie umie śpiewać, nie umie komponować… Póki co obie stare tradycje stawiają opór i nie zanosi się na to, aby w wyobrażalnej przyszłości kompozytorzy przestali pisać dla żywych muzyków, a jazzmani improwizować na instrumentach. Jaka jednak forma muzyki będzie, wracając do proroctwa Stockhausena, miarodajna? Na razie formy postmuzyki (niech to chwilowo będzie ów brakujący, wspólny termin) to sprawa zafascynowanych wszystkim, co właściwe dla nich pokoleniowo, dwudziestolatków i części uniwersyteckich profesorów, którzy mierzą słuszność swych przekonań ich zgodnością z poglądami swoich aktualnych studentów (co wymaga, przyznajmy, elastyczności i dobrego refleksu), ale za dziesięć lat sytuacja może wyglądać zupełnie inaczej. Postmuzyka bowiem pasuje do demokracji, niszczy stare elitaryzmy nut i słuchu, tak trudne do zniesienia dla demokracji działającej nie według reguły „jakim mogę się stać?”, ale wedle zasady „jestem jaki jestem”. Dużo pytań i coraz większe słowa – przyznam się jednak, że mój niepokój jest prostszy: czy będzie na co czekać, na nowe partytury i nowe płyty, czy też my – „więźniowie” nut i wykonawczego kunsztu, będziemy tylko odwiedzać muzea?

Artluk nr 1-2/2012

powrót