„Soft Cinema” Lva Manovicha i Andreasa Krakty’ego. „Język nowych mediów” w praktyce

Tekst był publikowany w „Kwartalniku Filmowym” 2007, nr 60 

1

Lev Manovich to obecnie jeden z najważniejszych i najbardziej wpływowych teoretyków nowych mediów. Prawdopodobnie to również jeden z nielicznych myślicieli i badaczy współczesnej kultury mediów, który znany jest nie tylko ciągle wąskiej grupie badaczy akademickich, naukowców, artystów, kuratorów eksplorujących obszary sztuki tworzonej z pomocą nowych mediów, ale także znacznie szerszej grupie odbiorców, widzów, aktywnych uczestników i współtwórców współczesnej kultury pojmowanej en globe. Kiedyś Manovich, poproszony o zestawienie dziesięciu najważniejszych według niego publikacji poświęconych sztuce nowych mediów w latach 1970-2000, sporządził listę(1)  obejmującą prace dziś będące lekturą obowiązkową dla wszystkich badaczy mediów, choć w tym obszarze zdecydowanie szybciej niż w innych zmieniają się kryteria oceny i hierarchie istotności opracowań teoretycznych. Sam Manovich słusznie zauważa, że problematyka sztuki nowych mediów i cyberkultury w ogóle dotychczas nie doczekała się właściwie swoich „klasyków” i tekstów kanonicznych, takich jakimi są w przypadku sztuki modernistycznej chociażby teksty Clementa Greenberga czy Rosalindy Krauss albo André Bazina czy Laury Mulvey w zakresie filmu. Oczywiście z takim stanowiskiem można polemizować i sam Manovich, prezentując swój wybór, proponuje przecież pewien zestaw tekstów kanonicznych; takie w istocie są prace m. in. Gene Youngblooda(2),Cynthii Goldman(3), Friedricha A. Kittlera(4), Espena Aarsetha(5) czy Ulfa Poschardta(6), by wymienić tylko kilka z listy. Jedno wszak nie ulega wątpliwości: Język nowych mediów(7), który ukazał się w roku 2001, to swego rodzaju zwieńczenie rozwoju teorii nowych mediów w końcu dwudziestego stulecia, a także praca już dziś stanowiąca pozycję absolutnie klasyczną i obowiązkową dla każdego, kto zajmuje się nie tylko nowymi mediami, ale współczesną kulturą po prostu(8). Należy powiedzieć też, że zapewne za lat kilkanaście opinia ta się nie zmieni. Już dziś pojawiają się głosy, iż Manovicha należy traktować jak myśliciela, którego można postawić w jednym szeregu z Marshallem McLuhanem. Nie popadając w zbytnią emfazę, a równocześnie doceniając jego pozycję i wkład w rozwój wiedzy o mediach, pozostawiam tę sprawę przyszłości, pamiętając jednocześnie, iż tego typu oceny i klasyfikacje w gruncie rzeczy nie są zbytnio istotne dla faktycznej oceny jego dorobku.  Lev Manovich to jednak nie tylko teoretyk, lecz także twórca kilku projektów artystycznych, choć on sam najczęściej rozpatruje swoje prace nie w ramach typowych strategii sztuki, co raczej traktuje je jako specyficzną formę eksperymentowania; w jego działalności praktyka i teoria są ze sobą bardzo mocno związane. Realizowane prace miały bowiem niewątpliwie niebagatelny wpływ na formowanie się wyrazistych poglądów na temat nowych mediów, stanowiąc swoisty poligon doświadczalny dla teoretycznych dociekań. Ale jednocześnie przecież to właśnie konsekwentnie budowana przez kilkanaście lat autorska wizja cyberkultury – silnie umocowana w odniesieniach do historycznych procesów formujących dzisiejsze oblicze kultury informacji (e-kultury), zwłaszcza zaś do kina jako „głównej formy kulturowej XX wieku”(9) – poddana została praktycznej aktualizacji w działalności artystycznej Manovicha.

Manovich nie jest, rzecz jasna, jakimś szczególnym przypadkiem artysty i teoretyka, który te dwie formy aktywności z powodzeniem ze sobą łączy. Wprost przeciwnie – wydaje się, że jest charakterystyczna cecha cyberkultury, w której tego typu połączenie jest czymś naturalnym. Wystarczy tylko podać kilka najbardziej oczywistych przykładów, bez wikłania się w hierarchie ważności: Roy Ascott, Myron Krueger, Peter Weibel, Stephen Wilson, Jeffrey Shaw, Simon Penny, Monika Fleischmann, Ken Goldberg, Jaron Lanier, Eduardo Kac, George Legrady, Michael Naimark. Wszyscy oni, tak jak Manovich, przekraczają granice oddzielające aktywność artysty i teoretyka. Zapewne w każdym przypadku powody łączenia i swego rodzaju nieustannej zmiany punktu widzenia (praktyk kontra teoretyk) są odmienne. Można jednak powiedzieć, że dzisiaj aktywności te nie są dychotomiczne względem siebie, ale raczej komplementarne. Zaplecze teoretyczne nie jest rzecz jasna warunkiem sine qua non poruszania się w świecie sztuki mediów, ale w większości przypadków artystów posługujących się nowymi technologiami (a to one są fundamentem cybersztuki), znajomość kontekstu teoretycznego jest jednym z podstawowych elementów „wyposażenia” intelektualnego artystów.

Należy przypomnieć, iż zanim Manovich na dobre rozpoczął swoją działalność jako teoretyk i wykładowca, po przybyciu do Stanów Zjednoczonych pracował jako programista i designer, a także zajmował się animacją komputerową. W latach 90., w których powstawał Język…, a także wcześniejsza dysertacja doktorska(10) poświęcona zagadnieniom nowoczesnej, dwudziestowiecznej widzialności, zrealizował on kilka interesujących projektów, które uznać można za rodzaj egzemplifikacji powstających w tym czasie tekstów, za eksperymenty, które modelowały jego prace badawcze. Jeśli zatem potraktujemy Soft Cinema jak wykładnię tez zawartych w Języku… to trzeba pamiętać, że nie jest to ani pierwsza praca Manovicha, ani też nie po raz pierwszy eksperymentuje on jako artysta, dla którego aktywność twórcza stanowi przedłużenie działalności teoretycznej, poligon doświadczalny, który pozwala zweryfikować założenia teoretyczne. Nie sposób zatem skonstatować, że artystyczne(11) realizacje wynikały z takich właśnie założeń, tak jak nie można powiedzieć, że jego teoria wyrastała z praktyki. Te dwie ścieżki wzajemnie się dopełniają, przenikają i dopiero potraktowane komplementarnie mogą być właściwie zinterpretowane i ocenione.

Warto choćby skrótowo przedstawić kilka wcześniejszych projektów Lva Manovicha, można je bowiem potraktować jako etapy w dochodzeniu do pewnej wizji filmu/kina, która przybrała dojrzały i pełny kształt w Soft Cinema. Na stulecie kina powstał cykl Little Movies – „prolegomena do kina cyfrowego”. Złożyło się na niego kilka filmów reprezentujących minimalizm cyfrowy, albo inaczej rzecz ujmując „digitalny materializm” (DIAMAT). Manovich pozwala sobie w tym miejscu na rodzaj „wspomnień z dzieciństwa”: w Związku Radzieckim (z którego przybył do USA w roku 1981) DIAMAT stanowił oczywiste odwołanie do „dialektycznego materializmu”. Prace te ustanawiają szczególny rodzaj relacji pomiędzy początkami kina i kinematografu (a także innych urządzeń, takich jak latarnia magiczna czy praksinoskop Emile Reynauda) a komputerem, czy raczej programami oraz formatami komputerowymi. W tym przypadku chodzi o QuickTime’a jako narzędzie do kreacji „kina sieciowego” (QuickTime pojawił się w roku 1991). Realizacje Manovicha, małe pliki o wielkości od 1 do 3 MB, składające się ze stu do kilkuset klatek, są niewątpliwie jednym z pierwszych przykładów tego zupełnie nowego rodzaju twórczości – na stronie autora prezentowane są na zasadzie loopów. QuickTime jawi się jako cyfrowy kinetoskop zamieniający komputer w projektor filmowy. Autor traktuje ten moment w sposób symboliczny – oto kino odradza się przez komputer, natomiast w samych pracach pojawiają się odwołania i cytaty z filmów Braci Lumiere czy George’a Méliesa. W ten przewrotny sposób kino jako medium zatoczyło olbrzymie koło po to, by wrócić do swoich pre-kinematograficznych początków i „przedkinowych praktyk XIX wieku, kiedy obrazy malowano i animowano ręcznie”(12). W ten sposób wkraczamy w obszar rozważań teoretycznych Manovicha, który dochodzi do przekonania, że fenomen kina cyfrowego to swoista rewitalizacja zasad rządzących powstawaniem ruchomych obrazów w początkach kina. To przejście od tego, co wiek dwudziesty ufundował w postaci kino-oka, do faktycznego powstania kino-pędzla. Logika tego procesu stanowi oś rozważań zamieszczonych w Języku nowych mediów, a zatem w tym momencie wypada tylko odesłać do lektury książki. Ale też do samych realizacji, by sprawdzić, czy – jak pyta Manovich – „możliwe jest znaczące i emocjonalne doświadczenie będące efektem prac o objętości poniżej 1 GB?”(13). Little Movies to zatem pierwszy projekt Manovicha wykorzystujący komputer jako nowy rodzaj „aparatu kinematograficznego”, który łączy w sobie dwie niegdyś oddzielone funkcje – „aparatu podstawowego” i „projektora” (jeśli chcielibyśmy się odwołać do klasycznych koncepcji teoretycznych  Jean-Louisa Baudry’ego czy Jean-Louisa Comolli’ego. W ten sposób Manovich czyni pierwszy istotny krok na drodze poszukiwania nowej formuły nie tylko kina cyfrowego, ale też kina w epoce cyfrowej. Po ekranie klasycznym i ekranie dynamicznym rozpoczyna się wiek ekranu czasu rzeczywistego, który jest polem uobecniania się czegoś, co tylko siłą rozpędu nazywamy obrazem, a co w istocie wykracza poza tradycyjnie rozumiany obraz, zaś w skrajnych interpretacjach – jak twierdzą niektórzy – w ogóle przestaje nim być(14).

Przy okazji Little Movies należy zwrócić uwagę na jeszcze jedno zagadnienie. Praca ta jest jedną z pierwszych realizacji reprezentujących rodzący się w połowie lat 90. nowy rodzaj twórczości audiowizualnej będącej pewnym gatunkiem szeroko rozumianego web artu. Nie wdając się w tym miejscu w szczegółowe rozważania terminologiczne (i genologiczne) należy zauważyć, że tworzenie filmów z myślą o wyłącznie sieciowej prezentacji doprowadziło do wypracowania zupełnie nowej estetyki, będącej pochodną wykorzystania multimedialnych aplikacji do tworzenia realizacji audiowizualnych dla sieci. W konsekwencji w krótkim czasie bardzo wielu użytkowników sieci, nie tylko „profesjonalnych” artystów, uformowało coś, co sam Lev Manovich nazwał „generacją Flash” (15). Od razu trzeba wyjaśnić, że nie chodzi tutaj wyłącznie o użytkowników programu Flash, ale także innych, choć podobnych formatów, takich jak wykorzystany przez Manovicha QuickTime, Shockwave czy DHTML. Jako ciekawostkę można przytoczyć fakt, że w roku 2007 w Centre Pompidou odbył się już po raz szósty znaczący festiwal (Web Flash Festiwal) gromadzący twórców tego typu prac. Konkurs obejmuje różne kategorie, takie jak animacja, prace eksperymentalne,  sztuka „graficzna” (Art Graphisme). Już sama lokalizacja jest wymowna – oto szacowne i prestiżowe muzeum sztuki współczesnej organizuje imprezę poświęconą sztuce sieci. Może tylko budzić pewne zdziwienie, że organizatorzy silnie podkreślają, iż jest to pierwsza impreza dotycząca szeroko rozumianej sztuki sieci, która zdominowana jest przez język francuski i mająca za zadanie promocję francuskich artystów. Tak wyraźne podkreślanie narodowego charakteru i odcinanie się od innych języków to kolejny dowód na specyficzny stosunek Francuzów do współczesnego lingua franca, jakim stał się, zwłaszcza w przypadku internetu, język angielski. Ale to zupełnie inna sprawa. Dodajmy, że festiwale, konkursy, przeglądy sztuki „flashowej” odbywały się i odbywają na całym świecie już od kilku lat, by wymienić tylko kilka znaczących przykładów: Online Flash Film Festival (Barcelona), Notodomofilmfest (Madryt), Flash Film Festival (Nowy Jork), FlashBang (Atlanta), Torino Flash Festival, FlashintheCan (Toronto).  

Manovich opisując „generację Flash” zwraca szczególną uwagę na fakt, iż jest to kolejny etap rozwoju sztuki komputerowej(16), w której centralne miejsce zajmuje kwestia software’u. Jesteśmy zatem świadkami narodzin „softmodernizmu”. O ile w czasach Andy’ego Warhola dla artystów wykorzystujących nowe media punktem odniesienia były kino i telewizja, jako media prowokujące do zabiegów mających na celu ich dekonstrukcję, która z kolei służy samookreśleniu oraz autodefiniowaniu poglądów tych twórców, o tyle dla artystów nowej generacji takim punktem odniesienia stają się głównie gry komputerowe. Chodzi zarazem o swoistą nobilitację różnych aspektów technologii komputerowych oraz takich procesów, jak programowanie, projektowanie nowych interfejsów, tworzenie software’ów. W tym aspekcie niewątpliwie gry komputerowe właściwie od początku rozwoju komputerów (a zatem od lat 40.), a zwłaszcza od ekspansji komputerów osobistych (czyli od końca lat 70.), zawsze były swego rodzaju laboratorium, w którym tworzono, rozwijano i testowano nowe rozwiązania.

W innym projekcie zatytułowanym Freud-Lissitzky Navigator: Computer Game. History Browser (1999), wspólnie z Normanem M. Kleinem, Manovich stworzył właśnie rodzaj gry komputerowej wykorzystującej specjalny software pozwalający na nawigację przez historię kultury XX wieku. Pojawia się tutaj zatem problematyka nawigacji jako specyficznego sposobu przełamywania tradycyjnej linearnej narracji oraz kwestia software’u  („software narrative”) generującego sposoby posługiwania się grą, a także interfejsów określających możliwości użytkownika gry. Tu też pojawia się coś na kształt bazy danych gromadzących kulturowe fakty prezentowane w tej realizacji. Osią fabularną – choć w tym kontekście nie jest to zbyt precyzyjne określenie – jest spotkanie Zygmunta Freuda, Ela Lissitzky’ego i Siergieja Eisensteina w Wiedniu w roku 1928. Różnorakie konsekwencje tego niezwykłego spotkania posłużyły twórcom do stworzenia projektu, w którym „gracz” może na różnych poziomach poruszać się w świecie kulturowych zdarzeń, kreując często zaskakujące powiązania i własne „narracje” czy też „nawigacje”. Stworzenie bazy danych stanowi antycypację późniejszych eksperymentów i zapowiedź kierunku, w którym będą zmierzać poszukiwania Manovicha.

Przyjrzyjmy się jeszcze jednej pracy – Anna and Andy: A Streaming Novel. Emotion Movie Engine (2000). Realizacja ta w dosyć zaskakujący sposób zestawia ze sobą powieść Anna Karenina Lwa Tołstoja i „testy ekranowe” wykonywane przez Andy’ego Warhola w jego Factory w latach 60. Warhol filmował gości odwiedzających jego pracownię, tworząc portrety frontalnie usytuowanych przed kamerą postaci. Manovich wykorzystał w tym projekcie jeden z podstawowych algorytmów komputerowych, tzw. dopasowywanie do wzorca. Jest to rozwijana od lat 50. metoda monitorowania mediów oparta na wyszukiwaniu słów kluczowych. W trakcie zimnej wojny Amerykanie próbowali w ten sposób wykorzystywać komputery, by śledzić to, co pojawiało się w radzieckich mediach. Dziś metoda ta wykorzystywana jest na olbrzymią skalę w globalnej sieci internetowej, do różnych zresztą celów – komercyjnych, związanych z bezpieczeństwem, ale i obserwacją wszelkich poczynań internautów. W Anna and Andy, skanując tekst powieści Tołstoja i wybierając słowa kluczowe, zestawia się je z obrazami postaci pojawiającymi się w jednym z okien na ekranie komputera. Słowa te aktywują animację postaci. W realizacji tej Manovich eksplorował kolejne problemy, które później znajdą zastosowanie w Soft Cinema. Najważniejszym z nich jest zapewne kwestia słów kluczowych, a także tworzenia i wykorzystania algorytmicznych matryc służących do kreacji różnych wersji dzieła. W późniejszej realizacji chodzić będzie o podstawowe parametry w sposób formalny opisujące elementy składające się na bazę danych, z których zaprojektowany software, jak generator posługujący się odpowiednim algorytmem, tworzy kolejne wersje dzieła.  

Te trzy prace stanowią niewątpliwie zamknięte projekty, ale jednocześnie można je potraktować jako rodzaj kolejnych ćwiczeń, które doprowadziły w efekcie do Soft Cinema. Rozwiązywanie różnych kwestii technicznych oraz teoretycznych oraz poszukiwania w zakresie nowych technologii komputerowych wykorzystywanych jako narzędzia kreacji artystycznej, stanowiły zatem swoisty kontrapunkt w trakcie pisania Języka nowych mediów. I choć zapewne Lev Manovich większości społeczności cyberkulturowej znany jest przede wszystkim ze swoich prac teoretycznych, to nie można zapominać i warto to podkreślić, iż jego projekty artystyczne, czy jak sam chce – eksperymenty, prezentowane były na wielu wystawach cybersztuki(17).  
Każda z tych prac na swój sposób i w odniesieniu do różnych problemów eksploruje obszary swoiście pojmowanego piękna drzemiącego w nowych technologiach, co w postaci manifestu dosadnie wyraził Lev Manovich w jednej ze swoich prac zatytułowanej po prostu Data Beautiful. An Adventure in Info-Aesthetics (2001). Pisze tam z pewną emfazą tak:
Wyszukiwarki sieciowe są piękne,
Dane numeryczne są piękne
Liczne okna GUI są piękne
Klienci poczty elektronicznej są piękni
Komunikator internetowy jest piękny
Informacja jest piękna(18). Z jednej strony jest to „poetycka” mini-wykładnia info-estetyki  , z drugiej zaś ów estetyczny wymiar informacji, danych, baz danych jest znakiem czasu w istotny sposób kształtowanego przez nowe technologie. Jeśli nowe media i technologie stały się integralną częścią globalnego systemu ekologicznego, to wyzwaniem dla współczesnej estetyki staje się konieczność „krytycznej oceny roli, jaką nowe media odgrywają w procesie przechodzenia od analogowego do cyfrowego życia”(20).
„Estetyzacja informacji”, o której mówi Manovich wyznacza nowe horyzonty i zadania zarówno dla estetyków, jak i twórców. Ale estetyzacja dotyczy także samych narzędzi: tych, które służą do komunikacji zapośredniczonej przez komputer działający w sieci oraz coraz większej ilości różnorakich urządzeń przenośnych, które w radykalny sposób przyczyniły się do fundamentalnych zmian nie tylko w zakresie komunikacji, ale i cyberkultury w ogóle. Narzędzia te kreują zupełnie nowy typ społeczeństwa(21). Dziś obok funkcji i wymiaru użytkowego coraz bardziej zaczyna się liczyć ich forma. Autor w interesujący sposób prezentuje to na przykładzie zmian w wyglądzie telefonów komórkowych, odwołując się także do innych narzędzi cyfrowych (laptopy, kamery cyfrowe, iPody, przenośne platformy do gier). Duże znaczenie w tym procesie „estetyzacji” narzędzi miała premiera nowego iMaca na przełomie 1998 i 1999, zaprojektowanego przez Jonathana Ive’a (zresztą także późniejszego projektanta iPoda). Manovich słusznie konstatuje, że dziś modernistyczną formułę „form follows function” zastąpiły nowe: „form follows emotion” oraz „function follows form”(22). Design w cyberkulturze stał się niezwykle istotnym elementem, co w efekcie doprowadziło do zasadniczych zmian, chociażby w dziedzinie interfejsów. Ich „niewidzialność”, postrzeganie w kategoriach czystej funkcjonalności, została zastąpiona podnoszeniem nowych modeli do rangi dzieł sztuki. Nawet jeśli tylko użytkowej. Mówiąc krótko: „Doświadczenie estetyczne jest tak samo ważne jak funkcjonalność (w technicznym sensie „użyteczność”)”(23). W paradoksalny sposób powraca tu pojęcie piękna, tym razem odnoszone do narzędzi służących informacji, komunikacji, rozrywce, nauce etc. Obecnie kryteria estetyczne w o wiele większym stopniu stosowane są w świecie nowych technologii, co zapewne potwierdziłby David Gelernter, który w książce Mechaniczne piękno nie mógł pogodzić się z „brzydotą komputerów”, jednocześnie głęboko wierząc, że „lepsza estetyka na ogół prowadzi do lepszego funkcjonowania. Jednak brzydota komputerów to historia wykraczająca poza kwestie estetyczne: dotyczy ona samych podstaw działania współczesnego społeczeństwa”(24).    


 
Lev Manovich, odpowiadając na recenzję Soft Cinema(25), jednoznacznie wskazywał na inspiracje, z których czerpał w trakcie przygotowywania projektu na wielką wystawę Future Cinema mającą odbyć się w ZKM (Zentrum für Kunst und Medientechnologie) na przełomie roku 2002 i 2003: twórczość Petera Greenawaya, Mike’a Figgisa, ale także niektóre dzieła reprezentujące „kino rozszerzone” z lat 60. To właśnie są konteksty, na które wskazywał twórca, odnosząc się do projektów wykorzystujących strategię wielu okien w ramach pojedynczego ekranu. Można by zapewne dodać tu wiele innych prac i autorów, których Manovich pominął, choć wiadomo, że ich twórczość nie jest mu obca. Wystarczy wspomnieć Zbigniewa Rybczyńskiego, pojawiającego się zresztą na stronach Języka nowych mediów, przy okazji analizy Tanga (1980) i Schodów (1987). A jednak w tym kontekście konieczne jest przywołanie Nowej książki (1975), filmu, w którym polski twórca w niezwykle przenikliwy sposób – za sprawą technologii analogowej – antycypował możliwości kina cyfrowego albo, mówiąc inaczej, tworzył w poetyce kina digitalnego, posługując się środkami kina analogowego.
Eksperymenty Greenawaya z przekraczaniem zasady „jeden obraz – jeden ekran” są dobrze znane i opisane. Być może warto jednak zwrócić uwagę na film Figgisa Timecode (2000), który, by tak rzec, bezpośrednio poprzedzał realizacje Manovicha i Kratky’ego. W projekcie tym podzielono ekran na cztery niezależne od siebie (choć nie do końca) okna, w których rozgrywają się cztery równoległe wątki składające się na fabułę. Od razu zaznaczmy, iż efekt końcowy jest wysoce dyskusyjny, choć trzeba docenić twórców za próbę wykorzystania, w ramach konwencji filmu kryminalnego czy sensacyjnego, nowej formy. Forma ta jest niewątpliwie wyrazem świadomości, że dzisiejszy widz w coraz większym stopniu akceptuje i radzi sobie ze zrozumieniem narracji równoległej prowadzonej w kilku (w tym przypadku czterech) oknach. Owa „poliwizyjność” jest w Timecode zabiegiem formalnym przełamującym utrwalony paradygmat kina klasycznego (nawet jeśli nie do końca fortunnie przeprowadzonym). Jest to w sposób oczywisty konsekwencja zupełnie nowego traktowania ekranu jako wyświetlacza komputerowego, w którym wielość równocześnie działających okien jest czymś naturalnym. Ale to, co sprawdza się jako dyspozytyw ekranu komputerowego, nawet jeśli oglądamy na nim film fabularny, niekoniecznie musi sprawdzać się w przypadku filmu fabularnego prezentowanego w kinie lub chociażby na ekranie telewizyjnym symulującym ekran kinowy. Doceniając ciekawy eksperyment, jakim jest Timecode, nie sposób nie zauważyć, że ostateczny efekt artystyczny jest problematyczny. Film zrealizowany został w równoległych ujęciach, akcja rozgrywa się w czasie rzeczywistym, zaś niektórzy bohaterowie przemieszczają się w owych symultanicznie rejestrowanych przestrzeniach współtworząc świat przedstawiony filmu, który łamiąc konwencje fabularne, zmusza też do zupełnie nowej percepcji widzów. Jak informują realizatorzy w napisach końcowych: „Film był realizowany w czterech ciągłych ujęciach, poczynając od godziny 15.00 w piątek dziewiętnastego listopada 1999 roku. Wszyscy aktorzy improwizowali na podstawie wcześniej przedstawionej im struktury”.
Zapewne Manovicha zaintrygowała w Timecode po pierwsze próba skonstruowania opowiadania nie do końca zdeterminowanego i zapisanego w scenariuszu, a zatem możliwość realizacji filmu o strukturze w dużej mierze otwartej, podatnej na impulsy płynące z inwencji aktorów i nieprzewidywalnego rozwoju wypadków. Po drugie zaś symultaniczna prezentacja czterech akcji równoległych jest rodzajem testu percepcyjnego dla odbiorców. Multi-kadrowość czy wielokanałowość, zwłaszcza w wideo, to problem obecny w szeroko rozumianej sztuce ruchomego obrazu od dawna. Jednak dopiero w cybersztuce, sztuce wykorzystującej komputerowe monitory jako kolejną płaszczyznę ekranową, taka forma prezentacji staje się typowa, stanowi konsekwencję przełamania wcześniejszego paradygmatu zakładającego „jednokanałowość” ekranu jako formy kulturowo ukształtowanej przez tradycję kinematograficzną, a potem telewizyjną. Ale i w telewizji, wraz z rozwojem multikadrowości właściwej dla monitora komputerowego, od lat 80. zaczął się upowszechniać model prezentacji kilku okien w ramach jednego ekranu. Wystarczy wspomnieć o dziś już powszechnym zabiegu zestawiania w kadrze obrazów kilku reporterów nadających swe relacje w programach informacyjnych. Ta filozofia obrazowego PIP (Picture in Picture), choć nie przyjęła się jako popularna funkcja nowych odbiorników telewizyjnych, pomimo tego, iż jeszcze niedawno traktowana była jako rodzaj reklamowego gadżetu, stała się jednak powszechnie używanym środkiem wyrazowym języka telewizyjnego.
Peter Weibel przedstawiając genealogię użycia projekcji wieloekranowych, wielomonitorowych oraz przekazów audiowizualnych posługujących się wieloma oknami w ramach jednego monitora/ekranu odnosi swe rozważania przede wszystkim do teorii narracji. Zastanawia się nad tym, w jaki sposób wczesne eksperymenty filmowe z początku lat 60., a niedługo potem także realizacje wideo, były manifestacjami postawy intermedialnej w sztuce ruchomego obrazu, poszukującej nowych form narracji(26). Intermedialne styki filmu i wideo w połowie lat 60. (zwłaszcza po roku 1965, kiedy pojawił się portapak firmy Sony, choć dopiero dwa lata później stał się on dostępny na rynku komercyjnym) niewątpliwie skłaniały do poszukiwań w zakresie nowych sposobów budowania narracji, a jednym z elementów tych poszukiwań było wykorzystywanie podzielonego na wiele pól ekranu czy monitora. To wtedy Nam June Paik proklamował nową epokę, w której „technika kolażu zastąpi malarstwo olejne, a monitor zastąpi płótno”(28), choć jednocześnie z racji niekompatybilności z profesjonalnymi standardami i formatami telewizyjnego zapisu wideo – portapak Sony był nieco pogardliwie nazywany „podstandardem wideo” . Jedną z pierwszych prac, w których zestawiono ze sobą zapis wideo i taśmę filmową była głośna realizacja Andy’ego Warhola Outer and Inner Space (1965). Artysta nie tylko zastosował w niej dwie równoległe projekcje filmów 16-mm, ale, co ważniejsze w tym kontekście, było to jedno z pierwszych użyć technologii wideo w sztuce. Edie Sedgwick jako hollywoodzka gwiazda prowadzi sama ze sobą, prezentowaną na monitorze telewizyjnym w formie wcześniejszego zapisu wideo, rodzaj dialogu, rozmowy nie tylko słownej, ale i specyficznej „konwersacji” dwóch rodzajów zapisu – filmowego i wideo. Rzecz jasna, nie traktuję tej klasycznej już dziś pracy (29) jako przykładu realizacji świadomie podejmującej zagadnienia wielokadrowości w ramach pojedynczego ekranu (w tym przypadku nawet podwójnego), ale tylko przyczynkiem do usytuowania poszukiwań Lva Manovicha także w kontekście różnych odmian „kina rozszerzonego”. Na marginesie tylko można dodać, iż zmultiplikowane projekcje – czy to ekranowe, czy monitorowe – są ciągle wykorzystywane, dziś nie tylko przez artystów kina i wideo, ale także cyberartystów posługujących się mediami cyfrowymi. Bogactwo możliwości zastosowań takich sposobów kreacji dobitnie uświadomiła ostatnia edycja (30) World Wide Video Festival w Amsterdamie w roku 2004, której tematem wiodącym była właśnie kwestia multiekranowych projekcji oraz instalacji(31).
Jeśli zatem tropimy różnorakie źródła inspiracji i odniesień Soft Cinema, to w oczywisty sposób należy także przywołać koncepcje „kina rozszerzonego”. Tym bardziej, że czytając po latach książkę Gene’a Youngblooda(32) nie wiadomo, czy większe wrażenie może robić znakomita znajomość filmowych poszukiwań artystów  i zakres podejmowanych przez autora tematów, czy też spekulacje na temat możliwych scenariuszy przyszłego rozwoju kina eksperymentalnego. Pisząc w epoce „paleocybernetycznej”, jak sam ją nazywa, Youngblood niezwykle przenikliwie antycypował szereg zjawisk cyberkulturowych charakterystycznych dla  teraźniejszości. Kiedy pisze, że „bazą każdego programu jest algorytm – opisujący zestaw danych określających parametry albo cechy istotne pewnych problemów, że komputery mogą być zaprogramowane tak, by symulować „konceptualną kamerę” oraz inne konceptualne procedury filmowania”(33), to wyraźnie odnosi się do możliwości, jakie wiąże się dziś z „algorytmicznym montażem” (o którym wspomina w eksplikacji autorskiej do Soft Cinema Manovich). Ponadto jest to odwołanie do software’u jako pewnego rodzaju instrukcji sterującej pracą hardware’u(34).
W pionierskiej książce Youngblooda znaleźć można szereg trafnych (jak się okazało), supozycji odnośnie zmian, jakie zajdą w kinie pod wpływem technologii komputerowych, co z kolei spowoduje powstanie prawdziwego „kina cybernetycznego”. Takiego, które dziś stało się faktem. Idea „poszerzania” kina oraz redefiniowania pojęcia filmu wywiedziona z opisywanych (i postulowanych) przez Youngblooda eksperymentów z lat 60. i 70., znajduje kontynuację we współczesnym kinie cyfrowym, którego jedną z wersji jest propozycja Manovicha i Andreasa Kratky’ego. Odwoływanie się do tradycji, świadomość ciągłości kulturowej jest stałym elementem zarówno teoretycznej, jak i praktycznej działalności Manovicha. Soft Cinema można także potraktować jako praktyczny wyraz specyficznego stosunku do przeszłości, który dałoby się określić mianem meta-medializmu, jednej z głównych cech całej kultury komputerowej „przepracowującej” stare media (co można też nazwać swoistym ich „mapowaniem” (35) ). Ontologiczna baza cyfrowa nowych mediów stanowi naturalną podstawę tego typu działalności artystycznej, będącej z kolei wyrazem szerszych tendencji współczesnej cyberkultury opierającej się na nieustannych remiksach kulturowych.

3

Soft Cinema można odczytać także w tym kluczu – jako strategię meta-medialną redefiniującą tradycyjny model kina i konstytuującą nowy paradygmat filmu w epoce digitalnej. Albo – inaczej rzecz ujmując – w czasach „wyobraźni kinematograficznej po filmie”, by odwołać się do podtytułu wielkiej wystawy, jaka miała miejsce w ZKM w Karlsruhe na przełomie roku 2002 i 2003. Tam też po raz pierwszy została zaprezentowana omawiana praca, jako rodzaj instalacji umieszczonej w kontekście kilku innych projektów odwołujących się do idei „kina bazy danych”. Swoistym kontekstem dla Soft Cinema były na wspominanej wystawie realizacje w różny sposób wykorzystujące koncept bazy danych w realizacjach filmowych, choć oczywiście trzeba tu pamiętać o szerokim rozumieniu pojęcia „film” (i „kino”). Nim zaprezentuję poglądy na ten temat samego Manovicha, warto na chwilę odnieść się do artykułu Marshy Kinder(36), która, analizując kilka zaprezentowanych w Karlsruhe prac, przedstawia polemiczne ujęcie kina posługującego się „narracją bazodanową”(37). Kinder w  roku 1997 rozpoczęła współpracę z Annenberg Center for Communication na uniwersytecie kalifornijskim w ramach The Labyrinth Project, inicjatywy badawczej dotyczącej dialogu pomiędzy językiem kina tradycyjnego a nowymi mediami, ze szczególnym uwzględnieniem interaktywnych możliwości, jakie stwarzają struktury bazy danych oferowane przez media cyfrowe. W efekcie powstały trzy prace w różnoraki sposób posługujące się bazą danych w celu stworzenia interaktywnej formy narracji, a przy tym silnie odwołujących się do „starych” mediów (na przykład teorii Siergieja Eisensteina). To także przykłady meta-medialnego działania artystów nowych mediów wykorzystujących media stare.
Pokazane na Future Cinema Bleeding Trough: Layers of Los Angeles, 1920-1986 (2002) Normana M. Kleina, Rosemary Comella i Andreasa Kratky’ego, Tracing the Decay of Fiction: Encounters with a Film by Pat O’Neill (2002) Pata O’Neill’a i The Danube Exodus: The Rippling Currents of the River (2002) Pétera Forgácsa – choć różniły się rzecz jasna szeregiem szczegółowych rozwiązań, to jednak zaliczały się do tej samej „klasy” dzieł, czyli interaktywnych instalacji wykorzystujących DVD i posługujących się narracją bazodanową. Kwestia interaktywności jest podstawowym elementem odróżniającym te prace od  pokazywanego wraz z nimi w jednym module wystawienniczym Soft Cinema. Swój sceptycyzm co do interaktywności, na przykład w strategiach artystycznych, Manovich wyrażał wielokrotnie – wystarczy przywołać być może najbardziej radykalny artykuł zatytułowany On Totalitarian Interactivity. (Notes from the Enemy of the People)(38). Napisany w mocno zgryźliwym tonie tekst pokazuje zasadnicze różnice w pojmowaniu interaktywności przez artystów oraz teoretyków z Zachodu i Wschodu. Być może taka dystynkcja może wyglądać nieco sztucznie i zbytnio wikła się w kontekst polityczny, ale nie sposób jej całkowicie bagatelizować. Nie jest bowiem przypadkiem, iż tacy twórcy jak Alexei Shulgin, Boris Groys i Manovich dosyć zgodnie podpisują się pod takim stwierdzeniem: „Dla Zachodu, interaktywność jest doskonałym wehikułem dla idei demokracji i równości. Dla Wschodu, jest to kolejna forma manipulacji, która polega na używaniu przez artystów zaawansowanych technologii do narzucania jednostce totalitarnej woli większości”(39). Manovich do znanych argumentów wyrażanych przez wrogów fetyszyzowania interaktywności (czytaj pseudo-interaktywności) w cyberkulturze, interaktywności jako totalitarnej formy sztuki cyfrowej, dorzuca własną uwagę. Dotyczy ona całej „sztuki klasycznej”, a już zwłaszcza modernistycznej, która z natury swojej była „interaktywna”. Wymagała bowiem od widza aktywnego współtworzenia, owego po Ingardenowsku rozumianego wypełniania miejsc niedookreślonych, dzisiaj powiedzielibyśmy: jednostek informacji.
Kolejnym, fundamentalnym zagadnieniem i obszarem teoretycznego sporu jest kwestia stosunku narracji do bazy danych. Poglądy Lva Manovicha są w tej materii, jak zwykle zresztą, wyraziste i jednoznaczne: „Baza danych rozumiana jako forma kulturowa przedstawia świat w postaci listy elementów, których w żaden sposób nie porządkuje. Natomiast narracja tworzy ciągi przyczynowo-skutkowe z pozornie nieuporządkowanych elementów (wydarzeń). Baza danych i narracja są zatem naturalnymi wrogami. Dążą do panowania nad tymi samymi obszarami ludzkiej kultury, a każda z nich uzurpuje sobie wyłączne prawo, by konstruować znaczenie świata”(40). Oczywiście tak radykalne przeciwstawienie narracji bazie danych budzi szereg wątpliwości, a próbą przekroczenia tak sformułowanej dychotomii jest stanowisko Kinder, która postrzega „bazę danych i narrację jako dwie kompatybilne struktury, których kombinacja jest istotna dla ekspansji nowych mediów, ponieważ narracje są obecnie tworzone przez wybór elementów z baz danych”(41). Powstaje pytanie, kto tworzy te narracje i komu należy przypisać rolę głównego sprawcy, czynnie wspomagającego i aktywującego dany projekt. O ile perspektywa Manovicha utrzymuje prymat autora (choć on sam zrzeka się władzy absolutnej na rzecz zaprojektowanego przez siebie i usamodzielniającego się software’u), o tyle w przywołanych pracach zasadą konstytutywną jest określenie pozycji odbiorcy jako tego, który staje się swoistym „performerem” urzeczywistniającym proces narracji, „tak jak aktor interpretuje rolę, muzyk realizuje zapis dźwiękowy albo tancerz wykonuje tradycyjne figury”(42). Taka perspektywa jest mi zdecydowanie bliższa, tym bardziej, że teoretyczna ortodoksja Manovicha w tym względzie nie znajduje potwierdzenia nawet w jego własnych realizacjach. Oczywiście od razu pojawia się pytanie o to, czy w takim sporze dyskutanci, mówiąc na przykład o „bazie danych”, myślą o tym samym. Może być to powodem nieporozumień, zwłaszcza że Kinder traktuje kategorię bazy danych w odniesieniu do filmu dosyć szeroko, odwołując się do takich przykładów z obszaru kina głównego nurtu jak Urodzeni mordercy (1994) Olivera Stone’a, Pulp Fiction (1994) Quentina Tarantino, Biegnij Lola, biegnij (1998) Toma Tykwera czy Mulholland Drive (2001) Davida Lyncha. Takie podejście musi budzić wątpliwości, tak jak przytaczanie w tym kontekście refleksji samego Luisa Bunuela z jego epizodu amerykańskiego, kiedy to stworzył przewrotną „tablicę synoptyczną filmu amerykańskiego”, którą można potraktować jako specyficzny rodzaj bazy danych(43). Z kolei Manovich wyraźnie zawęża przykłady twórczości posługującej się narracją bazodanową. Z jednej strony odnosi się do Człowieka z kamerą (1929) Dzigi Wiertowa, którego uważa za matrycę i punkt odniesienia w badaniu języka nowych mediów, z drugiej zaś ze współczesnych twórców filmowych przywołuje właściwie jedynie twórczość Petera Greenawaya. Trzeba jednak dodać, że Manovich ma świadomość, iż teoretyczne systematyzacje, kiedy odnosimy je do konkretnych realizacji, tracą swą jednoznaczność; praktyka zawsze przynosi sytuacje osłabiające wyrazistość konstruktów teoretycznych. „Tak jak nowe media w ogóle, baza danych dopuszcza współistnienie różnych punktów widzenia, różnych modeli świata, różnych ontologii, różnych etyk. Narracja daje jedną interpretację świata, pojedynczy model. To oczywiście bardzo schematyczna opozycja, nie zawsze prawdziwa”(44). Otóż to – ów schematyzm teoretycznych modeli powoduje, że wzajemne relacje narracji i bazy danych dopiero w konkretnych przykładach ukazują całą swą złożoność i niejednoznaczność. Jeśli dodamy do tego różniące się od siebie, czasem w znaczący sposób, definicje narracji (ale też bazy danych), to łatwiej zrozumiemy dlaczego wypracowanie tu jakiegoś kompromisu nie jest rzeczą prostą.  
Rekonstrukcję założeń teoretycznych pierwszej wersji Soft Cinema (czyli de facto projektu Texas, bo tylko on został zaprezentowany na Future Cinema w ZKM) opieram przede wszystkim na katalogu wystawy(45). Wykorzystuję jednak także inne dokumenty (wywiady, zapisy wideo) publikowane przy okazji prezentacji tej wersji pracy na kilku festiwalach i w centrach sztuki nowych mediów, takich jak Transmediale w Berlinie, European Media Art Festival w  Osnabrück, DEAF w Rotterdamie,  Institute of Contemporary Arts w Londynie czy InterCommunicationsCenter w Tokio. Twórcy projektu zakładali przynajmniej trzy różne formy jego prezentacji, uzależniając je od możliwości wystawienniczych, ale swoista wariantowość ekspozycyjna była też zapewne wyrazem specyficznego rozumienia obiektu sztuki w epoce cyfrowej. Instalacja składająca się z kilku komputerów i projektorów czy też monitorów, taśma wideo czy DVD w wersji linearnej albo pojedyncze stanowisko komputerowe – to możliwe wersje funkcjonowania tego projektu. Wydaje się, że pomimo pewnych różnic, kolejne wersje (także tę ostatnią opublikowaną na DVD) można rozpatrywać jako wciąż to samo dzieło zachowujące integralność. Przywołajmy zatem podstawowe idee, które stanowiły rodzaj teoretycznych, ale i estetycznych przedzałożeń twórczych.
Soft Cinema opiera się na czterech zasadniczych fundamentach: algorytmicznym montażu, narracji opartej na bazie danych, makro-kinie i kinie multi-medialnym. Te cztery aspekty determinujące proces tworzenia dają w efekcie coś, co Manovich nazwał „suprematyzmem dla generacji lounge”(46), co w tym momencie w mniejszym stopniu charakteryzuje właściwości pracy, natomiast bardziej odnosi się do sposobu i warunków percepcji, czyli swoistej architektury miejsca prezentacji, która w tym przypadku była integralnym elementem ekspozycji. Mnie jednak interesuje przede wszystkim istota samej realizacji w wersji DVD, w związku z czym ten problem pomijam. Podstawą algorytmicznego montażu jest baza 425 klipów filmowych zrealizowanych (w większości przez samego Manovicha) między innymi w Berlinie, Tokio, Rydze, Amsterdamie, Los Angeles pomiędzy 1999 a 2002 rokiem, wedle zasad opisanych w manifeście Dogmy 95. Każdy z klipów został opisany przez szereg parametrów formalnych (kolor, ruch kamery, kontrast etc.). Parametry te analizowane są algorytmicznie, a zaprojektowany software przy każdorazowym uruchomieniu tworzy nową wersję „filmu” kreowanego w niepowtarzalny sposób. Zatem, przynajmniej teoretycznie, za każdym razem software „produkuje” inną wersję filmu. Dodajmy, że nie chodzi tylko o zestawienia obrazowe, ale także o muzykę, dźwięk, elementy graficzne, teksty, czytany z offu komentarz.  W odróżnieniu od dominującej tendencji do prostej synchronizacji obrazu i dźwięku, adaptuje się tu rozwijane przez Eisensteina pomysły montażowe z zakresu kontrapunktycznych zestrojów obrazowo-dźwiękowych. Z kolei kategoria makro-kina jest tutaj rozumiana jako naturalna forma adaptacji przez kino konsekwencji przełamania zasady „jeden ekran – jeden kadr”. Warto dodać, że w tej realizacji sposób „zakomponowania” ekranu przez użycie kilku sub-ekranów nie tylko mapuje konwencje monitora komputerowego, z jego wielością równoległych czy równoczesnych okien (które w gruncie rzeczy są wobec siebie niezależne), ale i ustanawia nowy sposób zależności. Bowiem to właśnie software jako generator kolejnych wersji realizacji, analizuje cechy poszczególnych „elementów” bazy danych i steruje procesem „samowytwórczości”. Choć sam Manovich nie odwołuje się bezpośrednio do teorii systemów autopojetycznych, to nie sposób nie dostrzec, że wewnętrzna zasada „działania” Soft Cinema jest podobna do działania takich systemów. Ich istotą jest specyficzny rodzaj samoreferencji, taki sposób organizacji, w którym wewnątrzsystemowe procesy sterują innymi wewnątrzsystemowymi procesami. Operacyjnie zamknięty system może się nieustannie samo-reprodukować  . Oczywiście w pracy Manovicha czynnikiem napędzającym, czy też wyzwalającym ten proces, jest jądro systemu –zaprojektowany przez twórców software. Dlatego, choć Soft Cinema może być określone jako rodzaj „miękkiego kina” w odróżnieniu od „twardego kina” tradycyjnego, to zasadniczo należałoby odnieść owo „soft” do kwestii software’u. „Twarde kino” to model właściwy dla kinematografii sankcjonującej – jak pisze Manovich (48) – logikę powtarzalności, sekwencyjności i zdeterminowanej narracyjności wywiedzioną z logiki epoki industrialnej, dla której wprowadzona w roku 1913 taśma Forda jest rodzajem punktu odniesienia i wzorcem produkcji. Oczekując na nowy rodzaj kina, które właściwe będzie epoce informacyjnej, „projekt Soft Cinema generuje nowe formy filmowe używając technologii społeczeństwa informatycznego – cyfrowego komputera”(49). Pamiętajmy jednak, że dla Manovicha genealogia cyfrowego przełomu związana jest z kinem jako główną kulturową siłą XX wieku. Widać to wyraźnie także w tej realizacji, z jednej strony próbującej tworzyć nowy sposób opowiadania, z drugiej jednak silnie zakorzenionej w tradycji. Wystarczy tylko wspomnieć o wykorzystaniu konwencji voice-over, która powoduje, iż fabularna konstrukcja w kolejnych wersjach pozostaje w gruncie rzeczy niezmienna, zachowując klasyczną formę zamkniętej opowieści (z początkiem, środkiem i zakończeniem), choć generowanej w sferze obrazowej z elementów „przypadkowo” komponowanych. Cudzysłów jest konieczny, bowiem mamy tutaj do czynienia z przypadkiem kontrolowanym (przez software). „Miękkie kino” nie jest jakimś ekstremalnym zerwaniem z „twardym kinem”, choć oczywiście jest krokiem w stronę innej formy kina poszerzającej jego granice. Dlatego można mówić też o nowej formule „kina rozszerzonego”. Jan Baetens puentuje tę kwestię następująco: „Podczas gdy „twarde” kino wychodzi od głównego zarysu fabuły, ilustrowanego przez scenariusz, zdjęcia i montaż obrazów, „miękkie” kino konstruuje historię poprzez łączenie, czasem przypadkowe, czasem przez następstwo wymuszone algorytmem, opisanych fragmentów wizualnych znajdujących się w bazie danych”(50).  
W czołówce filmu Texas pojawia się taka informacja: „Eksperyment ten dotyczy „czystej” estetyki bazy danych. W filmie z elementów bazy danych montowane są elementy wizualne, dźwiękowe, narracyjne, a nawet tożsamość bohaterów”. Teoretycznie software za każdym razem produkuje niepowtarzalną wersję filmu, choć elementem stałym jest narracja czytana z offu. Oglądając film wielokrotnie (w wersji DVD) owa „niepowtarzalność” wygląda jednak problematycznie. Można zauważyć rekontekstualizację kolejnych okien względem siebie i względem pojawiającego się w formie przepływających napisów tekstu, choć generalnie trudno to uchwycić. Można powiedzieć, że to, co w opisie wygląda jako radykalne zerwanie z tradycyjnym konstruowaniem (bądź dekonstruowaniem) klasycznej narracji, z jej powtarzalnością i linearnością, w trakcie „projekcji” nie jest już takie oczywiste. Nawet jeśli zbagatelizujemy te wątpliwości, to i tak pozostaje pytanie, czy kolejne akty performatywne same w sobie nie są kolejnymi wersjami zamkniętej struktury narracyjnej generowanej przez software. To osłabiałoby mocną tezę autora, że narracja z natury rzeczy jest wrogiem bazy danych. Ten typ narracji będącej wynikiem zabiegów algorytmicznych – przypominających także eksperymenty Briana Eno z kompozycjami algorytmicznymi tworzonymi przez niego w połowie lat 90. czy też z muzyką generatywną – można za Stevenem Andersonem nazwać „narracją ambientową”(51).

4

Wzajemne relacje narracji i bazy danych okazały się istotnym zagadnieniem w okresie, gdy struktury hipertekstowe, a później hipermedialne, stały się nowym modelem magazynowania danych przełamującym dominację struktur linearnych i narracyjnych. Przejście od analogowości do cyfrowości miało różnorakie konsekwencje, od sposobu zapisu danych na nowych nośnikach, przez innowacyjne koncepcje gromadzenia informacji, aż do kształtowania się zupełnie nowych możliwości „czytania”, najczęściej zrywającego z zasadami sekwencyjności i linearności oraz logiką tekstu jako matrycy i modelu dla odczytywania w różnoraki sposób gromadzonych danych. Pod tym względem fenomenem bezpośrednio poprzedzającym eksperymenty Manovicha był CD-ROM, który nim na dobre zadomowił się w galerii nowych mediów, okazał się medium wyłącznie przejściowym, łącznikiem pomiędzy starymi (analogowymi) a nowymi (cyfrowymi) mediami. Dziś, zaledwie po kilku czy kilkunastu latach, zdarza się, że uruchomienie „starego” CD-ROMu wymaga rodzaju emulatora, który duplikuje czy symuluje pracę programów dzisiaj już nie wykorzystywanych, a jeszcze do niedawna będących standardowymi wyposażeniami komputerów. W pewnym sensie jednak geneza pomysłu Soft Cinema tkwi właśnie w możliwościach, jakie pojawiły się wraz z CD-ROM-em jako protoplastą DVD. Te możliwości, mówiąc najkrócej, zapowiadały taką formę gromadzenia danych (ale i tworzenia hipermedialnych form opowiadania) które rozpięte były pomiędzy procesualnością i linearnością klasycznych struktur narracyjnych a zbiorami danych opierającymi się na zasadzie bezpośredniości dostępu za sprawą  nieliniowych indeksów.
Klasyczna już dziś seria pięciu CD-ROM-ów (i towarzyszących im publikacji książkowych) opublikowanych przez ZKM w serii „artintact”(52) w latach 1994-1999 prezentowała pionierskie prace interaktywne odwołujące się do nowej formuły „księgi”, nazwanej przez Petera Weibela „księgą post-gutenbergowską”(53). Jej hipertekstową albo hipermedialną naturę wyznacza antynarracyjna  natura, otwarcie na kolejne wersje, szczególny stosunek tekstu i obrazu, encyklopedyczna struktura – wszystkie te cechy skłaniają Weibla do stwierdzenia, że „CD-ROM jest kontynuacja formy ‘szczególnej księgi’”(54), w której nie ma ograniczeń wynikających z pojedynczej strony, bowiem w naturalny sposób przybiera ona formę struktury sieciowej. Opiera się zatem na idei linkowania, a przecież Soft Cinema w pewien sposób nawiązuje do tej zasady, bowiem generujący go software dokonuje nieustannego wewnętrznego linkowania elementów uprzednio stworzonej bazy danych, która jednak nie predeterminuje ostatecznego kształtu danego „wykonania” pracy. To jedna zresztą  z zasadniczych cech, która odróżnia „miękkie” i „twarde” kino – o ile w pierwszym przypadku chodzi o otwarty proces tworzenia niepowtarzalnych wersji, to w drugim przypadku predeterminowana struktura jest tylko odtwarzana. Opozycja samowytwarzania (tworzenia ciągle nowych wersji) i odtwarzania (powtarzalności ciągle tej samej wersji) – leży u podłoża tego pomysłu.  
Nie sposób nie dostrzec, że doniosłość prezentowanego eksperymentu dotyczy przede wszystkim poziomu teoretycznego, bowiem sama realizacja sprowadza sięów do dosyć konwencjonalnego zestawu obrazów odwołujących się do tradycji „city film” ukształtowanego w latach 20. ubiegłego stulecia. Podczas gdy Paryż śpi (1923) René Claire’a, Mijają godziny (1926) Alberto Cavalcantiego, Berlin, symfonia wielkiego miasta (1927) Waltera Ruttmana czy Człowiek z kamerą (1929) Dzigi Wiertowa są portretami konkretnych miast, to Texas, wedle swego twórcy, ma być portretem „globalnego miasta” złożonego z elementów miast, w których realizowane były zdjęcia (klipy). Kamera rejestruje miejsca fizycznie oddalone, ale połączone przez rodzaj przestrzennego montażu miksującego obrazy w kilku oknach równocześnie. Daje to wrażenie poruszania się równocześnie na kilku poziomach rzeczywistości, przeszłość miesza się z przyszłością, Wschód z Zachodem, złożona ścieżka dźwiękowa jest rodzajem kolażu prezentującego specyfikę pejzażu miejskiego. Dodać do tego trzeba także muzykę tak znanych postaci współczesnej sceny eksperymentalnej jak George Lewis, Robin Rimbaud (aka Scanner) i DJ Spooky (Paul D. Miller). To ze wspólnej płyty tych dwóch ostatnich The Quick and The Dead (1999) pochodzi wykorzystana w Texas muzyka, będąca rodzajem spotkania artystów, którzy w swej działalności także odwołują się do filozofii bazy danych. Wystarczy przypomnieć eksperymenty DJ-a Spooky z samplowaniem i miksowaniem rozmaitych, często bardzo odległych od siebie gatunków, tradycji, rodzajów muzycznych oraz multimedialne praktyki Scannera polegające na nagrywaniu i opracowywaniu dźwięków pochodzących z otaczającej go rzeczywistości, publicznych miejsc, w których spektrum dźwiękowe jest właściwie nieograniczone. Korzystając z takiego materiału, ale też wykorzystując dźwięki telefonów komórkowych czy sygnały radiowe, Scanner tworzy przedziwny muzyczny kolaż, który powstaje w wyniku posługiwania się bazami danych.    
Idea tak działającego software’u budzi skojarzenia z Cage’owskimi eksperymentami wykorzystującymi przypadek jako strategię artystyczną. Każda wersja jest rodzajem „rzutu kośćmi” z poematu Stéphane’a Mallarmé’go. Na marginesie można dodać, że taka formuła kina jest poważnym, lecz świadomym ograniczeniem roli reżysera jako głównego sprawcy wydarzenia ekranowego. Dostrzec to można także w wielu innych współczesnych realizacjach. Kiedy ogląda się „fabularny” Ten (2002) Abbasa Kiarostamiego, albo „eksperymentalną impresję” Five. Dedicated to Yasujiro Ozu (2003) tego samego reżysera (?), który oddaje przypisaną mu przez tradycję „władzę”, to można odnieść wrażenie, że filmy te „zrobiły się same”. Innym przypadkiem nowego rozumienia reżyserii filmowej może być przywoływany Timecode Figgisa. Projekty te łączy jedynie fakt, że zostały zrealizowane za pomocą technologii cyfrowej – co właściwie stanowi o różnorodności „kina digitalnego”. Wróćmy do Mallarmé’go, do poematu Rzut kości, który odczytywać można jako nowatorską zapowiedź struktur hipertekstowych, tekst, wykorzystujący w zupełnie nowy sposób płaszczyznę strony (a właściwie stron) oraz typograficzne eksperymenty, który jest swoistą prefiguracją kombinatorycznej gry. Potem zaś przywołajmy Demona analogii, jego krótki poemat prozą. Praca Manovicha, być może mimochodem, jest audiowizualną wykładnią zawartej w poemacie filozofii, która rozpięta jest pomiędzy pragnieniem ostatecznego uporządkowania a świadomością roli przypadku w świecie. W Soft Cinema wewnętrzne napięcia i kombinacje bazodanowych elementów nieustannie, ciągle na nowo, w technologicznej pętli potwierdzają zdanie poety, iż „rzut kości nigdy nie obali przypadku”. Co ciekawe, pracujący wiele lat nad swoją „księgą” (którą przed śmiercią kazał spalić, czego nie uczyniono), Mallarmé uciekał się do spekulacji liczbowych, jakby przeczuwając, że nadchodzi czas liczby, cyfry, algorytmu, dominacji myślenia formalnego. W ocalałych zapiskach wydanych wiele lat po śmierci poety „przeważają obliczenia typograficzne i inne. Tyleż tam cyfr co i słów. To rozwielmożnienie się liczby ma chyba swoja wymowę”(55)
Demon analogii stał się dla Jean-Paula Fargiera okazją dla błyskotliwej interpretacji właściwości obrazu cyfrowego. Pisze on, że „sposób obróbki obrazów wideo, określany mianem obróbki cyfrowej, pozwala traktować każdy obraz jak przedmiot”(56). Ten „przedmiot” może być dowolnie obrabiany, przekształcany, modelowany na poziomie swoich cech dystynktywnych; tak jak fizyczny przedmiot – tak wirtualny obraz cyfrowy może być obecnie rekomponowany już na poziomie najmniejszej jednostki dyskretnej jaką jest piksel. Choć w omawianej realizacji software nie ma możliwości tak radykalnego ingerowania w wizualne, dźwiękowe i tekstowe elementy bazy danych, to wykorzystuje owego „demona analogii”, tutaj traktowanego nieco metaforycznie. Polega to na nieustannej grze skojarzeń, koincydencji, „obiektywnych przypadków”, które ustanawiają niespodziewane związki pomiędzy obrazami, choć związki te są wynikiem pracy „skanującego” software’u. Przeliczając i analizując obrazy (i nie tylko obrazy) software tworzy niezdeterminowaną, rodzącą się na krótki moment konstelację, która być może już nigdy się nie powtórzy. Filozofia analogii i analogiczności w paradoksalny sposób uwewnętrzniona zostaje przez  medium cyfrowe, jakim posługują się twórcy, a właściwie same media cyfrowe – bowiem zanim składowe pracy zostały zintegrowane przez narzędzie hipermedialne, jakim jest tutaj komputer, twórcy używali przecież kamery cyfrowej czy cyfrowych instrumentów muzycznych.
Specyfika artystycznych projektów cyfrowych polega na logice napięć powstających w obrębie złożonych struktur integrujących wielopoziomowe układy odniesień elementów baz danych. Łatwość wzajemnych reakcji na zmiany każdego elementu wynika z ich wspólnej bazy bytowej jaką jest binarny kod ich zapisu. „Dobry projekt cyfrowy, tak jak sztuka digitalna, może zarówno przekształcać swój kontekst, jak i reagować na niego”(57). To, co zazwyczaj w cybersztuce było zewnętrznym kontekstem przekształcającym obiekt, na przykład przez interaktywną rolę wyznaczaną odbiorcy, użytkownikowi, interaktorowi czy też aktywnemu współtwórcy, w tej realizacji – odbijającej teoretyczne poglądy Manovicha na temat (złudzenia) interaktywności w projektach sztuki nowych mediów – zostało zamknięte w wewnętrznym obiegu dzieła, w którym dochodzi do cyrkulacji elementów reagujących na siebie. Być może należałoby nazwać tę sytuację „wewnętrzną interakcyjnością” zaprojektowaną przez twórców i wykonywaną przez software, który przejmuje rolę „wykonawcy” dzieła.
Na Soft Cinema w postaci DVD obok filmu Texas znalazły się jeszcze dwie realizacje, z których każda wykorzystuje zaprojektowany uprzednio software w nieco odmienny sposób. Niezmienna pozostaje zasada działania software’u w czasie rzeczywistym „projekcji” („jednorazowej realizacji”), która nie jest formą odtworzenia pojedynczej, „unikalnej” wersji danego filmu. Każdy z filmów jest rodzajem egzemplifikacji i praktycznej weryfikacji czterech głównych założeń czy też problemów, jakie postawili przed sobą twórcy. Chodzi zatem o współczesny interfejs człowiek-komputer, który dziś już standardowo wykorzystuje ekran/monitor podzielony na kilka okien. Software kontroluje nie tylko wygląd ekranu (liczbę i położenie kilku okien, w których prezentowane są kolejne klipy wizualne), ale i dodatkowe elementy (dźwięki, teksty, fotografie) składające się na kolejną wersję tworzoną z elementów bazy danych. Soft Cinema jest przykładem eksperymentu filmowego, w którym sam film jest tylko jednym z wielu możliwych typów reprezentacji, takich jak ruchoma grafika, animacje 3D, diagramy(58).
Absences – samodzielna, właściwie w pełni autorska (wideografia, muzyka, montaż oraz nieco zmodyfikowana wersja software’u Soft Cinema) praca Andreasa Kratky’ego – jest próbą analizy tego, co w tradycyjnym modelu kina, opartym na zasadzie „jeden ekran jeden obraz”, jest właśnie „nieobecne”. Podczas gdy każdy plan (ujęcie) jest znakiem tego, czego w danym momencie nie widzimy, czyli kontrplanu (przeciwujęcia), w Absences formuła ta zostaje przełamana przez prezentację kilku równoległych strumieni obrazowych. Pokazują one na przykład z innej perspektywy to, co przedstawione w oknie głównym; „zatrzymują” to, co już przeminęło (stając się retrospekcją) czy też dokonują antycypacji narracyjnych (stając się futurospekcją). Napis na początku filmu informuje, że mamy do czynienia z „badaniem bazy danych w postaci czarnego snu, w którym soundtrack swobodnie podąża za obrazami. Parametry wizualne obrazów są analizowane i używane do syntezy dźwiękowej. Jeśli kilka klipów pojawia się na ekranie, towarzyszący im dźwięk staje się coraz bardziej złożony, kolejne ścieżki nakładają się na siebie”. Owe parametry wizualne to w tym przypadku jasność, kontrast, tekstura, ruch, częstotliwość, różnice pomiędzy centrum i marginesem oraz dołem i górą obrazu. Każdy z parametrów został odpowiednio opisany za pomocą kodu numerycznego. Kombinacja tych danych, „czytanych” i przekształcanych przez software, organizuje i rozwija każdorazowo nową wersję narracji bazodanowej. Podobnie zostały opisane i poklasyfikowane dźwięki, które „dopasowują” się do obrazów, co w specyficzny sposób synchronizuje narrację wizualną z narracją dźwiękowo-muzyczną.
Nie można jednak zapominać, że stałym elementem każdego odtworzenia/tworzenia jest spinający całość tekst pojawiający się w formie przepływających przez ekran napisów w paskach przypominających tak obecnie rozpowszechnione paski z napisami w programach informacyjnych. Cała opowieść brzmi tak: „Odchodzę dzisiaj. Będę szukał innego miejsca, to jest nierzeczywiste. Wszystko jest częścią wyobraźni. Nikt nie chce bym został, nawet mój przyjaciel. Chcę się spakować i odejść dziś w nocy, ale nie będę brał zbyt dużego bagażu. Może powinienem ją zobaczyć nim odejdę. Dziś jest jego ślub, nie znam panny młodej, ale Ken był zawsze miłym facetem. Lubię go, miał wiele trudności. Był taki samotny i zagubiony w świecie, wyobcowany. Wiem, co to znaczy zdziwienie otoczenia. To dobrze, że znalazł sobie kogoś. Mam dziwną więź z tym miejscem. Może zbyt długo tu byłem. Przypomina mi to jak skakałem z kamienia na kamień, próbując znaleźć się pomiędzy nimi. Powinienem teraz odejść”. Przytoczyłem ten tekst, bowiem jest on niejako kolejnym potwierdzeniem, że w gruncie rzeczy w Soft Cinema nie chodzi o odrzucenie narracyjności jako mechanizmu budowania filmowego dyskursu, nie chodzi też o zanegowanie fabularności jako domeny tradycyjnego kina. Badanie strukturalnej natury kina i odwoływanie się do tradycji poszukiwań spod znaku filmu strukturalnego nie musi być tożsame, jak się okazuje, z całkowitym zanegowaniem warstwy fabularnej. W Absences, w którym pojawia się szereg ujęć bliskich abstrakcyjnym obrazom, mimo wszystko, a może właśnie za sprawą przywołanego tekstu, konstruowana jest spójna całość audiowizualna, oparta na koherencji elementów ją tworzących, nawet jeśli są one komponowane i dekomponowane za pomocą programu. Jednocześnie mamy do czynienia ze swoistym odwołaniem do narracji subiektywnej, albo raczej do subiektywizacji spojrzenia bohatera (tego, którego „opowieść tekstowa” pojawia się w postaci napisów), co jest niczym innym jak rodzajem personifikacji kamery, jej subiektywnym użyciem.
Mission to  Earth jest najdłuższym i najbardziej rozbudowanym przedsięwzięciem w ramach Soft Cinema. Projekt powstał w ramach działalności kuratorskiej BALTIC – The Centre for Contemporary Art w Gateshead w Wielkiej Brytanii na przełomie 2003 i 2004. Co ciekawe, film ten jest wyraźnym odwołaniem do konwencji opowieści z gatunku science-fiction, opowiada bowiem o „obcej”, przybywającej na Ziemię z planety Alpha-1 – pod względem rozwoju technologicznego i kulturowego będącej dwadzieścia lat w tyle za Ziemią – w celu wypełnienia swego rodzaju misji etnograficznej. Elementy autobiograficzne (przybycie Lva Manovicha ze Związku Radzieckiego do Ameryki) tej historii mogą tu stanowić nęcący trop interpretacyjny. Ale pomimo w miarę spójnej opowieści (znów voice-over spaja wątki fabularne) znowu jej wizualizacja, by tak rzec, za każdym razem przybiera nieco inną formę. Tym razem szczególną rolę w kreowaniu ostatecznego wyglądu konkretnej wersji mają komponenty ruchomej grafiki komputerowej wchodzące w interakcje z materiałem wideo. W „Mission to Earth – informuje napis w czołówce – dodatkowe okna pokazują nam to, co w danym momencie widzi, myśli, przypomina sobie główna bohaterka. Ruchoma grafika podąża za opowieścią, wizualizując jej tematy oraz uczucia bohaterów”. Ten dwudziestotrzyminutowy film zrealizowany w dużej części w nieczynnym teleskopie radiowym Irbene na Łotwie (zbudowanym w roku 1971 i służącym niegdyś do śledzenia satelitów krążących pomiędzy Europą i Ameryką Północną), chwilami może kojarzyć się zarówno z Solaris (1972) jak i Stalkerem (1979) Andrieja Tarkowskiego. Od roku 2001 Irbene jest miejscem spotkań, warsztatów i rozmaitych wydarzeń organizowanych przez RIXC, centrum nowych mediów z Rygi. W tym to miejscu (obok Newcastle, Tokio, Rotterdamu) rozgrywa się akcja filmu. W głównej roli wystąpiła (kreując postać Ingi) łotewska artystka, kuratorka i pisarka Ilze Black. Praca ta ma bodaj najbardziej rozbudowaną warstwę fabularną, ale też niezmiernie istotną rolę odgrywają tu projekty graficzne zrealizowane przez międzynarodową grupę artystów, architektów i designerów „servo”, wykorzystującą nowoczesne technologie informatyczne w projektowaniu oraz w pracach badawczych dotyczących nowej, „medialnej architektury”.
Doświadczenia emigracji (w różnym wymiarze – od autobiograficznego do alegorycznego), kwestia „zmiennej tożsamości”, ontologiczny montaż(59) kładący większy nacisk na przestrzenny walor realizacji, autorefleksywność, ale też podejście „remediacyjne” w stosunku do przeszłości i do mitu „nowości nowych mediów” – to tylko niektóre z poruszanych przez tę pracę zagadnień i problemów. Kiedy mówię o remediacji, mam na myśli przede wszystkim propozycje teoretyczne przedstawione przez Davida Jaya Boltera i Richarda Grusina w książce Remediation: Understanding New Media(60). Choć w Języku nowych mediów praca ta jest przywołana bodaj tylko raz, nie ulega wątpliwości, że przedstawione w niej rozumienie nowych mediów bliskie jest Manovichowi, a jego koncepcje stanowią specyficzne rozwinięcie pomysłów obu autorów.
Zarówno w teorii jak i w praktyce Lev Manovich reprezentuje w gruncie rzeczy stanowisko podobne do Boltera i Grusina, dla których „to, co nowego w nowych mediach pochodzi ze szczególnego sposobu przemodelowania starych mediów i tego, jak media starsze przekształcają się pod wpływem wyzwań płynących od nowych mediów”(61). To właśnie remediacja jest pojęciem i procesem kluczowym dla zrozumienia mediów i nowych mediów. „Medium, to coś, co jest poddawane remediacji”(62). „Nazywamy remediacją reprezentację jednego medium w innym oraz twierdzimy, że jest ona cechą definiującą nowe media cyfrowe”(63). Problem remediacji nieco wcześniej pojawił się także w koncepcjach Paula Levinsona, który szkicując genealogię rozwoju mediów odwoływał się do ich teleologicznej natury i do zasady antropotropicznej, która polegać ma na dostosowywaniu się mediów do potrzeb i możliwości percepcyjnych człowieka oraz odtwarzaniu przez nie naturalnych sposobów komunikowania się ludzi. Remediacja w tym procesie znaczy tyle, że nowe media i technologie udoskonalają i stanowią rodzaj środka zaradczego na niedoskonałości i niewydolność starych mediów(64). Cyfrowe kino w wydaniu Manovicha i Kratky’ego to także rodzaj działalności remediacyjnej. Na bazie tradycyjnego kina „twardego”, artyści poszukują nowej formuły kina w czasach digitalnych; to jeszcze jedno odniesienie do pojęcia bazy danych, bo taką bazą danych są przecież wytworzone w procesie historycznej ewolucji konwencje, formy, elementy stylistyki i poetyki kina. To one podlegają remediacji, która dokonuje się nie tylko przez stosowanie nowych cyfrowych narzędzi, ale i nowego podejścia do filmu jako medium. Manovich mówi w wielu swoich wypowiedziach o strategii remiksu, którą należałoby traktować jako dominującą tendencję w sztuce współczesnej, zwłaszcza tej, która posługuje się nowymi mediami. Chodzi tutaj głównie o cybersztukę oraz, szerzej rzecz ujmując, działalność, która opiera się na wykorzystaniu nowych mediów i technologii. Komputer – maszyna hipermedialna – jest instrumentem służącym do remiksowania wszelkich treści(65).
Niewątpliwie samoświadomość twórców i metajęzykowe zabiegi w ramach Soft Cinema czynią z tego projektu ważną wypowiedź na temat możliwych scenariuszy rozwoju i przemian sztuki ruchomego obrazu. Obecny jest tu jednak jeszcze jeden istotny wątek wskazujący na pokrewieństwa i kontynuację poszukiwań twórców w ramach tendencji autorefleksywnych w kinie. Choć historycy i teoretycy nieraz spierali się co do najważniejszych wyróżników filmu strukturalnego – bo o tej tradycji myślę – to jednak najczęściej pozostawali zgodni co do tego, że zalicza się do nich właśnie autorefleksywność. Soft Cinema to swoista mutacja filmu strukturalnego, bo przecież tu także film jest rodzajem zapisu jego realizacji, jak chciał Peter Gidal, ale też w pewnym sensie sam proces filmowy staje się tematem filmu, co z kolei podkreślał Paul Sharit(66). Jednocześnie film strukturalny można rozpatrywać jako zapowiedź sztuki hipermedialnej(67). Soft Cinema byłby przykładem realizacji tych zapowiedzi, a także istotnym głosem w dyspucie na temat miejsca i charakteru filmu w cyberkulturze.
Wskazywane tu różnorodne inspiracje, podobieństwa, zapożyczenia oraz świadome i nieświadome nawiązania do innych dzieł, tendencji, poszukiwań – nie podważają oryginalności samej realizacji, nie „denominują” jej wartości. Wypada jednak jeszcze raz podkreślić, że ten sposób eksperymentowania czy tworzenia nowych dzieł polega nie tyle na zestawianiu elementów innych dzieł, ile na korzystaniu z wielkiej biblioteki kulturowej gromadzącej obiekty, które mogą być zaadaptowane, przekształcone, na nowo poskładane jak klocki lego albo elementy ze sklepów IKEA (takiej metafory użył kiedyś zresztą sam Lev Manovich(68)). Konstatacja taka nie powinna specjalnie dziwić – Manovich od lat na różnych polach bada nowe media, nieustannie przy tym podkreślając, jak ważna jest w ich kontekście świadomość kulturowej ciągłości. Bo choć często w dyskusji o cyberkulturze pojawia się określenie „rewolucja”, to w istocie zmiany w jej obszarze rzadko bywają gwałtowne. Najczęściej są one wynikiem długich procesów ewolucyjnych, w których kształtują się nowe narzędzia, teorie, wartości.  

PRZYPISY:
 1. Zob. L. .Manovich, 10 Key Texts on New Media Art. 1970-2000. Dostępny w internecine: http://www.manovich.net/digitalsalon.htm 
 2. G. Youngblood, Expanded Cinema, New York 1970.
 3. C. Goodman, Digital Visions. Computers and Art, New York 1987.
 4. F. A. Kittler, Discourse. Networks. 1800/1900, Stanford 1990.
 5. E. Aarseth, Cybertext. Perspectives on Ergodic Literature, Baltimore 1997.
 6. U. Poschardt, DJ Culture, Londyn 1998.
 7. L. Manovich, Język nowych mediów, tłum. P. Cypryański, Warszawa 2006.  
 8. Pisałem o tym już przy innej okazji. Zob. P. Zawojski, Wszystko co chcielibyście wiedzieć o nowych mediach, „Kultura Współczesna” 2006, nr 4. 
 9. L. Manovich, Język…, dz. cyt., s. 66.
 10. Zob. L. Manovich, The Engineering of Vision from Constructivism to Computers. Dostępny w internecie: http//www.manovich.net         
 11. Pamiętając o przywołanym już dystansowaniu się twórcy, co do takiego klasyfikowania jego prac.
 12. L.Manovich, Język…, dz. cyt., s. 429.
 13. Zob. projekt Little Movies i komentarze autora: www.manovich.net
 14. Przytoczmy tylko jedną, znamienną wypowiedź, dobrze charakteryzującą taki punkt widzenia: Przede wszystkim, nowe obrazy są jak drink ze słynną nazwą firmową – nawet, jeśli są kolorowe albo wykorzystują „wcześniejsze” obrazy, nawet jeśli prezentują siebie w formie obrazów (ekranowych) – mówiąc dosadnie: nie są dłużej obrazami! Pochodzą z całkowicie nowego porządku wizualnego, powiązanego z innym typem porządku kulturowego”. A. Renaud, Obraz cyfrowy albo technologiczna katastrofa obrazów, tłum. B. Kita, E. Stawowczyk, w: Pejzaże audiowizualne. Telewizja. Wideo. Komputer, red. A. Gwóźdź, Kraków 1997, s. 334.
 15. L. Manovich, Generation Flash, w: New Media. Old Media. A History and Theory Reader, ed. W. Hui Kyong Chun, T. Keenan, New York/London 2006.
 16. Manovich sądzi, że obecnie można nazwać komputer „osobistym medium dynamicznym”, będącym przede wszystkim urządzeniem służącym do  programowania, ale też jednocześnie maszyną symulującą, w tym sensie, że może symulować inne media. Zob. L. Manovich, Generation…, dz. cyt., s. 216.
 17. Wystarczy tylko wspomnieć o takich miejscach jak Chelsea Art Museum  (Nowy Jork), Centre Pompidou (Paryż), The Walker Art Center (Minneapolis), Institute of Contemporary Art (Londyn), Center for Art and Media (ZKM) (Karlsruhe) czy KIASMA (Helsinki).
 18. L. Manovich, Data Beautiful. Dostępny w internecie: http//www.manovich.net/Data_beatiful.html  
 19. Jest to projekt, nad którym od kilku lat pracuje Manovich. Kolejne publikowane  fragmenty złożą się na jego nową książkę.
 20. T. A. Jackson, Towards a New Media Aesthetic, w: Reading Digital Culture, ed. D. Trend, Oxford, s. 349.
 21. Interesującą analizę między innymi tych procesów przynosi praca H. Rheingolda, Smart Mobs. The Next Social Revolution, Cambridge MA 2002. Warto odwiedzić też stronę internetową poświęconą różnym aspektom „smart mob”. Dostępny w internecie: http://www.smartmobs.com/ 
 22. Zob. L. Manovich, Interaction as an Aesthetic Event. Dostępny w internecie: http://www.receiver.vodafone.com/17/articles/pdf/17_09pdf
 23. Tamże.
 24. D. Gelernter, Mechaniczne piękno. Kryterium estetyczne w estetyce, tłum. A. Radomski, Warszawa 1999, s. 186.
 25. Recenzja ta została zamieszczona na stronie Resource Center for Cyberculture Studies. Zob. T. Romao, Soft Cinema: Navigating the Datebasa. Dostępny w Internecie:  http://rccs.usfca.edu/bookinfo.asp?ReviewID=441&BookID=352 oraz L. Manovich,  Auhtor Response. Dostępny w Internecie: http://rccs.usfca.edu/bookinfo.asp?BookID=352&AuthorID=110
 26. Zob. P. Weibel, Narrated Theory: Multiple Projection and Multiple Narration (Past and Future), w: New Screen Media. Cinema/Art/Narrative, eds. M. Rieser, A. Zapp, London 2002, s. 42-53.
 27. Cyt. za: S. Martin, U. Grosenick, Video Art, Köln. London/Los Angeles/Madrid/Tokyo 2006, s. 10.  
 28. Zob. R. Armes, On Video, Londyn/New York 1995, s. 128.
 29. Pokazywana w roku207 na wielkiej wystawie w berlińskim muzeum Hamburger Bahnhof w gronie kilkudziesięciu prac reprezentujących „sztukę projekcji” od początku lat 60., takich artystów jak Nam June Paik, Paul Sharits, Bruce Nauman, Gary Hill, Dan Graham, VALIE EXPORT, Pierre Huyghe czy Douglas Gordon. Zob. Beyond Cinema. The Art of Projection. Films, Videos and Installations from 1963 to 2005, eds. J. Jäger, G. Knapstein, A. Hüsch, Ostfildern 2006. 
 30. Organizatorzy nie otrzymali wsparcia finansowego, a tym samym ta bardzo zasłużona dla sztuki wideo impreza, odbywająca się od roku 1982, prawdopodobnie przestała istnieć.
 31. Na ten temat pisałem w innym miejscu. Zob. P. Zawojski, Wizje podwojone. Sztuka wideo dziś, „Opcje” 2004, nr 3. W katalogu festiwalu – opublikowanym w postaci CD-ROM-u – znajduje  się interesujący opis  pracy Warhola, prezentowanej także wówczas w Amsterdamie, autorstwa C. Angell, Andy Warhol: „Outer and Inner Space”, New York 1998.  
 32. Zob. G. Youngblood, Expanded…., dz. cyt.
 33. Tamże, s. 185.
 34. Przypomnijmy, że choć terminu „software” użył po raz pierwszy John Tukey  już w roku 1958, to dopiero rewolucja komputerowa przełomu lat 70. i 80. uczyniła z niego jedno z podstawowych pojęć technokultury.
 35. Por. L. Manovich, Understanding Meta-Media. Dostępny w Internecie: http://www.ctheory.net/articles.aspx?id=493
 36. M. Kinder, Designing a Database Cinema, w: Future Cinema. The Cinematic Imaginary after Film, eds. J. Shaw, P. Weibel, ZKM Karlsruhe, Cambridge MA, London 2003.
 37. Używam tego określenia z pewną rezerwą, ale taka forma pojawiła się w polskim tłumaczeniu książki Manovicha, więc ją stosuję. Zob. L. Manovich, Język…, dz. cyt., s. 457.
 38. L. Manovich, On Totalitarian Interactivit. (Notes from the Enemy of the People). Dostępny w internecie: http://www.manovich.net/TEXT/totalitarian.html
 39. Tamże.
 40. L. Manovich, Język…, dz. cyt., s. 342.
 41. M. Kinder, Designing…, dz. cyt., s. 348.
 42. Tamże, s. 351.
 43. Na dużym kawałku kartonu czy na deszczułce umieściłem obok siebie różne ruchome kolumny z zasuwkami – wspomina Bunuel – którymi łatwo było manipulować. W pierwszej kolumnie można było odczytać, na przykład, środowisko: paryskie, western, gangsterskie, wojenne, tropikalne, komediowe, średniowieczne itp. W drugiej kolumnie odczytywało się epoki, w trzeciej główni bohaterowie i tak dalej. W sumie cztery czy pięć kolumn. Zasada była następująca: w tym okresie film amerykański podlegał tak ścisłej, tak mechanicznej kodyfikacji, że można było, za pomocą mojego systemu zasuwek, nakładając na ten sam wiersz określone środowisko, określoną epokę i określonego bohatera poznać w sposób niezawodny główny wątek filmu. (L. Bunuel, Ostatnie tchnienie, tłum. M. Braunstein, Warszawa 1989, s. 126.
 44. Baza danych. Lev Manovich w rozmowie z Brett Stalbaum, Geri Witting i Iną Rozumową, tłum. E. Mikin. Dostępny w internecie: http://www.magazynsztuki.home.pl/n_technologia/Manowicz.htm
 45. L. Manovich, Soft Cinema, ZKM Karlsruhe, 2003.
 46. Tamże, s. 26. Termin „generacja lounge” można by chyba najprościej wytłumaczyć odwołując się do sytuacji mających miejsce właściwie na każdej dużej imprezie poświęconej sztuce nowych mediów, kiedy terytorium „lounge” (jakiejś przestrzeni, w której w  zupełnie niezobowiązującej formie spotykają się twórcy, widzowie, dziennikarze, „bywalcy”, po prostu „wszyscy”) często staje się (nie)formalnym centrum danego wydarzenia.   
 47. Systemy autopojetyczne, to klasa dynamicznych systemów, które: (a) powtarzalnie uczestniczą, przez interakcję, w tworzeniu sieci produkującej (i dezintegrującej) elementy je tworzące i (b) kreując własne granice konstytuują sieć produkcji (i dezintegracji) elementów składających się na całość w przestrzeni, która je określa, i w której one egzystują. (H. Maturana¸ Biology of Language: The Epistemiology of Reality, w: Psychology and Biology of Language and Though: Essays in Honor of Eric Lennenberg, eds. G. A. Miller, E. Lenneberg, New York 1978, s. 36. Ta dosyć zawiła definicja charakteryzuje główną cechę systemów autopojetycznych, za którą należy uznać cyrkulację elementów w zamkniętej całości, ciągle się odtwarzającej; co wydaje się być bliskie idei software’u sterującego mechanizmem nieustannego tworzenia kolejnych wersji Soft Cinema.
 48. L. Manovich, A. Kratky, Soft Cinema.Navigating the Database, Cambridge MA 2005, bez paginacji.
 49. Tamże.
 50. J. Baetens, Soft Cinema: Navigating the Database (rec.). Dostępny w internecie: http://www.imageandnarrative.be/surrealism/manovich.htm
 51. Por. S. Anderson, Soft Cinema: Navigating the Database  (rec.). Dostępny w internecie:
 http://www.iml.annenberg.edu/instructors/sanderson/words/softCinema.pdf   
 52. Wznowione wydanie dostępne jest na jednym DVD. 
 53. Zob. P. Weibel, The Post-Gutenberg Book. The CD-ROM Between Index and Narration, w: artintact 3. Artists’ Interactive CD-ROM Magazine, eds. J. Shaw, A. Sommer, ZKM Karlsruhe 1996.
 54. Tamże, s. 23.
 55. A. Ważyk, Przedmowa, w: S. Mallarmé, Wybór poezji, red. A. Ważyk, Warszawa 1980, s. 17-18.
 56. J.-P. Fargier, Anioł obrazu cyfrowego. Czy Mallarmé wymyślił wideo? tłum. I. Ostaszewska, w: Pejzaże audiowizualne. Telewizja. Wideo. Komputer, dz. cyt., s. 326.
 57. J. D. Bolter, D. Gromala, Windows and Mirrors. Interaction Design, Digital Art, and the Myth of Transparency, Cambridge, MA 2003, s. 140. 
 58. Por. L. Manovich, A. Kratky, Soft Cinema. Navigating…, dz. cyt.
 59. Określenie samego Manovicha. Zob. L. Manovich, Język…, dz. cyt., s. 256.
 60. J. D. Bolter, R. Grusin, Remediation: Understanding New Media, Cambridge MA, London 2000.
 61. Tamże, s. 15.
 62. Tamże, s. 65.
 63. Tamże, s. 45.
 64. Zob. P. Levinson, Miękkie ostrze. Naturalna historia i przyszłość rewolucji informacyjnej, tłum. H. Jankowska, Warszawa 1999. W polskim tłumaczeniu pojawia się właśnie takie określenie, „media zaradcze”, dlatego użyłem go, choć nie wydaje się ono szczęśliwe i brzmi nieco niezręcznie. Choć jednocześnie trzeba przyznać, że w języku polskim trudno zachować ową dwoistość czy wieloznaczność terminu „remediacja”, która odnosi się zarówno do jakiegoś środka zaradczego, jak i do medium albo mediów. Być może jednak najlepszym rozwiązaniem jest pozostawienie go w takiej formie, w jakiej zostało użyte pierwotnie.
 65. Warto jednak wziąć pod uwagę trafną sugestię Golana Levina, który odpowiadając na pytania Manovicha stwierdził, że wszystkie kultury mogą być definiowane poprzez ich zdolność do asymilacji nowych idei i adaptowania zmian środowiska memetycznego, dziś tylko te procesy, opierające się właśnie na „zasadzie remiksu”, doznały znaczącego przyspieszenia. Zob. G. Levin, Responses to 5 Questions Posed by Lev Manovich. Dostępny w internecie: http://www.flong.com/writings/interviews/interview_manovich.html  
 66. Por. R. W. Kluszczyński, Teoretyczne zagadnienia filmu strukturalnego, w: Dzieło filmowe. Zagadnienia interpretacji, „Studia Filmoznawcze”, t. VIII, red. J. Trzynadlowski, Wrocław 1987, s. 134. Na „strukturalną genealogię” Soft Cinema zwraca uwagę w swojej recenzji tego wydawnictwa Tico Romao. Zob. T. Romao, Soft Cinema.., dz. cyt..
 67. Ryszard W. Kluszczyński ujmuje to tak: Film strukturalny, przy całej swojej medialnej swoistości, stworzył najbardziej zaawansowaną koncepcyjnie zapowiedź sztuki hipermedialnej. Konsekwentne podkreślanie relacyjności i procesualności dzieła filmowego, to jakości należące  do najważniejszych tego przejawów. Ponadto, niezależnie od tego, którą z koncepcji filmu strukturalnego weźmiemy pod uwagę, zawsze dostrzeżemy, iż kreśli ona wizję dzieła filmowego o znacznie zaniżonym wymiarze  trwałości, spoistości i koherencji. R. W. Kluszczyński, Film. Wideo. Mutimedia. Sztuka ruchomego obrazu w erze elektronicznej, Warszawa 1999, s. 60. 
 68. L. Manovich, Remixability. Dostępny w internecie: http://www.manovich.net/DOCS/Remix_modular.doc

Komentarze zablokowano.