Kapitel Vier: Live Cinema Software als instrumentelles Medium und mediales Instrument für fliessende Erzählungen

From Live Cinema Research

Revision as of 08:13, 26 June 2006; view current revision
←Older revision | Newer revision→

Grafik Interaktion Publikum -> Künstler -> Gerät/Interface -> Medium -> Publikum

expanded cinema 107: This process, best described as "post-stylization," is accomplished through cinematic equivalents of the four historical styles of art: realism, surrealism, constructivism, and expressionism. Cinematic realism already has been defined as Cinéma-vérité capturing and preserving a picture of time as perceived through unstylized events. Cinematic surrealism is achieved by the juxtaposition of unstylized elements so incongruous and remote that close proximity creates an extra dimension, a psychological reality that arises out of the interface. Cinematic constructivism, as we've discussed it, actually is the universal subject of synaesthetic cinema: a constructivist statement, a record of the process of its own making. Cinematic expressionism involves the deliberate alteration or distortion of unstylized reality, either during photography with lenses, filters, lights, etc., or after photography with optical printing, painting, or scratching on film.

Trotz aller Direktheit und Nähe steht bei einer Live Cinema Performance immer etwas zwischen Publikum und Künstler (zumindest solange es keine Gehirnprojektoren gibt). Das Interface, oder vielleicht auch Instrument das er benutzt um seine Bildmagie zu vollführen ist definitiv als Hinderniss in der direkten Kommunikation anzusehen. Hinzu kommt, das durch den riesigen Datenfluss der durch die bewegten auf mehrere Ebenen verteilten und zeitlich nebeneinander existierenden Bilderreihen entsteht, technisches Equipment aber auch der menschliche Geist bis zum Rand ausgereizt werden. Das durch Mustererkennung optimierte Gehirn verarbeitet die eingehenden Signale in abstrakter Form parallel und teilweise unterbewusst, ein Live Cinema wie in den vergangenen Kapiteln beschrieben wird Technik wie zum derzeitigen technische Stand bis an den Kapazitätsmaximum fordern. Eine optische Qualität wie sie im Kino vorherrscht kann wohl erst in 2-5 Jahren erzeugt werden. Die Qualität die im Moment erreicht wird ist mit der des Fernsehens zu vergleichen, jedoch trotzdem ohne weiteres tauglich auch auf großen Projektionsflächen gespielt zu werden (bis vor Kurzen reichte den VJs sogar halbe Videoauflösung aus um ihre Sets zu spielen, meist unbemerkt selbst vom unterrichteten Publikum). Doch die Datenmenge und deren Verarbeitung erfordert nicht nur potente Technik. Es muß dem Künstler auch ein möglichst verlustfreier direkter Zugang zu den Daten verschaffen und ihm erlauben diese auf gewünschte Weise zu ordnen und miteinander zu verbinden. Alle im Moment verfügbaren Möglichkeiten die eine Echtzeit Interaktion in Verbindung mit Musik bieten haben aber große Defizite die sie für einen Live Cinema uninteressant machen. Ein Live Cinema Instrument sollte alle bereits erwähnten Elemente in sich vereinen und dem Künstler auf einfachste Art und Weise direkt zur Manipulation zur Verfügung stellen.


Evolutionäre Entwicklung

Die jüngste Geschichte ist durchsetzt mit Geräten die versuchen Bilder live zu generieren oder zu komponieren. Erst die Computeralisierung hat es den Künstlern die Möglichkeit gegeben wirklich frei die Beziehung von Ton und Bild zu untersuchen, doch sind sie weit entfernt von einer Universallösung, auch wenn die Ansätze bereits viel versprechend sind. Das erste dokumentierte technische Gerät welches die Sichtbarmachung von Tönen zur Funktion hatte, kam von Vater Bernand Castel. Der Jesuit entwickelte um etwa 1730 das optische Cembalo welches aus einem etwa zwei Quadratmeter grossen Rahmen bestand, der über einem normalen Cembalo angebracht war. In diesem Rahmen befanden sich etwa 60 Fenster in unterschiedlichen Farben. Diese waren alle mit einem kleinen Vorhang versehen. Drückte man nun eine Taste des Cembalos öffnete sich der Vorhang eines dieser Fenster für einen kurzen Moment und lies einen eingefärbten Lichtrahl hervortreten. Die Gesellschaft der Aufklärung strömte zu Vorführungen dieses Gerätes und kurz darauf 1754 wurde eine verbesserte Version mit besserer Leuchtkraft vorgestellt, die man durch 500 Kerzen erreichte. Jedoch war diese Apparatur schwierig zu bedienen, wurde sehr heiß und hatte oft Fehlfunktionen - es sollte ein Omen für die Zukunft dieser Art Gerätschaften sein.

Auch die Singende Lampe von Frederick Kastner(1873), die Farborgeln von Brainbridge Bishop (1875) und Alexander Wallace Rimington (1895) und das optophonische Klavier von dem Maler Vladimir Baranoff Rossiné (um 1930) beschäftigten sich noch mit der praktischen Überprüfung der Farb-Musik-Theorien. Ihr Vermächtnis findet sich heute in Kombination mit Mary-Hallock Greenwalds Erfindung des Regelwiederstands und des Flüssigquecksilber-Schalters in der Disco-, Bühnen- und Theaterbeleuchtung wieder und verbleibt ohne theoretische belegbare Grundlage. Frau Greenwald war die erste Frau der synästhethischen Kunst und brachte mit ihrer Erfindung und der dazugehörigen Farborgel "SaraBet" die live gespielte Farbmusik ins Zeitalter der Elektrizität.

Der Strom lieferte jedoch auch die Grundlage für wesentlich Komplexer arbeitendende Gerätschaften. Zuerst einmal erlaubte der Einsatz der Glühlampe ungefährlichere Geräte die Muster auf Glasscheiben zum Leben erweckten. Thomas Wilfried untersuchte mit seinem Clavilux und dem an einen TV-Apparat erinnernden Clavilux Junior spirituelle Prinzipien auf Grundlage Synästhethischer Verbindungen. Das Gerät lies über bemalte, an visuelle Schallplatten erinnernde, Scheiben Farben ineinander blenden und erzeugte einen unendlichen Farbrhythmus. Seine Hoffnung auf einen ClaviLux Junior in jedem Wohnzimmer verwirklichte sich jedoch nicht. Elektrizität ermöglichte jedoch eine weitere Erfindung die auch als Grundlage für die Mattscheibe gilt. Das Oscilloscope, oder besser ein auf dessen Grundlage gebauter Militärradar der englischen Armee aus dem 2. Weltkrieg, wurde von John Whitney eingesetzt um Tonwellen sichtbar zu machen und die entstandenen Bilder in einen künstlerischen Kontext zu setzten. Diese Entdeckung und der Siegeszug des Fernsehers ermöglichten dann auch die Erfindung der Videosynthesizer in den 1960er Jahren. Die analogen Synthesizer funktionierten meist ähnlich einem Oszilloskop (und damit auch ähnlich wie die Audiosynthesizer). Es werden mehrere Sinuskurven erstellt und gegeneinander verschoben, die Größen verändert, eingefärbt und ausgeschnitten. Dadurch kam man zu unendlich vielen Effekten und Formen die bis vor noch etwa 10 Jahren kein Computer hätte in Echtzeit erstellen können. Es wurde hautpsächlich mit vier verschiedene Arten von analogen Videosynthesizern experimentiert. Die Kamerabild Prozessoren zählt man hauptsächlich Farbkorrektoren welche es ermöglichen einem Schwarz/Weiß Signal einzufärben. Beispiele hierfür sind die Fairlight Electric Paintbox , der Paik-Abe-VideoSynthesizer mitentwickelt von Legendären Videokünstler Nam June Paik und die CoxBox. Die Direkten Videosynthesizer ähneln sehr einem Instrument, da sie alle Bilder selbst erzeugen ohne dabei auf ein externes Gerät zurückgreifen müssen. Als Exempel kann man hier den Beck-Direct-Video-Synthesizer, das Ems-Spectron, den Siegel EVS und die Super Nova12 nennen. Bei der Abtast-Modulation handelt es sich um eine Technik welche per Kamera ein modifiziertes Bild von einem hochauflösenden Bildschirm abtastet um es in veränderter Form wieder in einem videofähigem Format aufzuzeichnen. Das Bild des Abtastmonitors besteht bei den meisten Geräten dieser Art aus einem speziellem Oszilloskop und kann auf verschiedenste Art in Größe, Position und Rotation verändert und animiert werden. Nachdem Abtasten wird dann eine Füllung, Farbe und zusätzliche Effekte hinzugefügt. Als Beispiel hierfür gelten das Scani Mate und der Rutt -Etra-Scan-Processor. Diese Geräte waren meist durch ihre Komplexität nich für einen Live Einsatz geeignet - ganz im Gegensatz zu den nicht aufnahmefähigen Synthesizern. Hier handelt es sich um Instrumenten ähnliche Vorrichtungen die nur dem Zweck der Live-Vorführung dienen. Es kann keine Aufzeichnung gemacht werden, da die Bilder nur auf dem entsprechenden Bildschirm entstehen. Meist werden hier die Effekte durch Magnetverzerrungen erreicht wie man sie auch beobachten kann, wenn man mit einem starken Magneten zu dicht an die Röhre eines entsprechenden Röhrenfernseher kommt. Zu dieser Art der Synthesizer zählt man zum Beispiel Bill Hearns spektakuläres Vidium und das Tadlock Archetron. Anfang der 1980er Jahre schenkten die Entwickler einer neue Art von Synthesizern ihre volle Aufmerksamkeit. Die Elektronik war in einem besonderen Maße vorangekommen und es war nun möglich Videobilder vollkommen digital zu verarbeiteten. Das half die Größe der Geräte deutlich zu reduzieren und die Möglichkeiten der Videobearbeitung auszubauen. Jedoch verloren die generierten Bilder im Gegenzug ihr analoges Aussehen und - viele sind bis heute der Meinung - auch einen grossen Teil ihres Charmes. Einer der ersten digitalen Videosynthesizer war der Fairlight CVI aus Australien.

Neben der Entwicklung von Videosynthesizern gab es eine Bewegung die von Anfang die bewegten Bilder des Film live mischen wollte. Charles Dockum entwickelte bereits 1936 sein "Farbmobile" eine auf synchronisierten Filmprojektoren basierte Erfindung die er im Rahmen eines Stipendiums des Guggenheim Museums verfeinerte. Das Gerät mußte aber von Hand bedient werden und hatte zahlreiche Probleme mit der fragilen Mechanik, sodass es bald eingemottet wurde. Zur gleichen Zeit und ebenfalls im Guggenheim forschte auch Oskar Fischinger zusammen mit Alexander Laszlo an der Live - Collage von Filmbildern. Die Chopin - nahe Musik Laslos zusammen mit der neuen Bildsprache Fischinger wurde binnen kurzer Zeit weltberühmt und verhalf Fischinger zum Durchbruch. Jedoch auch dieses Gerät war nicht für eine längere Zeit einsatzfähig und bestach vor allem durch permanente Ausfälle der Mechanik und dem Verlust der Synchronität die wichtig für diese Aufführen war.

Bis auf weitere mißglückte Versuche von Charles Dockum war die Live-Collage von Filmsequencen bis etwa 1978 kein aktuelles Thema. Dies sollte sich aber mit der einführung der ersten Videomischer schlagartig ändern. Dem Videokalos Image Processor kann man als einen der ersten klassischen Videomischer bezeichnen. Er ermöglichte das simple Mixen von acht unterscheidlichen Videoquellen, mit verschiedenen Wischmustern. Die Quellen können eingefärbt und gekeyed (ausgeschnitten werden). Das von Peter Donebauer und Richard Monkhouse gestaltete Gerät hat einen qualitative hochwertige Ausgabe und war sowohl für professionelle Video Studios als auch für unabhängige Künstler konzipiert. Laut Donebauer war das Design des Gerätes für den Einsatz als Instrument bestimmt. Alle Funktionalität liegt sofort Verfügbar auf einigen hochqualitativen Reglern. Viele nachfolgende Videomischer sowohl für den Kunstmarkt als auch für Videostudios leiten viele Funktionsweisen von diesem Design ab. Das Gerät ermöglichte Künstlern wie Peter Rubin auch in kleinem Rahmen die Collage für Narrative Live Experimente einzusetzen.

Neben allen analogen Entwicklungen wurden auch schon sehr früh die Computer "mißbraucht" um die Synästhethische Kunst zu erforschen. Der GROOVE (Generating Realtime Operations On Voltage-controlled Equipment, Bell Telephone Laboratories, Murray Hill, New Jersey) war ein Analog-Digitales Musik Performance System welches in den späten 1960er Jahren auf der Grundlage von 24 bit DDP-224 computer entwickelt wurde. Laurie Spiegel transformierte dieses System dann Anfang der 1970er Jahre in ein visuelles Kompositionsystem. Ihre Idee war es, die simplen analogen Farb-Form-Orgeln mit ihren vordefinierten Bildern und die Einzelbild Aufzeichnungen, die sie bei einigen Filmemachern, die sich mit der Synthese aus Musik und Bild beschäftigten, gesehen hatte, mit einem Echtzeitsystem zu ersetzen. Dazu programmierte sie einen Computer ähnlich dem Groove System so um, daß statt Musik Bilder entstanden. Ihr Programm beruhte zunächst auf einem Zeichenprogramm welches mit einigen sehr analogen Eingabemöglichkeiten, wie einem Pedal, 10x12 Drehregler, einem dreidimensionalen Joystick und einigen Knöpfen bedient wurde. Dieses Programm erweiterte sie sodass die Schritte um ein Bild herzustellen, aufgezeichnet wurden. Dieses System taufte Frau Spiegel zunächst RTV (Real Time Video). Nach einigem probieren etwas ernüchtert fing sie an, ihre Eingaben komplexeren Algorithmen zuzuordnen. Der VAmpire (the Video And Music Playing Interactive Realtime Experiment) war geboren. Mit dieser Software war es ihr möglich alles in einer zeitlichen Abfolge aufzunehmen danach wieder abzuspielen und weiter zu verändern. Es war ein System mit dem man abstrakte Formen erstellen und wie ein Jazzlied neu interpretieren konnte. Dadurch das die visuelle Version des Groove in einem anderen Raum stand war es praktisch nicht möglich Ton und Bild gleichzeitig zu verändern, es wäre jedoch theoretisch möglich gewesen wie Sie selbst sagt - auf jeden Fall war dies die erste "VJ" Software per Definition. Mit der Homecomputer Revolution der 80er Jahre begannen auch immer mehr Künstler diese Technologie für ihre Forschung zu benutzen. Auch John Whitney taucht in diesem Kontext wieder auf. Er entwickelte auf dem Apple II Computer (aber auch Vorgängern in den Späten 70er Jahren) die ersten hausgemachten generativen Programme. Die Software "Columna" war sein erstes Werk und wurde und versuchte die Theorie der "digitalen Harmonie" von Bild und Ton zu untermauern. Mit dem "MTV-Schock" kehrte im Verlauf der 1980er Jahre Ruhe in die Live Video Szene ein. Erst mit dem Aufkommen der Elektronischen Club Szene Anfang der 1990er und den immer schneller und mächtiger werdenden Computern erweckte das Interesse an der vergessenen Kunst erneut. Jedoch zeichnete sich hier erstmals eine deutliche Differenzierung ab. Auf der einen Seite standen und stehen bis heute die generativen Arbeiten, die auf Grundlage von mathematischen Formeln und Tonfrequenzen automatisch oder mit geringer Benutzerinteraktion Bilder zaubern. Diese Art der Software geht einher mit den direkten Videosynthesizern und den Farbscheiben des Clavilux. Diese Art der Programme wird heute oft in den visuellen Plug-Ins der Musikabspielprogramme benutzt und kommt heutzutage in allen vorstellbaren Farb/Form/Rhythmikkombinationen.

Die für ein Live Cinema viel Interessantere Entwicklung ist aber die Fusion aller anderen analogen Geräte in ein all umfassendes "Video-Collagen-Programm". Das verändern des Bildes selbst, das überlagern und collagieren verschiedener Bildquellen und das synchronisieren mit Ton erwuchs spätestens mit Programmen wie VDMX 1, Videodelic, Arkaos oder der Programmierumgebung Max/MSP Nato 0.55++, die es einem jedem Interessierten ermöglichte mit wenigen Mitteln sein Eigenes Programm zusammenzubauen, zum neuen heiligen Gral der Bild-Ton-Synthese.

Form ist Funktion=

Seit der Jahrtausendwende entwickelte sich die Vielfalt der VJ Instrumente Explosionsartig. Wie auch die Pioniere vor ihnen, sind es vor allem die VJs selbst, die versuchen immer neue Software zu schreiben um ihren Visionen direkter verwirklichen zu können. Bis auf wenige Ausnahmen stammen alle auf dem Markt verfügbare VJ Software ursprünglich von Künstlern die in diesem Feld tätig waren. Die Diversität zeichnet sich aber erstaunlicher Weise nicht unbedingt in den Bildern ab die diese verschiedenen Programme generieren, sondern ist vor allem sichtbar im Interface. Im Laufe der letzten Jahre haben sich hier fünf Interface Metaphern durchgesetzt die sich

Instrumenten imitierendes Interface Datenbank Basiertes Interface (Grid, resolume) Layer Basiertes Interface (wie heisst das noch is so orange grau) Videomixer basiertes Interface (VDMX) Strukturbasiertes live programmiertes interface (Quartz Composer, Max/MSP)

hardware.

Geschichtenerzähler trifft Rockgitarre

Spatiality

Timeline

Bild: Effekte, Tempo

Komposition: Layers, Mix (Key)

Steuerelemente: Audioanalyse, Midi und Externe Controller

Views
content
site
Toolbox