Kapitel Vier: Live Cinema Software als instrumentelles Medium und mediales Instrument für fliessende Erzählungen

From Live Cinema Research

Revision as of 15:15, 25 June 2006; view current revision
←Older revision | Newer revision→

Grafik Interaktion Publikum -> Künstler -> Gerät/Interface -> Medium -> Publikum

expanded cinema 107: This process, best described as "post-stylization," is accomplished through cinematic equivalents of the four historical styles of art: realism, surrealism, constructivism, and expressionism. Cinematic realism already has been defined as Cinéma-vérité capturing and preserving a picture of time as perceived through unstylized events. Cinematic surrealism is achieved by the juxtaposition of unstylized elements so incongruous and remote that close proximity creates an extra dimension, a psychological reality that arises out of the interface. Cinematic constructivism, as we've discussed it, actually is the universal subject of synaesthetic cinema: a constructivist statement, a record of the process of its own making. Cinematic expressionism involves the deliberate alteration or distortion of unstylized reality, either during photography with lenses, filters, lights, etc., or after photography with optical printing, painting, or scratching on film.

Trotz aller Direktheit und Nähe steht bei einer Live Cinema Performance immer etwas zwischen Publikum und Künstler (zumindest solange es keine Gehirnprojektoren gibt). Das Interface, oder vielleicht auch Instrument das er benutzt um seine Bildmagie zu vollführen ist definitiv als Hinderniss in der direkten Kommunikation anzusehen. Hinzu kommt, das durch den riesigen Datenfluss der durch die bewegten auf mehrere Ebenen verteilten und zeitlich nebeneinander existierenden Bilderreihen entsteht, technisches Equipment aber auch der menschliche Geist bis zum Rand ausgereizt werden. Das durch Mustererkennung optimierte Gehirn verarbeitet die eingehenden Signale in abstrakter Form parallel und teilweise unterbewusst, ein Live Cinema wie in den vergangenen Kapiteln beschrieben wird Technik wie zum derzeitigen technische Stand bis an den Kapazitätsmaximum fordern. Eine optische Qualität wie sie im Kino vorherrscht kann wohl erst in 2-5 Jahren erzeugt werden. Die Qualität die im Moment erreicht wird ist mit der des Fernsehens zu vergleichen, jedoch trotzdem ohne weiteres tauglich auch auf großen Projektionsflächen gespielt zu werden (bis vor Kurzen reichte den VJs sogar halbe Videoauflösung aus um ihre Sets zu spielen, meist unbemerkt selbst vom unterrichteten Publikum). Doch die Datenmenge und deren Verarbeitung erfordert nicht nur potente Technik. Es muß dem Künstler auch ein möglichst verlustfreier direkter Zugang zu den Daten verschaffen und ihm erlauben diese auf gewünschte Weise zu ordnen und miteinander zu verbinden. Alle im Moment verfügbaren Möglichkeiten die eine Echtzeit Interaktion in Verbindung mit Musik bieten haben aber große Defizite die sie für einen Live Cinema uninteressant machen. Ein Live Cinema Instrument sollte alle bereits erwähnten Elemente in sich vereinen und dem Künstler auf einfachste Art und Weise direkt zur Manipulation zur Verfügung stellen.


Evolutionäre Entwicklung

Die jüngste Geschichte ist durchsetzt mit Geräten die versuchen Bilder live zu generieren oder zu komponieren. Erst die Computeralisierung hat es den Künstlern die Möglichkeit gegeben wirklich frei die Beziehung von Ton und Bild zu untersuchen, doch sind sie weit entfernt von einer Universallösung, auch wenn die Ansätze bereits viel versprechend sind. Das erste dokumentierte technische Gerät welches die Sichtbarmachung von Tönen zur Funktion hatte, kam von Vater Bernand Castel. Der Jesuit entwickelte um etwa 1730 das optische Cembalo welches aus einem etwa zwei Quadratmeter grossen Rahmen bestand, der über einem normalen Cembalo angebracht war. In diesem Rahmen befanden sich etwa 60 Fenster in unterschiedlichen Farben. Diese waren alle mit einem kleinen Vorhang versehen. Drückte man nun eine Taste des Cembalos öffnete sich der Vorhang eines dieser Fenster für einen kurzen Moment und lies einen eingefärbten Lichtrahl hervortreten. Die Gesellschaft der Aufklärung strömte zu Vorführungen dieses Gerätes und kurz darauf 1754 wurde eine verbesserte Version mit besserer Leuchtkraft vorgestellt, die man durch 500 Kerzen erreichte. Jedoch war diese Apparatur schwierig zu bedienen, wurde sehr heiß und hatte oft Fehlfunktionen - es sollte ein Omen für die Zukunft dieser Art Gerätschaften sein. Auch die Singende Lampe von Frederick Kastner(1873), die Farborgeln von Brainbridge Bishop (1875) und Alexander Wallace Rimington (1895) und das optophonische Klavier von dem Maler Vladimir Baranoff Rossiné (um 1930) beschäftigten sich noch mit der praktischen Überprüfung der Farb-Musik-Theorien. Ihr Vermächtnis findet sich heute in Kombination mit Mary-Hallock Greenwalds Erfindung des Regelwiederstands und des Flüssigquecksilber-Schalters in der Disco-, Bühnen- und Theaterbeleuchtung wieder und verbleibt ohne theoretische belegbare Grundlage. Frau Greenwald war die erste Frau der synästhethischen Kunst und brachte mit ihrer Erfindung und der dazugehörigen Farborgel "SaraBet" die live gespielte Farbmusik ins Zeitalter der Elektrizität. Der Strom lieferte jedoch auch die Grundlage für wesentlich Komplexer arbeitendende Gerätschaften. Zuerst einmal erlaubte der Einsatz der Glühlampe ungefährlichere Geräte die Muster auf Glasscheiben zum Leben erweckten. Thomas Wilfried untersuchte mit seinem Clavilux und dem an einen TV-Apparat erinnernden Clavilux Junior spirituelle Prinzipien auf Grundlage Synästhethischer Verbindungen. Das Gerät lies über bemalte, an visuelle Schallplatten erinnernde, Scheiben Farben ineinander blenden und erzeugte einen unendlichen Farbrhythmus. Seine Hoffnung auf einen ClaviLux Junior in jedem Wohnzimmer verwirklichte sich jedoch nicht. Elektrizität ermöglichte jedoch eine weitere Erfindung die auch als Grundlage für die Mattscheibe gilt. Das Oscilloscope, oder besser ein auf dessen Grundlage gebauter Militärradar der englischen Armee aus dem 2. Weltkrieg, wurde von John Whitney eingesetzt um Tonwellen sichtbar zu machen und die entstandenen Bilder in einen künstlerischen Kontext zu setzten. Diese Entdeckung und der Siegeszug des Fernsehers ermöglichten dann auch die Erfindung der Videosynthesizer in den 1960er Jahren. Die analogen Synthesizer funktionierten meist ähnlich einem Oszilloskop (und damit auch ähnlich wie die Audiosynthesizer). Es werden mehrere Sinuskurven erstellt und gegeneinander verschoben, die Größen verändert, eingefärbt und ausgeschnitten. Dadurch kam man zu unendlich vielen Effekten und Formen die bis vor noch etwa 10 Jahren kein Computer hätte in Echtzeit erstellen können. Es wurde hautpsächlich mit vier verschiedene Arten von analogen Videosynthesizern experimentiert. Die Kamerabild Prozessoren zählt man hauptsächlich Farbkorrektoren welche es ermöglichen einem Schwarz/Weiß Signal einzufärben. Beispiele hierfür sind die Fairlight Electric Paintbox , der Paik-Abe-VideoSynthesizer mitentwickelt von Legendären Videokünstler Nam June Paik und die CoxBox. Die Direkten Videosynthesizer ähneln sehr einem Instrument, da sie alle Bilder selbst erzeugen ohne dabei auf ein externes Gerät zurückgreifen müssen. Als Exempel kann man hier den Beck-Direct-Video-Synthesizer, das Ems-Spectron, den Siegel EVS und die Super Nova12 nennen. Bei der Abtast-Modulation handelt es sich um eine Technik welche per Kamera ein modifiziertes Bild von einem hochauflösenden Bildschirm abtastet um es in veränderter Form wieder in einem videofähigem Format aufzuzeichnen. Das Bild des Abtastmonitors besteht bei den meisten Geräten dieser Art aus einem speziellem Oszilloskop und kann auf verschiedenste Art in Größe, Position und Rotation verändert und animiert werden. Nachdem Abtasten wird dann eine Füllung, Farbe und zusätzliche Effekte hinzugefügt. Als Beispiel hierfür gelten das Scani Mate und der Rutt -Etra-Scan-Processor. Diese Geräte waren meist durch ihre Komplexität nich für einen Live Einsatz geeignet - ganz im Gegensatz zu den nicht aufnahmefähigen Synthesizern. Hier handelt es sich um Instrumenten ähnliche Vorrichtungen die nur dem Zweck der Live-Vorführung dienen. Es kann keine Aufzeichnung gemacht werden, da die Bilder nur auf dem entsprechenden Bildschirm entstehen. Meist werden hier die Effekte durch Magnetverzerrungen erreicht wie man sie auch beobachten kann, wenn man mit einem starken Magneten zu dicht an die Röhre eines entsprechenden Röhrenfernseher kommt. Zu dieser Art der Synthesizer zählt man zum Beispiel Bill Hearns spektakuläres Vidium und das Tadlock Archetron. Anfang der 1980er Jahre schenkten die Entwickler einer neue Art von Synthesizern ihre volle Aufmerksamkeit. Die Elektronik war in einem besonderen Maße vorangekommen und es war nun möglich Videobilder vollkommen digital zu verarbeiteten. Das half die Größe der Geräte deutlich zu reduzieren und die Möglichkeiten der Videobearbeitung auszubauen. Jedoch verloren die generierten Bilder im Gegenzug ihr analoges Aussehen und - viele sind bis heute der Meinung - auch einen grossen Teil ihres Charmes. Einer der ersten digitalen Videosynthesizer war der Fairlight CVI aus Australien.

Neben der Entwicklung von Videosynthesizern gab es eine Bewegung die von Anfang die bewegten Bilder des Film live mischen wollte. Charles Dockum entwickelte bereits 1936 sein "Farbmobile" eine auf synchronisierten Filmprojektoren basierte Erfindung die er im Rahmen eines Stipendiums des Guggenheim Museums verfeinerte. Das Gerät mußte aber von Hand bedient werden und hatte zahlreiche Probleme mit der fragilen Mechanik, sodass es bald eingemottet wurde. Zur gleichen Zeit und ebenfalls im Guggenheim forschte auch Oskar Fischinger zusammen mit Alexander Laszlo an der Live - Collage von Filmbildern. Die Chopin - nahe Musik Laslos zusammen mit der neuen Bildsprache Fischinger wurde binnen kurzer Zeit weltberühmt und verhalf Fischinger zum Durchbruch. Jedoch auch dieses Gerät war nicht für eine längere Zeit einsatzfähig und bestach vor allem durch permanente Ausfälle der Mechanik und dem Verlust der Synchronität die wichtig für diese Aufführen war.





Erst in den letzten Jahren sind Computer so stark geworden, daß sie so alle Effekte und Möglichkeiten der analogen und digitalen Synthesizer simulieren könnten. Jedoch sind die Möglichkeiten an einem Knopf zu drehen und sofort ein einmaliges Ergebnis zu sehen bis heute den echten Videosynthesizern vorbehalten und keine Software schafft es diese auch haptisch wichtige Erfahrung ausreichend gut zu simulieren.

Form ist Funktion=

Datenbank Basiertes Interface (Grid, Flowmotion) Layer Basiertes Interface (wie heisst das noch is so orange grau) Videomixer basiertes Interface (VDMX) Strukturbasiertes live programmiertes interface (Quartz Composer, Max/MSP)

Geschichtenerzähler trifft Rockgitarre

Spatiality

Timeline

Bild: Effekte, Tempo

Komposition: Layers, Mix (Key)

Steuerelemente: Audioanalyse, Midi und Externe Controller

Views
content
site
Toolbox