Umbra

Eine transmediale performance mit live video Projektion.
Konzept/ Performer / live-video-Projektion : Wen Liu & Marian Weger
Wenn nun der wahrnimmt, der sieht, daß er sieht, und hört, daß er hört, und als Gehender wahrnimmt, daß er geht, und wenn es bei allem anderen ebenso
eine Wahrnehmung davon gibt, daß wir tätig sind, so daß wir also wahrnehmen, daß wir wahrnehmen, und denken, daß wir denken: und daß wir
wahrnehmen und denken, ist uns ein Zeichen, daß wir sind (…)“

Wie ist es möglich sich selbst zu täuschen sind wir gespalten?

Beginnt mein Gewissen erst aktiv zu werden wenn die Entscheidung unterbewusst schon gefallen ist?

Wäre es ein unterschied für die Aussenwelt wenn meine innere Haltung für alle sichtbar wäre?

Das Projekt versucht sich nicht an der Frage des freien Willen sondern spielt mit der Möglichkeit der Sichtbarmachung der inneren Haltung im Kontext des Alltäglichen. Um eine alltägliche Situation zu erzeugen lebt A für drei Tage in einem Raum. Dort wird gegessen, geschlafen und mit den Besuchern agiert. Durch eine Projektion die es erlaubt die Bewegung von A zu erfassen, wird die innere Haltung oder der innere Drang für den Besucher sichtbar gemacht. Dadurch wird versucht das gespaltene innere und äussere zu zeigen und die Komplexität einer Intention und damit die folgende Handlung in ihrer glaubhaften Einfachheit zu hinterfragen.

homepage: www.neuesatelier.orgUmbra

A transmedia performance with live video projection.
concept / performer / live-video-projection by: Wen Liu & Marian Weger
Umbra is a mixed-media performance with realtime-generated video projection. The movements of the performer are recorded by a multi-camera-system, and re-projected a video onto her body at the same time. The basic idea of the composition is to enable the performer to interact directly with herself, and thus, create a strongly immersive visual performance. In an experimental stage setting, an alchemistic laboratory is created, where diverse ingredients like installation, projection, performance, videoloop are melted together in order to create a new being, which transcends the original matters from which it is constructed.
All video processing is done in realtime, using PureData/Gem [1][2] and OpenGL Shading Language (GLSL). The Kinect Sensor records the performer from the front, producing a depth representation of the scene, encoded in the color channels of a video stream. This is done with the OpenNI framework [3], using the pix_openni [4] external inside PureData. The performer is separated from her surroundings by defining a 3-dimensional space around her, and cutting out everything, that resides outside. As OpenNI also estimates the accurate positions of the performer’s joints, this “bubble” is always moved with her body. This way, an adaptive 3-dimensional “stencil” of the performer’s silhouette is produced. The video is mirrored and adaptively fitted into the silhouette. This is the critical part, as webcam and Kinect behave contrariwise. The fitting process is done with Extended View Toolkit [5], a tool for realtime videostitching and -mapping inside PureData. To always fit the silhouette, the video gets distorted, according to the current position of the performer. The resulting video, showing the performer’s body on black background, is then again distorted, according to the performer’s position, to map it onto her body, using a video beamer.

 

homepage: www.neuesatelier.org