Inter | aktion (Demos)

Die Demos werden im Rahmen der Demo- und Postersession am Montag, 9.9.2013 von 15:30 Uhr bis 19:00 Uhr im GW2 B1400 präsentiert.


A Social Sculpture for the Digital Age

Autor: Dieter Meiller
Hochschule Amberg-Weiden, Deutschland;

Nearly 1300 residents of a city came together to create a sculpture. The sculpture has both a physical and a virtual presence. The physical part consists of a large sphere, split into two hemispheres, each large enough to walk in between and view from the inside. Each participant of this collaborative project designed wax plates that were then cast in bronze and mounted onto the sphere. The realization of the virtual counterpart of the physical creates a duality that changes the perspective how the observer perceives the art. It provides deeper insight into the intention of the artists’ work and their relationship to each other in this social artwork.


DiTAG: Ein digital-analoges Brettspiel-Interface

Autoren: Robin Krause, Marcel Haase, Benjamin Hatscher, Michael A. Herzog, Christine Goutrié
HS Magdeburg-Stendal, Deutschland;

Das »Digital To Analog Gaming Board« (DiTAG) ist ein Interface zum Spielen und Entwickeln von Brettspielen. Mit Hilfe der RFID-Technologie schließt es die Lücke zwischen analoger und digitaler Spielwelt. Ein DiTAG-Spielbrett besteht aus einzelnen Bausteinen, die mit Lesegeräten sowie Transpondern ausgestattet sind und sich mittels Steckverbindungen zusammenfügen lassen. Die einzelnen Bausteine des Brettes sind in der Lage angrenzende Teile zuerkennen und von diesen erkannt zu werden. Dieses Baukastensystem soll den Spielern die Möglichkeit geben Spielfiguren und Karten selbst mit RFID-Tags auszustatten und mit Hilfe eines einfachen Editors eigene Spielideen umzusetzen. Der realisierte erste Prototyp dient zur Entwicklung neuer Spielformate sowie damit einhergehender Interaktionsmuster und Gestaltungskonzepte im Wechselspiel analoger und digitaler Spielelemente.


Brain Painting: Action Paintings based on BCI-Input

Autoren: Markus Funk, Michael Raschke
Universität Stuttgart, Deutschland;

We introduce RoboPix, a robot, which is able to paint Action Painting style pictures based on input of a Brain-Computer-Interface (BCI). The BCI provides signals, which encompass the user’s recognized thoughts and the user’s excitement. These signals are mapped to the movement of the robot’s arm, which spreads the paint on the canvas. Our system combines explicit and implicit signals to personalize and affect the created painting. Furthermore, we implemented a feedback loop to engage the user in interacting with the system again after losing focus. This system creates a modern art representation of the user’s excitement and thoughts at the moment of creation.


Rekonstruktion der Ersten Allgemeinen Deutschen Kunstausstellung Dresden 1946

Autoren: Konstantin Klamka, Thomas Schmalenberger
Technische Universität Dresden, Deutschland;

Technologische Entwicklungen eröffnen dem Museum neue Möglichkeiten, Information in einer zeitgemäßen, erlebnisorientierten Form der Öffentlichkeit zu präsentieren und somit die Wissensvermittlung aktiv zu unterstützen. Die kunsthistorische Notwendigkeit der Präsentation umfassender Zusammenhänge motiviert zur Reflexion geeigneter Darstellungsformen. Anhand der Thematik der sehr bedeutsamen, zugleich jedoch wenig dokumentierten Ersten Allgemeinen Deutschen Kunstausstellung Dresden 1946, beschreibt diese Arbeit einen möglichen Ansatz der virtuellen und interaktiven Rekonstruktion realer Räume. Dazu wurde die gesamte Ausstellungssituation in umfangreicher und interdisziplinärer Zusammenarbeit zu einem digitalen dreidimensionalen Modell zusammengefasst, das im Rahmen einer Kunstausstellung dem Besucher auf Multitouch-Monitoren die immersive Erfahrung der Raum- und Exponatsituation ermöglichte und zur interaktiven Exploration einlud.


tANGibLE: a Smart Tangible Home Controller

Autoren: Mirko de Almeida Madeira Clemente, Martin Herrmann, Mandy Keck, Rainer Groh
Technische Universität Dresden, Deutschland;

Gadgets that are used in everyday life address a wide range of functionalities. At the same time we observe a trend toward more simple and natural user interfaces. In this paper we describe the object-centered design process of tANGibLE, which resulted in a smart tangible home controller with easily accessible functions and a high degree of joy of use.


Detecting of and Interacting with Text in Free Space

Autoren: Frank Wippich, Christian Graf, Daniel Drewes
Blindsight Europe GmbH, Deutschland;

Computer Vision technology has seen a significant push in popularity in consumer applications, whether for face recognition in today’s smartphone camera apps, or server-based object recognition that identifies products, text or contexts in images within seconds. And thanks to powerful smartphone and tablet devices, computer vision application can now perform the processing locally, providing real-time feedback to the user, about the object they are looking at just by pointing the camera lens at it – without the need of a remote server.
Hence, new ways of interacting with one’s environment become possible in particular for people with specific access needs, like vision-impaired users. Blindsight’s text detection algorithm showcases a way on how to detect and speak out text in virtually real time using a smartphone.
In this demo, users will be able to try out text detection and immerse into a “non-visual” user-experience showing the state of the art for text detection and assistive technology for the visually impaired. Based on the user’s experiences, this demo shall also discuss challenges and new ways to interact with text in free space. How can technology guide a user to find the desired text, how can technology filter the right information or group the information based on context, conventions or user preferences?
Providing ideas and answers for these question will not only enrich the advancements of assistive technology, it will also inspire new application in a world where visual experiences are more and more supplemented by tactile, audible and vocal user interfaces.


Caruso – Singen wie ein Tenor

Autoren: Jochen Feitsch, Marco Strobel, Christian Geiger
FH Düsseldorf, Deutschland;

In diesem Beitrag beschreiben wir ein Projekt, dessen Ziel es ist dem Benutzer das Gefühl zu geben wie ein Tenor zu singen. Wir kombinieren 3D Ganzkörpertracking mit Gesichtstracking, Morphing, Gesangssynthese und 3D Character Rendering in einer interaktiven Medieninstallation.


Designing Device-less Interaction – A Tracking Framework for Media Art and Design

Autorin: Michaela Honauer
Bauhaus Universität Weimar, Deutschland;

This paper presents KinectA , a tracking application that uses depth sensing technologies like the Kinect Sensor. It helps to receive the basic information that are necessary for the interaction without any input devices and for the interrelated process of e.g. designing gesture-based interfaces. This software offers simultaneously hand, skeleton and object tracking. Particularly, media artists and designers can focus on their creative work due to the availability of these basic tracking functions. KinectA is available for Mac and Windows, and it communicates via OSC to other software or hardware.


Den Schrecken im Blick: Eye Tracking und Survival Horror-Spiele

Autoren: Martin Dechant, Markus Heckner, Christian Wolff
Universität Regensburg, Deutschland;

In dieser Arbeit wird der Prototyp des Survival Horror-Spiels Sophia vorgestellt: Dieses Spiel integriert Blickinteraktion über einen stationären Eyetracker in die Spieleengine Unity. Die Blickdaten werden dazu genutzt, die Spannung im Spiel zu steigern. Ferner wird betrachtet, inwiefern das Schließen der Augen als Interaktionsmöglichkeit in ein Survival-Horror-Spiel integriert werden kann.


Sportal: A First-Person Videogame turned Exergame

Autoren: Benjamin Walther-Franks, Dirk Wenig, Jan Smeddinck, Rainer Malaka
Universität Bremen, Deutschland;

Digital exercise games (exergames) can motivate players to carry out physical exercises. However, most exergames are controlled by confined and predefined movements and do not promote long-term motivation, limiting player immersion. Well-funded commercial games often excel at long-term motivation, but are not operated with motion input. We choose the best of both worlds by turning an existing videogame without motion control into an exergame. By adding a NUI control and feedback overlay to the popular first-person action game Portal 2, and designing custom game levels around exercise regimens, we turned it into the exergame Sportal. This approach can give gamers an incentive to exercise using high quality first-person gameplay and it can potentially acquaint exercise-eager non- gamers with a popular videogame title.

Die Kommentarfunktion ist geschlossen.