Suche

UPD 121/13 - 28.06.2013                                 Meldung als pdf

Mit „BlowUp“ die Nase ganz weit vorn

Informatiker der Universität Augsburg erringen mit einem interaktiven Spiel, das mit Atmung und Herzschlag gesteuert wird, den 2. Preis beim Music Hack Day 2013 in Barcelona


BlowUp_updAugsburg und Barcelona/EA/AM – Mitarbeiter des Lehrstuhls für Human Centered Multimedia der Universität Augsburg haben beim Music Hack Day 2013, der am 13. Und 14. Juni in Barcelona stattfand, den 2. Preis gewonnen. Unter insgesamt 50 Projekten wurde ihr interaktives Spiel „BlowUp“ in der Kategorie „Beste Anwendung in Bezug auf Originalität, Innovation, Präsentation und Marktpotential“ gekürt. Dabei waren sie ursprünglich nur angereist, um vor Ort technische Unterstützung zu leisten. Das Jump’n Run-Spiel im nostalgischen 80er Jahre Look wird von seinen Spielern mit Atmung und Herzschlag gesteuert.

Bild: Nutzer beim Spielen von ‚BlowUp‘, einem Spiel das nur über Herzschlag und Atmung gesteuert wird. Der Sensor (rote Platine) erfasst dafür in Echtzeit die Rohdaten und übermittelt sie an eine Software, wo die Signale aufbereitet und in die Spiellogik überführt werden.

Seit 2010 ist der Music Hack Day Bestandteil des Sónar Musikfestivals in Barcelona, dem mit rund 80.000 Besuchern größten Festival elektronischer Musik in Europa. Zum ersten Mal Stand er in diesem Jahr unter dem Motto Neurowissenschaften. 100  Hacker und Musiker aus der ganzen Welt, hatten genau 24 Stunden Zeit, allein oder in Gruppen ihr Projekt zu vollenden.

Zu den Bereitstellungen des Events gehörte, dass die teilnehmenden Hacker aus einer Reihe Sensoren wählen konnten, die es erlauben Gehirnströme, Herzschlag, oder Atmung eines Benutzers in Echtzeit zu erfassen, um aus den Signalen explizite und implizite Benutzerzustände abzuleiten die dann auf unkonventionelle Weise Anwendungen steuern können. Beispielsweise könnte mit diesen Instrumenten ein Audio Player versuchen, den aktuellen Gefühlszustand seines Benutzers zu ermitteln, um direkt passende Musikstücke aus einer Datenbank abzuspielen.

Die drei Mitarbeiter, Johannes Wagner, Florian Lingenfelser und Tobias Baur, des Lehrstuhls für Human Centered Multimedia hatten bereits im Vorfeld des Events mitgearbeitet, die nötige Infrastruktur für die Aufzeichnung und Verarbeitung der Sensordaten zu schaffen. Ursprünglich lediglich angereist um den Hackern vor Ort bei der Bedienung der Sensoren zur Seite zu stehen, blieb ihnen am Ende genug Zeit, eine eigene Anwendung zu entwickeln, die prompt gekürt wurde.

Wagner, Lingenfelser und Baur entschieden sich dabei für ein klassisches Jump’n Run Spiel in nostalgischem 2D Look. Statt mit Tastatur und Maus wird dieses jedoch über Atmung und Herzschlag des Spielers gesteuert. Ein Sensor unter der Nase erfasst dabei den Luftzug der beim Ausatmen durch die Nase entsteht und im Spiel den Charakter springen lässt. So können Hindernisse und Lavagruben übersprungen werden, die dem Spieler ansonsten Schaden zufügen würden.

Über den Herzschlag des Benutzers wird gleichzeitig die Geschwindigkeit des Spiels dynamisch angepasst. Ein erhöhter Puls lässt den Charakter schneller laufen und springen. Dies erhöht die Schwierigkeit des Spiels, ermöglicht aber gleichzeitig auch ein schnelleres Erreichen des Ziels. Durch das Abbilden physiologischer Vorgänge auf die Spiellogik nimmt der Benutzer Vorgänge, die normalerweise unterschwellig ablaufen, nun bewusst wahr. Dies steigert den Unterhaltungseffekt, da der Spieler stärker als sonst in sein eigenes Spiel hineingezogen wird. Perspektivisch kann dieser Effekt aber auch genutzt werden, um auf spielerische Weise einen gezielten Lerneffekt herbeizuführen. So wären etwa Anwendungen denkbar, die dem Nutzer bei Atemübungen unterstützen oder als Entspannungsübung dienen.

Der Lehrstuhl für Human Centered Multimedia arbeitet bereits seit vielen Jahren an der Entwicklung neuer Schnittstellen zwischen Mensch und Maschine. Ähnlich nonverbalem Verhalten in zwischenmenschlicher Kommunikation, das es Menschen ermöglicht, Wünsche und Absichten anderer Mitmenschen auch fernab der menschlichen Sprache zu erkennen,  wird der Computer mit Technik ausgestattet, die es ihm erlauben soll Rückschlüsse über Ziele und Intentionen des Benutzers zu gewinnen. Mit diesem Wissen sollen sich in Zukunft Abläufe am Computer wesentlich intuitiver und schneller ausführen lassen.

 

__________________________________

Kontakt

Prof. Dr. Elisabeth André
Lst. für Human Centered Multimedia
Universitätsstraße 6a
86159 Augsburg

Telefon: 0821/598-2341
andre@informatik.uni-augsburg.de

 

__________________________________

Weitere Informationen

Projektseite mit Video
http://openssi.net/mhd13

Music Hackday
http://bcn.musichackday.org

 

__________________________________

Pressebild

BlowUp_pr    Nutzer beim Spielen von ‚BlowUp‘
Das Spiel wird  nur über Herzschlag und Atmung gesteuert. Der Sensor (rote Platine) erfasst dafür in Echtzeit die Rohdaten und übermittelt sie an eine Software, wo die Signale aufbereitet und in die Spiellogik überführt werden.