Woche 2 – Tag 1
Heute weilten wir in Zürich, da am Abend unsere zweite Präsentation statt finden sollte. Wir präsentierten unser Interaction Experience Video, zusammen mit den geplanten nächsten Schritten.
Die Präsentation vom 29.03.2010 als PDF
Hier gehts zum Interaction Experience Video
Weiter hatten wir ein Gespräch mit Daniel Hug. Wir informierten ihn über den Stand der Arbeiten und die weiteren Schritte. Dabei stellte sich heraus, dass wir als nächstes vor allem mit der Melodie eines Musikstücks arbeiten möchten. Einerseits möchten wir versuchen, die Melodie einfach mal 1:1 auf den Körper übertragen zu können. Quasi als Wellenbewegung, die sich den Tönen einer Melodie anpasst.
Dann möchten wir Muster und bestimmte Akzente und Vorkommnisse innerhalb der Melodie erkennen und diese auf den Körper übertragen. Die Übertragung ist dann nicht 1:1, sondern die Muster in der Melodie werden interpretiert und auf dem Körper abgebildet.
Somit gilt es nun einen geeigneten Max-Patch für das Herausfiltern der Melodie aus einem Musikstück zu bauen. Und sobald dies geschehen ist, gibt es einiges zu Testen in den nächsten Tagen..
Erkenntnisse 02-01
- Ein kurzes Video ist sinnvoll für die Präsentation der Idee und der geplanten Interaktion mit dem Objekt
- Mittels Phasenverschiebung können wir versuchen, die Stimme aus einem Musikstück herauszufiltern
- Muster in der Melodie zu erkennen und auf den Körper zu übertragen kann gegenüber der 1:1-Übertragung einer Melodie einen Mehrwert generieren