Ambi Dance
Ambi Dance erlaubt es allen Besuchern eine einzigartige Perspektive zum Tanz zu bekommen und sich immersiv eine Tanzperformance anzuschauen und anzuhören.
Ein Studienprojekt von Phillip Mohnheim, Willy Karl und Justin T.Niestroj (4. Semester, 2020, Hochschule Darmstadt, betreuender Professor: Thorsten Greiner)
Ambi Dance erlaubt es allen Besuchern eine einzigartige Perspektive zu Tanz zu bekommen. Statt sich eine Performance von außen anzuschauen, gibt Ihnen Ambi Dance die Möglichkeit den Auftritt aus der Perspektive der Tänzerin/des Tänzers zu erleben. Durch binaurales Audio und eine auf dem Kopf der/des Tanzenden angebrachte Go-Pro kann man sich immersiv in den Raum der Aufführung hineinfühlen und eine viel engere Verbindung zur dargestellten Kunst aufbauen. Durch Ambi Dance muss sich die/der Tanzende weniger auf ihr/ sein Wirken und Aussehen nach Außen konzentrieren und bekommt somit die Möglichkeit, ihr/sein Gefühl beim Tanzen genauso zum Ausdruck zu bringen, wie sie/er es möchte. Durch Ambi Dance wird Tanz und Technik verbunden, um eine noch intensivere und immersivere Form der Kunst zu schaffen.
Wie das funktioniert? Durch die GyrOSC App werden die Bewegungsdaten via OSC an das Programm Max MSP gesendet. Diese Daten werden dann an eine Audio Workstation weitergegeben, wo die Daten als Automation geschrieben werden. Mit diesen Automationsdaten kann dann im Nachhinein der Soundtrack für Ambisonics codiert werden. Hierdurch wird die Kopfposition der Tänzerin nachgebildet, sodass man die Performance immer aus ihrer Perspektive sieht und hört.
[youtube id=dSC4zAz5ZcU]
Emotionen in der Menge
Eine interaktive Klanginstallation über Wahrnehmung und Verantwortung der eigenen Worte in Bezug zur heutigen Gesellschaft
Ein Studienprojekt von Lucas Kirsche, Benjamin Imhof und Matthias Hassel (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)
Sie stehen in einem großen Raum. Um Sie herum stehen viele Menschen in kleinen Gruppen und unterhalten sich. Die Stimmung ist neutral. Was wollen Sie den Menschen sagen? Finden Sie sie sympathisch oder sind Sie von ihnen genervt? Zögern Sie nicht mit den Leuten zu kommunizieren und lassen Sie die Reaktion auf sich wirken.
Die Installation „Emotionen in der Menge“ von Matthias Hassel, Lucas Kirsche und Benjamin Imhof behandelt einen wichtigen Aspekt unseres alltäglichen Lebens. Mit einem Tablet kann der/die Performer*in mit der gehörten Menschengruppe um sich herum kommunizieren. Die gesprochenen Worte werden durch eine Spracherkennung in Text umgewandelt und in passende Emotionen eingeordnet. Dadurch verändert sich die Gesamtstimmung der Klanginstallation: „Wie man in den Wald ruft – so schallt es zurück“.
Durch eine Binauralisierung der Musik und Sounds ist es möglich, die Worte und Sätze in verschiedene Richtungen der Menschenmenge zu richten und so aktiv mitzukriegen, wie eine getriggerte Emotion langsam die Gesamtstimmung färbt. Damit alle, die Interesse haben, unsere Installation nachbauen können, haben wir unter folgendem Link unseren Code veröffentlicht: https://github.com/lukirs95/speechToEmotion
[vimeo id=446302648]
WipeOut
Ein virtueller Galerie-Explorer mit dynamischer 3D Soundwiedergabe
Ein Studienprojekt von Alexander Leo, Michael Wöß und Paul Fleck (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)
WipeOut ist eine interaktive, virtuelle Kunstgalerie und bietet Nutzer*innen die Möglichkeit, am Computer oder Android-Tablet durch Freiwischen verschiedene Kunstwerke selbst zu entdecken. Anstatt sich rein auf visuelle Eindrücke der Bilder zu beschränken, eröffnet WipeOut die Möglichkeit, die Werke als dreidimensionale Klanglandschaften zu erleben.
Den Nutzer*innen stehen sieben Kunstwerke in Miniaturdarstellung zur Auswahl, die sie in voller Größe mit einem Pinselwerkzeug freilegen und alle Details des Bildes enthüllen können. Neben dem Kunstwerk selbst kommen auch die einzelnen Bestandteile des Sounddesigns zum Vorschein und ergeben, wenn alles freigewischt ist, eine dreidimensionale Klangwelt. Die Sounds sind an bestimmten Stellen im Bild versteckt und müssen, um diese hören zu können, erst freigewischt werden.
Die einzelnen Ambisonics-Sounddesigns wurden speziell für die jeweiligen Kunstwerke erstellt und spiegeln die Eindrücke und Gefühle wider, die unsere Gruppenmitglieder beim Betrachten dieser Werke beschäftigt haben.
Über unsichtbare Overlays lassen sich den verschiedenen Bildarealen mit festen RGB-Werten einzelne Kanäle zuordnen, die beim zunehmenden Freiwischen unterschiedlich laut hörbar werden. Mit diesem Steuerungswert lässt sich unter anderem auch die Position bzw. Bewegung der jeweiligen Soundquelle im Raum steuern.
[youtube id=NDGgwDy3N0A]
Retosu
Max/MSP; Jitter; Partikelsystem; Patch
Abgabe zur Werkstatt-Interaktiv im vierten Semester des Studiengangs Sound and Music Production. Teammitglieder: Gustav Haese, Jonas Hausotter, Amine Hayati (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)
Unser Projekt Retosu wurde inspiriert durch die Werke von Hans Thoma „Selbstbildnis vor Birkenwald“ (1899) und Richard Oelze „Archaisches Fragment“ (1935). Die Szenerie unserer Soundscape befindet sich in einem Wald, der durch die Klangobjekte (Tiere des Waldes) zum Leben erweckt wird. Indem wir diese vertrauten Klänge verwenden, können wir von einer Basis ausgehen, welche nun dekonstruierbar ist.
Hierfür haben wir klassische Audioeffekte in Max/MSP realisiert und auf Ambisonics angewandt. Unter den Effekten befindet sich ein Delay, ein Reverb, ein Resonator, ein Frequenzsplitter und auch ein alter Bekannter aus dem 3. Semester der Wholegrain (Granular-Synthese-Effekt).
Da Licht in unseren Inspirationsquellen auch ein besonderes Thema war, haben wir uns daran gesetzt, ein Partikelsystem mit den Möglichkeiten von Jitter (Max/MSP) zu entwickeln. Dieses Partikelsystem repräsentiert visuell die auditive Entwicklung unserer Soundscape. Es wandelt sich mit den Klängen/Objekten, als ein kongruentes System, um dann wieder zu seinem Ursprung zurückzufinden. Wenn es denn einen gibt. Wir wollen euch hiermit herzlich dazu einladen, einen „Blick“ auf unsere Soundscape zu werfen und euch selbst einen Eindruck zu machen.
Viel Spaß wünschen euch: Gustav Haese, Jonas Hausotter und Amine Hayati
[youtube id=5z22OEm8gbA]
SensZora
Durch eingebaute Sensoren werden bestimmte Werte über eine eigens entwickelte Software in Sounds und Parameter zur Klangbearbeitung umgewandelt.
Ein Studienprojekt von Fritz Krüger, Johannes Schlump, Paul Fleck und Benjamin Pohler (3. Semester, 2020, Hochschule Darmstadt, betreuende Dozenten: Prof. Dr. Kyrill Fischer, Prof. Thorsten Greiner, Prof. Dr. Jürgen Schwab).
SensZora ist ein sensorgesteuerter Klangerzeuger, der mit seiner Umgebung interagiert. Durch die eingebauten Sensoren werden bestimmte Werte erkannt und aufgenommen und über eine eigens entwickelte Software in Sounds und Parameter zur Klangbearbeitung umgewandelt. Unsere Idee zu SensZora entstand im Oktober 2019. Gemeinsam wollten wir einen neuen, anderen Weg finden, Musik zu kreieren und uns dabei von unserer Umgebung inspirieren lassen.
Die Nutzer*innen sollen sich von ihrem herkömmlichen Workflow lösen, Musik zu schreiben und Klänge zu erzeugen, und sich von Klängen von SensZora inspirieren lassen. Dazu werdendie Parameter in der DAW über Sensorwerte eingestellt. SensZora verfügt über zwei Modi: einen Kompositionsmodus und einen MIDI-Modus. Der Kompositionsmodus schreibt Musik für Bass, Flächen, Akkordfolgen und Arpeggien, und wird dabei von den gesammelten Sensorwerten beeinflusst. Im MIDI-Modus empfängt die SensZora-Software Noten eines externen MIDI-Controllers und verändert den Klang anhand der Sensorwerte.
SensZora beinhaltet Sensoren für Temperatur, Luftfeuchtigkeit, Luftdruck, Magnetismus, Licht (WRGB), Gas & Rauch, Neigung, Ultraschall, Drehbewegungen und Beschleunigung (Gyroskop).
[youtube id=pqOxxJVqH20]
Landes Jugend Jazz Orchester Hessen meets hda
Waveform Is An Electronic Representation Of Art
Ein Studienprojekt von Benedikt Förster und Henrik Eskens (6. Semester, 2020 Hochschule Darmstadt, betreuende Professoren Moritz Bergfeld, Kyrill Fischer, Felix Krückels, Carsten Kümmel).
Die binaurale 3D-Audio-Komposition, welche die Abbildung der gehörten Wellenform als visuelle Komponente nutzt, unterstreicht den Bezug von Ton und Bild. Dadurch wird der Grundgedanke verdeutlicht, dass die beiden Medien Audio und Video heutzutage nur noch schwer zu trennen sind. Der Rezipient sieht das Gehörte. Durch additive Synthese, Frequenzmodulation und Schwebungen entstehen Klangwelten, welche durch ein Oszilloskop dargestellt werden. In Abhängigkeit der Phasenlage und Korrelation bzw. Dekoration entstehen unterschiedliche Figuren, deren Größe durch dem Audiopegel beeinflusst wird. Die daraus entstehende Komposition wurde in Ambisonics umgesetzt und unter Berücksichtigung der dramaturgischen Lautheit entsprechend für die binaurale Wiedergabe gerendert.
Die visuelle Abbildung kann in jedes beliebe Oszilloskop übertragen werden und dort reproduziert werden. Es empfiehlt sich die Wiedergabe über Kopfhörer.
[vimeo id=464509580]
Drax Power
Gehoer_Waesche
Ein Kurzfilm in binauralem 3D im Kontext der SARS-Covid-19-Pandemie
Ein Studienprojekt von Markus Axt, Tim Lindemann und René Seele (6. Semester, 2020, Hochschule Darmstadt, betreuende Professoren: Felix Krückels, Moritz Bergfeld, Carsten Kümmel, Dr. Kyrill Fischer).
Im Zuge der Semesterwerkstatt Linear 6 haben wir unter Verwendung des mittlerweile wieder zeitaktuellen Stummfilms „Fear of the Microbes“ (1908) und eigener Filmaufnahmen einen Kurzfilm in binauralem 3D produziert, welcher sich humoristisch mit Reaktionen der Öffentlichkeit auf die verordneten Maßnahmen angesichts Covid-19 Pandemie auseinandersetzt.
Der Protagonist des Kurzfilms erzählt 50 Jahre nach der Covid-19 Pandemie von dem Moment, als die Menschheit „fast draufgegangen ist“ und beschreibt als ehemals in der Forschung tätiger Virologe seine damaligen Erlebnisse mit den Gegnern der verordneten Schutzverordnungen und Hygienemaßnahmen. Für die Vertonung und Mischung in 3D kam die vom „Institut für Elektronische Musik und Akustik Graz“ (IEM) veröffentlichte „IEM Ambisonics Plugin Suite“ zum Einsatz, welche unter Cockos' Reaper eine einfache Umsetzung der 3D-Mischung ermöglichte.
Die Vertonung soll die zusätzlichen Möglichkeiten von 3D Audioformaten für filmische Dramaturgie verdeutlichen und durch zusätzliche Immersion angesichts des zeitaktuellen Themas bestechen.
[youtube id=IW1rWx9dZfA]
Spring
Binaurale 3D-Vertonung
Ein Studienprojekt von Frederik Herre und Tim Lindemann (6. Semester, 2020, Hochschule Darmstadt, betreuende Professoren: Felix Krückels, Dr. Jorge Medina Victoria).
Im Zuge des Electives „Next Generation Audio“, kurz „NGA“ haben Frederik Herre und Tim Lindemann einen Ausschnitt des von Blender unter der Creative Commons Lizenz veröffentlichten Animationsfilms „Spring“ in Form einer 3D-binaural-Produktion neu vertont und gemischt.
Im Animationsfilm machen sich das Mädchen „Spring“ und ihr treuer, vierbeiniger Gefährte „Autumn“ gemeinsam auf in einen geheimnisvollen Wald, um dort ein atemberaubendes Geheimnis zu entdecken und werden dabei in ein haarsträubendes Abenteuer verwickelt. Für die Vertonung und Mischung in 3D kam die vom „Institut für Elektronische Musik und Akustik Graz“ (IEM) veröffentlichte „IEM Ambisonics Plugin Suite“ zum Einsatz, welche unter Cockos' Reaper eine einfache Umsetzung der 3D-Mischung ermöglichte. Die Neuvertonung soll einen Ausblick auf die Zukunft des Sounddesigns für Animationsfilme und Filme im Allgemeinen im Kontext von 3D-Audioformaten geben.
[youtube id= 2ZoZvoEEgcs]