Video Poster of students of Hochschule Darmstadt:

Ambi Dance

Phillip Mohnheim, Willy Karl and Justin T.Niestroj

Emotionen in der Menge

Lucas Kirsche, Benjamin Imhof and Matthias Hassel

WipeOut

Alexander Leo, Michael Wöß and Paul Fleck

Retosu

Gustav Haese, Jonas Hausotte and Amine Hayati

SensZora

Fritz Krüger, Johannes Schlump, Paul Fleck und Benjamin Pohler

Landes Jugend Jazz Orchester Hessen meets hda

Hugh van Arnim, Daniel Erben, Henrik Eskens, Lukas Esser und Paul Raum

Waveform Is An Electronic Representation Of Art

Benedikt Förster und Henrik Eskens

Drax Power

Martin Kühr, Christoph Pracht und Jannis Gräbert

GEHOER_WAESCHE

Markus Axt, Tim Lindemann und René Seele

Spring

Frederik Herre und Tim Lindemann

Eine Branche vor dem Aus?

Esther Wilka

Audio-Beitrag

Ambi Dance

Ambi Dance erlaubt es allen Besuchern eine einzigartige Perspektive zum Tanz zu bekommen und sich immersiv eine Tanzperformance anzuschauen und anzuhören.

Ein Studienprojekt von Phillip Mohnheim, Willy Karl und Justin T.Niestroj (4. Semester, 2020, Hochschule Darmstadt, betreuender Professor: Thorsten Greiner)

Ambi Dance erlaubt es allen Besuchern eine einzigartige Perspektive zu Tanz zu bekommen. Statt sich eine Performance von außen anzuschauen, gibt Ihnen Ambi Dance die Möglichkeit den Auftritt aus der Perspektive der Tänzerin/des Tänzers zu erleben. Durch binaurales Audio und eine auf dem Kopf der/des Tanzenden angebrachte Go-Pro kann man sich immersiv in den Raum der Aufführung hineinfühlen und eine viel engere Verbindung zur dargestellten Kunst aufbauen. Durch Ambi Dance muss sich die/der Tanzende weniger auf ihr/ sein Wirken und Aussehen nach Außen konzentrieren und bekommt somit die Möglichkeit, ihr/sein Gefühl beim Tanzen genauso zum Ausdruck zu bringen, wie sie/er es möchte. Durch Ambi Dance wird Tanz und Technik verbunden, um eine noch intensivere und immersivere Form der Kunst zu schaffen.

Wie das funktioniert? Durch die GyrOSC App werden die Bewegungsdaten via OSC an das Programm Max MSP gesendet. Diese Daten werden dann an eine Audio Workstation weitergegeben, wo die Daten als Automation geschrieben werden. Mit diesen Automationsdaten kann dann im Nachhinein der Soundtrack für Ambisonics codiert werden. Hierdurch wird die Kopfposition der Tänzerin nachgebildet, sodass man die Performance immer aus ihrer Perspektive sieht und hört.

[youtube id=dSC4zAz5ZcU]

Emotionen in der Menge

Eine interaktive Klanginstallation über Wahrnehmung und Verantwortung der eigenen Worte in Bezug zur heutigen Gesellschaft

Ein Studienprojekt von Lucas Kirsche, Benjamin Imhof und Matthias Hassel (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)

Sie stehen in einem großen Raum. Um Sie herum stehen viele Menschen in kleinen Gruppen und unterhalten sich. Die Stimmung ist neutral. Was wollen Sie den Menschen sagen? Finden Sie sie sympathisch oder sind Sie von ihnen genervt? Zögern Sie nicht mit den Leuten zu kommunizieren und lassen Sie die Reaktion auf sich wirken.

Die Installation „Emotionen in der Menge“ von Matthias Hassel, Lucas Kirsche und Benjamin Imhof behandelt einen wichtigen Aspekt unseres alltäglichen Lebens. Mit einem Tablet kann der/die Performer*in mit der gehörten Menschengruppe um sich herum kommunizieren. Die gesprochenen Worte werden durch eine Spracherkennung in Text umgewandelt und in passende Emotionen eingeordnet. Dadurch verändert sich die Gesamtstimmung der Klanginstallation: „Wie man in den Wald ruft – so schallt es zurück“.

Durch eine Binauralisierung der Musik und Sounds ist es möglich, die Worte und Sätze in verschiedene Richtungen der Menschenmenge zu richten und so aktiv mitzukriegen, wie eine getriggerte Emotion langsam die Gesamtstimmung färbt. Damit alle, die Interesse haben, unsere Installation nachbauen können, haben wir unter folgendem Link unseren Code veröffentlicht: https://github.com/lukirs95/speechToEmotion

[vimeo id=446302648]

WipeOut

Ein virtueller Galerie-Explorer mit dynamischer 3D Soundwiedergabe

Ein Studienprojekt von Alexander Leo, Michael Wöß und Paul Fleck (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)

WipeOut ist eine interaktive, virtuelle Kunstgalerie und bietet Nutzer*innen die Möglichkeit, am Computer oder Android-Tablet durch Freiwischen verschiedene Kunstwerke selbst zu entdecken. Anstatt sich rein auf visuelle Eindrücke der Bilder zu beschränken, eröffnet WipeOut die Möglichkeit, die Werke als dreidimensionale Klanglandschaften zu erleben.

Den Nutzer*innen stehen sieben Kunstwerke in Miniaturdarstellung zur Auswahl, die sie in voller Größe mit einem Pinselwerkzeug freilegen und alle Details des Bildes enthüllen können. Neben dem Kunstwerk selbst kommen auch die einzelnen Bestandteile des Sounddesigns zum Vorschein und ergeben, wenn alles freigewischt ist, eine dreidimensionale Klangwelt. Die Sounds sind an bestimmten Stellen im Bild versteckt und müssen, um diese hören zu können, erst freigewischt werden.

Die einzelnen Ambisonics-Sounddesigns wurden speziell für die jeweiligen Kunstwerke erstellt und spiegeln die Eindrücke und Gefühle wider, die unsere Gruppenmitglieder beim Betrachten dieser Werke beschäftigt haben.

Über unsichtbare Overlays lassen sich den verschiedenen Bildarealen mit festen RGB-Werten einzelne Kanäle zuordnen, die beim zunehmenden Freiwischen unterschiedlich laut hörbar werden. Mit diesem Steuerungswert lässt sich unter anderem auch die Position bzw. Bewegung der jeweiligen Soundquelle im Raum steuern.

[youtube id=NDGgwDy3N0A]

Retosu

Max/MSP; Jitter; Partikelsystem; Patch

Abgabe zur Werkstatt-Interaktiv im vierten Semester des Studiengangs Sound and Music Production. Teammitglieder: Gustav Haese, Jonas Hausotter, Amine Hayati (4. Semester, 2020, Hochschule Darmstadt, Betreuender Professor: Thorsten Greiner)

Unser Projekt Retosu wurde inspiriert durch die Werke von Hans Thoma „Selbstbildnis vor Birkenwald“ (1899) und Richard Oelze „Archaisches Fragment“ (1935). Die Szenerie unserer Soundscape befindet sich in einem Wald, der durch die Klangobjekte (Tiere des Waldes) zum Leben erweckt wird. Indem wir diese vertrauten Klänge verwenden, können wir von einer Basis ausgehen, welche nun dekonstruierbar ist.

Hierfür haben wir klassische Audioeffekte in Max/MSP realisiert und auf Ambisonics angewandt. Unter den Effekten befindet sich ein Delay, ein Reverb, ein Resonator, ein Frequenzsplitter und auch ein alter Bekannter aus dem 3. Semester der Wholegrain (Granular-Synthese-Effekt).

Da Licht in unseren Inspirationsquellen auch ein besonderes Thema war, haben wir uns daran gesetzt, ein Partikelsystem mit den Möglichkeiten von Jitter (Max/MSP) zu entwickeln. Dieses Partikelsystem repräsentiert visuell die auditive Entwicklung unserer Soundscape. Es wandelt sich mit den Klängen/Objekten, als ein kongruentes System, um dann wieder zu seinem Ursprung zurückzufinden. Wenn es denn einen gibt. Wir wollen euch hiermit herzlich dazu einladen, einen „Blick“ auf unsere Soundscape zu werfen und euch selbst einen Eindruck zu machen.

Viel Spaß wünschen euch: Gustav Haese, Jonas Hausotter und Amine Hayati

[youtube id=5z22OEm8gbA]

SensZora

Durch eingebaute Sensoren werden bestimmte Werte über eine eigens entwickelte Software in Sounds und Parameter zur Klangbearbeitung umgewandelt.

Ein Studienprojekt von Fritz Krüger, Johannes Schlump, Paul Fleck und Benjamin Pohler (3. Semester, 2020, Hochschule Darmstadt, betreuende Dozenten: Prof. Dr. Kyrill Fischer, Prof. Thorsten Greiner, Prof. Dr. Jürgen Schwab).

SensZora ist ein sensorgesteuerter Klangerzeuger, der mit seiner Umgebung interagiert. Durch die eingebauten Sensoren werden bestimmte Werte erkannt und aufgenommen und über eine eigens entwickelte Software in Sounds und Parameter zur Klangbearbeitung umgewandelt. Unsere Idee zu SensZora entstand im Oktober 2019. Gemeinsam wollten wir einen neuen, anderen Weg finden, Musik zu kreieren und uns dabei von unserer Umgebung inspirieren lassen.

Die Nutzer*innen sollen sich von ihrem herkömmlichen Workflow lösen, Musik zu schreiben und Klänge zu erzeugen, und sich von Klängen von SensZora inspirieren lassen. Dazu werdendie Parameter in der DAW über Sensorwerte eingestellt. SensZora verfügt über zwei Modi: einen Kompositionsmodus und einen MIDI-Modus. Der Kompositionsmodus schreibt Musik für Bass, Flächen, Akkordfolgen und Arpeggien, und wird dabei von den gesammelten Sensorwerten beeinflusst. Im MIDI-Modus empfängt die SensZora-Software Noten eines externen MIDI-Controllers und verändert den Klang anhand der Sensorwerte.

SensZora beinhaltet Sensoren für Temperatur, Luftfeuchtigkeit, Luftdruck, Magnetismus, Licht (WRGB), Gas & Rauch, Neigung, Ultraschall, Drehbewegungen und Beschleunigung (Gyroskop).

[youtube id=pqOxxJVqH20]

Landes Jugend Jazz Orchester Hessen meets hda

Big Band Produktion im Fernsehstudio der Hochschule Darmstadt

Ein Studienprojekt von Hugh van Arnim, Daniel Erben, Henrik Eskens, Lukas Esser, Paul Raum (4. Semester, 2019 Hochschule Darmstadt, betreuende Professoren: Carlos Albrecht, Felix Krückels).

Im Rahmen der linearen Werkstatt im Sommersemester 2019 fand am Campus Dieburg eine Produktion mit dem Landes Jugend Jazz Orchester Hessen, unter der Leitung von Wolfgang Diefenbach, statt. Die Band, mit der Besetzung von fünf Saxophonen, vier Trompeten, vier Posaunen, sowie einer Rythmusgruppe bestehend aus Drums, Bass, Piano, Gitarre und Percussion, wurde in U-Form aufgebaut. Aufgenommen wurde live im selben Raum, einem Fernsehstudio am Campus Dieburg. Lediglich die Gesänge wurden in einer Overdub-Session aufgenommen. Für die Aufnahme wurde das Fernsehstudio erstmalig per Dante-Netzwerk an die Surround Regie der Hochschule Darmstadt angebunden. Die Aufnahme und Live-Mischung fand an einer SSL-System-T-Konsole statt. Um die Kommunikation zwischen Band und Aufnahmeleiter zu vereinfachen kam außerdem Riedel Intercom Technik zum Einsatz. Wegen einer mangelnden Sichtverbindung des Aufnahmeraums zur Regie wurde das Monitoring der Band über eine Yamaha-Konsole im Aufnahmeraum gelöst. Aufgenommen, geschnitten und geremixed wurde in einem ProTools-System. In der eintätigen Aufnahmesession wurden vier Titel produziert. Im Anschluss fand ein Overdub-Session mit einigen Sängern des Orchesters statt.

Aufnahmeleitung: Hugh van Arnim, Mischung: Henrik Eskens, Schnitt: Paul Raum, Monitoring: Lukas Esser, Mikrofonie: Daniel Erben.

[vimeo id=464820536]

Waveform Is An Electronic Representation Of Art

Ein Studienprojekt von Benedikt Förster und Henrik Eskens (6. Semester, 2020 Hochschule Darmstadt, betreuende Professoren Moritz Bergfeld, Kyrill Fischer, Felix Krückels, Carsten Kümmel).

Die binaurale 3D-Audio-Komposition, welche die Abbildung der gehörten Wellenform als visuelle Komponente nutzt, unterstreicht den Bezug von Ton und Bild. Dadurch wird der Grundgedanke verdeutlicht, dass die beiden Medien Audio und Video heutzutage nur noch schwer zu trennen sind. Der Rezipient sieht das Gehörte. Durch additive Synthese, Frequenzmodulation und Schwebungen entstehen Klangwelten, welche durch ein Oszilloskop dargestellt werden. In Abhängigkeit der Phasenlage und Korrelation bzw. Dekoration entstehen unterschiedliche Figuren, deren Größe durch dem Audiopegel beeinflusst wird. Die daraus entstehende Komposition wurde in Ambisonics umgesetzt und unter Berücksichtigung der dramaturgischen Lautheit entsprechend für die binaurale Wiedergabe gerendert.

Die visuelle Abbildung kann in jedes beliebe Oszilloskop übertragen werden und dort reproduziert werden. Es empfiehlt sich die Wiedergabe über Kopfhörer.

[vimeo id=464509580]

Drax Power

Synthwave-Song in Form eines 3D-First-Person-Shooters

Ein Studienprojekt von Martin Kühr, Christoph Pracht und Jannis Gräbert (6. Semester, 2020, Hochschule Darmstadt, betreuende Professoren: Kyrill Fischer, Felix Krückels, Moritz Bergfeld und Carsten Kümmel).

Die Welt der 80er Jahre ist in Gefahr! Eine Cooperation versucht die Weltherrschaft mit bösartigen Robotern an sich zu reißen. Schlüpfe in die Rolle von Drax Power und rette die Welt, denn was ihm an Grips fehlt macht er locker mit seinen Muskeln und seiner Laser-Shotgun wett!

In unserem Projekt haben wir die Möglichkeiten und Workflows von interaktivem und 3D-Audio in Video Spielen ausgelotet. Spiele und gerade Shooter profitieren stark von der besseren Lokalisation von binauralem Audio und der Immersion durch 3D-Ambiences. Eine Besonderheit des Spiels ist, dass hier die Musik den Takt des Geschehens vorgibt. Gegner schießen nur im Takt der Musik und Fallen schnappen nur rhythmisch zu.

Das Projekt basiert auf dem FPS-Microgame von Unity, welches wir als Ausgangsbasis für das Projekt nutzen konnten, allerdings stark modifziert und erweitert haben. Um das Spiel zum klingen zu bringen haben wir die Audio Middleware Wwise verwendet, welche uns mit ihren grenzenlosen Möglichkeiten einmal mehr überzeugt hat. Auch die Umsetzung von 3D Audio in Game Engines stellt damit kein Problem dar: Verschiedene Plugins können automatisch Signale in Abhängigkeit von ihrer Position zum virtuellen Hörer binauralisieren.

[youtube id= 5rgoRpPcapk]

Gehoer_Waesche

Ein Kurzfilm in binauralem 3D im Kontext der SARS-Covid-19-Pandemie

Ein Studienprojekt von Markus Axt, Tim Lindemann und René Seele (6. Semester, 2020, Hochschule Darmstadt, betreuende Professoren: Felix Krückels, Moritz Bergfeld, Carsten Kümmel, Dr. Kyrill Fischer).

Im Zuge der Semesterwerkstatt Linear 6 haben wir unter Verwendung des mittlerweile wieder zeitaktuellen Stummfilms „Fear of the Microbes“ (1908) und eigener Filmaufnahmen einen Kurzfilm in binauralem 3D produziert, welcher sich humoristisch mit Reaktionen der Öffentlichkeit auf die verordneten Maßnahmen angesichts Covid-19 Pandemie auseinandersetzt.

Der Protagonist des Kurzfilms erzählt 50 Jahre nach der Covid-19 Pandemie von dem Moment, als die Menschheit „fast draufgegangen ist“ und beschreibt als ehemals in der Forschung tätiger Virologe seine damaligen Erlebnisse mit den Gegnern der verordneten Schutzverordnungen und Hygienemaßnahmen. Für die Vertonung und Mischung in 3D kam die vom „Institut für Elektronische Musik und Akustik Graz“ (IEM) veröffentlichte „IEM Ambisonics Plugin Suite“ zum Einsatz, welche unter Cockos' Reaper eine einfache Umsetzung der 3D-Mischung ermöglichte.

Die Vertonung soll die zusätzlichen Möglichkeiten von 3D Audioformaten für filmische Dramaturgie verdeutlichen und durch zusätzliche Immersion angesichts des zeitaktuellen Themas bestechen.

[youtube id=IW1rWx9dZfA]

Spring

Binaurale 3D-Vertonung

Ein Studienprojekt von Frederik Herre und Tim Lindemann (6. Semester, 2020, Hochschule Darmstadt, betreuende Professoren: Felix Krückels, Dr. Jorge Medina Victoria).

Im Zuge des Electives „Next Generation Audio“, kurz „NGA“ haben Frederik Herre und Tim Lindemann einen Ausschnitt des von Blender unter der Creative Commons Lizenz veröffentlichten Animationsfilms „Spring“ in Form einer 3D-binaural-Produktion neu vertont und gemischt.

Im Animationsfilm machen sich das Mädchen „Spring“ und ihr treuer, vierbeiniger Gefährte „Autumn“ gemeinsam auf in einen geheimnisvollen Wald, um dort ein atemberaubendes Geheimnis zu entdecken und werden dabei in ein haarsträubendes Abenteuer verwickelt. Für die Vertonung und Mischung in 3D kam die vom „Institut für Elektronische Musik und Akustik Graz“ (IEM) veröffentlichte „IEM Ambisonics Plugin Suite“ zum Einsatz, welche unter Cockos' Reaper eine einfache Umsetzung der 3D-Mischung ermöglichte. Die Neuvertonung soll einen Ausblick auf die Zukunft des Sounddesigns für Animationsfilme und Filme im Allgemeinen im Kontext von 3D-Audioformaten geben.

[youtube id= 2ZoZvoEEgcs]

Eine Branche vor dem Aus?

Veranstaltungstechnik zur Corona-Zeit

Durch die Verbreitung des Coronavirus kommt die Kulturlandschaft in Deutschland plötzlich zum Stillstand. Was bedeutet das für eine Branche, deren Existenz davon abhängt? Der Veranstaltungstechniker Achim Tischler erzählt, wie ihn diese Notsituation trifft, was sie für Folgen haben könnte und wie er versucht diese unberechenbare Zeit zu überbrücken. Der Audio-Beitrag wurde für den Radionachwuchs-Preis "Der Hinhörer" nominiert.jetzt anhören ...