Use Case: Akustisches Metaversum für die Produktentwicklung

Ihre Herausforderung

Neuartige akustische KI-Verfahren z. B. zur akustischen Ereignisdetektion (AED), akustischen Szenenklassifizierung (ASC), Schallquellenseparierung (SSS) oder aktiven Geräuschunterdrückung (ANC) benötigen qualitativ hochwertige Daten zum Training und zur Validierung der jeweiligen Anwendung. Die Daten sollten dabei möglichst viele der zukünftigen Anwendungsszenarien abdecken. Der Aufwand für die Erfassung, Bereinigung und Annotation dieser Daten aus der realen Welt ist dabei sehr hoch und stellt in den schnelllebigen Entwicklungszyklen eine große Hürde dar. Auf der anderen Seite führen rein synthetische Datensätze häufig zum Mis- und Overfitting von KI-Verfahren. 

Ihr Nutzen

Wir bieten daher die Komposition und Echtzeitwiedergabe dreidimensionaler Schallfelder an, die den realen akustischen Umgebungen sehr nahekommen (ökologische Validität). Die akustischen Inhalte können manuell über eine GUI oder skriptbasiert erstellt und über räumliche Lautsprecherwiedergabeverfahren reproduziert werden. So erhalten Sie die beste Kombination aus parametrisierbaren und reproduzierbaren akustischen Inhalten und realen akustischen Schallfeldern, um Ihre Verfahren auf reale Anwendungen hin zu überprüfen.

Extras

Sie können dabei entweder auf verschiedene Multikanal-Lautsprechersysteme inkl. adaptiver Raumakustik des IDMT zurückgreifen oder Beratung und Installation für eigene Systeme in Anspruch nehmen.

Das könnte Sie auch interessieren

Forschungsthema

Akustiksimulation für KI-Validierung und -Training

Training und Validierung von KI-Systemen mit simulierten Daten und Szenarien