Automatisches Sprachmonitoring für Befehle auf der Schiffsbrücke
Viele Unfälle auf See sind auf Fehler in der Kommunikation zwischen Menschen zurückzuführen. Ein automatisches Sprachüberwachungssystem für die Schiffsbrücke soll für mehr Sicherheit sorgen. Mit dem Spracherkennungssystem und der Unterstützung des Fraunhofer IDMT in Oldenburg entwickelt das Start-Up ELNAV mit Sitz im kroatischen Split ein sogenanntes Helm Order Monitoring.
Die Kommunikation auf See ist wichtig für die Sicherheit, sie funktioniert aber nicht immer reibungslos. Das kann katastrophale Folgen haben. So sind 90 Prozent aller Unfälle auf See auf menschliches Versagen zurückzuführen, die Hälfte davon auf Kommunikationsprobleme. In Zusammenarbeit mit der Jade Hochschule am Standort Elsfleth und Partnern aus der Industrie arbeitet das Fraunhofer IDMT in Oldenburg seit einiger Zeit an der Verbesserung der sicherheitsrelevanten Sprachkommunikation, insbesondere im Maritimen Umfeld.
»Neben der Entwicklung von Chatbots für Schulungszwecke und das Crewing stehen bei uns die Entwicklung von Systemen zur Überwachung von Sprachbefehlen auf der Schiffsbrücke im Fokus. Dazu haben wir die KI unseres Spracherkenners mit einem speziellen Vokabular trainiert, das als »Nautical Terms and Phrases« oder »maritime English« bezeichnet wird«, sagt Jan Wellmann, Leiter der automatischen Spracherkennung Institutsteil für Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer IDMT.
ELNAV, ein Start-up-Unternehmen mit Sitz in der kroatischen Hafenstadt Split, entwickelt einen so genannten »Helm Order Monitor«. Dieses elektronische Gerät nutzt die Spracherkennungstechnologie des Fraunhofer IDMT in Oldenburg in Verbindung mit den von den Schiffssensoren empfangenen Daten und überwacht, ob die erteilten Befehle eindeutig sind, bestätigt und korrekt ausgeführt werden.
Hrvoje Mihovilović, Gründer und Geschäftsführer von ELNAV, sagt: »Am Anfang war die größte Hürde für ELNAV die Entscheidung, ob wir unser eigenes Spracherkennungssystem entwickeln oder einen Partner finden sollten. Wir brauchten einen robusten Spracherkenner, der auch unter schwierigen akustischen Bedingungen zuverlässig funktioniert. Wir entdeckten bald, dass das Fraunhofer IDMT Lösungen für die maritime Kommunikation entwickelt und somit ein idealer Partner für die Entwicklung unseres Helm Order Monitors ist.«
Technologische Herausforderungen
Die Partner standen vor drei großen technologischen Herausforderungen. Die erste war die Signalverschlechterung, die bei der Verwendung von Fernfeldmikrofonen in sprachverarbeitenden Anwendungen auftritt. Der Geräuschpegel auf der Brücke sollte die verbale Kommunikation nicht beeinträchtigen, akustische Alarme nicht überdecken und für das Brückenpersonal nicht unangenehm sein: Der Umgebungsgeräuschpegel auf der Brücke sollte bei ruhigem Wetter 65 dB(A) nicht überschreiten. Um dieses Problem zu lösen, wird die Signalverarbeitung mit Mikrofonarrays als Alternative vorgestellt.
Eine weitere Herausforderung war die Genauigkeit der automatischen Spracherkennung unter verschiedenen Geräuschbedingungen und bei unterschiedlichen Entfernungen. Um das System in lauter Umgebungen robuster zu machen, werden tiefe neuronale Netze (DNN) zur Verbesserung der Sprache eingesetzt.
Eine dritte Herausforderung war die Berücksichtigung der vielfältigen Variationen der englischen Sprache - von verschiedenen regionalen Akzenten bis hin zur eigenwilligen Verwendung von Grammatik und Vokabular. Hier wird maschinelles Lernen eingesetzt, um einen umfassenden Sprachkorpus zu erstellen, der spezifisch ist und gleichzeitig die vielen Variationen der englischen Sprache einschließt.
»Der aktuelle Bericht über die Sicherheit des europäischen Seeverkehrs (EMSAFE) sieht in der Digitalisierung und der zunehmenden Automatisierung eine große Chance. Die Technologien könnten aber auch neue Herausforderungen für die Sicherheit sowie die Fortbildung der Besatzung bringen. Die dafür notwendigen Änderungen werden durch unsere Spracherkennung unterstützt. Mit ihr kann maritimes Englisch in der Praxis erlernt, getestet und überwacht werden«, betont Dr. Jens Appell, Leiter des Oldenburger Institutsteils des Fraunhofer IDMT.
Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg
Der im Jahre 2008 unter der Leitung von Prof. Dr. Dr. Birger Kollmeier und Dr. Jens-E. Appell gegründete Institutsteil Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT steht für marktnahe Forschung und Entwicklung mit Schwerpunkten auf
- Sprach- und Ereigniserkennung
- Klangqualität und Sprachverständlichkeit sowie
- Mobile Neurotechnologie und Systeme für eine vernetzte Gesundheitsversorgung.
Mit eigener Kompetenz in der Entwicklung von Hard- und Softwaresystemen für Audiosystemtechnologie und Signalverbesserung setzen über 100 Mitarbeitenden am Standort Oldenburg wissenschaftliche Erkenntnisse in kundengerechte, praxisnahe Lösungen um.
Über wissenschaftliche Kooperationen ist der Institutsteil eng mit der Carl von Ossietzky Universität, der Jade Hochschule, der Hochschule Emden/Leer verbunden. Das Fraunhofer IDMT ist Partner im Exzellenzcluster »Hearing4all«.
Die Weiterentwicklung des Institutsteils wird im Programm »Vorab« durch das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung gefördert.
Letzte Änderung: