Glossar

Akustisches Monitoring

In der sensorgestützten Prozessüberwachung oder zur Feststellung/Bewertung von Produkteigenschaften können Verfahren/Methoden des akustischen Monitorings eingesetzt werden. Anwendungen dafür finden sich z.B. in der Qualitätssicherung oder im Bereich Predictive Maintenance, in denen akustische Signaturen (oder/und auch deren Veränderungen) zur Zustands- und Fehlerüberwachung von Maschinen, Anlagen und Produkten ausgewertet werden. Mehrwerte lassen sich über gesteigerte/hohe Produktqualität und deren Absicherung, sowie weniger/planbare/minimierte Ausfallzeiten generieren. 

Automatische Spracherkennung

Automatische Spracherkennung bezeichnet das Verfahren mit dem Computern das automatische Erfassen von gesprochener Sprache ermöglicht wird. Dies kann zum Beispiel zur Steuerung von Geräten per Sprache oder zur automatischen Transkription von Freitext genutzt werden.

Audiosignalverbesserung

Audiosignalverbesserung beschreibt den Prozess, bei dem akustische Signale so aufbereitet werden, dass eine größtmögliche Qualität am Ort der Verarbeitung entsteht. Die Verarbeitung kann durch den Menschen oder eine Maschine passieren. Zur Audiosignalverbesserung zählen neben der Wahl optimaler Schallwandlerkomponenten mit angeschlossener Digitalisierung und deren Anzahl auch die Verarbeitung durch digitale Signalverarbeitungsalgorithmen. So lassen sich beispielsweise mittels KI-basierter Störgeräuschreduktion Stimmen aus einem Gemisch mit Hintergrundlärm oder eine einzelne, zuvor angelernte Stimme aus einem Stimmengewirr extrahieren. Auf der anderen Seite kann das Zielsignal auch ein anderes als die Stimme sein: z.B. gleichzeitig schnarchende Menschen sollen in einzelne Audiospuren aufgeteilt werden.

Beamforming

Unter Beamforming versteht man eine Signalverarbeitungsstrategie, bei der mehrere Mikrofone in der Art und Weise verrechnet werden, dass der Schall nicht mehr aus allen Richtungen gleichzeitig, sondern aus einer definierten Richtung empfangen wird – im Grunde eine Art Audiofokus. Mit intelligenter Algorithmik oder durch die Nutzenden können bestimmte Richtungen aus denen Audiosignale auf das Mikrofonarray treffen selektiert und verarbeitet werden, sodass beispielsweise bei Telefonkonferenzen das Mikrofon dorthin ausgerichtet wird, wo es gerade benötigt wird - etwa auf die Sprecherin oder den Sprecher. 

Binaurales Hören

Binaurales Hören wird auch als Richtungshören bezeichnet und meint das räumliche Hören mit beiden Ohren. Durch die Verarbeitung der beiden eingehenden akustischen Signale setzt sich ein Höreindruck zusammen. So ist es zum Beispiel möglich die Richtung einer Schallquelle zu verorten oder unterschiedliche Schallquellen voneinander zu trennen. So können wir häufig auch in schwierigen Hörsituationen einer bestimmten Stimme folgen, wenn diese aus einer anderen Richtung eintrifft als die Störgeräusche.

Biomarker

Biomarker für die Medizin oder Biologie sind messbare Parameter biologischer Prozesse, die prognostische oder diagnostische Aussagekraft haben. Dabei kann es sich um messbare Veränderungen z.B, im Blutbild, oder auch solche in kontinuierlichen Datenreihen wie Sprache oder EEG handeln. In unserer Gruppe »Assistive Sprech- und Sprachanalyse« verwenden wir beispielsweise Merkmale des Sprachsignals als Biomarker, die zur Früherkennung und Prävention von Erkrankungen dienen können. Biomarker können hier die Stimme sein, die Sprechgeschwindigkeit oder die Wörter, die eine Person im Alltag nutzt.

Computerlinguistik

Die Computerlinguistik entwickelt und erforscht Modelle, mit denen menschliche Sprache sowohl in mündlicher als auch schriftlicher Form algorithmisch verstanden und interpretiert werden kann. Sie bildet die Schnittstelle zwischen der Sprachwissenschaft und Informatik und wird in der englischsprachigen Literatur häufig als computationals linguistics oder natural language processing bezeichnet.

Elektroenzephalografie/Elektroenzephalogramm (EEG)

Die Messung der elektrischen Aktivität des Gehirns erfolgt mit Hilfe der Elektroenzephalografie; die so gewonnenen Daten werden als Elektroenzephalogramme bezeichnet. Beides kann als EEG bezeichnet werden. Für ein EEG werden Sensoren an verschiedenen Stellen des Kopfes angebracht, die die natürlichen Spannungsveränderungen aufgrund von Hirnaktivität messen. Ein Verstärker ist notwendig, um die winzigen Ausschläge sichtbar zu machen. Bei Verdacht auf bestimmte Nervenerkrankungen oder Hirnschädigungen, genauso wie zur Begleitung bei Operationen oder im Schlaflabor ist die Begleitung durch ein EEG sinnvoll.

Elektromyografie (EMG)

Unter Elektromyografie (EMG) versteht man die Messung der elektrischen Aktivität von Muskeln mit Hilfe von Elektroden. Aus dieser neurologischen Untersuchung lassen sich Rückschlüsse auf die Muskelgesundheit und die zugehörigen Nerven ziehen.

End-of-Line-Testing

Bei einem End-of-Line-Test (EOL) wird am Ende der Fertigungslinie, also dem Bandende, eine Qualitätsprüfung durchgeführt. Ein weiteres Prüfsystem ist das In-Line-Testing.

Hearable

Als Hearables bezeichnet man intelligente Ohrhörer, die über zusätzliche Funktionen verfügen. Dies können Kopfhörer, Headsets oder auch Hörgeräte sein. Unsere Technologien für smarte Hearables sind auf Industriearbeitsplätze ausgerichtet und können z. B. die Sprachsteuerung von Produktionsmaschinen und akustische Überwachungsfunktionen umfassen.

Industrie 4.0

Als Industrie 4.0 (i4.0) bezeichnet man Digitalisierung der gesamten Wertschöpfungskette in der industriellen Produktion. Vernetzte Systeme ermöglichen die digitale Transformation von Maschinen und Abläufen, um die Fabrik von Morgen effizienter und flexibler zu gestalten.

Industrie 5.0

Als Industrie 5.0 (i5.0) bezeichnet man die Weiterentwicklung der i4.0. Im Fokus steht bei der Industrie 5.0 die Schnittstelle zwischen Mensch und Maschine. Mit Hilfe künstlicher Intelligenz (KI) und neuartigen Technologien sollen Arbeitsabläufe durch die Zusammenarbeit zwischen Menschen und Maschinen nutzerzentrierter und intuitiver gestaltet werden.

In-Line-Testing

Neben dem End-of-Line-Testing stellt das In-Line-Testing ein weiteres Prüfverfahren dar. Dabei wird bereits während der Fertigung eine Reihe von Qualitätsprüfungen durchgeführt.

Klangqualität

Die Klangqualität ist ein subjektives Empfinden von Zuhörenden. Bei der Bewertung der Klangqualität spielen unterschiedliche Faktoren, wie Raumakustik, Aufnahmequalität oder die Qualität von Verstärkern eine wichtige Rolle, aber auch individueller Geschmack oder Erwartungen an einen Klang in einem bestimmten Kontext. Durch psychoakustische Bewertungsmaßnahmen kann bestimmt werden, wie sich Produkteigenschaften auf die Klangqualität auswirken und – umgekehrt – welche Rolle der Klang eines Produkts auf die Bewertung der Produktqualität hat.

Künstliche Intelligenz (KI)

Künstliche Intelligenz (KI) (engl. artificial intelligence (AI)), bezeichnet eine Form des maschinellen Lernens, bei der es darum geht, menschliche Fähigkeiten, wie zum Beispiel Problemlösungsstrategien, Textverstehen oder Bildanalyse, zu imitieren. Typischerweise kommen dabei sogenannte tiefe künstliche neuronale Netze (engl. Deep Neural Network (DNN)), welche eine Übertragung des menschlichen Nervensystem in maschinenlesbarer Form darstellen, zum Einsatz. Diese DNNs lassen sich mit Hilfe einer großen Datenmenge trainieren. 

Künstliches neuronales Netz

Ein künstliches neuronales Netz ist angelehnt an das menschliche Gehirn. Beide bestehen aus einzelnen Neuronen, welche miteinander verknüpft sind. Diese Neuronen empfangen Signale, gewichten und summieren diese und leiten sie verändert weiter. In künstlichen neuronalen Netzen bilden mehrere übereinander angeordnete Neuronen eine sogenannte Schicht (engl. Layer). Viele aufeinanderfolgende Schichten fügen sich zu einem tiefen künstlichen neuronalen Netz zusammen. Die Parameter, welche bestimmen, wie die einzelnen Eingänge eines einzelnen Neurons gewichtet werden, sind veränderlich und werden während des Trainings so optimiert, dass die gestellte Aufgabe optimal gelöst wird. So lassen sich etwa Phoneme, Laute oder Sprache erkennen. 

Maschinelles Lernen

Maschinelles Lernen (engl. Machine Learning) beschreibt allgemein Algorithmen, welche zum Ziel haben, anhand einer Menge Daten (Bilder, Audio, Metadaten, etc.) einer Maschine eine Problemlösung beizubringen.

Mikrofonarray

Ein Mikrofonarray beschreibt eine Anordnung mehrerer Mikrofone. Durch die Addition der einzelnen Mikrofonsignale mit angepassten Algorithmen werden akustische Ereignisse räumlich lokalisiert und die Signalaufnahme gezielt auf eine Richtung, z. B. auf einen Sprechenden, optimiert. Möglich sind zwei- oder dreidimensionale Anordnungen von zwei bis beliebig vielen Mikrofonen.

Neurotechnologie

Bei der Neurotechnologie wird das Gehirn als Schnittstelle zwischen Mensch- und Informations- und Kommunikationssystem betrachtet. Hiermit kann sowohl die Messung von Hirnaktivität gemeint sein, um Informationen über kognitive Prozesse oder biologische Abläufe zu erhalten oder Geräte anzusteuern; als auch die elektrische Stimulation von Hirnstrukturen als Behandlungsmethode. Die Neurotechnologie umfasst die Hardware in Form von Sensoren und Verstärkern, als auch die zugrundeliegenden informationstechnischen Verfahren der Signalverarbeitung.

Predictive Maintenance

Zur Vermeidung von Stillständen in der Produktion werden Verfahren zur proaktiven Maschinenwartung eingesetzt. Das wird auch als »Predictive Maintenance« übersetzt.

Radar

Radar ist die Bezeichnung für die Lokalisierung und Entfernungsmessung mit Hilfe von Funkwellen. Radar ist ein Akronym für »radio detection and ranging«. Radargestützte Messgeräte können auch zur Erfassung von Lebenszeichen wie z. B. Atmung oder Puls eingesetzt werden. Die Technologie wird auch in anderen Bereichen eingesetzt, etwa in der Luftfahrt und der Seefahrt.

Sensornetzwerk

Sensornetzwerke bestehen aus unterschiedlichen und häufig räumlich voneinander getrennten Sensoren (Knoten), welche eine bestimmte Aufgabe erfüllen. Die Ergebnisdaten der einzelnen Sensoren werden häufig an eine übergeordnete Instanz gesendet. Diese übergeordnete Instanz stellt einzelne Sensorrohdaten für die Nutzenden zur Verfügung oder fusioniert und aggregiert diese zu einer für die Nutzenden höherwertigen Information.

Signalverarbeitung

Signalverarbeitung beschreibt im Allgemeinen die Analyse und Bearbeitung von Signalen. Signale können dabei unterschiedlicher Gestalt sein: Audiosignale, EEG, Bilder, Videos, etc. Heutzutage ist die digitale Signalverarbeitung im Alltag vorherrschend. Maschinelles Lernen, aber auch Verfahren der Klanganpassung, wie zum Beispiel die Verwendung von Equalizern oder Dynamikkompressoren, zählen zu Verfahren der Signalverarbeitung.

Sprachstörung

Sprachstörungen bezeichnen Störungen der Sprachkognition und können alle Modalitäten der Sprache betreffen. Sowohl das Sprachverständnis als auch die Sprachproduktion können auf Ebene der Lautstruktur, des Wortschatzes, der Bedeutung und des Satzbaus betroffen sein. Ursachen für Sprachstörungen können u. a. entwicklungsbedingt sein oder durch neurogene Erkrankungen hervorgerufen werden.

Sprechstörung

Sprechstörungen beschreiben Beeinträchtigungen der motorisch-artikulatorischen Fähigkeiten. Symptomatiken reichen von Fehlbildungen einzelner Sprachlaute, Veränderungen des Sprechtempos und Dynamik bis hin zu Störungen der Rhythmik oder des Redeflusses. Ursachen für Sprechstörungen können u. a. entwicklungsbedingt sein, durch strukturelle Veränderungen der Sprechorgane oder durch neurogene Erkrankungen hervorgerufen werden.

Sprachverarbeitung

Methoden der automatischen Sprachverarbeitung im medizinischen Kontext bezeichnen algorithmische und computerbasierte Verfahren zur objektiven Beurteilung des akustischen Sprachsignals. Die Verfahren können auch im diagnostischen Prozess eingesetzt werden und Hinweise auf Pathologien der Sprache, des Sprechens oder der Stimme geben. Verschiedene Sprachverarbeitungstechnologien können hier zum Einsatz kommen, darunter die digitale Signalverarbeitung oder auch die automatische Spracherkennung.

Sprachverständlichkeit

Die Sprachverständlichkeit ist eine Messgröße, die in Experimenten oder Modellen ermittelt werden kann. Sie dient unter anderem dazu zu messen, inwiefern eine entwickelte Technologie die Sprachkommunikation verbessert. Beispielsweise lässt sich messen, wie viele Wörter eines Sprachsignals Probandinnen und Probanden korrekt verstehen konnten. Abweichend dazu bezieht sich der Begriff der Sprechverständlichkeit auf die Sprechfunktion und damit bei Beeinträchtigung auf die sogenannten Sprechstörungen.

Stimmstörung

Stimmstörungen sind Beeinträchtigungen der Stimmfunktion und damit im Wesentlichen durch eine eingeschränkte stimmliche Leistungsfähigkeit und Veränderung des Stimmklangs gekennzeichnet. Ursachen einer derartigen Beeinträchtigung können funktionell (z. B. Stimmgebrauch) oder organisch (z. B. Lähmungen, Tumoren) sein. Die klanglichen Veränderungen der Stimme gehen von heiser, hauchig und leise, bis hin zu rau, gepresst oder kratzig. Neben der Psyche und Atmung spielt der Einsatz der Kehlkopfmuskulatur eine relevante Rolle bei der Stimmgebung.

Unterstütze Kommunikation

Unterstütze Kommunikation (UK) wird im Englischen als Augmentative and Alternative Communication (AAC) bezeichnet und umfasst verschiedene pädagogische und therapeutische Maßnahmen zur Erweiterung kommunikativer Möglichkeiten für Menschen, die nicht oder nur unzureichend lautsprachlich kommunizieren können. Neben Symbolkarten oder Kommunikationstafeln, kommen Sprachausgabegeräte, Tablets und andere technische Verfahren zum Einsatz.

Voice Filtering

Die Voice-Filter-Technologie dient dazu bestimmte Sprecherinnen und Sprecher aus einer Audioaufzeichnung zu extrahieren, um die Sprachverständlichkeit zu verbessern.