Mit AARiP zum smarten Gehörschutz

FH-Dozent Michael Iber präsentiert AARiP beim Fraunhofer Technologietag in Erfurt

AARiP zeigt, wie Gehörschutz zum Assistenzsystem weiterentwickelt werden kann. Michael Iber präsentierte das FH-Projekt auf seiner Reise durch Europa

Nottingham, Erfurt, Dortmund. FH-Dozent Michael Iber und sein Forschungsprojekt AARiP (Auditory Augmented Reality in Production) sind in letzter Zeit viel herumgekommen.

Das Projekt ist Teil des Immersive Media Lab (IML) der FH St. Pölten und bereitet akustische Maschinenemissionen in Echtzeit als nutzbare Information auf. Ziel ist die Entwicklung eines intelligenten Gehörschutzes für die Produktion.

Im Rahmen der Audio Mostly 2019 an der University of Nottingham präsentierte Michael Iber ein Peer-Reviewed-Paper zum Projekt und besuchte bei dieser Gelegenheit auch die Nottingham Trent University, eine Partneruniversität der FH St. Pölten mit gut ausgestatteten Audiostudios. 

Weitere Stationen der Reise waren der Fraunhofer Technologietag in Erfurt am 1. Oktober sowie die Acoustex-Messe in Dortmund am 2. Oktober, wo Ergebnisse des Projekts bei Vorträgen vorgestellt wurden. Auf einem eigenen Messestand, betreut von Junior Researcher Christian Jandl und Patrik Lechner, konnten MessebesucherInnen zudem die Virtualisierung des Projektes auf einer Oculus Go-Brille erleben.

AARiP: Intelligenter Gehörschutz für die Produktion 

Das Forschungsprojekt Auditory Augmented Reality in Production (AARiP) als Teil des Immersive Media Lab (IML) schafft die Grundlage für die Entwicklung eines "intelligenten" Lärmschutzkopfhörers im Rahmen von Cyber Physical Production Systems. Die Anwendung ist in erster Linie für Produktionsumgebungen mit Geräuschemissionen über 85dB SPL konzipiert, in denen Gehörschutz vorgeschrieben ist.

AARiP-und-IML-Logo.jpg

Technologische Aufwertung mittels auditivem AVR

FH-Dozent Michael Iber streicht den Vorteil des smarten Lärmschutzkopfhörers heraus: "FacharbeiterInnen werden nicht durch das Tragen eines zusätzlichen Geräts belastet, sondern erhalten durch die technologische Aufwertung ihres Gehörschutzes einen informativen Mehrwert auf drei Ebenen." Die Relevanz akustischer Signale für die Arbeit mit Maschinen sei im Rahmen von Untersuchungen zum Working (auch Tacit oder Implicit) Knowledge immer wieder hervorgehoben worden.

Akustisch dargestellt werden in (Quasi-)Echtzeit:

  • aufbereitete Maschinen- und Umgebungsgeräusche (z.B. prozessrelevante Abweichungen vom Normalzustand)
  • zur Zustandsüberwachung aufbereitete produktionstechnisch relevante maschinen- und produktionsbezogene Daten und Kennzahlen (Bestand, Reichweite, Rüsten usw.) und
  • verbale (drahtlose) Kommunikation.

AARIP-Screenshot aus der App 3

Der Schwerpunkt des Projekts liegt derzeit auf der akustischen Verarbeitung und Aufbereitung von Maschinengeräuschen in (Quasi-)Echtzeit. "In einem Proof-of-Concept implizierten wir Fehler in die Funktionalität eines 3D-Druckers (z.B. Entfernung von Schmiermittel) und nahmen identische Druckprozesse mit und ohne Manipulation über Mikrofone und Körperschallwandler auf. Anschließend wurden diese Aufnahmen mit einer Kombination aus Feature Extraction- und DeepLearning-Algorithmen analysiert", erzählt Iber.

Das Ergebnis: Die Wahrscheinlichkeit eines Fehlers zu einem bestimmten Zeitpunkt ließ sich mit einer Genauigkeit von über 93 Prozent bestimmen. "Die durch die Manipulationen verursachten Geräuschabweichungen konnten mit dem menschlichen Gehör nicht wahrgenommen werden. Als Proof-of-Concept übertrugen wir den Datenstrom der Fehlerwahrscheinlichkeitswerte in drei Sonifikationsmodelle: Soundscape, Heartbeat und Music Player", so Iber weiter.

Akustisch geprägtes Working Knowledge nutzen

In der aktuellen Phase des Projektes werden analog zum oben beschriebenen Vorgehen die Prozesse einer Stanzanlage analysiert. Iber: "Dabei erweitern wir den Ansatz der generischen Fehlererkennung und streben eine umfassende Identifizierung von Maschinenzuständen bei ähnlich hohen Klassifizierungsraten an. Für die Evaluation virtualisieren wir abschließend das Szenario für eine VR-Brille."

Weitere Anwendungsgebiete sind der Einsatz in Kontrollräumen und für Trainingszwecke.

AARiP-Messestand_cChristian-Jandl.jpg

"In Dortmund, bei der Acoustex-Messe, haben wir uns auf einen Teilaspket des Projekts konzentriert und eine beispielhafte Anwendung von Machine Learning-Algorithmen zur Identifikation von Maschinenprozessen gezeigt, die wiederum als Grundlage für ein gestaltetes klangliches Szenario dient. Dabei geht es nicht primär um Fehlererkennung, sondern um die Darstellung dieser Maschinenprozesse an sich, d.h., auch optimal funktionierende Prozesse werden klanglich repräsentiert."

Das hat laut Iber folgenden Grund: Die Bedeutung des „Working Knowledge“ (auch: Implizit oder Tacit Knowledge genannt), sprich die Erfahrung, die ArbeiterInnen an einer Maschine über die Jahre erwerben, wird häufig unterschätzt. Iber zeigt das an einem Beispiel aus dem Alltag: Auch beim Autofahren würden wir (zumeist unbewusst) auf die Geräusche achten, die das Fahrzeug von sich gibt. Ein ausbleibendes Geräusch würde uns genauso alarmieren, dass etwas beispielsweise mit dem Motor nicht stimmt, wie ein für die Situation ungewöhnliches Geräusch. "Wir brauchen das „normale“ Geräusch als Bestätigung, dass alles in Ordnung ist. Dieses Wahrnehmungsphänomen möchten wir uns zunutze machen", so Iber.

Eine Herausforderung dabei sei die Entwicklung eines klanglichen Szenarios, das einerseits informativ ist, andererseits aber auch über lange Zeitspannen von den Arbeiterinnen und Arbeitern akzeptiert wird – und im besten Fall motivierend wirkt.

Weiterführende Links

Jetzt teilen:

Sie wollen mehr wissen? Fragen Sie nach!

FH-Prof. Dr. Iber Michael

FH-Prof. Dr. Michael Iber

FH-Dozent
Internationaler Koordinator
Department Medien und Digitale Technologien