top

Besonderheiten der Akustischen Kamera mit Anmerkungen zur Rekonstuktion im Zeit- oder Frequenzbereich


Unter einer akustischen Kamera verstehen wir ein bildgebendes System, welches in einer Verbindung aus Mikrophonarray, Videokamera, Datenrecorder und PC akustische Emissionskarten berechnet und automatisch auf ein Videobild oder einen Video-Film überlagert. Als Ergebnis entsteht in 2d oder 3d ein rekonstruktives (seitenrichtiges) Interferenzintegral als Bild oder Film, auf welchem laute Schallquellen zu erkennen sind. Frequenzbewertungen oder akustische Korrelatoren können auf den rekonstruierten Zeitfunktionen der berechneten Pixel erfolgen. Pixelgenau wird die Zeitfunktion jedes Ortes rekonstruiert. Diese lässt sich abspeichern oder anhören - per Mauszeiger wird auf den zu analysierenden Ort im Bild gezeigt.

Die von den Mikrophonen kommenden Zeitfunktionen werden mit einem Datenrecorder digitalisiert und meist auf der Festplatte zwischengespeichert. Mit nur wenigen Sekunden Aufnahmezeit können im Nachgang am PC akustische Analysen aller Art durchgeführt werden. Es gelingt, Spektrogramme an verschiedenen Stellen des Objekts zu rekonstruieren oder hochauflösende Schallfilme in spektraler Bewertung zu entwickeln. Man kann im Spektrogramm nach unerwünschten Frequenzen suchen und das zugehörige Schallbild darstellen.

Um Vergleichbarkeit der Ergebnisse zu Schallpegelmessern herzustellen, wird die Schallbewertung als sogenannter 'äquivalenter Schalldruck' (Equivalent Noise Pressure, ENP) mit einer Farbtabelle codiert ausgegeben. ENP ist der Schalldruck, den ein Schallpegelmesser im gleichen Objektabstand wie das Mikrofonarray einer akustischen Kamera anzeigen würde, gäbe es nur diese eine Schallquelle im Bild.

Seit 2000 gelingt es mit dieser Technik auch, akustisch 'live' zu filmen. Das System wird gestartet und berechnet kontinuierlich und mit nur Millisekunden Verspätung Bildfolgen bis zu 20 Bilder pro Sekunde.

Historie

Der Begriff "akustische Kamera", der sich inzwischen weltweit für akustische Bildgebung durchgesetzt hat, entstand auf der CeBit Hannover 1997, als der Wissenschaftsreporter der Berliner Zeitung, Herr Dr. Ochel, den GFaI-Messestand besuchte, auf dem ein sog. "akustischer Interferenz-Messplatz" [1] mit 16 Mikrophonkanälen ausgestellt war. Mit diesem konnten erste, akustische Filme und Standbilder in industrieeller Umgebung [2] entwickelt werden. Er schlug vor, das Messsystem doch griffiger als 'Akustische Kamera' [5] zu bezeichnen. Im selben Jahr entstand auch der Begriff der "akustischen Photo- und Kinematographie".

Die akustische Kamera verdankt ihre Herkunft Untersuchungen zu Interferenznetzwerken in [10]. Dabei wurde erkannt, dass der klassische, feldtheoretische Beamforming- oder Holographieansatz mit dem Übergang in den Frequenzbereich parametrisch den Zahlenbereich der komplexen Zahlen verlassen kann, Abb.1.

Ein komplexer Zeiger dreht nur bis 360 Grad, reale Geräusche aber weisen beliebig große Verzögerungen - bei hohen Frequenzen über mehrere Wellen - auf, zum Beispiel beim Schrägeinfall von Wellen oder bei Aufnahmen im Nahbereich oder bei zu großem Mikrofonabstand. Dadurch entstehen bei der Feldrekonstruktion im Frequenzbereich Array-bedingte Mehrdeutigkeiten (Aliasing), die durch Mikrophonanzahl oder Mikrophonanordnung (stacked arrays) oder mit anderen Mitteln verhindert werden müssen.

Abb.1: Mikrophonabstand a, Wellenlänge λ und Einfallswinkel α hängen bei der Rekonstruktion im Frequenzbereich zusammen. Der aliasingfreie Einfallswinkel eines Mikrophonarrays wird bei Rekonstruktion im Frequenzbereich für höhere Frequenzen immer kleiner.

An dieser Stelle sei in aller Bescheidenheit daran erinnert, was Interferenzrekonstruktionen im Frequenzbereich - wie sie im Beamforming so gegenwärtig sind - nicht leisten können.

Was bedeutet es, wenn ein Delay die Phase durch Schrägeinfall etc. im Fourierbereich über 360° überdreht? Es bedeutet nichts weniger, als daß bei der Rekonstruktion zusätzliche Quellen auftauchen, die real nicht vorhanden sind.

Dazu wollen wir uns an den Begriff der Fremdinterferenz erinnern, der im Nervensystem die zentrale Rolle zur Detektion von zeitlichen Abfolgen (Tönen, Geräuschen, Klängen, Bewegungen) spielt, erinnern.

Abb.2: Tritt eine Welle (hier als Pulswelle dargestellt) bei der Projektion oder Rekonstruktion mit sich selbst in Beziehung (a), so sprechen wir von Selbstinterferenz. Tritt sie mit Vorgängern oder Nachfolgern in Beziehung, so sprechen wir von Fremdinterferenz (b), siehe auch hier (german) (english).

Diese zusätzlichen Probleme treten bei einer Rekonstruktion im Zeitbereich nicht auf, weil nur mit den Delays gearbeitet wird. Wir bleiben immer im Bereich der Selbstinterferenz. Erst wenn die Zeitfunktion rekonstruiert ist, ist es sinnvoll, in den Frequenzbereich zu wechseln, um z.B. zu filtern oder ein Fourierdiagramm der rekonstruierten Zeitfunktion des Ortes darzustellen.

Aus dem Neuro-Bereich kommend, war damit eine punktgenaue, als "Interferenz-Rekonstruktion" bezeichnete Methode entstanden, die einfacher und letztlich genauer als übliche Verfahren im Frequenzbereich ist [9].

Die Lösung im Zeitbereich, damals als sog. Maskenalgorithmus oder Heinzsche Interferenz-Rekonstruktion (HIT) bezeichnet, brachte in den Jahren 1994 bis 1996 den Durchbruch: Zeitinversion und Arbeit im Zeitbereich erschliessen einerseits die Möglichkeit, Filme mit Bildraten bis zur Abtastrate zu machen, andererseits konnten Aufnahmen mit geringst möglicher Kanalzahl entstehen.

Wellenzahl-Aliasing, verursacht durch zu kurze Wellenlängen im Vergleich zur Einfallsrichtung (Abb.1) kann gar nicht erst entstehen, da nur Delays, aber keine Wellenlängen im Rechnungsgang auftauchen. Auch bildet die Interferenzrekonstruktion trotz mathematischer Überbestimmtheit bei Kanalzahlen k>3 (k= d+1, d: Raumdimension) maximal scharf ab.

Software-Werkzeuge mit einer einzigartigen Interaktivität zwischen Zeit, Frequenz und Raum konnten entwickelt werden (Name bis 1997 "Bio-Interface", bis 1999 "PSI-Tools", danach "NoiseImage").

Ein Kernproblem der automatischen Filmüberlagerung stellte anfangs die Disharmonie zwischen einer begrenzten Öffnung der Video-Kamera und einer Reduktion des Bildkontrasts einer akustischen Karte bei wachsender Entfernung und tiefen Frequenzen mit hoher Wellenlänge (100 Hertz ~ 3,4 Meter) dar.

Da die Größe der Arrays für Mobilität bei industriellen Applikationen nicht beliebig gesteigert werden kann, stellte die Einführung der Kopplung mit einer Videokamera ein gewisses Wagnis dar. Letztlich aber wurde eine optimale Balance zwischen Kamera-Öffnungswinkel und zu berechnendem akustischem Bildfeld für die verschiedenen Mikrophonarrays gefunden.

1996 wurden mit 16 Kanälen sehr große Reichweiten von über 170 Metern [3] erzielt, die eine starre Bildüberlagerung auf das Kamerabild tragbar werden ließen.

Eine Kopplung von Video und Akustikbild wurde erstmalig auf der Hannover Industriemesse 1999 [4] vorgestellt. Hier wurde auch zum ersten Mal ein offenes Ringarray gezeigt, welches mit integrierter optischer Kamera und mit 16 Kanälen (elektrostatische Mikrophone 1/4") der akustischen Photo- und Kinematographie zum internationalen Durchbruch verhalf.


Quellen

Zur Versionsgeschichte:

Die Urversion dieses Artikels stellte ich Ende 2005 zusammen mit Beiträgen zu "Somatotopie" und "Akustische Kamera" auf Wikipedia. Leider wurden diese Beiträge 2006 durch Unbekannte ohne Rückfrage gelöscht. Die Tragweite der Materie war offenbar unbekannt. Auch wich die akustische Lehre zu weit von dem hier entwickelten, vergleichsweise sehr einfachen Verfahren ab. Wissenschaft ist auch heute nur getragen vom Glauben. Wer hat schon die Chance, eine komplexe Theorie sofort zu begreifen? Offenbar geht der Mensch mit neuem Wissen zu allen Zeiten so um, wie zu Keplers Zeiten. gh




Impressum

Top http://www.gheinz.de/index.html
Mail to info@gheinz.de

2022/10/28: Smartphone-layout enabled; minor editions; Abb.1 added

Besucher seit 6. Dez. 2021: