gms | German Medical Science

GMS Zeitschrift für Audiologie — Audiological Acoustics

Deutsche Gesellschaft für Audiologie (DGA)

ISSN 2628-9083

Data Logging – Wie zuverlässig funktioniert die Datenaufzeichnung?

How reliable is the data logging function?

Originalarbeit

Search Medline for

  • corresponding author Linda Liß - Hochschule Aalen, Studiengang Hörakustik/Audiologie, Aalen, Deutschland
  • Steffen Kreikemeier - Hochschule Aalen, Studiengang Hörakustik/Audiologie, Aalen, Deutschland

GMS Z Audiol (Audiol Acoust) 2019;1:Doc03

doi: 10.3205/zaud000003, urn:nbn:de:0183-zaud0000038

Published: October 1, 2019

© 2019 Liß et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Das Data Logging (DL) kommt in der Praxis häufig zum Einsatz, um die Aussagen der Kunden hinsichtlich der Tragedauer von Hörgeräten abzugleichen. Ebenfalls ist es dem Hörakustiker möglich nachzuvollziehen, wie lange und in welcher Situation der Kunde das Hörsystem getragen hat. Oftmals kommt es jedoch zu dem Fall, dass die Aufzeichnungen der Geräte von den Aussagen der Kunden abweichen. Somit stellt sich die Frage ob und wann es zu Komplikationen in der Aufzeichnung des Trageverhaltens kommen kann.

In der hier vorgestellten Studie wurden die Zuverlässigkeit des Data Loggings und die Faktoren, wie z.B. der binauralen Synchronisation, die dieses beeinträchtigen können, untersucht. Dazu wurde neben der Aufzeichnungsdauer auch die Situationserkennung für drei verschiedene Hersteller überprüft. Unter Laborbedingungen wurden zum einen akustisch definierte „Standardsituationen“ (Sprache in Ruhe, Sprache im Störgeräusch) sowie eine komplexe Situation (Sprache im Störgeräusch zusammen mit Musik) über einen Lautsprecherkreis konstruiert und anhand von 3- und 8-Stunden-Messungen ausgewertet.

Die Ergebnisse zeigen, dass die Tragedauer insgesamt sehr zuverlässig aufgezeichnet wird, die Hörumgebung hingegen je nach Situation und Hersteller besser und schlechter erfasst wird.

Schlüsselwörter: Data Logging, binaurale Synchronisation, Situationserkennung

Abstract

Data logging (DL) is used to compare the patients’ testimonials about how often they used their hearing aids. In addition, the hearing aid acoustician can compare how long and in which acoustic environments the patients wore their hearing aids. The hearing aid users’ statements often deviate from the information gained from DL. This raises the question of whether and when complications can occur in the recording of wearing behavior.

The present study examined the reliability of DL and the factors that can affect it. In addition to the duration of the logging, the situation detection for three different manufacturers was also investigated. Different acoustic situations were designed using eight loudspeakers while the duration of measurement was three and eight hours.

The results show that de documentation of the overall wearing time is very reliable, while reliability for detecting the hearing environment depends on the situation a manufacturer.

Keywords: data logging, binaural synchronization, classification


Einleitung

Eine gute Hörsystemanpassung hat stattgefunden, wenn die Kunden in möglichst vielen Situationen von ihrem Hörsystem profitieren und sie dieses als eine notwendige Unterstützung in ihrem Leben akzeptiert haben. Bis dahin ist es oft ein langer und nicht sehr einfacher Weg.

Um den Zustand der ganzheitlichen Akzeptanz und des vollwertigen Nutzens des Systems zu erreichen, ist eine Zusammenarbeit zwischen Hörakustiker und Kunde unabdinglich. Diese Zusammenarbeit besteht im Wesentlichen aus den Rückmeldungen des Kunden und der darauffolgenden Reaktion des Anpassers. Der Kunde beschreibt Situationen, in welchen die Unterstützung durch das Hörgerät nicht ausreichend oder dessen Einstellung nicht optimal war. In Reaktion darauf, kann der Hörakustiker die Programmierung für die genannten Situationen optimieren. Unterstützend zu der Aussage des Kunden, ist es dem Hörakustiker möglich, mit Hilfe des Data Loggings der Geräte nachzuvollziehen, wie lange und in welchen Situationen das Gerät getragen wurde.

Immer wieder kommt man als Hörakustiker in die Situation, dass Angaben des Kunden von den objektiven Werten im Data Logging abweichen. Die Herausforderung für den Hörakustiker besteht darin, zu entscheiden, ob die Einstellung des Gerätes auf Grundlage des Data Loggings oder der Kundenaussage optimiert wird.

Bevor man Aussagen über das Data Logging machen kann, muss geklärt werden, was genau Data Logging ist und wodurch es beeinflusst werden könnte. Im Zusammenhang mit der Situationserkennung und dessen Aufzeichnungen im Data Logging, stellt sich ebenfalls die Frage, wie die Hörgeräte in der entsprechenden Situation reagieren. Je nach Situation greift bei den einen Geräten eine Programmautomatik und bei anderen kommt es zusätzlich oder ausschließlich zu einer Situationsanpassung durch adaptive Parameter. Im Laufe der Studie spielt ebenfalls die binaurale Synchronisation eine wesentliche Rolle. Hier wird vermutet, dass auch sie die Dokumentationen im Data Logging beeinflussen kann.

Ziel der vorliegenden Arbeit war es im Wesentlichen herauszufinden, wie zuverlässig die Aufzeichnungen des Data Loggings die akustische Umgebung der Hörgeräteträger reproduzieren. Dabei sollte besonders verglichen werden, wie sich die Genauigkeit der Dokumentation in Abhängigkeit der Komplexität einer Situation ändert, wo die Grenzen liegen und ob sie durch binaurale Synchronisation beeinflusst werden kann.


Material und Methode

Data Logging

Das Data Logging ist eine Funktion der Hörgeräte, welche Informationen unterschiedlicher Hörsituationen speichert [1]. Darunter versteht sich z.B. wie oft das Hörgerät insgesamt und in jeder Situation verwendet wurde oder wie der Träger die einzelnen Situationen eingestellt hat. Je nach Hersteller gibt es weitere Informationen, auf die hier nicht weiter eingegangen werden, da sie für die Untersuchungen nicht relevant waren. Besonders durch das Aufzeichnen der erkannten Situationen kann beurteilt werden, ob das Hörgerät nicht nur eingeschaltet, sondern auch, ob es wirklich getragen wurde [1]. So zeichnet das Data Logging zu 100% „Ruhe“ auf, wenn das Gerät lediglich eingeschaltet, jedoch nicht in alltäglichen Situationen getragen wurde, vorausgesetzt es liegt in einer ruhigen Umgebung. Für den Fall, dass das Hörgerät eingeschaltet und gleichzeitig verwendet wurde, sind dem Data Logging verschiedene Situationen mit entsprechenden prozentualen Anteilen zu entnehmen.

Durch die genannten Dokumentationen, kann neben der Information, ob das Hörgerät getragen wurde, ebenfalls erkannt werden, ob ein Kunde in bestimmten Situationen immer wieder die gleiche Änderung, wie z.B. die Anpassung der Lautstärke, vornahm [2]. Dies kann für den Hörakustiker zum Anlass genommen werden, die Einstellung des Gerätes entsprechend zu ändern und den Komfort inklusive der Tragebereitschaft für den Träger zu erhöhen.

Wie an den beschriebenen Punkten erkennbar ist, bietet das Data Logging viele Möglichkeiten Informationen für die Verbesserung der Hörsystemeinstellung zu liefern. Solche Verbesserungsvorschläge werden teilweise von Anpasssoftwares, auf Grundlage des Data Loggings, getätigt [2]. In wie weit man diese umsetzen sollte, ist in der vorliegenden Arbeit zu klären.

Insgesamt kann demnach gesagt werden, dass das Data Logging bei der Anpassung von Hörgeräten helfen kann. Gerade dadurch, dass die Hörgeräteträger die Nutzungsdauer der Geräte oftmals überschätzen [3], bietet das Data Logging einen hilfreichen Anhaltspunkt.

Um letzten Endes die Aussagekraft und vor allem die Funktionsfähigkeit des Data Loggings zu erfassen, ist es wichtig zu erkennen, wie der Prozess des Data Loggings funktioniert. Ulrich und Hoffmann [2] beschreiben, dass die akustischen Daten der jeweiligen Situation in Echtzeit in einem Halbspeicher (EEPROM) abgelegt werden. Die Zeit wird von Timern abgeleitet, welche praktisch eine interne Uhr darstellen und den Speichervorgang regelmäßig anstoßen. Die gespeicherten Datensätze können anschließen ausgelesen und als Anpasshilfe eingesetzt werden [2]. Mueller [4] erklärt, ab wann welcher Hersteller mit der Aufzeichnung im Data Logging beginnt und in welchen Intervallen er diese aktualisiert. Laut Müller beginne Hersteller A die Dokumentation nach 30 Minuten, während die Situation alle 5 Minuten gemessen und die Aufzeichnung alle 60 Minuten aktualisiert wird. Hersteller B dagegen, speichere die Aufzeichnung im 15-Minuten-Takt [4].

Situationserkennung

Die Grundlage des Data Loggings ist die Situationserkennung. Um aufzuzeichnen, zu welchem Anteil sich der Hörsystemträger in einer Situation befand, muss gewährleistet sein, dass die Hörgeräte die Situation erkennen. „Moderne Hörsysteme sollten sich an die jeweilige akustische Situation so anpassen, dass sie dem Nutzer unaufdringlich und dennoch hilfreich jeweils die Einstellung und Unterstützung in der jeweiligen Hörsituation liefern, die er benötigt.“ [5].

Voraussetzung für diese Fähigkeit stellt ein Klassifikationssystem dar. Dies sind intelligente Algorithmen, die den anderen Stufen der Signalverarbeitung (z.B. Algorithmen zur Reduktion von Störgeräuschen) übergeordnet sind. „Sie analysieren permanent die Mikrofonsignale, erkennen wichtige Hörsituationen und wählen dann automatisch die optimale Hörgeräteeinstellung“ [6]. Dieser allgemeine Vorgang, ein Eingangssignal über die Merkmalsextration auf spezifische Muster zu untersuchen, ist bei jedem Hersteller gleich [6]. Unterschiede zwischen ihnen bestehen jedoch besonders in dem Punkt „Merkmalsextraktion“, da abhängig von der Güte dieses Prozesses die Situationserkennung verbessert werden kann. Ein Hersteller versucht diesen Prozess z.B. mit Hilfe der „Auditorischen Szenenanalyse“, welche die Mechanismen und Strategien beschreibt, die das auditorische System verwendet, zu optimieren, um die akustische Umgebung zu analysieren [7]. Dahingegen analysiert ein anderer Hersteller das Eingangssignal über die Merkmalsextration auf Muster im Sprech- und Bewegungsverhalten des Hörgeräteträgers [8]. In der vorliegenden Studie werden auf Grund der unterschiedlichen Vorgehensweisen in der Merkmalsextraktion, die Aufzeichnungen im Data Logging für verschiedene Hersteller verglichen.

Anpassung der Hörsysteme an die akustische Umgebung

Die automatische Anpassung der Hörgeräte an die akustische Umgebung weist zwischen den Herstellern zwei grundsätzliche Unterschiede auf: Die Verwendung einer Programmautomatik und das alleinige Anpassen der adaptiven Parameter. Im Rahmen einer Programmautomatik, wird automatisch ein für die Situation entsprechendes Programm aktiv bzw. Anteile mehrerer Programme gemischt, sobald das Hörgerät eine bestimmte Situation erkennt. In diesen Programmen werden abhängig von der akustischen Umgebung Faktoren, wie z.B. Zeitkonstanten, Kompression, Verstärkung und Störgeräuschunterdrückung angepasst. Die Herausforderung besteht darin, die Umgebung korrekt zu identifizieren, plötzliche Änderungen der Hörumgebung zu erkennen und die Anpassung dementsprechend und mit wenigen Artefakten umzustellen bzw. in das entsprechende Hörprogramm zu wechseln [9]. Nicht jeder Hersteller arbeitet mit automatischen Hörprogrammen, die sich je nach Hörsituation automatisch einstellen und aktiv vom Hörakustiker verändert werden können. Bei allen Herstellern findet man allerdings adaptive Parameter, die sich entsprechend der Hörsituation anpassen. Bei manchen Hörgeräten findet dieser Prozess im Hörprogramm, bei anderen Geräten nur in Abhängigkeit der Situation statt. Das bedeutet, die Änderungen gestalten sich nicht durch den Wechsel in ein anderes Programm, sondern finden in ein und demselben Programm adaptiv statt. Unter adaptiven Parametern versteht man dabei Funktionselemente, wie: Richtmikrofone, Rückkopplungs- Impulsschall-, Störgeräuschunterdrückung, etc. Diese werden nach der Analyse und Erkennung der Umgebungssignale angepasst. So stellt sich das Hörsituationsmanagement und die daraus resultierende Signalanpassung eines Herstellers aus drei Teilen (Direktionalität, Hörkomfort und Musik) zusammen [10], während ein anderer Hersteller ebenfalls die Parameter verändert, dies jedoch in einem festgelegten Programm geschieht [11]. Der Hauptunterschied zwischen der Programmautomatik und der Anpassung der adaptiven Parameter besteht im Wesentlichen darin, dass innerhalb der Programmautomatik zusätzlich gezielt die Verstärkung pro Frequenz geändert wird.

Komplexe Situationen

Im Verlauf dieser Arbeit, wurde vermehrt der Ausdruck „komplexe Situation“ verwendet. Dieser Ausdruck ist nach eigenem Ermessen definiert und soll eine Situation beschreiben, die im Data Logging der Hörgeräte nicht klar definiert ist. „Sprache in Ruhe“, „Sprache im Störgeräusch“, etc. sind „Standardsituationen“ mit denen die Hersteller arbeiten. D.h. es sind Situationen, die eigenständig im Data Logging hinterlegt sind und beim Auslesen der Hörgeräte angeben zu welchem Anteil die entsprechende Situation erkannt wurde. Eine komplexe Situation stellt hier ein Szenario dar, welches sich z.B. aus unterschiedlichen „Standardsituationen“ (Sprache im Störgeräusch, Musik, Sprache in Ruhe) zusammensetzt. In der vorliegenden Arbeit wird dies anhand eines Bar-Szenarios wiedergespiegelt, d.h. eine Situation, die in der Art nicht separat benannt im Data Logging existiert. Diese Situation sollte in erster Linie verwendet werden, um die Grenzen der Aufzeichnung bzw. Entschlüsselung von Hörsituationen zu testen.

Binaurale Synchronisation

Für die Studie wurden Hörgeräte verwendet, welche mit binauraler Synchronisation arbeiten. Unter binauraler Synchronisation versteht man die gemeinsame Analyse der Umwelt beider Hörgeräte, wodurch unteranderem gezielt die Richtmikrofone und das Lärm-Management gesteuert werden können [12]. Positive Auswirkungen hat dies vor allem auf den Komfort und die Leistung [1], wie z.B. auf die bereits angesprochene Programmautomatik, durch welche für bestimmte Situationen die Sprachverständlichkeit erhöht wird [13]. Möglich ist dies durch einen Abgleich aller vier Hörsystemmikrofone untereinander [10], [14], [15]. Laut Dillon [1], bedeutet binaurale Synchronisation nicht gleichzeitig, dass Signale immer auf beiden Hörgeräten wiedergegeben werden. Sie unterscheidet z.B. ob es sich bei lauten tonalen Komponenten um eine Verstärkung von Musik oder um Rückkopplung handelt. Im Falle von Rückkopplung wird diese über eine Seite reguliert, während es bei Musik über beide Seiten geschieht [1]. Daraus leitet sich die Frage ab, ob binaurale Synchronisation ebenfalls die Genauigkeit der Aufzeichnungen im Data Logging beeinflusst.

Grenzen der Situationserkennung

Über die Zuverlässigkeit und Genauigkeit der Aufzeichnungen im Data Logging ist bisher wenig bekannt. Vereinzelte Studien beschäftigen sich mit den Klassifikationsalgorithmen zur Erkennung von Umgebungssituationen. Wie oben bereits beschrieben, kann jedoch aus einer zuverlässigen Klassifikation auf eine genaue Aufzeichnung im Data Logging geschlossen werden.

In einer Veröffentlichung von Banerjee [16] wurden, im Rahmen einer Studie über das automatische Verhalten von Expansion, Direktionalität und Lärm-Management die Dokumentationen im Data Logging ausgewertet. Hierbei kam man zu der Erkenntnis, dass das Data Logging Einblicke in die individuelle Nutzung des Trägers bietet, es aber keine direkten Veröffentlichungen zu der Interpretation der Ergebnisse gebe. Zudem würden lediglich Zusammenfassungen für einzelne Merkmale geliefert und komplexe Interaktionen, einschließlich der Unterschiede des rechten und linken Gerätes, ignoriert werden [16].

Im Gegensatz dazu, beschäftigt sich die Studie von Nordqvist und Leijon [17] mit einem Klassifikationsalgorithmus, welcher auf dem Markov Modell basiert. Es wird geprüft, wie gut der Algorithmus zwischen drei Situationen (Sprache in Verkehrslärm, Sprache in „Gebrabbel“, klare Sprache) unterscheiden kann. Für Geräusche, welche die jeweilige Situation repräsentieren, wurde eine Trefferquote von 96,7% bis 99,5% erzielt [17].

Entgegen der Erkenntnis von Nordqvist und Leijon, wird die Aussage von Banerjee [16], dass komplexe Interaktionen ignoriert werden, durch eine Studie von Wagener et al. [18] bestätigt. Wagener et al. untersuchten die verschiedenen akustischen Signale, denen ein Hörgeräteträger in seiner alltäglichen Umgebung ausgesetzt ist. Sie fanden heraus, dass die Bedeutung, Probleme und Vorteile von Hörgeräten, sowie die individuellen Charakteristiken von Situationen sehr stark variieren. Dies habe zur Folge, dass neben einer nicht-linearen Hörsystemversorgung, ebenfalls weitere Signalklassifikationen und entsprechende adaptive Merkmale in modernen Hörgeräten wünschenswert seien. Besonders solche, die zu der sich stetig ändernden Hörumgebung des Trägers passen [18].

Lösung für immer wechselnde und sehr individuelle Umgebungsbedingungen, könnte ein adaptives Klassifizierungssystem sein. Zwei solcher Systeme wurden von Lamarche et al. getestet und als genau befunden [19]. An dieser Stelle ist jedoch anzumerken, dass die Systeme mit „Standardsituationen“ (Sprache, Störgeräusch und Musik) getestet und individuelle Hörumgebungen außer Acht gelassen wurden.

Zusammenfassend lässt sich sagen, dass es, wie oben gezeigt, sehr unterschiedliche Veröffentlichungen in Bezug auf die Genauigkeit von Klassifikationssystemen gibt. Zwar erzielten optimierte Klassifikationsalgorithmen sehr gute Ergebnisse in der Erkennung von Umgebungsbedingungen, allerdings wurden für diese Studien immer „Standardsituationen“ verwendet [17], [19]. Dagegen ist auffällig, dass Studien, welche das Data Logging verschiedener Hersteller verwenden [16] und mit realen Hörsituationen von Probanden arbeiten [18] einstimmig auf die Grenzen in der Erkennung von Hörumgebungen hinweisen. Dies gibt Grund zur Annahme, dass auch die komplexe Situation, welche im Laufe der folgenden Studie verwendet wurde, die Grenzen in der Erkennung von Hörumgebungen aufzeigt, was die Auswertung des Data Loggings entsprechend erschweren würde. Es ist zu beachten, dass es sich bei der „komplexen Situation“ dieser Arbeit im Gegensatz zu Wagener et al. um eine feste akustisch definierte Situation handelte. Somit sollte sichergestellt werden, dass das Data Logging grundsätzlich die Voraussetzungen aufweist, die „komplexe Situation“ zu erfassen, indem sie aus den bestehenden „Standardsituationen“ (Sprache, Sprache im Störlärm und Musik) zusammengesetzt wurde. Bei Wagener et al. konnte dies nicht gewährleistet werden, da sich die Probanden nicht zwangsweise in Umgebungen aufhielten, die genau den hinterlegten Situationen der Hörgeräte entsprachen.

Versuchsaufbau

Für die möglichst realitätsgetreue Überprüfung des Data Loggings wurde ein Lautsprecherkreis mit acht unabhängigen Lautsprechern im Freifeldraum der Hochschule Aalen verwendet. Dadurch konnte eine Umgebung geschaffen werden, die einen Ruhegeräuschpegel von unter 16,2 dB (A) aufweist [20]. Somit können die verwendeten Pegel genau definiert und reproduziert werden.

Ebenfalls wurde ein Messmikrofon (G.R.A.S. Type 26 CA) installiert, welches mittig der Lautsprecher und auf Höhe der Hörgeräte positioniert war, um vorab die genauen Pegel für die unterschiedlichen Situationen einzustellen. Für die Messung der Pegel wurde hierbei die Sound and Vibration Software über das PXI (NI PXIe-1062Q) von National Instruments verwendet. Durch die kreisförmig um das Hörgerät angeordneten Lautsprecher wurden verschiedene Geräusche abgespielt und somit unterschiedliche Szenarien simuliert.

Der verwendete Lautsprecherkreis besteht aus acht Lautsprechern (High Definition Nearfield Studio Monitor, Eris Series (E5) von PreSonus), die mit einem Radius von ca. 120 cm in 45° Abständen angeordnet sind. Die Hörgeräte wurden mittig dieses Kreises in einer Höhe von ca. 123 cm an dem Head and Torso Simulator (HATS) (Type 4128-C-001) von Brüel & Kjaer angebracht.

Situationen

Für die Studie wurden drei Situationen mit Hilfe der Ableton Live 8 Software generiert. Bei den Situationen handelte es sich um drei „Standardsituationen“, die sich nach den Schallklassen richteten, welche jeder der gewählten Hersteller aufweisen. Generiert wurden „Sprache in Ruhe“, „Sprache im Störgeräusch“ und „Musik“. Die vierte Situation, stellte eine komplexe, aus den „Standardsituationen“ erstellte Situation dar (vgl. Abschnitt „komplexe Situation“). Mit der Kombination aus Sprache und Sprache im Störgeräusch mit Musik als Hintergrundgeräusch sollte ein „Bar-Szenario“ simuliert werden. Zusätzliche Informationen der verwendeten Soundfiles sind Tabelle 1 [Tab. 1] zu entnehmen.

Durch die Verteilung der Soundfiles auf die Lautsprecher, konnten verschiedene Situationen konstruiert werden. Die erste Situation simulierte Sprache in Ruhe. Soundfile 1 wurde dem Lautsprecher in 0° zugeordnet und ein Pegel von 65 dB eingestellt [21]. Für die zweite Situation, „Sprache im Störgeräusch“, wurde Sprache aus 0° und das Störgeräusch aus 45–315° dargeboten. Der Pegel der Sprache betrug hierbei ebenfalls 65 dB SPL und der Gesamtpegel des Störgeräusches 60 dB SPL. Um einen Pegel von 60 dB SPL Störgeräusch zu gewährleisten, wurden zunächst nur die Lautsprecher von 45 bis 315° aktiviert und so eingestellt, dass der Gesamtpegel des Störgeräusches bei 60 dB SPL lag. Es wurde darauf geachtet, dass Soundfile 2 pro Lautsprecher zu unterschiedlichen Zeitpunkten startete und die Pegel der einzelnen Lautsprecher über alle Lautsprecher gleich waren.

Situation 3 simulierte das Hören von Musik. Hier wurde aus allen Lautsprechern Musik mit einem Gesamtpegel von 80 dB SPL [22] wiedergegeben, wobei die Einzelpegel der Lautsprecher identisch waren. Die letzte Situation stellte die „komplexe Situation“ („Bar-Szenario“) dar. Hier wurde Sprache von vorne mit einem Pegel von 65 dB SPL und dem Störgeräusch, bestehend aus Musik und Restaurant-Geräuschen (60 dB SPL Gesamtschalldruckpegel) dargeboten, wobei Soundfile 2 und 3 abwechselnd auf die Lautsprecher verteilt wurden Diese Art von Situation wurde konstruiert, um eine möglichst realistische Situation aus bestehenden „Standardsituationen“ aufzubauen und damit sicherzustellen, dass diese „komplexe Situation“ nur Anteile umfasst, die einzeln in jedem Data Logging der Hörgeräte implementiert sind. Da die Soundfiles in ihrer Länge begrenzt sind (Tabelle 1 [Tab. 1]) werden diese im Laufe der mehrstündigen Messungen kontinuierlich wiederholt. Eine Zusammenfassung der Zusammenstellung der verwendeten Situationen ist in Tabelle 2 [Tab. 2] dargestellt.

Hörsysteme

Die drei für die vorliegende Studie verwendeten Hörgeräte unterschiedlicher Hersteller, waren alle in ihrer Qualitätsstufe vergleichbar, da sie die Voraussetzung besaßen, mindestens drei vergleichbare Situationen erkennen können, aus welchen sich das „Bar-Szenario“ zusammensetzte. Wie oben bereits beschrieben handelt es sich um die Szenarien „Sprache in Ruhe“, „Sprache im Störgeräusch“ und „Musik“.

Oftmals ist, ab einer bestimmten Technologiestufe die binaurale Synchronisation Teil der Hörsystemausstattung. Um die Vergleichbarkeit der Hörgeräte zu gewährleisten, war darauf zu achten, dass jedes Hörgerät die benannte Funktion beinhaltet. Würde dies missachtet werden, so ist es möglich, dass sich die Angaben im Data Logging unterscheiden, da ein Hörgerät die Signale der rechten und linken Seite zu einem Eindruck verrechnet [8], ein anderes dies wiederum nicht umsetzt und somit bereits Unterschiede zwischen den Seiten generiert werden, trotz ursprünglich richtiger Klassifizierung. Alle drei Hörgeräte verändern ihre Einstellung, abhängig von der Situation, in welcher sie sich befinden. Zwei der gewählten Hersteller realisieren dies über die Anpassung der adaptiven Parameter, der andere dagegen verwendet eine Programmautomatik.

Auch, wenn die Einstellung der Hörgeräte keinen Einfluss auf das Data Logging haben dürfte, wurden alle auf einen Hörverlust von pantonal 40 dB HL programmiert. Die Einstellung erfolgte nach NAL-NL2 mit jeweils der Akklimatisierungsstufe eines erfahrenen Anwenders (100%) und einer Ankopplung mittels Standardschlauch und einer geschlossenen Otoplastik.

Pilotstudie: Überprüfung der Situationserkennung und Programmautomatik

In einer Pilotstudie wurden die Faktoren ermittelt, die zu einer fehlerhaften Aufzeichnung im Data Logging führen könnten. Dazu betrachtete man zum einen den Einfluss des Kunstkopfes auf die binaurale Synchronisation und zum anderen überprüfte man die Funktionsfähigkeit der Programmautomatik. Aus vorherigen Untersuchungen gab der verwendete Kunstkopf Grund zur Annahme, dass er möglicherweise die binaurale Synchronisation der Hörgeräte stört, da er Bestandteile aus Metall aufweist. Es wurde daher geprüft, ob sich das Ausgangssignal bei gleicher Einstellung für aktivierte und deaktivierte binaurale Synchronisation unterscheidet. Mithilfe der manuellen Programm- und Lautstärkeänderung an den Hörgeräten wurde ebenfalls geprüft, ob neben der aktivierten binauralen Synchronisation, tatsächlich eine Verbindung zwischen den beiden Geräten bestand. Im Rahmen dieser Messungen stellte sich heraus, dass der Kunstkopf keinen Einfluss auf die binaurale Synchronisation aufwies und bedenkenlos für die Hauptstudie verwendet werden konnte.

Das Ziel der vorliegenden Studie war es herauszufinden, wie zuverlässig die Aufzeichnungen der akustischen Umgebung im Data Logging der Hörgeräte sind. Es sollte herausgefunden werden, ob Hörakustiker durch das Auslesen des Data Loggings bedenkenlos Rückschlüsse auf den akustischen Alltag eines Hörgeräteträgers schließen können. Um diesbezüglich zuverlässige Aussagen treffen zu können war es nötig, vorab zu prüfen, ob grundsätzlich eine automatische Anpassung der Hörgeräte an die akustische Umgebung stattfindet. Besonders für Hersteller A, in dessen Hörgeräten die genannte Programmautomatik verwendet wird, muss zuvor sichergestellt werden, dass die verwendeten Standardsituationen (Sprache in Ruhe, Sprache im Störgeräusch und Musik. Vgl. Tabelle 2 [Tab. 2]) im Einzelnen erkannt werden. Sollte vorher festzustellen sein, dass bereits die Klassifikation der akustischen Umgebung und somit die Programmautomatik fehlerhaft oder ungenau ist, so wäre die Überprüfung des Data Loggings hinfällig. Denn im Gegensatz zu Hersteller B und C, dessen Data Logging die erkannten Situationen und nicht die Hörgeräteeinstellungen aufzeichnen, gibt das Data Logging von Hersteller A an, zu welchen Anteilen sich das Hörgerät in welchem Automatikprogramm befand. In Anlehnung an Husstedt [23] wurde daher die Funktionsfähigkeit der Programmautomatik über die Beobachtung der Änderung des Frequenzganges geprüft. Abbildung 1 [Abb. 1] zeigt das Vorgehen für die Überprüfung der Programmautomatik. Für das Programm „Sprache in Ruhe“ der Programmautomatik wurde die Verstärkung auf das Minimum gesetzt, für „Sprache im Störgeräusch“ wurde die Verstärkung maximal erhöht und für „Musik“ wurde die Verstärkung der tiefen Frequenzen von 0,25 bis 1 kHz maximal angehoben und im hochfrequenten Bereich maximal abgesenkt.

Es wurden die Situationen „Sprache in Ruhe“; „Sprache im Störschall“ und „Musik“ mit jedem Hörgerät separat gemessen, um sicherzustellen, dass die Situation eindeutig erkannt wird. Da man die Verstärkung für das Programm „Sprache in Ruhe“ über alle Frequenzen hinweg auf das Minimum reduzierte, wurde erwartet, dass das Ursprungssignal bei richtiger automatischer Programmwahl nicht verändert wird. Nachdem die erste Messung zeigte, dass das Hörgerät für die Situation „Sprache in Ruhe“ automatisch die richtige Einstellung wählte wurde die Messung wiederholt und das Ergebnis der ersten Messung bestätigt. Anschließend wurde mit der Situation „Sprache im Störgeräusch“ nach dem gleichen Messprinzip fortgefahren und ebenfalls bestätigt, dass das Hörsystem die Situation „Sprache im Störgeräusch“ erkennt und die Einstellung automatisch und korrekt angepasst wird. In einem letzten Messdurchgang wiederholte man die vorherigen Versuche für die Situation „Musik“ und stellte fest, dass es zu kleineren Abweichungen kam. Der erwartete Übergang im Ausgangssignal von viel Verstärkung der tiefen zu keiner Verstärkung der hohen Frequenzen (vgl. „Ausgangssignal bei Musik“ Abbildung 1 [Abb. 1]) war deutlich sichtbar, jedoch nicht mit der Steilheit, wie sie zuvor in der Anpasssoftware für das Automatikprogramm „Musik“ eingestellt wurde.

Insgesamt konnte gezeigt werden, dass jede Standardsituation bei alleiniger Darbietung von jedem Hersteller erkannt und der automatische Programmwechsel, bei Herstellern die diesen verwenden, zuverlässig vorgenommen wurde.

Hauptstudie: Überprüfung der korrekten Aufzeichnung des Data Loggings

Nachdem in der Pilotstudie gezeigt werden konnte, dass die verwendeten Hörgeräte in der Lage sind die Standardsituationen „Sprache in Ruhe“, „Sprache im Störgeräusch“ und „Musik“ als einzelne Situationen zu erkennen, folgte die Überprüfung der Aussagekraft des Data Loggings. Ziel war es zu evaluieren, wie zuverlässig das Data Logging die akustische Umgebung eines Hörgeräteträgers aufzeichnet und welche Faktoren die Genauigkeit dieser Dokumentation beeinflussen können. Folgende Fragenstellungen standen dabei im Fokus, wobei zu beachten gilt, dass die Ausdrücke „Standardsituationen“ und „komplexe Situation“, so zu verstehen sind, wie bereits in den oberen Abschnitten definiert:

1.
Wie zuverlässig werden Standardsituationen im Data Logging aufgezeichnet?
2.
Begünstigt eine längere Tragezeit/Aufzeichnungsdauer die Genauigkeit des Data Loggings?
3.
Wie zuverlässig werden „komplexe Situationen“ aufgezeichnet, die nicht eindeutig als Standardsituation bewertet werden können (Bsp. „Bar-Szenario)?
4.
Hat die binaurale Synchronisation Einfluss auf die Genauigkeit der Datenaufzeichnung?

Um zu ermitteln, wie zuverlässig Standardsituationen aufgezeichnet werden und ob die Genauigkeit durch eine längere Aufzeichnungsdauer begünstigt wird, wurde zunächst eine 8- und anschließend 3-Stunden-Messung für jeden der drei Hersteller durchgeführt. In allen Messdurchläufen wurden die drei Standardsituationen zu gleichen Anteilen dargeboten. Im ersten Drittel der 8- bzw. 3-Stunden-Messung wurde „Sprache in Ruhe“, im nächsten Drittel „Sprache im Störgeräusch“ und im letzten Drittel „Musik“ vorgespielt. Es ist hervorzuheben, dass in während dieser Messung, jede Situation einzeln dargeboten wurde und nie eine Kombination der Situationen zustande kam. In einer weiteren Messung wurde daraufhin getestet, wie eine „komplexe Situation“ im Data Logging dokumentiert wird. Diese „komplexe Situation“ stellte eine Kombination der Standardsituationen dar und reproduzierte eine Umgebung, wie sie z.B. in einer Bar vorzufinden sein könnte. Für dieses Szenario wurde eine Messdauer von zwei Stunden gewählt. Die Dauer der Messungen basierte auf den Funktionsweisen des Data Logging der Hersteller, welche im Teil „Data Logging“ beschrieben ist.

Die Pilotstudie zeigte bereits, dass der Kunstkopf keinen Einfluss auf die binaurale Synchronisation der Hörgeräte hat. Vor dem Hintergrund monauraler Hörgeräteversorgungen, sollte ebenfalls erfasst werden, ob die Synchronisation zweier Geräte zur genaueren Erfassung der akustischen Umgebung beiträgt. Die zuvor beschriebene 3-Stunden-Messung fand daher erneut statt, wobei diesmal jeweils nur eins der beiden Hörgeräte aktiv und damit die binaurale Synchronisation getrennt war.


Ergebnisse

Aufzeichnungen des Data Loggings

Im Folgenden wird jeder Messaufbau (3- und 8-Stunden-Messung; Bar-Szenario) einzeln ausgewertet. Pro Messaufbau ist jeweils eine Grafik dargestellt, welche die Ergebnisse aller rechten und aller linken Geräte der unterschiedlichen Hersteller gegenüberstellt. Dies sorgt für die bessere Vergleichbarkeit der Hersteller untereinander, da es vor allem für das Bar-Szenario, trotz aktiver binauraler Synchronisation und identischen Umgebungsbedingungen zu unterschiedlichen Ergebnissen (auch innerhalb eines Herstellers) kam.

Die folgenden Abbildungen stellen die Ergebnisse der Messungen dar. Auf der Abszisse wird der prozentuale Anteil der aufgezeichneten Situation aufgetragen. Die Ordinate zeigt die Situationen „Sprache in Ruhe“, „Sprache im SG“ und „Musik“ an. Der schwarze Balken stellt den zu erwarteten Anteil dar.

Abbildung 2 [Abb. 2] stellt die Aufzeichnungen der verschiedenen Hersteller für die 3-Stunden-Messung der Standardsituationen dar. „Sprache in Ruhe“ wird am genausten von Hersteller B, mit einer Abweichung von ca. 2% zum Soll, erkannt. Hersteller A dagegen weicht ca. 12% und Hersteller C ca. 15% ab. „Sprache im SG“ wird von Hersteller A und B annähernd gleich erkannt, wobei auch hier eine ungefähre Abweichung von 5% zur Realsituation vorliegt. Hersteller C erkennt, diese Situation mit einer Abweichung von ca. 20% am schlechtesten. Musik dagegen, erkennt dieser Hersteller im Vergleich zu den anderen Herstellern am besten. Mit Anteilen bei Musik von ca. 25, 18 und 29% entsprechen sie jedoch alle nicht dem realen Anteil von 33%.

Die in Abbildung 3 [Abb. 3] aufgezeigte 8-Stunden-Messung unterscheidet sich kaum, von den Ergebnissen der 3-Stunden-Messung. Insgesamt schneiden hier aber alle Hersteller tendenziell schlechter ab, als bei der 3-Stunden-Messung, wobei ebenfalls auffällig ist, dass sich die Aufzeichnungen des jeweils rechten und linken Hörgerätes eines Herstellers unterscheiden.

Das Bar-Szenario (Abbildung 4 [Abb. 4]) bestand aus den drei Hauptsituationen „Sprache“, „Störgeräusch“ und „Musik“. Auf einen Soll-Wert wurde an dieser Stelle verzichtet, da das Bar-Szenario unterschiedlich interpretiert werden kann und es keine feste Zuordnung, wie es bei den einzelnen Situationen der Fall ist, gibt. Dennoch ist für jeden Hersteller ein deutlicher Unterschied in der Dokumentation erkennbar, wodurch sich keine direkte Aussage treffen lässt, wer die komplexe Situation am realitätsgetreusten aufgezeichnet hat. Zusätzlich fällt für Hersteller A und C deutlich auf, dass es auch zwischen der jeweils rechten und linken Seite zu großen Differenzen kam. Während bei Hersteller A Abweichungen von bis zu 20% (Sprache im SG) entstehen, kommt es bei Hersteller C zu ca. 25%.

Einfluss der binauralen Synchronisation auf die Situationserkennung

Abbildung 5 [Abb. 5] zeigt die Aufzeichnungen des Data Loggings bei aktivierter und deaktiver binauraler Synchronisation bei einzelner Darbietung der Klangbeispiele. Bei deaktivierter binauraler Synchronisation zeigt sich für „Sprache in Ruhe“ und „Musik“, dass es zu Abweichung von bis zu 40% kommt. Während Musik nicht erkannt wurde, stieg der Anteil für „Sprache in Ruhe“.

Vergleicht man die Aufzeichnungen bei deaktivierter mit denen für aktivierte binaurale Synchronisation, so sind deutliche Unterschiede erkennbar. Im Vergleich zu den Ergebnissen bei deaktivierter Synchronisation nähern sich die aufgezeichneten Anteile dem Soll-Zustand an. Während zuvor keine Musik erkannt wurde, liegt der Anteil erkannter Musik durch die Aktivierung der Synchronisation bei ca. 18%. Dennoch liegen weiterhin Abweichungen für „Sprache in Ruhe“ und „Musik“ bei bis zu 15% vor. „Sprache im SG“ wurde deutlich genauer erkannt und wies maximale Abweichungen von ca. 5% auf.


Diskussion

Ziel der vorliegenden Arbeit war es, zu untersuchen, wie zuverlässig das Data Logging die akustische Umgebung eines Hörgeräteträgers reproduzieren kann. Dabei sollte untersucht werden, ob die Genauigkeit der Aufzeichnung durch eine längere Messdauer begünstigt werden kann, wie „komplexe Situationen“ mit Sprache, Musik und Störgeräusch erfasst werden und welchen Einfluss die binaurale Synchronisation der Hörgeräte auf die Dokumentation hat.

Bevor die Genauigkeit des Data Loggings zuverlässig bestimmt werden konnte, musste sichergestellt werden, dass die Hörgeräte grundsätzlich in der Lage sind, die verwendeten Standardsituationen „Sprache in Ruhe“, „Sprache im Störgeräusch“ und „Musik“ zu erkennen und ihre Einstellung entsprechend der Situation automatisch zu ändern. Wie im Abschnitt „Pilotstudie“ beschrieben konnte bestätigt werden, dass die Situationserkennung für die einzelnen Standardsituationen gegeben war und diese somit für die Überprüfung des Data Loggings verwendet werden konnten.

Für die Ermittlung, ob die Genauigkeit des Data Loggings mit zunehmender Messdauer steigt, wurde eine 3- und 8-Stunden-Messung mithilfe der Standardsituationen herangezogen (Abbildung 2 [Abb. 2] und Abbildung 3 [Abb. 3]). Aufgrund der Tatsache, dass jede der drei Situationen gleich lang innerhalb der 3- bzw. 8-Stunden-Messung dargeboten wurde, liegt prozentuale Anteil (Soll) jeder Situation bei 33% liegen musste. Die Ergebnisse der beiden Messungen zeigen jedoch, dass die Hersteller je nach Situation stärker und schwächer vom Soll abwichen. So waren die Abweichungen für die Dokumentation von „Sprache im Störgeräusch“ bei Hersteller A mit ca. 2% sehr gering und im Rahmen der Messtoleranz, während Hersteller B die Situation „Sprache in Ruhe“ und Hersteller C die „Musik“ am genausten erfasste. Insgesamt lässt sich sagen, dass eine längere Messdauer, nicht zwangsweise eine genauere Aufzeichnung nach sich zieht. Erkennbar ist dies unteranderem bei Hersteller B, welcher bei der 3-Stunden-Messung zwei von drei Situationen genauer erfasste, als während der 8-Stunden-Messung (Abbildung 3 [Abb. 3] und Abbildung 4 [Abb. 4]). Bestätigen ließ sich dies auch für Hersteller C, der ebenfalls in zwei von drei Situationen bei einer kürzere Messdauer genauer aufzeichnete. Die Aussage laut Dillon, dass Daten über einen gewissen Zeitraum aufgezeichnet werden müssen, wenn man eine relevante Aussage treffen wolle [1], kann demnach nicht bestätigt werden, wenn man davon ausgeht, dass er unter einem „gewissen Zeitraum“ mehrere Stunden versteht, so wie es in dieser Studie der Fall war. Geht man davon aus, dass sich Dillon auf wenige Minuten bezieht, so hat er ggf. Recht, was wiederum die Aufzeichnungen von Hersteller A, durch die zunehmende Genauigkeit mit längerer Messdauer bestätigten.

Neben den Standardsituationen „Sprache in Ruhe“, „Sprache im Störgeräusch“ und „Musik“ wurde ein Bar-Szenario generiert, um die Aufzeichnungsgenauigkeit für diese gemischte Variante, die im alltäglichen Leben häufig vorkommt, zu überprüfen. Das Bar-Szenario lieferte, wie bereits erwartet, sehr unterschiedliche Daten. Erklärt werden kann dies durch die Zusammensetzung der Situation, welche in dieser Art und Weise wahrscheinlich nicht im „Datenspeicher“ der Hörgeräte vorhanden ist. Zwar sind die Situationen im Einzelnen hinterlegt und werden, wie die Pilotstudie zeigte, im Einzelnen auch erkannt, jedoch scheinen diese in Kombination schwieriger detektierbar zu sein. An dieser Stelle ist jedoch auch zu bedenken, dass einer der Hersteller das Data Logging nutzt, um die vom Hörgerät verwendeten Programme der Automatik zu dokumentieren. Aus diesem Grunde wurde in Abbildung 4 [Abb. 4] darauf verzichtet Soll-Angaben zu formulieren. D.h. für einen der Hersteller ist es dem Hörakustiker später möglich, nachzuvollziehen in welcher Einstellung sich das Hörgerät wie häufig befand, kann aber keine Rückschlüsse darauf schließen, in welcher akustischen Umgebung sich sein Kunde aufhielt. Gleichzeitig bedeutet dies, dass eine Abweichung der vom Kunden beschriebenen erlebten akustischen Situationen zum Data Logging nicht automatisch bedeutet, dass die Situation nicht richtig erfasst wurde. Vielmehr lässt sich überprüfen, ob das Hörgerät die vorgesehene Einstellung wählte. Möchte der Hersteller z.B. bewusst, dass das Gerät in das Programm „Sprache im Störgeräusch“ schaltet, auch wenn zusätzlich Musik vorhanden ist, so wird im Data Logging entsprechend nur „Sprache im Störgeräusch“ dokumentiert, trotz dass die Erkennung der Musik grundsätzlich funktioniert.

Da jedoch die anderen beiden Hersteller die akustische Umgebung und nicht Hörgeräteeinstellung aufzeichnen, könnte man die Erwartung formulieren, dass die Geräte für die komplexe Situation 50% „Sprache im Störgeräusch“ und 50% „Musik“ erkennen. Unter diesen Voraussetzungen würde man sagen, dass Hersteller C die Situationen mit 30% „Sprache im Störgeräusch“ und 70% „Musik“ am zuverlässigsten, trotz einer immer noch großen Differenz zum Soll-Zustand, erkannte. Gleichzeitig wies eine solche Situation insbesondere für die Hersteller B und C, welche nicht mit Hilfe einer Programmautomatik arbeiten, die Grenzen der Situationserkennung auf. Beide Hersteller erkannte zwar einzelne Anteile der zusammengesetzten Situation, jedoch lange nicht in dem Verhältnis, aus dem sie tatsächlich bestand. Somit können die Aussagen von Banerjee und Wagener et al., dass komplexe Situationen ignoriert werden [16], und weitere Situationsalgorithmen wünschenswert sind [18] bestätigt werden.

Ein weiteres Ziel war es zu ermitteln, ob die binaurale Synchronisation einen Einfluss auf die Genauigkeit des Data Loggings hat. Wie man den Ergebnissen in Abbildung 5 [Abb. 5] entnehmen kann, hat die binaurale Synchronisation einen Einfluss auf die Situationserkennung. So wurde sehr deutlich, dass das Hörgerät von Hersteller A bei deaktivierter Synchronisation, die dargebotene Musik nicht erkannte, sobald jedoch Synchronisation stattfand, Musik aufgezeichnet wurde. An dieser Stelle ist anzumerken, dass gerade dieser Faktor bei monauralen Versorgungen nicht vernachlässigt werden und man die Wahl der Technologiestufe eines Hörgerätes entsprechend anpassen sollte. Zudem nahm die Übereistimmung der Aufzeichnung für das linke und rechte Gerät mit Aktivierung der binauralen Synchronisation zu, obwohl es keine Unterschiede bei der Darbietung über die Lautsprecher gab.


Fazit

Wie die vorliegende Studie zeigt, kann die Zuverlässigkeit der Aufzeichnung des Data Logging im Hinblick auf die akustische Umgebung der Hörgeräteträger durch die binaurale Synchronisation und die Komplexität einer Situation beeinflusst werden. Besonders für Musik-Szenarien leistet die binaurale Synchronisation einen erheblichen Beitrag, verhindert jedoch nicht die undefiniertere Aufzeichnung von komplexeren Situationen. Dies führt zu dem Schluss, dass von der Anpasssoftware empfohlene Verbesserungsvorschläge, nicht wahllos übernommen werden sollten. Hier ist es vielmehr von Vorteil auf die Aussage des Kunden, bezogen auf die Konstellation der Hörumgebung, zurück zu greifen.

Im weiteren Verlauf ist es interessant zu prüfen, was im Falle einer Fehlaufzeichnung tatsächlich erkannt wurde und welche Situationen für das Hörgerät schwierig zu trennen sind. Des Weiteren wäre auch der Einfluss der Technologiestufe auf die Situationserkennung und Programmautomatik interessant. Somit kann überprüft werden, ob das Data Logging eines Gerätes ohne binauraler Synchronisation mit mehr Fehlern, behaftet ist, als eines mit Synchronisation. Währenddessen gleichzeitig herauszufinden gilt ob lediglich Zusatzsituationen wie Musik, Wind, etc. ungenauer aufgezeichnet werden, da sie in niedrigeren Technologiestufen kein Teil der Programmautomatik bzw. des Situationsmanagements sind oder der hinterlegte Datensatz in niedrigeren Technologiestufen eingeschränkter ist.

Zusammenfassend lässt sich sagen, dass jeder Hersteller individuelle Schwächen und Stärken in der Dokumentation von Lebenssituationen aufweist. Alles in allem wurden die dargebotenen Situationen dieser Studie am genausten von Hersteller B, gefolgt von Hersteller C und A erfasst. Es ist jedoch ausdrücklich zu betonen, dass die Streuung zwischen den Herstellern insgesamt gering war. Ein angemessener Vergleich aller Hersteller ist demnach nur schwierig umzusetzen, jedoch sollte man unabhängig des Herstellers immer kritisch betrachten, ob die Programmautomatik zuverlässig arbeitet und die Aufzeichnungen im Data Logging nicht überinterpretieren.


Anmerkungen

Interessenkonflikte

Die Autoren erklären, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel haben.


Literatur

1.
Dillon H. Hearing Aids. Australien: Boomerang Press; 2012.
2.
Ulrich J, Hoffmann E, Hrsg. Hörakustik Theorie und Praxis. Band 2. Heidelberg: DOZ Verlag; 2011.
3.
Maki-Trokko E, Sorr M, Laukli E. Objektive assesement of hearing aid use. In: Dillon H, Hrsg. Hearing Aids. Australien: Boomerang Press; 2012.
4.
Mueller HG. Data logging: It's popular, but how can this feature be used to help patients? Hear J. 2007;60(10):19-26. Verfügbar unter: DOI: 10.1097/01.HJ.0000295442.16133.d7 External link
5.
Kießling J, Kollmeier B, Diller G, Hrsg. Versorgung und Rehabilitation mit Hörgeräten. Stuttgart: Thieme Verlag; 2008. DOI: 10.1055/b-001-1076 External link
6.
Hamacher V, Rass U. Hightech im Ohr: Physikalische und technische Grundlagen moderner Hörgeräte. Phyik in unserer Zeit. 2006;37(2):90-6. DOI: 10.1002/piuz.200501089 External link
7.
Büchler M, Allegro S, Launer S, Dillier N. Sound Classification in Hearing Aids Inspired by Auditory Scene Analysis. EURASIP Journal on Advances in Signal Processing. 2005;(18):2991-3002. DOI: 10.1155/ASP.2005.2991 External link
8.
Sivantos GmbH. Signia Nx-3D-Klassifikator. 2018 [Zugriff am 13.04.2019]. Verfügbar unter: https://cms.sivantos.com/wp-content/uploads/sites/81/2018/05/3D-Classifier-Deutsch.pdf External link
9.
Übelacker E, Tchorz J. AutoSense OS: Benefit of the next generation of technology automation. Phonak Field Study News. June 2015. Available from: https://www.phonakpro.com/content/dam/phonakpro/gc_hq/en/resources/evidence/field_studies/documents/fsn_autosense_os_speech_understanding.pdf External link
10.
Starkey Laboratories GmbH. Technik. 2018 Mai [Zugriff am: 13.04.2019]. Verfügbar unter: https://www.starkeypro.de/files/technikbroschuere.pdf External link
11.
Phonak GmbH. Die Unterschiede der Technologiestufen im Überblick. 2017 [Zugriff am: 13.04.2019]. Verfügbar unter: https://www.phonakpro.com/content/dam/phonakpro/gc_de/de/Marketing_Individual_DE/Marketing_Home/Broschueren/Beratung/Uebersicht_Technologiestufen_028-0774-01.pdf External link
12.
Puder H, Fischer T. Besser verstehen: Audionetzwerke mit Hörgeräten. Phyik in unserer Zeit. 2016;47(3):134-9. DOI: 10.1002/piuz.201601426 External link
13.
Moore B. Binaural sharing of audio signals: Prospective benefits and limitations. Hear J. 2007;60(11):46-8. DOI: 10.1097/01.HJ.0000299172.13153.6f External link
14.
Appleton-Huber J. StereoZoom: Adaptive behavior improves speech intelligibility, sound quality and suppression of noise. Phonak Field Study News. September 2015. Available from: https://www.phonakpro.com/content/dam/phonakpro/gc_hq/en/resources/evidence/field_studies/documents/fsn_phonak_stereozoom_adaptive_behaviour.pdf External link
15.
Sivantos GmbH. Produktübersicht: Frühling/Sommer 2017. 2017 [Zugriff am: 13.04.2019]. Verfügbar unter: https://www.signia-pro.de/wp-content/uploads/sites/81/2017/04/Produktuebersicht-FS-2017.pdf External link
16.
Banerjee S. Hearing aids in the real world: typical automatic behavior of expansion, directionality, and noise management. J Am Acad Audiol. 2011 Jan;22(1):34-48. DOI: 10.3766/jaaa.22.1.5 External link
17.
Nordqvist P, Leijon A. An efficient robust sound classification algorithm for hearing aids. J Acoust Soc Am. 2004 Jun;115(6):3033-41. DOI: 10.1121/1.1710877 External link
18.
Wagener KC, Hansen M, Ludvigsen C. Recording and classification of the acoustic environment of hearing aid users. J Am Acad Audiol. 2008 Apr;19(4):348-70. DOI: 10.3766/jaaa.19.4.7. External link
19.
Lamarche L, Giguère C, Gueaieb W, Aboulnasr T, Othman H. Adaptive environment classification system for hearing aids. J Acoust Soc Am. 2010 May;127(5):3124-35. DOI: 10.1121/1.3365301 External link
20.
Akustik Becker & Partner. HTW Aalen Schallmessraum: Akustische Messungen im Freifeldraum. Fellbach; 2011.
21.
Deutsches Institut für Normung. DIN 45621-1 Sprache für Gehörprüfung-Teil 1: Ein-und mehrsilbige Wörter. Berlin: Beuth-Verlag; 1995.
22.
Hohmann B. Musik und Hörschäden. 17. Auflage. Luzern: Suva. 2000 [Zugriff am: 13.04.2019]. Verfügbar unter: http://www.laermorama.ch/m4_ohrenschuetzen/pdf/Musik_und_Hoerschaeden.pdf External link
23.
Husstedt H, Wollermann S, Tchorz J. A method to analyse and test the automatic selection of hearing aid programs. In: Santurette S, Dau T, Dalsgaard JC, Tranebjærg L, Andersen T, Poulsen T, Hrsg. Proceedings of the International Symposium on Auditory and Audiological Research (Proc. ISAAR). Vol. 6: Adaptive Processes in Hearing, August 2017, Nyborg, Denmark. Danavox Jubilee Foundation; 2017. S. 143-50. Verfügbar unter: https://proceedings.isaar.eu/index.php/isaarproc/article/view/2017-17/296 External link