Datengetriebene Methoden zur Bestimmung von Position und Orientierung in funk‐ und trägheitsbasierter Koppelnavigation

Language
de
Document Type
Doctoral Thesis
Issue Date
2021-10-18
Issue Year
2021
Authors
Feigl, Tobias
Editor
Abstract

Location‐based entertainment has now become a basic need. The required accuracy and reliability of localization systems is growing not only for intelligent systems such as self‐driving vehicles, delivery drones, and mobile devices, but also for everyday pedestrians. Due to the ubiquitous sensors such as cameras, GPS, and inertial sensors, a large number of localization systems are developed with elaborately handcrafted models and algorithms. To avoid problems with the occlusion and different light conditions of camera systems, radio and inertial sensors are typically used for localization. Under ideal laboratory conditions, these sensors and models can accurately estimate positions and orientations over the long term. However, in real‐world environments, many problems such as inaccurate system modeling, incomplete sensor measurements, noise, and complex environmental dynamics affect accuracy and reliability. Viewed individually, radio and inertial sensors have difficulties: radio localises very imprecisely due to multipaths through static or dynamic objects along the propagation paths between transmitter and receiver. In contrast, inertial sensors accumulate distance and orientation errors over time and cannot establish an absolute reference to the world coordinate system. State‐of‐the‐art methods complement both sensors to use complementary effects, but fail to remedy the difficulties. In addition, they cannot describe highly nonlinear human movements using simple motion models such as constant acceleration or velocity. The main goal of this thesis is therefore to investigate the effects of data‐driven methods and different sensor data streams from loosely placed sensors on the accuracy of the estimation of human poses in highly dynamic situations. The absolute accuracy of the results obtained is compared with state‐of‐the‐art filtering methods. To solve the problems of human‐designed localization models, machine and deep learning methods are used in this thesis. Thus, methods that learn to estimate positions, velocities, and orientations as well as to reconstruct trajectories using multimodal measurements from radio and inertial sensors are presented to achieve an accurate and robust localization. The effects of data‐driven processes along a typical processing chain for localization with radio and inertial sensors are examined. The processing chain is loosely coupled and divided into atomic components so that any datadriven process can easily be replaced. Sequence‐based learning methods are used along the processing chain to estimate absolute positions from time of arrival values of radio signals with multipath propagation, to estimate undirected velocity vectors from inertial sensors, to classify movement patterns that calibrate the alignment of the trajectory, and finally to merge the individual components into one trajectory. The proposed methods learn to deal with different movement behavior and enable a robust and precise localization. As part of largescale studies, measurement and reference data with various forms of movement at different velocities are recorded. Extensive experiments show the effectiveness and potential of the proposed methods. The data-driven, modular processing chain provides more accurate and more robust estimates than state‐of‐the‐art methods, even for dynamic movements, with noisy inertia sensors, and radio environments with multipath propagation.

Abstract

Standortbezogene Unterhaltung ist mittlerweile zu einem Grundbedürfnis geworden. Die erforderliche Genauigkeit und Zuverlässigkeit von Lokalisierungssystemen wächst nicht nur für intelligente Systeme wie selbstfahrende Fahrzeuge, Lieferdrohnen und mobile Geräte, sondern auch für alltägliche Fußgänger. Aufgrund der allgegenwärtigen Sensoren wie Kameras, GPS und Trägheitssensoren werden mit aufwendig handgefertigten Modellen und Algorithmen eine Vielzahl von Lokalisierungssystemen entwickelt. Um eine Einschränkung der freien Sicht und unterschiedliche Lichtverhältnisse von Kamerasystemen zu vermeiden werden typischerweise Funk- und Trägheitssensoren zur Lokalisierung verwendet. Unter idealen Laborbedingungen können diese Sensoren und Modelle, Positionen und Orientierungen langfristig genau abschätzen. In realen Umgebungen wirken sich jedoch viele Probleme wie ungenaue Systemmodellierung, unvollständige Sensormessungen, Rauschen und komplexe Umgebungsdynamiken auf die Genauigkeit und Zuverlässigkeit aus. Individuell betrachtet haben Funk- und Trägheitssensoren Schwierigkeiten: Funk lokalisiert aufgrund mehrerer Pfade durch statische oder dynamische Objekte entlang der Ausbreitungspfade zwischen Sender und Empfänger sehr ungenau. Im Gegensatz dazu akkumulieren Trägheitssensoren im Laufe der Zeit Entfernungs- und Orientierungsfehler und können keinen absoluten Bezug zur Weltkarte herstellen. Verfahren des Stands der Technik ergänzen beide Sensoren, um komplementäre Effekte zu verwenden, können jedoch die Schwierigkeiten nicht beheben. Darüber hinaus können sie mit einfachen Bewegungsmodellen wie konstanter Beschleunigung oder Geschwindigkeit keine stark nichtlinearen menschlichen Bewegungen beschreiben. Das Hauptziel dieser Arbeit ist es daher, die Auswirkungen datengetriebener Methoden und verschiedener Sensordatenströme von lose platzierten Sensoren auf die Genauigkeit der Schätzung menschlicher Posen in hochdynamischen Situationen zu untersuchen. Die absolute Genauigkeit der erhaltenen Ergebnisse wird mit Filtermethoden nach dem Stand der Technik verglichen. Um die Probleme von Menschen entworfenen Lokalisierungsmodellen zu lösen, werden in dieser Arbeit maschinelle und tiefe Lernmethoden verwendet. Es werden Lernmethoden zur Positions‐, Geschwindigkeits- und Orientierungsschätzung sowie zur Rekonstruktion der Trajektorie unter Verwendung multimodaler Messungen von Funk- und Trägheitssensoren vorgestellt, um eine genaue und robuste Lokalisierung zu erreichen. Die Auswirkungen datengetriebener Verfahren entlang einer typischen Verarbeitungskette für die Lokalisierung mit Funk- und Trägheitssensoren werden untersucht. Die Verarbeitungskette ist lose gekoppelt in atomare Komponenten unterteilt, sodass jedes datengetriebene Verfahren problemlos ausgetauscht werden kann. Sequenzbasierte Lernmethoden werden entlang der Verarbeitungskette verwendet, um absolute Positionen aus Ankunftszeitstempeln von Funksignalen mit Mehrwegeausbreitung zu schätzen, ungerichtete Geschwindigkeitsvektoren von Trägheitssensoren zu schätzen, Bewegungsmuster zu klassifizieren, die die Ausrichtung der Trajektorie kalibrieren und um schließlich die einzelnen Komponenten zu einer Trajektorie zu fusionieren. Die vorgeschlagenen Methoden lernen, mit unterschiedlichem Bewegungsverhalten umzugehen und ermöglichen eine robuste und präzise Lokalisierung. Im Rahmen von Großstudien werden Mess- und Referenzdaten mit verschiedenen Bewegungsformen bei unterschiedlichen Geschwindigkeiten erfasst. Umfangreiche Experimente zeigen die Wirksamkeit und das Potenzial der vorgeschlagenen Methoden. Die datengetriebene, modulare Verarbeitungskette liefert genauere und robustere Schätzungen als bekannte Verfahren, auch bei dynamischen Bewegungen mit verrauschten Trägheitssensoren und Funkumgebungen mit Mehrwegeausbreitung.

DOI
Faculties & Collections
Zugehörige ORCIDs