Volltextdatei(en) vorhanden
Titel: Deep learning in Radio Astronomy
Sonstige Titel: Deep Learning in der Radioastronomie
Sprache: Englisch
Autor*in: Lukic, Vesna
Schlagwörter: Machine learning; Deep learning; Radio astronomy
GND-Schlagwörter: Maschinelles LernenGND
Deep learningGND
Radioastronomie
Erscheinungsdatum: 2019
Tag der mündlichen Prüfung: 2019-11-26
Zusammenfassung: 
Current and forthcoming radio surveys continue to provide new insights in understanding the formation and evolution of galaxies, our cosmological model and its parameters. The current thesis summarises our work on deep learning techniques applied to radio astronomy. The volume of data produced from radio surveys is vast and constantly growing due to improvements to technology. This results in increasing demand to develop more sophisticated tools to analyse the data, as manual analyses will become unfeasible. Machine learning techniques have been developed to facilitate this process, and rely on the premise that they can be trained to recognise patterns and features in data. The focus of the current thesis is analysing radio data based on images using deep learning techniques, an approach which has proven successful on high-dimensional data. Using radio galaxy images from the citizen science project Radio Galaxy Zoo, we show that it is possible to classify between compact sources and three classes of extended sources, and test our trained network on Data Release 1. We compare the performance of traditional convolutional deep neural networks against Capsule networks. The latter are a more recently developed technique using groups of neurons that describe properties of an image including the relative spatial locations of features. Using images from the LOFAR Two-metre Sky Survey (LoTSS), we show that for the type of radio galaxy data at hand, the traditional convolutional neural networks perform better. Finally, we develop a source finder based on a convolutional autoencoder, and compare the performance against a state-of-the-art source-finder, using simulated Square Kilometre Array data. We find the performance varies between the source-finders based on exposure time, frequency and signal-to-noise ratio.

Aktuelle und kommende radioastronomische Himmelsvermessungen liefern weiterhin neue Erkenntnisse über die Entstehung und Entwicklung von Galaxien, unseres kosmologischen Modells und seiner Parameter. Die vorliegende Arbeit fasst unsere Arbeiten zu Tiefenlerntech- niken für die Radioastronomie zusammen. Das Datenvolumen, das bei radioastronomische Durchmusterungen anfällt, ist enorm und nimmt aufgrund von technologischen Verbesserungen ständig zu. Dies führt zu einer steigenden Nachfrage nach der Entwicklung komplexerer Tools zur Analyse der Daten, da manuelle Analysen nicht mehr möglich sind. Um diesen Prozess zu vereinfachen, wurden maschinelle Lerntechniken entwickelt, die sich auf die Voraussetzung stützen, dass sie zum Identifizieren von Mustern und Merkmalen in Daten verwendet werden können. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Analyse von Radiodaten auf der Basis von Bildern mit Hilfe von Deep-Learning-Techniken, ein Ansatz, der sich bei hochdimensionalen Daten bewährt hat. Mit Hilfe von Radio-Galaxien-Bildern aus dem Radio Galaxy Zoo Citizen Science Project demonstrieren wir, dass es möglich ist, drei verschiedene Klassen von Quellen zu klassifizieren. Anschließend testen unser Datennetzwerk mit Daten Release 1. Wir vergleichen die Leistung traditioneller, tief neuronaler Faltungsnetzwerke mit der Leistung von Kapseln Netzwerke. Letztere sind eine in jüngerer Zeit entwickelte Technik, bei der Gruppen von Neuronen verwendet werden, die Eigenschaften eines Bildes einschließlich der relativen räumlichen Positionen von Merkmalen beschreiben. Anhand von Bildern aus der LOFAR-Zwei-Meter-Himmelsvermessung (LoTSS) zeigen wir, dass die herkömmlichen neuronalen Faltungsnetze für die Art der vorliegenden Funkgalax- iendaten eine bessere Leistung erbringen. Schließlich entwickeln wir einen Quellensucher, der auf einem Faltungsautocodierer basiert ist, und vergleichen ihn mit einem hochmodernen Quellensucher unter Verwendung simulierter Quadratkilometer-Array-Daten. Wir stellen fest, dass die Leistung zwischen den Quellenfindern je nach Belichtungszeit, Frequenz und Signal- Rausch-Verhältnis sich variiert.
URL: https://ediss.sub.uni-hamburg.de/handle/ediss/6109
URN: urn:nbn:de:gbv:18-101640
Dokumenttyp: Dissertation
Betreuer*in: Brüggen, Marcus (Prof. Dr.)
Enthalten in den Sammlungen:Elektronische Dissertationen und Habilitationen

Dateien zu dieser Ressource:
Datei Beschreibung Prüfsumme GrößeFormat  
Dissertation.pdfa55311d8ede0971b5380231500f5ee8b8.49 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Diese Publikation steht in elektronischer Form im Internet bereit und kann gelesen werden. Über den freien Zugang hinaus wurden durch die Urheberin / den Urheber keine weiteren Rechte eingeräumt. Nutzungshandlungen (wie zum Beispiel der Download, das Bearbeiten, das Weiterverbreiten) sind daher nur im Rahmen der gesetzlichen Erlaubnisse des Urheberrechtsgesetzes (UrhG) erlaubt. Dies gilt für die Publikation sowie für ihre einzelnen Bestandteile, soweit nichts Anderes ausgewiesen ist.

Info

Seitenansichten

298
Letzte Woche
Letzten Monat
geprüft am 27.03.2024

Download(s)

470
Letzte Woche
Letzten Monat
geprüft am 27.03.2024
Werkzeuge

Google ScholarTM

Prüfe