h1

h2

h3

h4

h5
h6
http://join2-wiki.gsi.de/foswiki/pub/Main/Artwork/join2_logo100x88.png

Unsupervised training with applications in natural language processing = Unüberwachtes Lernen mit Anwendungen bei der Verarbeitung natürlicher Sprache



Verantwortlichkeitsangabevorgelegt von Diplom-Physiker und Diplom-Informatiker Malte Nuhn

ImpressumAachen 2019

Umfang1 Online-Ressource (xiii, 139 Seiten) : Illustrationen, Diagramme


Dissertation, RWTH Aachen University, 2019

Veröffentlicht auf dem Publikationsserver der RWTH Aachen University 2020


Genehmigende Fakultät
Fak01

Hauptberichter/Gutachter
;

Tag der mündlichen Prüfung/Habilitation
2019-07-12

Online
DOI: 10.18154/RWTH-2019-10638
URL: https://publications.rwth-aachen.de/record/772331/files/772331.pdf

Einrichtungen

  1. Lehrstuhl für Informatik 6 (Sprachverarbeitung und Mustererkennung) (122010)
  2. Fachgruppe Informatik (120000)

Inhaltliche Beschreibung (Schlagwörter)
EM algorithm (frei) ; beam search (frei) ; decipherment (frei) ; machine learning (frei) ; unsupervised learning (frei) ; unsupervised training (frei)

Thematische Einordnung (Klassifikation)
DDC: 004

Kurzfassung
Der Stand der Technik für viele Aufgaben, die bei der Verarbeitung natürlicher Sprache auftreten, setzt die Verfügbarkeit großer Mengen von gelabelten Trainingsdaten voraus. Gleichzeitig stellt das Akquirieren von gelabelten Trainingsdaten von hoher Qualität den oftmals teuersten Schritt bei der Entwicklung von Systemen zur Verarbeitung von natürlicher Sprache dar. Im Gegensatz dazu sind ungelabelte Daten kostengünstiger und in größeren Mengen verfügbar. Derzeit nutzen nur wenige Trainingsalgorithmen ungelabelte Daten. Das Training mit ausschließlich ungelabelten Daten wird in der Praxis nicht durchgeführt. In dieser Arbeit wird untersucht, wie ungelabelte Daten verwendet werden können um Modelle zur Verarbeitung natürlicher Sprache zu trainieren. Insbesondere untersuchen wir Modelle zur Lösung von Substitutions-Chiffren, zur Rechtschreibkorrektur und zur maschinellen Übersetzung. Diese Arbeit zeigt die Grundlagen für unüberwachtes Training auf indem die oben genannten Modelle in einer konsistenten Notation eingeführt und untersucht werden. Wir zeigen, dass das Problem des unüberwachten Trainings welches beim Lösen von Eins-zu-eins-Substitutions-Chiffren auftritt gleichbedeutend, und damit NP-hart, zum Quadratic Assignment Problem (QAP) ist, sobald ein Bigramm-Sprachmodell verwendet wird. Hierauf basierend stellen wir einen neuartigen, effektiven Algorithmus für das unüberwachte Training für deterministische Substitutionen vor. Im Falle von englischen Eins-zu-eins-Substitutions-Chiffren erzielt unser Algorithmus Ergebnisse, die der in [Shannon 49] vorhergesagten menschlichen Performance äußerst nahe kommen. Des Weiteren präsentieren wir mit diesem Algorithmus die nach unserem Wissen erste automatische Entschlüsselung des zweiten Teils der Beale-Chiffren. Weiterhin erarbeiten wir für das Problem der Rechtschreibkorrektur die Details des EM-Algorithmus [Dempster & Laird+ 77] und zeigen experimentell, dass die mit rein unüberwachtem Training erzielten Fehlerraten die mit überwachtem Training erzielten Fehlerraten erreichen. Für die Handhabung von Korpora mit großem Wortschatz stellen wir neuartige Initialisierungs- und Trainingsverfahren vor. Diese beschleunigen den Lernprozess deutlich, ohne dabei die Qualität der resultierenden Modelle zu beeinträchtigen. Wir erweitern das Modell zur Rechtschreibkorrektur durch die Einbindung eines Wort-Alignierungs-Modells, so dass dieses auf die Aufgabe der Maschinenübersetzung angewendet werden kann. Für dieses erweiterte Modell zeigen wir, dass die wahren Modellparameter auch ohne gelabelte Daten gelernt werden können, wenn eine ausreichende Menge an ungelabelten Daten vorliegt: Wir zeigen experimentell, dass das Maximum der Likelihood-Funktion für diese Modelle für die wahren Modellparameter angenommen wird. Weiterhin zeigen wir auch für die Rechtschreibkorrektur mit Ersetzungen und lokalen Umordnungen experimentell, dass die mit rein unüberwachtem Lernen erzielte Fehlerrate die mit überwachtem Lernen erzielte Fehlerrate erreicht. Schließlich präsentieren wir Ergebnisse zum unüberwachten Lernen für einen Übersetzungs-Task mit zehnmal größerem Wortschatz als dem in früheren Arbeiten behandelten Tasks.

The state-of-the-art algorithms for various natural language processing tasks require large amounts of labeled training data. At the same time, obtaining labeled data of high quality is often the most costly step in setting up natural language processing systems. Opposed to this, unlabeled data is much cheaper to obtain and available in larger amounts. Currently, only few training algorithms make use of unlabeled data. In practice, training with only unlabeled data is not performed at all. In this thesis, we study how unlabeled data can be used to train a variety of models used in natural language processing. In particular, we study models applicable to solving substitution ciphers, spelling correction, and machine translation. This thesis lays the groundwork for unsupervised training by presenting and analyzing the corresponding models and unsupervised training problems in a consistent manner. We show that the unsupervised training problem that occurs when breaking one-to-one substitution ciphers is equivalent to the quadratic assignment problem (QAP) if a bigram language model is incorporated and therefore NP-hard. Based on this analysis, we present an effective algorithm for unsupervised training for deterministic substitutions. In the case of English one-to-one substitution ciphers, we show that our novel algorithm achieves results close to human performance, as presented in [Shannon 49]. Also, with this algorithm, we present, to the best of our knowledge, the first automatic decipherment of the second part of the Beale ciphers. Further, for the task of spelling correction, we work out the details of the EM algorithm [Dempster & Laird+ 77] and experimentally show that the error rates achieved using purely unsupervised training reach those of supervised training. For handling large vocabularies, we introduce a novel model initialization as well as multiple training procedures that significantly speed up training without hurting the performance of the resulting models significantly. By incorporating an alignment model, we further extend this model such that it can be applied to the task of machine translation. We show that the true lexical and alignment model parameters can be learned without any labeled data: We experimentally show that the corresponding likelihood function attains its maximum for the true model parameters if a sufficient amount of unlabeled data is available. Further, for the problem of spelling correction with symbol substitutions and local swaps, we also show experimentally that the performance achieved with purely unsupervised EM training reaches that of supervised training. Finally, using the methods developed in this thesis, we present results on an unsupervised training task for machine translation with a ten times larger vocabulary than that of tasks investigated in previous work.

OpenAccess:
Download fulltext PDF
(additional files)

Dokumenttyp
Dissertation / PhD Thesis

Format
online

Sprache
English

Externe Identnummern
HBZ: HT020301540

Interne Identnummern
RWTH-2019-10638
Datensatz-ID: 772331

Beteiligte Länder
Germany

 GO


OpenAccess

QR Code for this record

The record appears in these collections:
Document types > Theses > Ph.D. Theses
Faculty of Mathematics, Computer Science and Natural Sciences (Fac.1) > Department of Computer Science
Publication server / Open Access
Public records
Publications database
120000
122010

 Record created 2019-11-16, last modified 2023-04-08


OpenAccess:
Download fulltext PDF
(additional files)
Rate this document:

Rate this document:
1
2
3
 
(Not yet reviewed)