2023
Dissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2023
Veröffentlicht auf dem Publikationsserver der RWTH Aachen University
Genehmigende Fakultät
Fak04
Hauptberichter/Gutachter
;
Tag der mündlichen Prüfung/Habilitation
2023-08-16
Online
DOI: 10.18154/RWTH-2023-08179
URL: https://publications.rwth-aachen.de/record/964209/files/964209.pdf
Einrichtungen
Inhaltliche Beschreibung (Schlagwörter)
charge transport modelling (frei) ; hardware-algorithm co-design (frei) ; neuromorphic computing (frei) ; organic electrochemical transistor (frei) ; organic neuromorphic device (frei) ; spiking neural network (frei)
Thematische Einordnung (Klassifikation)
DDC: 620
Kurzfassung
"Neuromorphic Computing" ist der Versuch, neuronale Netze in Hardware zu implementieren, höhere Geschwindigkeit bei geringerem Stromverbrauch zu erreichen und gleichzeitig biologisch plausiblere neuronalen Modelle abbilden zu können. Künstliche Synapsen sind einzigartige Bauelemente, die Informationen als Leitfähigkeiten speichern und gleichzeitig parallele, analoge Berechnungen ermöglichen. Künstliche Synapsen aus organischen gemischt-ionischen elektronischen Leitern gehen einen weiteren Schritt in Richtung biologischer Plausibilität, indem sie ähnlich zu Nervenzellen durch ionischen Ladungstransport in wässrigen Elektrolyten kommunizieren, während sie gleichzeitig biokompatibel, extrem stromsparend und linear programmierbar sind. Allerdings zeigen anderweitig vielversprechende Geräte aus dem leitfähigen Polymer PEDOT:PSS Schreibfehler beim Programmieren und Selbstentladung im Ruhezustand, sodass die programmierten Leitfähigkeitszustände mit der Zeit verloren gehen. Beide Phänomene müssen verstanden und kompensiert werden, um selbst kleine neuronale Netze erfolgreich in organischer Hardware implementieren zu können. In dieser Arbeit werden hochaufgelöste Ladungstransportmodelle verwendet, um die elektrochemischen Prozesse in organischen Synapsen zu erklären und die Ursachen für deren nicht-ideales Verhalten zu identifizieren. Durch gleichzeitige Simulation und Optimierung der neuronalen Algorithmen und der individuellen Geräte werden Möglichkeiten identifiziert, um die Nicht-Idealitäten zu kompensieren. Während die Reproduzierbarkeit der Programmierung durch ein optimiertes Schreibschema deutlich verbessert werden kann, zeigt sich, dass die Selbstentladung durch schwer vermeidbare Verunreinigungen im Bauelement verursacht wird. Simulationen von künstlichen neuronalen Netzen zeigen, dass Selbstentladung die Leistung eines Netzes schon nach einigen Minuten erheblich beeinträchtigen kann. Ein spezielles Netzwerkdesign und neu vorgeschlagene "Reminder" Pulse kompensieren die Selbstentladung effektiv, verursachen jedoch zusätzliche Komplexität. Auf der anderen Seite zeigt sich, dass spikebasierte neuronale Netze, die kontinuierlich lernen, Selbstentladung von Natur aus kompensieren und sogar von ihr profitieren, um höhere Genauigkeiten beim Lernen zu erreichen. Insgesamt demonstriert diese Arbeit, dass die gleichzeitige Entwicklung von Algorithmen und Hardware eine effektive Methode ist, um die Limitierungen von organischer neuromorpher Hardware zu kompensieren, und sie unterstreicht die Synergien zwischen kontinuierlichem Lernen und vergesslichen Geräten.Neuromorphic computing aims to implement neural networks in brain-inspired hardware to enable faster computation, lower power consumption, and higher degrees of biological realism in the neural models. Artificial synapses represent unique devices that simultaneously enable information storage as a conductance state and highly parallel, analog information processing. Organic artificial synapses made from organic mixed ionic electronic conductors take another step toward biological realism. They are biocompatible and can communicate through the same electrolytes as living neurons while being ultra-low powered and linearly programmable. However, otherwise promising devices based on the conductive polymer PEDOT:PSS show write non-idealities and self-discharge so that programmed states decay over time. Both phenomena must be understood and compensated for to successfully implement even small neural models. This thesis employs high-resolution charge transport models to explain the electrochemical processes in organic synapses and identify the non-ideal behavior's root causes. To find solutions to compensate for the non-idealities, it applies algorithm-hardware co-design with full network simulations of artificial and spiking neural networks. While an optimized write scheme can improve programming reproducibility, self-discharge is shown to be caused by impurities in the device that are difficult to exclude. Simulations of artificial neural networks show that self-discharge can significantly degrade network performance over single-digit minutes. Special network design and newly proposed reminder pulses are developed to compensate for self-discharge effectively. They do, however, introduce additional complexity. On the other hand, always-on learning in spiking neural networks proves to be a much more effective way to compensate for self-discharge natively and unlock synergies with the device properties that result in higher accuracies during learning. In summary, the thesis demonstrates that algorithm-hardware co-design is a powerful method to understand and compensate for device limitations, and it highlights the synergies between always-on-spike-based learning and forgetful devices.
OpenAccess:
PDF
(additional files)
Dokumenttyp
Dissertation / PhD Thesis/Book
Format
online
Sprache
English
Externe Identnummern
HBZ: HT030362403
Interne Identnummern
RWTH-2023-08179
Datensatz-ID: 964209
Beteiligte Länder
Germany
The record appears in these collections: |