Optimierung Rückgekoppelter Hyperpermutationsnetzwerke

In dieser Arbeit wird untersucht, ob und wie man rückgekoppelte Hyperpermutationsnetzwerke trainieren kann, um damit Aufgaben der maschinellen Wahrnehmung mit möglichst wenig Ressourcen zu lösen. Die Forderung nach einer möglichst ressourcensparenden Lösung von Wahrnehmungsaufgaben kommt aus dem Bereich der Serienprodukte, in diesem Fall handelt es sich um Automobile. Ein Hyperpermutationsnetzwerk kommt ohne Prozessor aus, weil es sich um ein Netzwerk aus Tabellen handelt, deren Inhalte beim Prozessieren der Daten nur nachgeschlagen werden und nicht arithmetisch verarbeitet werden müssen. Durch die Einführung von Rückkopplungen wird die Erzeugung von sehr kompakten Netzwerken möglich. Es werden verschiedene Algorithmen entwickelt und eingesetzt, um rückgekoppelte Hyperpermutationsnetzwerke zu trainieren, z.B. Simulated Annealing. Anhand von akademischen und realen Problemen wird gezeigt, daß sich rückgekoppelte Hyperpermutationsnetzwerke für die maschinelle Wahrnehmung vor allem dann eignen, wenn es darauf ankommt, mit so wenig Hardware-Ressourcen wie möglich auszukommen.

Vorschau

Rechte

Nutzung und Vervielfältigung:

Keine Lizenz. Es gelten die Bestimmungen des deutschen Urheberrechts (UrhG).

Bitte beachten Sie, dass einzelne Bestandteile der Publikation anderweitigen Lizenz- bzw. urheberrechtlichen Bedingungen unterliegen können.

Zitieren

Zitierform:
Zitierform konnte nicht geladen werden.