Back Propagation

Inhaltsverzeichnis

1. Allgemeines

2. Aufbau des Back-Propagation-Netzes

3. Transferfunktion

4. Das Lernen

4.1 Die Berechnung der Mittelschichten und der Output-Schicht

4.2 Die Berechnung des Fehlers

1. Allgemeines

Der Begriff "Back-Propagation" kommt von der besonderen Art des Lernens, die für dieses neuronale Netz typisch ist.

Ein neuronales Netz dient hauptsächlich dazu, bestimmte vorher festgelegte Muster zu erkennen. Es besteht aus vielen Neuronen in mehreren Schichten. Die einzelnen Neuronen sind untereinander mit unterschiedlichen Gewichtungen verbunden. Beim Back-Propagation-Netz sind die Verbindungen nur in genau eine Richtung gerichtet.

Muster können Bilder, Zeichen, Sprache und ähnliches sein.

Gewichtungen sind die Werte derVerbindungen zwischen den Neuronen.

Die Transferfunktion ist notwendig, um die mit der Gewichtung berechneten Werte in den gültigen Bereich eines Neurons zu bringen.

2. Aufbau des Back-Propagation-Netzes

Ein großer Vorteil bei dieser Art von neuronalem Netz ist, dass der Wertebereich der Neuronen nicht bipolar (-1/1) ist sondern reelle Zahlen in einem bestimmten Intervall beinhaltet (0...1). Aus diesem Grund sind Input und Output keine binären Werte sondern reelle Zahlen.

Ein Back-Propagation-Netz besteht aus mindestens drei Schichten (Input, Mittelschicht(en), Output). Jede Schicht außer der Output-Schicht beinhaltet ein BIAS-Element, welches zur Stabilität der Werte der Neuronen der nächsten Schicht beiträgt. Die Gewichtungen werden am Anfang mit einem Zufallswert zwischen 0 und 1 initialisiert.

3. Transferfunktion

Um ein Back-Propagation-Netz voll und ganz nutzen zu können, hat man eigene sigmoidförmige Transferfunktionen entwickelt. Eine Transferfunktion, die sich bewährt hat, lautet:

A steht für den Summe aller Produkte von Gewichtung und Neuronenwert pro Neuron der nächsten Schicht.

4. Das Lernen

Wie oben schon erwähnt, werden alle Gewichtungen mit zufälligen Werten zwischen 0 und 1 belegt. Außerdem werden die Mittelschichten und die Output-Schicht auf Null gesetzt.

4.1 Die Berechnung der Mittelschichten und der Output-Schicht

Zuerst werden die gewünschten Inputs transferiert und in die Input-Schicht eingetragen. Dann wird mittels der Funktionen

in die einzelnen Neuronen eingetragen.

4.2 Die Berechnung des Fehlers

Nachdem alle Y-Elemente berechnet wurden, vergleicht man das Ergebnis mit den gewünschten Werten D.

Die klassische Fehlerfunktion:

Die Ableitung dieser Funktion :

Um den Gesamtfehler im Endeffekt zu verkleinern, rechnet man alles wieder zurück und verändert dabei die Gewichtungen mit Hilfe dieser Formel:

Der 2. Schritt ist die Aktualisierung der Gewichtungsschicht W1.

Die beiden Schritte "Lernen" und "Back-Propagation" werden so oft wiederholt, bis der Benutzer zufrieden ist. Dann kann der nächste Input erfolgen. Es ist aber möglich, dass das neuronale Netz nach mehreren verschiedenen Inputs das Muster eines früheren vergißt. Daher sollte man die Inputs in unregelmäßigen Abständen wiederholen.

Wenn man ein Back-Propagation-Netz mit einer Programmiersprache verwirklicht, verwendet man jeweils ein Array für jede Gewichtungsschicht und für jede Neuronenebene.

428 Worte in "deutsch"  als "hilfreich"  bewertet