Künstliche neuronale Netze sind der Erfolg des maschinellen Lernen

von | 18. Oktober 2018 | Grundlagen

Künstliche neuronale Netze oder kurz KNN sind, einfach ausgedrückt, Einheiten zur Informationsverarbeitung. Dabei ist ihr Funktionsprinzip so effektiv, dass sie zu einer der Grundlagen für die Entwicklung Künstlicher Intelligenz wurden – besser gesagt von maschinellem Lernen.

Ihre Besonderheit ist, dass sie nicht auf eine vorab festgelegte, immer gleiche Art und Weise funktionieren – etwa wie ein Taschenrechner –, sondern dass sie lernfähig sind. Darum können sie Eingaben als Grundlage für Berechnungen verarbeiten, die für sich genommen nicht eindeutig sind. Erst in Kombination mit vielen anderen Faktoren liefern sie ein eindeutiges Ergebnis wie beispielsweise bei der Auswertung von Symptomen zur Diagnose von Krankheiten.

Typischerweise werden Künstliche neuronale Netze darum während einer Trainingsphase anhand von Testdaten mit bestimmten Regeln vertraut gemacht, die sie später automatisch anwenden und anpassen können. Dieser Text will grundsätzlich erklären, was Künstliche neuronale Netze sind, wie sie funktionieren und zu welchen konkreten Zwecken sie eingesetzt werden können.

Biologische Grundlagen und Funktionsweise von Neuronalen Netzen

Künstliche neuronale Netze sind ein Teilaspekt von Künstlicher Intelligenz – genauer gesagt, eine Unterkategorie von maschinellem Lernen bzw. Machine Learning. Ihr Name leitet sich aus einer Analogie ab: Das Funktionsprinzip von Künstlichen neuronalen Netzen leitet sich aus der Natur ab. Sie sind neuronalen Zellen nachgebildet, die beispielsweise auch im menschlichen Gehirn oder im Rückenmark die Grundlage für die Signalverarbeitung darstellen. Eine neuronale Zelle hat dabei drei wesentliche Eigenschaften, auf die es ankommt: die Synapsen, das Axon und den Zellkörper.

Neuronale Zelle
© fh-regensburg.de

Die Abbildung zeigt eine vereinfachte Darstellung einer menschlichen Nervenzelle.

Die Funktionsweise von natürlichen und künstlichen Neuronen ist dabei sehr ähnlich: Die Synapsen sind die Empfänger von Daten. Wenn sie eine Aktivität wahrnehmen, geben sie dieses Signal an den Zellkörper weiter. Dort entscheidet die Signalstärke, ob das Signal über das Axon weitergeleitet wird. Auch bei künstlichen neuronalen Netzen lassen sich die einzelnen Signale auf analoge Weise gewichten und summieren:

Neuronale Netze
© hs-bremen.de

Die Abbildung oben zeigt eine schematische Darstellung zur Veranschaulichung, welche Funktion die Knotenpunkte in einem KNN haben. Quelle: (hs-bremen.de)

Die Komplexität des Gehirns und die Hidden Layers

Ähnlich wie im menschlichen Gehirn wo die Neuronen nicht einzeln arbeiten, sondern in sehr komplexen Verbünden zusammengeschlossen sind, arbeiten auch künstlich neuronale Netze im Verbund. Genauer gesagt besteht dieser Verbund aus einer mehr oder weniger großen Zahl von Layern („Schichten“):

Vereinfachte Form eines neuronalen Netzwerks
© [at]

Hier werden prinzipiell Input LayerHidden Layers und Output Layer voneinander unterschieden. Wie genau das Signal von der Input Layer zur Output Layer gelangt, hängt sehr stark von den Lernregeln ab, die während der Trainingsphase modifiziert werden. Ebenfalls wie im menschlichen Gehirn können diese Verbünde von künstlichen Neuronen lernen, Signale unterschiedlich zu deuten bzw. zu interpretieren.

Die Schwierigkeit beispielsweise bei der Spracherkennung ist, dass identische Signale wie das einfache Wort „zu“ unterschiedliche Bedeutungen haben können. In einigen Fällen bedeutet das Wort „geschlossen“ („Das Geschäft ist zu“) und in anderen Fällen übernimmt das Wort die Funktion einer Präposition mit einer räumlichen Bedeutung („Jemand kommt zu uns.“).

Um solche Fälle unterscheiden zu können, benötigen neuronale Netze ein Feedback von außen („Feedback Modell“). Bei der Trainingsphase bekommen neuronale Netze von Menschen das Feedback, ob sie einen Fall richtig oder falsch gelöst haben. Es gibt aber auch selbstlernende neuronale Netze („Rekurrentes Modell“), die auf Basis von vorherigen Analysen selbständig Schlüsse ziehen können.

Soll beispielsweise eine erfolgreiche Strategie erlernt werden, um beim Schach zu gewinnen, spielt ein Algorithmus immer wieder gegen sich selbst. So kann er jede Partie mit den vergangenen vergleichen. Dabei erhält er jedes Mal automatisch ein Feedback über den Erfolg der neuen Strategie.

Die „Tiefe“ von KNNs

Das Entscheidende bei KNNs sind die Hidden Layers. Im Gegensatz zu der vereinfachten Darstellung in Abbildung 3 befinden sich in der Regel zwischen der Input- und der Output-Layer nicht nur eine oder zwei Hidden Layers, sondern viele. Hier wird auch von der „Tiefe“ eines Künstlichen neuronalen Netzes gesprochen. Dies ist auch der Ursprung für den Terminus „Deep Neural Network“ beziehungsweise „Deep Learning“. Abbildung 4 zeigt eine schematische Darstellung eines komplexeren KNNs mit einer größeren Tiefe am Beispiel Bilderkennung.

Darstellung eines Deep-Learning Vorgangs
© [at]

Je mehr Schichten und je mehr Knotenpunkte, desto komplexere Aufgaben können von Künstlichen Neuralen Netzen gelöst werden. Aber KNNs spielen ihre Vorteile nicht ausschließlich dann aus, wenn es um Komplexität geht. Eine andere besondere Eigenschaft von Machine-Learning-Algorithmen, auch wenn sie nicht mit KNNs arbeiten, ist ganz allgemein ihre Lernfähigkeit.

Welche Bedeutung haben neuronale Netze für die Wirtschaft?

Die größte Stärke ist, dass sie auf eine spezielle Aufgabe hin trainiert werden können. Sind sie erst einmal trainiert, können sie diese Aufgabe deutlich besser als Menschen bewältigen. Dieser Befund bedeutet jedoch in der Regel nicht, dass sie Menschen ersetzen. Vielmehr können Künstliche neuronale Netze Aufgaben in einem Maßstab erledigen, der für Menschen schlicht unmöglich ist.

Wenn es beispielsweise darum geht, eine Datenbank mit 34 Millionen Einzelbildern ihrem Inhalt nach zu verschlagworten, würde ein Mensch für diese Aufgabe Monate oder gar Jahre brauchen. Ist ein Künstlich neuronales Netz einmal richtig trainiert, kann es Aufgaben wie diese in wenigen Stunden erledigen.

Use Cases

Aufgrund der Fähigkeit komplexe Fragestellungen beantworten zu können, lassen sich zahlreiche Use Cases ableiten. Im Rahmen der medizinischen Diagnostik können Künstliche neuronale Netze darauf trainiert werden, Symptome zu deuten oder auch Röntgenbilder, Ultraschallaufnahmen oder Bilder aus dem MRT auszuwerten. Während Ärzte bei der Bilddiagnostik immer wieder an Grenzen stoßen, werden im gleichen Zuge Algorithmen immer besser.

Auch für Klassifizierungsaufgaben in unterschiedlichen Bereichen eigenen sich neuronale Netze. Sei es bei der Bonitätsprüfung bei Banken oder bei Qualitätskontrollen beispielsweise in der Lebensmittelindustrie, wo Obst und Gemüse nach bestimmten Kriterien sortiert werden müssen. Daneben eignen sich neuronale Netze insbesondere für:

  • Sprachgenerierung und Spracherkennung: Telefonbanking, Fremdsprachenübersetzung, automatische Ansagetexte
  • Zukunftsprognosen und Trendbestimmungen: Wetter, Aktienkurse
  • Selbstlernende Regel- und Steuersysteme: Robotik, autonome Fahrzeuge oder Produktionsautomaten
  • Muster- und Zeichenerkennung: Bildinhalte, Schrift, Gesichter
  • Spielentwicklung, Unterhaltung und Kultur: Schach, Skat, Musikkomposition, Bilderzeugung wie die App Prisma
  • Optimierungsaufgaben: Optimierung von Reiserouten unter Einbeziehung varianter Faktoren wie Staumeldungen, Wetterdaten, Verkehrsdaten etc. oder im Bereich der Energieversorgung.
  • Simulation: Training von Roboterarme in der virtuellen Realität zum anschließenden Einsatz in der realen Welt.

Künstliche Neuronale Netze als Grundlage für Maschinelles Lernen

Deep Learning ist eine der erfolgreichsten Formen von Künstlich neuronalen Netzen. „Tief“ nennt sich diese Lernmethode, weil die zahlreichen Hidden Layers dem neuronalen Netz eine gewisse Tiefe geben. Dabei gibt es zahlreiche weitere Formen bzw. Klassen, um lernfähige Systeme zu implementieren wie Lernmatrix, Oszillierende neuronale Netze, Boltzmann-Maschine oder Rekurrente neuronale Netze.

Die Lernfähigkeit macht einen großen Teil des aktuellen Erfolgs bestimmter KI-Anwendungen aus. Sie ermöglichen es aus „Erfahrung“, also Daten, zu lernen und – vorausgesetzt es gibt genügend Trainingsdaten – aus einer großen Zahl von Einzelfällen eine allgemeine Regel abzuleiten und sie auf zukünftige Fälle anzuwenden. Sie liefern damit nicht nur die Grundlage für Machine Learning, sondern auch den Grund für bahnbrechende Errungenschaften im Bereich der Künstlichen Intelligenz.

Autor:innen

Michaela Tiedemann

Michaela Tiedemann ist seit den jungen Startup Tagen der Alexander Thamm GmbH mit im Team. Sie hat die Entwicklung vom schnelllebigen, spontanen Startup hin zum erfolgreichen Unternehmen aktiv mitgestaltet. Mit der Gründung einer eigenen Familie begann für Michaela Tiedemann dann parallel dazu ein ganz neues Kapitel. Den Job an den Nagel zu hängen, kam für die frisch gebackene Mutter aber nicht in Frage. Stattdessen entwickelte sie eine Strategie, wie sie ihre Stelle als Chief Marketing Officer mit ihrer Rolle als Mutter in Einklang bringen kann.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert