Klassifikationsverfahren

Was ist ein Klassifikationsverfahren?

Klassifikationsverfahren sind Methoden und auch Kriterien, die zu einer Einteilung (Klassifizierung) von Objekten und Situationen in Klassen dienen. Viele Verfahren lassen sich einfach als Algorithmus implementieren und werden als maschinelle oder automatische Klassifikation bezeichnet. Die Klassifikationsverfahren sind dabei immer anwendungsbezogen und es existieren viele verschiedene Methoden. Klassifikationsverfahren spielen eine Rolle bei Mustererkennung, in der künstlichen Intelligenz, bei der Dokumentationswissenschaft und beim Information Retrieval.

Was sind Arten von Klassifikationsverfahren?

Es gibt Klassifikationsverfahren mit unterschiedlichen Eigenschaften. So gibt es automatische und manuelle Verfahren, numerische und nichtnumerische Verfahren, statistische und verteilungsfreie Verfahren, überwachte und nichtüberwachte Verfahren, fest dimensionierte und lernende Verfahren sowie parametrische und nichtparametrische Verfahren.

Im Data Mining werden zur Klassifikation von Objekten Entscheidungsbäume, Neuronale Netze, die Bayes-Klassifikation und auch das Nächste-Nachbarn-Verfahren eingesetzt. Meistens sind die Klassifikationsverfahren zweistufig aufgebaut. Es gibt eine Lernphase mit Trainingsdaten und schließlich die Klassifikationsphase.

Entscheidungsbäume

Daten durchlaufen bei diesem Verfahren einen Entscheidungsbaum. Es werden die Merkmalsausprägungen von Objekten an jedem einzelnen Knoten geprüft und es wird ermittelt, welcher Pfad im Baum nun weiter verfolgt wird. Schließlich wird grundsätzlich ein Blattknoten erreicht und dieser ist dann die Klasse von dem Objekt. Der Entscheidungsbaum wird grundsätzlich mithilfe von Trainingsobjekten erstellt. Dabei kommt ein rekursiver Divide-and-Conquer-Algorithmus zum Einsatz. Vorteilhaft ist, dass alle ermittelten Regeln ganz einfach interpretiert werden können. Eine Clusteranalyse kann mit den ermittelten Klassen durch Anwendung von Entscheidungsbäumen besser verstanden werden.

Neuronale Netze

Die Neuronalen Netze bestehen aus verschiedenen Knoten (Neuronen), welche untereinander in Verbindung stehen. Solch ein neuronales Netz besteht aus mehreren Schichten. Diese Knoten aller einzelnen Schichten sind jeweils an den Schichtübergängen miteinander verknüpft. Jede Verbindung hat dabei ein eigenes Kantengewicht. Zu Beginn des Trainings werden solche Gewichtungen zufällig festgelegt. Das Kantengewicht kann entscheiden, zu welchem Knoten ein Objekt als Nächstes gelangen kann, um schließlich zu einem Ausgangsknoten zugeordnet zu werden. Jeder Ausgabeknoten in der Ausgabeschicht steht für eine Klasse. Je nachdem, wie der Aktivierungspfad von einem Objekt ist, wird ein gewisser Ausgabeknoten aktiv. Schließlich findet das Lernen durch eine Überprüfung statt, indem Ist- und Ziel-Ergebnisse mit den Trainingsdaten verglichen werden. Fehler werden ganz einfach in das neuronale Netz zurückgeführt und dadurch werden Kantengewichte sukzessive angepasst. Es werden besonders gut Ausreißer in den Daten erkannt. Die Klassifikationsergebnisse werden hingegen kaum nachvollziehbar ermittelt.

Bayes-Klassifikation

Bei der Bayes-Klassifikation wird eine Klassenzuordnung auf der Basis von Wahrscheinlichkeiten aller Merkmalsausprägungen vorgenommen. Jedes Objekt wird seiner Klasse zugeordnet, indem die Wahrscheinlichkeit vom Auftreten der jeweiligen Merkmalskombination ermittelt wird. Jedes Auftreten wird durch die jeweiligen Trainingsdaten annähernd geschätzt. Vorteilhaft ist, dass eine hohe Genauigkeit der Einordnung erreicht wird, wenn dieses Verfahren bei großen Datenmengen angewandt wird. Der Nachteil ist allerdings, dass bei einer falsch angenommenen Verteilung oder auch Merkmalsunabhängigkeit die jeweiligen Ergebnisse ungenau und ganz verfälscht werden.

Nächstes-Nachbarn-Verfahren

Bei diesem Verfahren können Objekte untereinander genau verglichen werden und schließlich einer Klasse zugeordnet werden. Ein Vergleich erfolgt bei ähnlichen Trainingsobjekten. Die Vergleichsbasis bildet dabei das zuvor festgelegte Distanz- oder Ähnlichkeitsmaß. Nun gilt als Ergebnisklasse die am häufigsten vorkommende Klasse, bei welcher die Objektvergleiche auftreten. Vorteilhaft ist die Anwendbarkeit auf entsprechend qualitative und quantitative Merkmale der Objekte. Nachteilig ist die äußerst aufwendige Klassifikationsphase, denn es müssen immer die gesamten Trainingsdaten für jeden Vergleich herangezogen werden.

Beispiele aus dem Bereich der Data Science

Im Bereich von Data Mining werden Analysen von Big Data vorgenommen. So werden große Datenmengen effizient verarbeitet und es sollen zuverlässige und leicht interpretierbare Ergebnisse erzielt werden. Eine kurze Verarbeitungszeit ist das Ziel. Es sollen verschiedenartige Datenstrukturen verarbeitet werden können, wie etwa Textanalysen, Bildverarbeitung, Zahlen, Koordinaten und ähnliches.

Text Mining dient zur Extraktion von interessanten und von nicht-trivialem Wissen aus ganz unstrukturierten oder schwach strukturierten Texten. Eine Rolle spielt dabei Information Retrieval, Data Mining, maschinelles Lernen, Statistik und Computerlinguistik. Textanalysen wie Clusteranalysen, Klassifizierung von Texten und der Aufbau eines entsprechenden Frage-Antwort-Systems werden beim Text Mining eingesetzt.

Worin unterscheiden sich Klassifikation und Regression?

Regression ist die Vorhersage von stetigen Werten. Trainiert wird dabei mithilfe von Backpropagation. Diese ist ein Optimierungsverfahren, das unter Einsatz von einer Gradientenmethode eingesetzt wird, um den Fehler einer Forwardpropagation direkt zu berechnen und die Gewichtungen entgegen dem Fehler anzupassen. Durch Vollzug der Backpropagation erhält man die „richtigen“ Gewichtungen. Bei der Klassifikation hingegen können Gruppenzugehörigkeiten vorhergesagt werden.

Mathematisch unterscheiden sich Regression und Klassifikation nicht allzu sehr voneinander. Es können sogar viele Verfahren der Klassifikation mit nur wenig Anpassungen auch für die Regression eingesetzt werden und umgekehrt.

Künstliche neuronale Netze, Nächste-Nachbar-Verfahren und Entscheidungsbäume sind Beispiele dafür, dass diese in der Praxis sowohl zur Klassifikation als auch zur Regression eingesetzt werden. Unterschiedlich ist aber auf jeden Fall der Zweck, der bei der Anwendung besteht: Bei Regression will man stetige Werte vorhersagen (wie etwa die Temperatur einer Maschine) und bei der Klassifikation will man Klassen unterscheiden (wie etwa „Maschine überhitzt“ oder „überhitzt nicht“).

Die gängigste Methode, bei der Klassifikationsprobleme im überwachten maschinellen Lernen bewältigt werden können, ist die logistische Regression.

Kognitive Architektur

Was ist kognitive Architektur?

Als Menschen verfügen wir über zahlreiche verschiedene kognitive Fähigkeiten. Es gibt das Gedächtnis, die Sprache, die Wahrnehmung, die Möglichkeit Probleme zu lösen, den geistigen Willen und die Aufmerksamkeit sowie weitere solcher Fähigkeiten. Es besteht das Ziel in der Kognitionspsychologie, die Eigenarten solcher Fähigkeiten zu erforschen und, wenn möglich, in formalen Modellen zu beschreiben.

Unter kognitive Architektur versteht sich dementsprechend die Darstellung der verschiedenen Fähigkeiten der kognitiven Psychologie in einem Computermodell. Auch die künstliche Intelligenz (KI) strebt dem Ziel nach, kognitive Fähigkeiten in Maschinen vollständig zu realisieren. Im Gegensatz zur kognitiven Architektur verwenden künstliche Agenten Strategien, die nicht vom Menschen genutzt werden.

Was sind Kriterien kognitiver Architektur?

Kognitive Architekturen weisen bestimmte Kriterien auf. Dazu gehören die geeigneten Strukturen der Datenrepräsentation, die Unterstützung von Klassifikationen und die Unterstützung des Frege-Prinzips. Zudem gehören die Kriterien der Produktivität, der Performance, der syntaktische Verallgemeinerung, der Robustheit, der Anpassungsfähigkeit, des Speicherverbrauchs, der Skalierbarkeit, des selbständigen Erkenntnisgewinns, wie das logische Schließen und die Erkennung von Korrelation dazu.

Auch Triangulation, nämlich das Zusammenführen von gewissen Daten aus verschiedenen Quellen, gehört zu den Kriterien kognitiver Architektur. Ein weiteres wichtiges Kriterium ist die Kompaktheit mit einer möglichst einfachen Grundstruktur. Ein performantes System, das alle diese Eigenschaften erfüllt, ist IBM’s DeepQA.

Kognitive Systeme sind heute schon aus vielen Bereichen nicht mehr wegzudenken und sie werden in Zukunft in immer größerem Maße Industrie- und Wirtschaftszweige beeinflussen. Die kognitiven Systeme stellen die Basis für Zukunftstechnologien dar, wie etwa das autonome Fahren und weitere autonome Systeme, die Industrie 4.0 und auch das Internet der Dinge (Internet of Things).

Kognitive Systeme sind technische Systeme, welche in der Lage sind für die menschlichen Aufgabenstellungen ganz selbständig Lösungen und passende Strategien zu entwickeln. Diese Systeme sind dazu mit kognitiven Fähigkeiten ausgestattet und verstehen kontextuelle Inhalte sowie das Interagieren, das Adaptieren und das Lernen. Bei der kognitiven-Architektur ist es wichtig, dass flexible und anpassbare Softwarearchitekturen in einem Gesamtsystem zusammenarbeiten.

Welche Theorien finden sich in der Kognitionswissenschaft?

Die SOAR (state, operator and result) Architektur ist eine Problemraumsuche, in der Operatoren auf Zustände angewendet werden, um Ergebnisse zu erzielen. Diese Problemraumsuche wird im zentralen Arbeitsspeicher vorgenommen. Dort wird das temporäre Wissen verwaltet. Um Wissen einsetzen zu können, wird aus dem Langzeitspeicher dieses in den Arbeitsspeicher abgerufen. Wissen im Langzeitspeicher wird assoziativ durch Produktionen vollständig gespeichert. Passende (match) Wissenseinheiten werden in den Arbeitsspeicher geschrieben (mit execute) und permanentes erfahrungsbasiertes Lernen (chunking) wird im Prozess angewandt.

Auch in der Flugmechanik und in der Flugführung werden marktgängige kognitive Architekturen, sowie Methoden und Algorithmen der künstlichen Intelligenz und des maschinellen Lernens eingesetzt. Systematische Weiterentwicklungen werden erfolgreich in hochautomatisierten Flugsystemen eingesetzt.

Neben SOAR gibt es weitere Kognitive-Architekturen. So wird eine schrittweise Simulation vom menschlichen Verhalten bei ACT-R vorgenommen. Die empirischen Daten stammen hierfür aus den Experimenten der kognitiven Psychologie.

Clarion cognitive architecture speichert sowohl aktionsorientiertes, als auch nicht aktionsbezogenes Wissen mit einer impliziten Form bei Verwendung mehrschichtiger neuronaler Netze und in einer expliziten Form unter Verwendung von symbolischen Produktionsregeln. Außerdem gibt es die Architekturen LEABRA, LIDA, ART und ICARUS. Jede Architektur hat ihre besonderen Stärken, aber auch technischen Begrenzungen.

Kollaboratives Filtern (collaborative filtering)

Was ist kollaboratives Filtern?

Bei dem kollaborativen Filtern werden Verhaltensmuster einzelner Benutzergruppen ausgewertet, um auf die Interessen Einzelner zu schließen. Es handelt sich um eine besondere Form von Data Mining. Diese macht explizite Nutzereingaben überflüssig.

Kollaboratives Filtern wird häufig für besonders große Datenmengen eingesetzt. Anwendungsgebiete sind im Finanzdienstleistungssektor mit einer Integration finanzieller Quellen und auch bei Anwendungen im E-Commerce und im Web 2.0.

Das übergeordnete Ziel besteht in einer automatischen Filterung von Benutzerinteressen. Um dies bewerkstelligen zu können, werden kontinuierlich Informationen über Verhalten und Vorlieben bei möglichst vielen Nutzern gesammelt. Eine zugrunde liegende Annahme bei kollaborativem Filtern ist die, dass zwei Personen mit den gleichen Vorlieben bei ähnlichen Produkten, sich auch bei weiteren ähnlichen Produkten identisch verhalten werden.

Wie läuft der Algorithmus ab?

Das kollaborative Filtern läuft häufig in zwei Schritten ab. Zunächst wird nach Nutzern gesucht, die das gleiche Muster im Verhalten aufweisen, wie der aktive Nutzer. Danach werden deren Verhaltensmuster verwendet, um eine Prognose für den aktiven Nutzer zu machen.

Ebenfalls beliebt ist das artikelbasierte kollaborative Filtern. Hier werden beliebte Artikel in gesondert und prominent präsentiert. Dabei wird eine Ähnlichkeitsmatrix erstellt und Beziehungen zwischen den Artikeln bestimmt. Ausgehend von dieser Matrix werden dann die Vorlieben des aktiven Nutzers abgeleitet.

Es gibt weitere Formen des Filterns auf Basis impliziter Beobachtung von Nutzerverhalten. Dabei wird das Verhalten von einem einzelnen Nutzer mit dem Verhalten aller übrigen Benutzer verglichen. Mit diesen Daten kann dann präzise das zukünftige Verhalten des Nutzers prognostiziert werden. Diese und ähnliche Technologien sind äußerst praktisch für heutige Nutzer, die das gesamte Angebot am Markt nicht mehr überblicken können.

Was sind Formen von kollaborativem Filtern?

Es gibt viele verschiedene Ansätze, einen Algorithmus für kollaboratives Filtern zu erstellen:

User-based collaborative filtering bei dem eine User-Item-Matrix herangezogen wird und über der dem aktiven User ähnliche Personen zugeordnet werden. Mit entsprechenden Ähnlichkeitsfunktionen werden die Merkmale verglichen und ähnliche Personen werden für die weiteren Berechnungen herangezogen.

Dahingegen gibt es das item-based collaborative filtering, bei dem nicht direkt in der User-Item-Matrix gearbeitet, sondern ein eigenständiges Modell erzeugt wird. So werden verschiedene „items“ im Prozess vorgeschlagen, die auf den Ergebnissen des Modells beruhen.

Neben diesen beiden Ansätzen gibt es außerdem das content-based collaborative filtering. Mit diesem Algorithmus sind inhaltsbasierte Empfehlungssysteme gemeint, die primär auf den Inhalt des Objekts ausgerichtet sind und die Attribute der interagierenden Entität verarbeiten. Es werden kollaborative Filter berechnet, um eine generische Häufigkeitsliste mit Verhaltensdaten anzureichern.

Unter mithilfe von Python kann neural collaborative filtering angewandt werden, die produktbasierte Inhalte des Filters durch künstliche neuronale Netze ersetzt und die mit willkürlich selbstlernenden Algorithmen datenbasierte Filter nutzt.

KI-Beschleuniger

Was ist ein KI-Beschleuniger?

KI Beschleuniger (oder auch KI-Akzeleratoren) sind Hardware-Bausteine, die eine Beschleunigung von KI Rechenaufgaben ermöglichen. Akzeleratoren sind Turbo Prozessoren, die spezifische Aufgaben wie etwa Mustererkennung, Analysen von unstrukturierten Daten, Monte-Carlo-Simulationen, Streaming-Aufgaben oder auch einen Aufbau neuronaler Netze erlauben.

Für KI-Aufgaben allgemein genügen herkömmliche Prozessoren schon lange nicht mehr und in vielen Rechenzentren kommen deutlich schnellere Grafik-Prozessoren (GPUs) zum Einsatz. Die Rechenoperationen der Bildverarbeitung ähneln denen von Neuronalen Netzen und daher lohnt sich eine entsprechende GPU-Nutzung. Allerdings sind solche GPUs nicht speziell für Aufgaben von Deep Learning entwickelt worden und sie stoßen deswegen schnell an ihre Grenzen.

Die Hardware bildet damit einen Durchsatz-Flaschenhals. Inzwischen entwickeln aber viele Chip-Hersteller Akzeleratoren, die die Rechengeschwindigkeit vom System kräftig erhöhen können. KI-Akzeleratoren gibt es vor allem vom Hersteller Nvidia. So nutzt Google die „Tesla P100“ und die „Tesla K80“ GPUs bei der „Google Cloud Plattform“. Auf den Markt kommen hochperformante Systemeinheiten und es gibt „neuro-optimierte“ ASIC (Application-Specific Integrated Circuits). Diese werden in Endgeräten wie Smartphones, Datenbrillen und IP-Kameras sowie in Kleingeräten genutzt. Solche Chips eignen sich nur für spezifische Funktionen und sind dafür konstruiert. Spezialchips spielen ihre Vorteile beim Deep Learning aus und hoch beschleunigte Supercomputer helfen bei umfangreichen KI-Berechnungen. Vor allem Tensor Processing Unit (TPU) von Google kann mit seiner ASIC-Architektur für KI-Beschleunigung aufwarten.

Auch High Performance Computing (HPC) und Hyperscale bringen mehr Leistungsfähigkeit für KI-Berechnungen. Große Hoffnungen liegen auch beim Quantencomputing – den Rechnern der Zukunft. Ebenfalls für die Zukunft vielversprechend sind Neuromorphe Mikrochips.

KI-Beschleuniger mit Zusatzkarte oder GPU?

Von Kontron gibt es jetzt ein neues Konzept für den Einsatz bei Künstlicher Intelligenz. Die „Kontron Industrial AI Platform“ bietet hohe Performance und mit einer Zusatzkarte beschleunigt sie die Berechnungen. So wird das neueste Smarc-Modul die GPU nutzen, um mehr Leistung zu erhalten.

Die Künstliche Intelligenz gewinnt im Intelligent Edge in der industriellen Automatisierung deutlich an Bedeutung. Die TPU (Tensor Processing Unit) unterstützt Small- und Low Power-Applikationen mit nur 1 Watt für 2 TOPS. So bietet eine einfache USB-Kamera ohne TPU nur 6 Bilder pro Sekunde und eine mit TPU eine fünffache Geschwindigkeit von 30 Bilder in der Sekunde.

Industrie 4.0-Applikationen benötigen viel Rechenleistung. Objekterkennung, Klassifizierung und Qualitätsinspektion von Objekten sowie Predictive Maintenance kommen zum Einsatz und basieren dabei auf KI-Algorithmen. Bei Point-of-Sales-Applikationen ist Künstliche Intelligenz immer wichtiger. Werbung und relevante Informationen sollen zielgerichteter platziert werden. Zusatzkarten bieten eine hohe Performance und sind für spezielle Anwendungen ideal. GPUs hingegen sind preiswert und allgemein nützlich bei der Berechnung von KI-Aufgaben.

Welche KI-Beschleuniger gibt es?

Es stellt sich die Frage, welche Hardware zum Einsatz kommen soll, die möglichst schnell und effizient im Betrieb ist? Bei der KI gibt es zwei große Anwendungsbereiche, die eine Rolle spielen. Da ist einerseits das besonders rechenzeitintensive Trainieren der Neuronalen Netze und andererseits das Inferencing, also das Schlussfolgern aus eingehenden Inputs, die eigentliche KI-Leistung.

Durch das Training lernt das Machine-Learning-System von einer Vielzahl von aufbereiteten Beispieldaten. Die Güte der Schlussfolgerung von KI-Modellen kann sich im Laufe der Zeit immer weiter verbessern. Nach dem Abschluss von der Lernphase ist das KI-System sogar bereit, auch unbekannte Daten zu beurteilen. Verwendet wird für das Machine-Learning-Verfahren das Framework TensorFlow für Deep Learning. So kann schließlich in der Produktion die KI-Anwendung Fertigungsteile nach guten Teilen und Ausschussware klassifizieren.

Wichtige KI-Beschleuniger sind Grafikkarten von NVIDIA. Speziell für KI optimierte GPUs können Hunderte von parallelen Berechnungen umsetzen und schaffen eine Rechenleistung von über 100 TeraFLOPS. Die Nutzer von KI haben die Wahl zwischen Standard-Servern, GPUs und KI-Chips. Je nach Bedarf können entsprechende Hardware-Bausteine eingesetzt werden. NVIDIA ist wirklich schnell und braucht nur 75 Watt im Betrieb. Das Inferencing läuft bei einer geringen Stromaufnahme. Empfohlen wird für das Training von Machine-Learning-Modellen eine Fujitsu NVIDIA GPU mit Volta Kernen – wie etwa eine Tesla V100. Solche Karten sind wirklich groß und belegen zwei Slots. Sie verbrauchen viel Strom und haben einen höheren Preis. Bei anspruchsvollen Anforderungen gibt es die DLU für Deep Learning.

Künstliches Neuron

Was ist eine Neuronale Zelle?

Ein biologisches, natürliches Neuron ist eine Nervenzelle, die Informationen verarbeiten kann. Das menschliche Gehirn weist besonders viele solche Neuronen auf. Diese Zellen sind auf Erregungsleitung und Erregungsübertragung spezialisiert. Alle Nervenzellen zusammen bilden das Nervensystem. Die Nervenzelle besitzt einen Zellkörper und Zellfortsätze, die Dendriten und Neuriten mit dem Axon. Dendriten können Erregungen anderer Zellen aufnehmen. Spannungsänderungen können durch kurzzeitige Ionenströme erzielt werden, durch besondere Kanäle, die in der Zellmembran zugelassen werden. Axonenden stehen über den Synapsen, die mittels Botenstoffe chemisch kommunizieren. Das menschliche Gehirn besteht aus nahezu 90.000.000.000 Nervenzellen.

Was ist ein künstliches Neuron?

Künstliche neuronale Zellen bilden hingegen die Basis für ein Modell der künstlichen neuronalen Netze. Dieses Modell der Neuroinformatik, das sich an biologischen Netzen orientiert, ermöglicht intelligentes Verhalten. Ein künstliches Neuron kann mehrere Eingaben verarbeiten und über seine Aktivierung zielgerichtet reagieren. Gewichtete Eingaben werden an eine Ausgabefunktion übergeben. Diese berechnet die Neuronenaktivierung. Das Verhalten wird allgemein durch Einlernen unter der Verwendung eines Lernverfahrens gegeben.

Angefangen hat die Modellierung von künstlichen Neuronennetzen mit Warren McCulloch und Walter Pitts im Jahre 1943. Es konnte gezeigt werden, dass mit einem vereinfachten Modell solcher Neuronennetze logische und arithmetische Funktionen berechnet werden können. Im Jahre 1949 wurde die Hebbsche Lernregel von Donald Hebb beschrieben. Beim Lernen werden wiederholt aktive Verbindungen zwischen Nervenzellen verstärkt. Die Verallgemeinerung solch einer Regel kann auch in heutigen Lernverfahren eingesetzt werden.

Wichtig war zudem das Konvergenztheorem aus dem Jahr 1958 über das Perzeptron. Frank Rosenblatt bewies, dass mit einem angegebenen Lernverfahren tatsächlich alle Lösungen erlernbar sind, die mit dem Modell repräsentiert werden können. Im Jahre 1985 wurde von John Hopfield gezeigt, dass Hopfield-Netze in der Lage sind Optimierungsprobleme zu lösen. So konnte sogar das Problem des Handlungsreisenden behandelt werden. Einen Schub an Forschung erhielt die Erarbeitung zum Backpropagations-Verfahren. Heute werden in vielen Forschungsbereichen neuronale Netze eingesetzt.

Was ist das Ziel künstlicher Neuronaler Netze?

Auf Basis des Verständnisses von biologischen Neuronen werden seit den 1950er Jahren künstliche neuronale Netze modelliert. So werden Input-Signale in das künstliche Neuron im neuronalen Netz linear summiert und es werden durch eine entsprechende Aktivierungsfunktion bestimmte Werte ausgegeben.

Schon einzelne Neuronen bestehen aus ganz komplexen Strukturen. Diese erfüllen unterschiedliche lokale Input-Output-Funktionen. Das Ziel der Forschung an Künstlicher Intelligenz ist es, diese natürlichen Neuronen im Gehirn nachzubilden. So sollen die elektrischen Prozesse simuliert werden, mit dem Ziel, die Bedeutung von Sprache zu erlernen und künstliche neuronale Netz zur Objekterkennung zu entwickeln. Die große Vision besteht darin, die Funktionalität, Fähigkeit und Vielfalt des Gehirns in jeglicher Hinsicht nachzuahmen.