Deduktion

Was ist Deduktion?

Deduktion ist ein Begriff aus der Logik und stammt von dem lateinischen Wort deductio, was „Ableitung“ oder „Herleitung“ bedeutet. Es bezeichnet eine logische Schlussfolgerung vom Allgemeinen zum Besonderen. Sie wird auch als Theorie zur Empirie verstanden.

Grundlage ist die Vererbung von Eigenschaften übergeordneter Elemente an ihre Untermengen. Durch eine allgemeine Theorie können so Aussagen über konkrete Einzelfälle getroffen werden. Die Voraussetzung oder Annahme nennt man auch Prämisse. Aus einer oder mehreren Prämissen folgt mithilfe von Inferenzregeln die logische Konsequenz, die zwingend oder deduktiv gültig ist. Dabei führt die Wahrheit der Prämisse zur Wahrheit der Konklusion. Aus einer wahren Prämisse darf keine falsche Schlussfolgerung entstehen.

Deduktive Schlüsse sind wie andere wissenschaftliche Methoden nicht verifizierbar, sondern nur falsifizierbar. Das heißt, ihre Gültigkeit wird angenommen, solange es keine Gegenbeweise oder neue Erkenntnisse gibt. Im Bereich der künstlichen Intelligenz spielt Deduktion bei der Logikprogrammierung und im automatischen Beweisen eine essenzielle Rolle.

Was sind Beispiele für Deduktion?

Ein klassisches Beispiel für deduktives Denken stammt von Aristoteles:

Alle Menschen sind sterblich. Sokrates ist ein Mensch. Daraus folgt, dass Sokrates sterblich ist.

Die Prämissen „alle Menschen sind sterblich“ und „Sokrates ist ein Mensch“ sind wahr. Die Eigenschaft „sterblich“ der übergeordneten Kategorie Mensch wird auf das konkrete Beispiel Sokrates übertragen.

Ein anderes Beispiel für deduktives Denken lautet:

Piloten besitzen ein schnelles Reaktionsvermögen. Er ist Pilot. Er besitzt ein schnelles Reaktionsvermögen.

Hier ist die Prämisse, dass die Eigenschaft eines schnellen Reaktionsvermögens auf Piloten im Allgemeinen zutrifft. Ein konkreter Vertreter der Kategorie besitzt also laut Prämisse ein schnelles Reaktionsvermögen, sonst wäre er kein Pilot. Die Aussage ist damit wahr.

Auch in den Detektivgeschichten Sherlock Holmes ist die deduktive Methode präsent. In Der blaue Karfunkel schätzt Holmes basierend auf allgemeinen Phänomenen den sozioökonomischen Hintergrund des Trägers eines alten Huts ein. Die Größe und Qualität des gefundenen Huts deuten auf eine intellektuelle und wohlhabende Person hin. Da der Hut allerdings in die Jahre gekommen und voller Staub ist, nimmt Holmes folgerichtig an, dass der Besitzer finanziell nicht mehr so gut bei Kasse ist und nur noch selten das Haus verlässt.

Was sind die Unterschiede zu Induktion und Abduktion?

Deduktion vs. Induktion

Induktion (lat. inducere „herbeiführen“) ist der umgekehrte Prozess zur Deduktion. Hierbei wird von einer konkreten Beobachtung oder Phänomen eine allgemeine Schlussfolgerung gebildet. Der Weg ist daher von der Empirie zur Theorie. Das Sammeln von Daten über einzelne Elemente führt zur Erkenntnis von Eigenschaften, die alle Vertreter einer Gruppe oder Kategorie besitzen.

Beispiel:

Der kleine Spatz legt Eier. Der Spatz ist ein Vogel. Alle Vögel legen Eier.

Die spezifische Prämisse ist hier der Eier legende Spatz, der zur Gruppe der Vögel gehört. Aus der Beobachtung des Spatzes folgt die abstrakte Schlussfolgerung über das Verhalten aller Vögel.

Induktion und Deduktion treten nie in Reinform auf. Die beim deduktiven Schließen eingesetzten Prämissen sind eng mit empirischen Erkenntnissen verbunden und eine Induktion mit bereits etablierter Theorie. Die Verfahren unterscheiden sich im Wesentlichen in der Frage, ob eine Gesetzmäßigkeit überprüft (Deduktion) oder eine neue gebildet werden soll (Induktion).

Deduktion vs. Abduktion

Eine dritte Methode des logischen Schließens ist die Abduktion (lat. abducere „wegführen“). Der Begriff wurde von dem amerikanischen Philosophen Charles Sanders Peirce eingeführt. Es unterscheidet sich von der Induktion und Deduktion dahingehend, dass es die Erkenntnis erweitert. Aus zwei bekannten Schlüssen wird eine unbekannte Ursache hergeleitet.

Beispiel:

Diese Äpfel sind rot. Alle Äpfel aus diesem Korb sind rot. Diese Äpfel sind aus diesem Korb.

Aus dem Ergebnis wird über die Regel „alle Äpfel aus diesem Korb sind rot“ auf den Fall „diese Äpfel sind aus diesem Korb“ geschlossen. Beim abduktiven Schluss handelt es sich um eine Vermutung, basierend auf Indizien.

DALL-E

Was ist DALL-E?

DALL-E ist ein neuronales Netzwerk, das auf künstlicher Intelligenz basiert und aus Beschreibungen Bilder erstellt. Vorgestellt wurde es Anfang des Jahres 2021 von OpenAI, nachdem dem Programm jahrelange Arbeit vorausgegangen war. OpenAI ist ein Unternehmen, das sich der Erforschung und Entwicklung von künstlicher Intelligenz verschrieben hat. Investoren sind unter anderem Elon Musk und Microsoft. Der Name ist eine Kombination aus dem Begriff WALL-E, einem Science-Fiction-Film von Pixar, und dem Namen des surrealistischen Künstlers Salvador Dalí.

Funktion des Algorithmus

DALL-E verwendet eine 12-Milliarden-Parameter-Version des GPT-3 Transformer-Modells. Die Abkürzung GPT steht für Generative Pre-Trained und die „3“ für die mittlerweile dritte Generation. GPT-3 ist ein autoregressives Sprachmodell. Es verwendet die Methode des Deep Learning, um menschenähnlichen Text zu erzeugen. Die Qualität ist inzwischen so hoch, dass es nicht immer leicht zu erkennen ist, ob der Text von einer Maschine oder von einem Menschen geschrieben wurde.

DALL-E interpretiert Eingaben in natürlicher Sprache und generiert daraus Bilder. Es nutzt dazu, eine Datenbasis aus Paaren von Bildern und Texten. Dazu arbeitet es mit der Methode des Zero-Shot-Lernens. Es generiert ohne weiteres Training aus einer Beschreibung eine bildliche Ausgabe und arbeitet dabei mit CLIP zusammen. CLIP wurde ebenfalls von OpenAI entwickelt und bedeutet „Connecting Text and Images“. Es ist ein separates neuronales Netzwerk, das die Textausgabe versteht und einordnet.

Text und Bild stammen aus einem einzigen Datenstrom, der bis zu 1280 Token enthält. Trainiert wird der Algorithmus unter der maximalen Wahrscheinlichkeit, alle Token nacheinander zu generieren. Die Trainingsdaten ermöglichen es, dass das neuronale Netzwerk Bilder sowohl von Grund auf neu erstellen kann, als auch bereits bestehende Bilder überarbeiten kann.

Welche Fähigkeiten hat DALL-E?

DALL-E verfügt über eine große Anzahl von Fähigkeiten. Es kann sowohl fotorealistische Bilder von echten, als auch von nicht real existierenden Objekten darstellen oder Gemälde und Emojis ausgeben. Außerdem kann es Bilder manipulieren oder umarrangieren.

Zudem ist das neuronale Netzwerk in vielen Fällen in der Lage, Lücken zu füllen und auf Bildern Details anzuzeigen, die in der Beschreibung nicht explizit genannt wurden. So setzte der Algorithmus bereits folgende Darstellungen aus Textbeschreibungen um:

  • ein blauer rechteckiger Kreis innerhalb von einem grünen Quadrat
  • der Querschnitt eines angeschnittenen Apfels
  • ein Gemälde einer Katze
  • die Fassade eines Geschäfts mit einem bestimmten Schriftzug

Deep Generative Models

Was sind Deep Generative Models?

Bei einem Deep Generative Model (DGM) handelt es sich um neuronale Netze im Teilbereich des Deep Learnings, welche dem Ansatz der generativen Modellierung folgen. Das Gegenteil zu diesem Ansatz stellt die diskriminative Modellierung dar, welche darauf ausgelegt ist, aufgrund der vorhandenen Trainingsdaten Entscheidungsgrenzen zu identifizieren und den Input entsprechend zu klassifizieren.

Der generative Ansatz verfolgt hingegen die Strategie, die Datenverteilung von Trainingsdaten zu lernen und auf Basis der gelernten bzw. angenäherten Verteilung gemäß dem Wortursprung neue Datenpunkte zu erstellen. Während die diskriminative Modellierung dem Verfahren des überwachten Lernens (supervised learning) zuzuschreiben ist, baut die generative Modellierung für gewöhnlich auf das Verfahren des unüberwachten Lernens (unsupervised learning) auf.

Deep Generative Models stellen sich demnach die Frage, wie Daten in einem Wahrscheinlichkeitsmodell erzeugt werden, während diskriminative Modelle darauf abzielen, auf Basis der vorhandenen Trainingsdaten Klassifizierungen vorzunehmen. Die generativen Modelle versuchen die Wahrscheinlichkeitsverteilung der Trainingsdaten zu verstehen und auf Basis dessen, neue bzw. ähnliche Daten zu generieren. Ein Anwendungsgebiet von Deep Generative Models ist aus diesem Grund die Bilderzeugung auf Basis von Beispielbildern, wie beim neuronalen Netzwerk DALL-E.

Was sind Flow-based Deep Generative Models?

Ein Flow-based Deep Generative Model ist ein generatives Modell, welches in der Lage ist, eine Wahrscheinlichkeitsverteilung von Daten zu interpretieren und zu modellieren. Dargestellt werden kann dies mithilfe des sogenannten „Normalizing Flow“.

Der Normalizing Flow beschreibt eine statistische Methode, mit welcher Dichtefunktionen von Wahrscheinlichkeitsverteilungen geschätzt werden können. Im Gegensatz zu anderen Arten von generativen Modellen wie beispielsweise Generative Adversarial Networks (GAN) oder Variational Autoencoder (VAE) wird bei Flow-based Deep Generative Models der „Flow“ durch eine Folge von invertierbaren Transformationen generiert. Dadurch kann die Likelihood-Funktion dargestellt und somit die wahre Wahrscheinlichkeitsverteilung gelernt werden.

Bei den Generative Adversarial Networks besteht die Methodik hingegen aus einem Generator und einem Diskriminator, welche als Gegenspieler zu sehen sind. Der Generator erzeugt Daten, welche der Diskriminator versucht als Fälschung (d.h. als keinen Bestandteil der vorgegebenen, echten Verteilung) zu identifizieren. Das Ziel des Generators ist es hingegen, dass die generierten Daten nicht als Fälschung identifiziert werden und sich so die erzeugte Verteilung des Generators durch Training an die echte Verteilung angleicht. Beim Variational Autoencoder wird die Verteilung durch das Maximieren ELBO (Evidence Lower Bound) optimiert.

Wo werden diese Modelle angewandt?

Deep Generative Models finden im Bereich des Deep Learning umfangreiche Anwendungsfelder.

So werden sie beispielsweise in der Bilderzeugung eingesetzt. Dazu werden aus Gesichtern von Menschen in den Trainingsdaten neue, künstliche Gesichter mit menschlichen Gesichtszügen erstellt. Anwenden lässt sich diese Methodik auch im Film- und Computerspielsektor. Eine spezielle Anwendungsform der generativen Modelle stellen sogenannte Deepfakes dar. Hierbei werden Medieninhalte künstlich erzeugt, welche jedoch den Anschein erwecken echt zu sein.

Auch die Erzeugung von echt wirkenden Handschriften kann mittels generativen Modellen umgesetzt werden. Es lässt sich beispielsweise auch auf Basis einer textlichen Beschreibung eines Fotos ein solches erzeugen.

Auch in der Medizin lassen sich die Errungenschaften von Deep Generative Models nutzen. So wird im Aufsatz „Disease variant prediction with deep generative models of evolutionary data“ darauf Bezug genommen, dass mithilfe von generativen Modelle bisher unbekannte Krankheitsvarianten vorhergesagt werden können. Konkret bezieht sich der Artikel auf die Erkennung Proteinvarianten in krankheitsbezogenen Genen, welche die Fähigkeit haben, Krankheiten auszulösen. Der Nachteil bisheriger Methoden (vorrangig bei der Anwendung des überwachten Lernens) bestand darin, dass die Modelle auf bekannten Krankheitslabels beruhen und keine neuen vorhergesagt werden konnten. Dies soll mit Deep Generative Models verbessert werden.

Decision Tree Learning

Was ist Decision Tree Learning?

Decision Tree Learning ist ein Verfahren, das im maschinellen Lernen eingesetzt wird. Die Entscheidungsbäume sind eine weit verbreitete Möglichkeit der Regression oder der Klassifikation über einen großen, vielfältigen Datensatz. Einsatzgebiete sind die Klassifikation der Kreditwürdigkeit von Bankkunden oder aber eine Funktion zur Vorhersage von Kaufkraft.

Entscheidungsbäume sind ein beliebtes Mittel der Informatik und des Maschinenbaus für Konstruktionsstrukturen. Im Data Science werden Algorithmen genutzt, die automatisch Baumstrukturen aus einer Menge von bekannten Daten heraus generieren und eine automatische Klassifikation bzw. Regression vornehmen können. Decision Trees werden im überwachten maschinellen Lernen genutzt, um hierarchische Strukturen mit möglichst wenigen Entscheidungswegen zu bilden.

Elemente eines Entscheidungsbaums

Ein Entscheidungsbaum besteht aus Knoten, Kanten und Blättern. Die Knoten dienen zum Test auf einen Wert eines gewissen Attributes. Die Kanten korrespondieren zu einem Endergebnis eines Tests und sie verbinden zum nächsten Knoten oder Blatt. Die Blätter sind Endknoten, die das Ergebnis vorhersagen. Eine Klassifikation geht dann folgendermaßen.

  1. Beginne beim Wurzelknoten
  2. Führe den Test durch
  3. Folge der korrespondierenden Kante zum Ergebnis
  4. Solange es kein Blatt ist, gehe wieder zu 2. und wiederhole den Prozess
  5. Mache eine Vorhersage für das Ergebnis das mit dem Blatt assoziiert wird

Bei Decision Tree Learning wird ein neues Beispiel klassifiziert und durch eine Reihe von Tests geschickt um ein Klassenlabel für das Beispiel zu erhalten. Diese Tests sind in einer hierarchischen Struktur organisiert die Decision Tree genannt wird. Die Trainingsbeispiele werden verwendet, um geeignete Tests in dem Decision Tree zu wählen. Der Baum wird aufgebaut von oben nach unten, wobei Tests, die den Informationsgewinn über die Klassifikation maximieren, zuerst gewählt werden.

Wofür werden Decision Tree Learning verwendet?

Ein Entscheidungsbaum wird als prädiktives Modell genutzt um durch Beobachtungen über ein gewisses Element, das in den Zweigen dargestellt wird, zu Schlussfolgerungen über den entsprechenden Zielwert des Elements, das in den Blättern dargestellt wird, zu gelangen. Decision Tree Learning ist eines der prädiktiven Modellierungsansätze für Statistik, Machine Learning und Data Mining. Die Baummodelle, bei denen die Zielvariable einen gewissen diskreten Wertebereich annimmt, werden Klassifikationsbäume genannt. Die Blätter der Baumstrukturen stellen Klassenbeschriftungen und die Zweige Verbindungen der Merkmale dar und diese führen zu Klassenbeschriftungen. Falls Zielvariablen zu kontinuierlichen Werten (reellen Zahlen) führen, werden diese Entscheidungsbäume als Regressionsbäume bezeichnet

Was sind Random Forests?

Random Forests sind Entscheidungswälder die aus einer Vielzahl an Decision Trees bestehen. Ein Decision Tree ist ein baumartiges und gerichtetes Diagramm zur Entscheidungsfindung. Bei einem Decision Tree handelt es sich um ein mathematisches Modell und Diagramm zur Ermittlung von Entscheidungen

Data Warehouse Architektur

Eine Data Warehouse ist ein zentrales Datenaufbewahrungssystem, das dazu gedacht ist unternehmensweit alle Daten zu umfassen. Es ist eine themenorientierte, integrierte, zeitabhängige und nicht-flüchtige Sammlung von Daten. Es unterstützt den Entscheidungsfindungsprozess der Führungsebenen, indem es eine zusammenhängende Ansicht aller unternehmensweiten Daten bietet.

Es ist eine architektonische Blaupause, genauer ein logischen (nicht greifbares) Konzept. Die DWH Architektur wird normalerweise über mehrere, abhängige Datenbanksysteme integriert und realisiert. Das Ziel von DWH ist es, alle Daten eines Unternehmens in einem System zu bündeln. Allerdings ist es nicht unüblich für Unternehmen, je nach ihrer Größe, mehrere DWHs zu unterhalten. Die Charakteristika eines DWH sind: 

  • Integriert: Eine Data Warehouse Architektur integriert Daten aus mehreren Datenquellen, die sonst über eine Organisation (oder darüber hinaus) verteilt sind. 
  • Themenorientiert: Das Ziel ist es, seinen Nutzern eine Ansicht spezifischer Themenbereiche zu bieten, z.B. „Verkäufe“, und diese zu analyiseren. 
  • Zeitabhängig: DWHs speichern anfallende Daten permanent. Dementgegen stehen transaktionale Systeme, die jeweils nur die aktuellsten Aufzeichnungen speichern. 
  • Nicht-flüchtig: Das Ziel eines DWH ist es, Daten fortlaufend zu speichern, um ein Bild dessen zu bieten, was passiert ist, und nicht dieses Bild zu verändern. Daher verändern sich Daten, sobald sie im DWH gespeichert sind, üblicherweise nicht mehr. 

Für Jahrzehnte waren Data Warehouse Architekturen die architektonische Lösung der Wahl dafür, wie Daten in einem Unternehmen bewegt und gespeichert werden sollen.

Das Ziel eines DWH ist es die Datenbewegungen in einem Unternehmen, von ihrer Sammlung bis zu ihrer Nutzung, zu organisieren; um dies sicherzustellen ist es eine einheitliche, zentralisierte Lösung, die alle in einem Unternehmen vorhandenen Daten speichert.