Machine Learning Methoden – Teil 3/3: Unsupervised Machine Learning Methoden

Tunnel mit Daten

In unserem dritten und letzten Teil der Artikel-Serie zu den wichtigsten Machine Learning Methoden beschäftigen wir uns mit Verfahren aus dem Bereich Unsupervised Machine Learning. Hier sind vor allem Clustering Verfahren relevant.

Dieser Artikel beschäftigt sich mit den Unsupervised Machine Learning Methoden. Dabei werden zunächst kurz die Grundlagen von Unsupervised Learning erklärt und später auf die wichtigsten Verfahren zum Clustering eingegangen.

Linktipp: Lesen Sie unseren Blog-Artikel über Unsupervised Machine Learning, in dem wir diesen Teilaspekt aus dem Bereich KI erklären.

Wenn es um die mathematischen Modelle geht, die beim Unsupervised Learning angewandt werden, gibt es vier wichtige Kategorien, in die Clustering Verfahren üblicherweise aufgeteilt werden:

  1. Partitionierende Verfahren wie K-Means, K-Medoid, K-Mode oder K-Median
  2. Wahrscheinlichkeitsbasierte Verfahren zur Modellierung von Cluster durch Wahrscheinlichkeitsverteilungen
  3. Dichtebasierte VerfahrenAlgorithmen mit Daten-Dichte und Distanzfunktionen wie DBSCAN oder SNN
  4. Hierarchische Verfahren ­– hierarchischen Partitionierung mit agglomerativen und divisiven Algorithmen

Die Grundlage für Unsupervised Machine Learning bilden Künstliche Neuronale Netze und Deep Learning Algorithmen

Künstliche Neuronale Netze und Deep Learning Algorithmen sind die derzeit bekanntesten Varianten von Unsupervised Machine Learning Methoden. Sie basieren auf der Imitation der Funktionsweise menschlicher Nervenzellen.

menschliche Nervenzelle

Vereinfachte Darstellung einer menschlichen Nervenzelle. Das Neuron verarbeitet im Zellkern den Input in Form eines Signals, das interpretiert bzw. weitergegeben wird.

Künstliches Neuronales Netzwerk

Analog zur Funktionsweise der Nervenzelle verarbeitet ein Künstliches Neuronales Netz ein Input-Signal, das nach bestimmten Regeln verarbeitet wird.

#UnsupervisedMachineLearning und das menschliche Gehirn basieren auf einem ähnlichem Prinzip – dem der #Nervenzelle. Ein bestimmter #Input führt zu einem bestimmten #Output Klick um zu Tweeten

Auch wenn das „atomare“ Grundprinzip von Künstlichen Neuronalen Netzen (KNN) sehr einfach ist, eignen sie sich hervorragend dazu, sehr komplexe Aufgaben zu bewältigen. Jeder Knotenpunkt in einem KNN verhält sich nach einer bestimmten Regel bzw. lässt sich darauf trainieren.

Das abgebildete Beispiel zeigt ein KNN mit zwei sogenannten Hidden Layers, die sich zwischen Input- und Output-Layer befinden. Der Begriff Deep Learning kommt daher, dass diese Hidden Layers eine sehr große „Tiefe“ erhalten können, sprich: ihre Zahl sehr hoch werden kann.

Deep Learning bei Gesichtserkennung

Deep Learning wird beispielsweise bei der Gesichtserkennung angewandt.

Clustering oder Clusterverfahren ist die typische Unsupervised Machine Learning Methode

Die typische Aufgabe im Bereich Unsupervised Machine Learning ist Clustering. Manchmal wird auch der deutsche Begriff der Segmentierung verwendet. Die Anzahl und Form möglicher Cluster ist am Anfang des Lernprozesses in der Regel nicht bekannt.

Diese Offenheit ist der Grund dafür, dass es für diese Methoden nahezu unbegrenzte Anwendungsmöglichkeiten gibt. Klassische Anwendungsbereiche für Clustering sind:

  • Text Mining
  • Web Mining
  • Wissenschaftliche Fragestellungen
  • Bildverarbeitung
  • Mustererkennung

Linktipp: Ein mögliches Anwendungsbeispiel für Clustering besteht in der Kundensegmentierung, mit der wir uns in diesem Blog-Artikel näher befasst haben.

Semantisches Clustering

Beispiele für eine semantische Zuordnung nach einem Clustering Verfahren.

Verschiedene Cluster

Unterschiedliche Formen von Clustern.

Partitionierende Verfahren am Beispiel von K-Means

Eine sehr beliebte Methode unter den Unsupervised Machine Learning Methoden sind Partitionierende Verfahren. Bei einem solchen Verfahren handelt es sich um einen heuristischen Ansatz. Das bedeutet, dass nicht ein exaktes Ergebnis gesucht wird, das nur als „richtig“ oder „falsch“ bewertet werden kann. Vielmehr geht es um einen Prozess bzw. eine Funktion, bei dem bzw. der das beste Ergebnis annäherungsweise erreicht wird.

Das Ziel besteht darin, die vorhandenen Daten in „k“ verschiedene Cluster zu sortieren. Dabei wird im ersten Schritt eine zufällige Anzahl an Clustern herangezogen, um zu sehen, wie ein mögliches Ergebnis aussieht.

Verlgiech gute versus schlechte Cluster

Die Beispiele zeigen, wie man gute von schlechten Clustern unterscheiden kann, indem man den Abstand der einzelnen Punkte misst und addiert.

Die K-Means-Methode beruht auf einem festen Ablauf in zwei Schritten, die so lange wiederholt werden, bis sich ein stabiler Zustand einstellt:

K-Means Methode

Iterativer Prozess in der K-Means Methode.

Wahrscheinlichkeitsbasierte Verfahren

Wahrscheinlichkeitsbasierte Verfahren haben ebenfalls das Ziel, Datenpunkte zu clustern, gehen aber von der Wahrscheinlichkeit aus, mit der ein bestimmtes Objekt einem bestimmten Cluster zugehört. Auch diese Methode zeichnet sich durch einen iterativen Ansatz aus, bei dem jeder Versuch eine Annäherung an die beste Lösung darstellt.

Cluster Modellierung

Grundidee der Modellierung von Cluster durch Wahrscheinlichkeitsverteilungen.

Dichtebasierte Verfahren

Da Cluster sich nicht nur nach ihrer Form und Größe unterscheiden lassen, sondern auch nach ihrer Dichte, können Dichtebasierte Verfahren in manchen Fällen zu besseren Ergebnissen führen.

Der entscheidende Vorteil beim Density-based Clustering besteht darin, dass sogenanntes „Rauschen“ herausgefiltert werden kann. Beispielsweise kann es Datenobjekte geben, die zu keinem bestimmten Cluster gehören. Diese können im Rahmen des Dichtebasierten Verfahren herausgefiltert werden.

Signifikante Cluster

Über die Daten-Dichte können signifikante Cluster gebildet werden, die ungewöhnliche Formen haben oder die ein bestimmtes „Rauschen“ herausfiltern können.

Hierarchische Verfahren

Nicht zuletzt gibt es Fälle, in denen Hierarchische Verfahren zum Ziel führen. Diese Methode wird immer dann angewendet, wenn es keine globalen Kategorien gibt, nach denen sich Daten clustern lassen. Dabei lassen sich Daten dennoch nach bestimmten Parametern clustern, die hierarchischen Prinzipien folgen und sich nach Größe oder Dichte staffeln lassen:

Vergleich hierarchische Cluster versus stark varrierende Cluster

Theorie und Praxis: Anwendung von Machine Learning Methoden

Auch wenn viele der hier vorgestellten Machine Learning Methoden sehr abstrakt sind, erfüllen sie in der Praxis sehr konkrete Ziele. Sei es bei der Betrugserkennung (Fraud Detection), der Erkennung und Verhinderung von Kundenabwanderung (Churn Prediction Model) oder der optimalen Planung von Wartungsterminen für Maschinen und Fahrzeuge (Predictive Maintenance bzw. Präventive Wartung).

Auch wenn #MachineLearningMethoden in der Theorie sehr abstrakt klingen, erfüllen sie in der Praxis einen konkreten Zweck. Klick um zu Tweeten

Die große Herausforderung besteht darin, die richtige Methode für den richtigen Anwendungsfall auszuwählen. Dazu gehört zum einen Erfahrung und zum anderen das entsprechende Fachwissen. Darum vermitteln wir in unseren Schulungen zu Unsupervised Machine Learning und Supervised Machine Learning detailliertes Fachwissen, das bei der Identifikation der jeweils  relevanten Machine Learning Methoden für einen bestimmten Use Case eine entscheidende Rolle spielt.

Hier geht es zu Teil 1/3 Hier geht es zu Teil 2/3

 

 

Sichern Sie sich einen der Plätze in unserer Unsupervised Machine Learning Schulung.

Hier geht’s zur Unsupervised Machine Learning Schulung

 

Tags

top