Absatzprognosen mit KI – Der Konkurrenz ein Stück voraus

Absatzprognosen mit KI – Der Konkurrenz ein Stück voraus

Bei Regenwetter wird kaum Grillfleisch gekauft und bei niedrigen Temperaturen weniger Sushi. Einfache Zusammenhänge wie diese haben aber zwei Probleme: Zum einen sind sie erst sehr kurzfristig verfügbar, während Produktion und Lieferketten längerfristige Prozesse sind. Zum anderen sind sie relativ ungenau, sodass bei der Planung immer noch ein großer Puffer eingerechnet werden muss. Der Handel und die Hersteller von verderblichen Waren brauchen für ihre Planung und strategische Entwicklung exakte Absatzprognosen. Im Zeitalter von Künstlicher Intelligenz und Machine Learning ist es möglich, Absatzprognosen so genau wie niemals zuvor zu berechnen. Das bringt Händlern große Vorteile und ein enormes Potenzial.

Lesetipp: In unserem Blog-Beitrag “Der stationäre Handel als Profiteur von Machine Learning” erfahren Sie mehr über den Einsatz von KI im Handel.

Wettbewerb, Absatzvolumen und Marktanteile im Lebensmittel

Insbesondere für Lebensmittel-Hersteller und -Händler aber auch für Konsumgüterhersteller ist es von enormer Wichtigkeit, Marktchancen und Marktrisiken frühzeitig richtig zu erkennen und entsprechend zu planen und zu kalkulieren. Genaue Absatzprognosen verschaffen Unternehmen einen Vorlauf, der ihnen den entscheidenden Vorteil bringen kann.

Die größte Herausforderung bei verderblichen Lebensmitteln und Konsumgütern ist es, die tatsächlich nachgefragte Menge so exakt wie möglich im Vorfeld zu kennen. Die Voraussetzung für genaue Absatzprognosen ist die Verfügbarkeit von messbaren Daten und entsprechenden Datenquellen.

Optimierte Absatzprognose dank KI

Die Faktoren, die bei der Mengenplanung zugrunde gelegt werden, sind dabei vielschichtiger als einfache Wettervorhersagen. Insbesondere weil es zur Wechselwirkung von mehreren Faktoren kommen kann, waren bisher statische Modelle nicht genau genug. Insbesondere dann, wenn es um längerfristige Prognosen ging, stießen sie an Grenzen. Dank KI-gestützter Methoden können heute jedoch auch komplexe Modelle als Grundlage für Absatzprognosen herangezogen werden.

Die Auswertung von Daten über vergangene Absätze können Muster und Zusammenhänge zum Vorschein bringen, die Aussagen über zukünftige Absätze zulässt. Zu den wichtigsten Faktoren, die mit einberechnet werden können, zählen:

  • Gesamtmarktentwicklung
  • Marktvolumen und Marktpotenzial
  • Nachfrage
  • Trends
  • Wetter
  • Verkaufshistorie

TIPP:
Mit unserer Sales Forecasting Software “AT Sales Forecast” helfen wir Ihnen mit den neuesten KI Algorithmen Ihre Verkäufe zu steigern und Aufwände zu reduzieren.

Hohe Präzision bei kurz-, mittel- und langfristigen Prognosen

Besonders durch den Einsatz von Machine-Learning-Algorithmen kann eine Präzision bei Absatzprognosen erreicht werden, die in diesem Detailgrad und der Verlässlichkeit bislang nicht möglich war. Die Lernfähigkeit von Machine-Learning-Algorithmen führt dazu, dass die Prognosen im Laufe der Zeit immer genauer werden. Das gelingt, indem die lernfähigen Algorithmen Feedback in Form des tatsächlichen Absatzes bekommen.

Mit der Zeit lernen die Algorithmen, die einzelnen Faktoren immer besser zu gewichten und so zu genauen Absatzprognosen zu kommen. Predictive Modeling mit Künstlichen Neuronalen Netzwerken machen langfristige Vorhersagen möglich, die mit den traditionellen Methoden stark fehleranfällig waren. Gerade sie sind aber für die langfristige Planung von besonderer Bedeutung.

Die Vorteile Absatzprognosen mit KI

Es gibt eine ganze Reihe von Vorteilen, die sich aus KI-gestützten Absatzprognosen ableiten. Nicht jeder Einzelhändler wird dabei den vollen Umfang des prinzipiell möglichen ausschöpfen. Daher ist es wichtig, zunächst den konkreten Bedarf festzustellen, den verfügbaren Datenbestand zu überprüfen und den Proof-of-Value zu testen. Absatzprognosen bringen Händlern und Herstellern unter anderem folgende Vorteile:

  • Bessere Planung von Warenbeständen dank präziser Prognosen
  • Bessere Positionierung am Markt gegenüber Mitwettbewerbern
  • Steigerung des Gewinns und Minimierung der Abschreibe-Summen
  • Optimale Steuerung von Produktion, Produktionsmitteln und Mitarbeiterplanung
  • Aufbau von Know-how im Rahmen einer Datenstrategie
  • Erschließung und Integration von unterschiedlichen Datenquellen in das Unternehmen mit dem Potential für weitere, zusätzliche Data-Science-Projekte

Mit fortschrittlichen Methoden wie Absatzprognosen mit KI können sich Händler und Hersteller nicht nur einfach ein Wissen über Wetterbedingungen verschaffen, sondern auch verlässliche, mittel- und langfristige Prognosen im Rahmen komplexer Szenarien erhalten. Diese ermöglichen es ihnen, alle Prozesse besser als jemals zuvor zu planen und zu steuern.

Wie Artificial Intelligence die Automobilbranche revolutioniert

Wie Artificial Intelligence die Automobilbranche revolutioniert

Artificial Intelligence hat als Forschungsfeld mittlerweile eine große Vielfalt und Reife erreicht. So ist es nicht verwunderlich, dass sich immer mehr Produkte und ganze Industrien durch den Einsatz von Artificial Intelligence verändern. Wie umfassend die Auswirkungen von Methoden wie Künstliche Neuronalen Netzen und Deep Learning sein können, zeigt sich in der Automobilbranche.

Artificial Intelligence ist auf dem Vormarsch

In immer mehr Unternehmen gibt es erfolgreich eingeführte Use Cases oder zumindest Bestrebungen, die IT-Architektur entsprechend vorzubereiten. Zwei aktuelle KI-Studien – die IDC-Studie „Künstliche Intelligenz in Deutschland 2019“und die Deloitte „KI-Studie 2019“ zeigen für Deutschland ein positives Bild. Die Wichtigkeit von Artificial Intelligence wurde von den Unternehmen mehrheitlich erkannt, auch wenn häufig noch eine Einbettung der Use Cases in eine übergeordnete Data Strategy fehlt.

Linktipp: Lesen Sie auch unseren Blog-Artikel zur Frage „Übernehmen bald die Maschinen? Künstliche Intelligenz und ihr Impact in der deutschen Wirtschaft“.

Die Vorreiterrolle der Automobilwirtschaft

Die Automobilbranche nimmt in diesem Zusammenhang eine Vorreiterrolle ein. Nicht nur finden sich dort prominente Anwendungsbeispiele wie das autonome Fahren, das ohne Artificial Intelligence nicht denkbar wäre. Auch die Auswirkungen auf zahlreiche andere Produktionsbereiche sind enorm.

Nicht zuletzt aufgrund der gesamtwirtschaftlichen Bedeutung der Automobilindustrie als Schlüsselindustrie für Deutschland, sind Entwicklungen für diesen Bereich von besonderem Interesse für die deutsche Wirtschaft.

In immer mehr Produkten, Maschinen und Komponenten ist Artificial Intelligence schon im Einsatz

Wirft man einen Blick ins Auto, so lassen sich zahlreiche Teilbereiche identifizieren, in denen Artificial Intelligence direkt oder indirekt eine Rolle spielt. Die Grundlage für die Spracherkennung im Auto beruht auf NLP, also Natural Language Programming – einem wichtigen Teilgebiet von Artificial Intelligence. Auch die Optimierung der Navigation wird durch lernfähige, intelligente Algorithmen unterstützt.

Artificial Intelligence eröffnet der Automobilindustrie völlig neue Möglichkeiten

Artificial Intelligence eröffnet der Automobilindustrie völlig neue Möglichkeiten.

Fahrerassistenzsysteme und bestimmte Zusatzfunktionen wie die Vorausberechnung des Streckenverlaufs für die automatische Anpassung der Scheinwerfer beruhen zum Teil auf Bilddatenauswertung bzw. Objekterkennung.

Linktipp: Unser Data Scientist Karl Schriek hat sich in diesem Zusammenhang mit der Bedeutung von Transfer Learning bei Bildanalysen beschäftigt.

Auch in der Fahrzeug-Produktion profitieren bereits einige Hersteller und Zulieferer von Artificial Intelligence (vernetzte Produktion). Gerade Machine Learning ist eine wichtige Data-Science-Methode, die beispielsweise in Predictive Maintenance Projekten zum Einsatz kommt.

Das eigentliche Potenzial von Artificial Intelligence ist noch nicht realisiert

Hochkomplexe Vorgänge wie autonomes Fahren sind die Königsdisziplin von Artificial Intelligence.  Selbst bei Autonomiestufe 4, bei der das Auto schon sehr viel an Fahrleistung übernimmt, ist die Anwesenheit eines Fahrers noch erforderlich. Erst bei Autonomie-Level 5, das bislang noch nicht erreicht worden ist, agieren Fahrzeuge komplett autonom.

Linktipp: In diesem Artikel beschäftigt sich Dr. Felix Klein mit dem „Autonom fahrenden Fahrzeug aus Sicht eines Data Scientist“.

Das Ziel: Komplexe Systeme zu beherrschen und die Kundenerfahrung zu verbessern

Auch in anderen Bereichen, in denen durch Artificial Intelligence komplexe Systeme beherrschbar werden, ist noch Entwicklungsarbeit zu leisten. In einigen Fällen sind Fortschritte aber nur eine Frage der Zeit. Eines der wesentlichen Merkmale von intelligenten Algorithmen ist ihre Lernfähigkeit. Das heißt, sie werden besser, je länger und damit häufiger sie im Einsatz sind.

Um die komplexen Zusammenhänge des Straßenverkehrs oder innerhalb einer Fabrik zu interpretieren, ist es zunächst nötig, die Voraussetzungen zu lernen. Dazu gehört es, die Verkehrsregeln oder die Abläufe in einer Produktionshalle zu verstehen, zu analysieren und bis zu einem gewissen Grad vorherzusagen sowie Lösungsansätze zur Optimierung durchzuspielen.

Daten sind der Schlüssel auf dem Weg zur Artificial Intelligence

Für Autohersteller lohnt es, eine automatisierte Auswertung von Fahrzeugdaten anzustreben. Daten, wie die zur Abnutzung von Bremsbelägen, Filtern oder zum Ölverbrauch, sind wertvolle Informationen. Sie lassen Schlüsse über das verwendete Material zu, ermöglichen die Prognose von Schäden und Ausfällen und stellen nicht zuletzt die Grundlage zur automatisierten Planung von Werkstattterminen dar.

Das ist auch das übergeordnete Ziel, das all die genannten Entwicklungschancen letztlich verfolgen: Die konsequente Verbesserung des Kundenerlebnisses im Auto und die Erhöhung von Komfort und Sicherheit im Straßenverkehr insgesamt.

Artificial intelligence in der Automobilindustrie

Intelligente Navigationsgeräte unterstützen uns schon heute im Auto.

Artificial Intelligence in der Automobilbranche – gestütztes Design bei der Automobilentwicklung

Die Nutzung von Artificial Intelligence eröffnet auch in anderer Hinsicht ein bis dato unbekanntes Maß an Effizienzsteigerung und Optimierung. Das fängt bei der ersten Planung beziehungsweise beim Design eines neuen Modells an.

Lernfähige, intelligente Software kann den Designer dabei unterstützen, das optimale Design für ein Auto zu entwickeln. Dazu wird Artificial Intelligence zunächst mit allen möglichen Autodesigns, die bereits existieren, trainiert, damit die grundlegenden Kenntnisse in diesem Bereich vorhanden sind. Darauf aufbauend können verschiedene andere Fähigkeiten trainiert werden, wie Ergebnisse aus dem Windkanal oder das Verhalten bestimmter Materialien bei hohen und niedrigen Temperaturen.

CAD-Modelle und Simulationen von neuen Designs können mithilfe von Artificial Intelligence zu völlig neuen Ergebnissen führen, weil sie Millionen von verschiedenen Varianten durchprobieren können. Dasselbe gilt auch für angrenzende Bereiche wie dem Sounddesign bei Türenschließgeräuschen, bei der Insassensicherheit oder der Vibrationsreduzierung.

Artificial Intelligence als Game Changer in der Automobilproduktion:

Durch den Einsatz von Artificial Intelligence in der Automobilbranche gehen zahlreiche und grundlegende Optimierungsmöglichkeiten hervor. So lassen sich Objekte, Zeichen und Sprache eindeutig erkennen, Entscheidungen automatisieren und darauf aufbauende Aktionen ausführen. Das Resultat ist jeweils autonomes und adaptives Multi-Agent-Verhalten. Auf diese Weise lassen sich sowohl der Traum vom autonomen Fahren als auch Optimierungspotenziale innerhalb der Produktionskette realisieren.

Wenn in der Produktion kontinuierlich alle Prozessdaten erfasst und gespeichert werden, lässt sich die Produktionsqualität maßgeblich erhöhen, Defekte und Fehlproduktion reduzieren und der Energieverbrauch senken. Auch Prognosemodelle können in die Optimierung mit einbezogen werden: Beispielsweise bei der Lackierung und beim Karosserieschutz. Das Potenzial im Bereich Prozessoptimierung ist enorm und längst nicht ausgeschöpft.

Artificial Intelligence kann zahlreiche Bereiche entlang der gesamten Wertschöpfungskette der Automobilproduktion wesentlich verbessern. Was von dieser Vision Realität wird, hängt zum Teil auch vom Gesetzgeber ab. In bestimmten sensiblen Anwendungsbereichen muss geklärt werden, was unter den Datenschutz fällt und was erlaubt ist. Auch der Mangel an geeigneten Fachkräften sorgt immer noch dafür, dass Unternehmen im Bereich Artificial Intelligence nicht das gesamte Potenzial realisieren können.

Nichtsdestotrotz ist Artificial Intelligence in der Automobilbranche ein Game Changer und eröffnet ganz neue Möglichkeiten für die gesamte Industrie.

Lackierprozess optimieren: Data Science und Big Data in der Lackiererei

Lackierprozess optimieren: Data Science und Big Data in der Lackiererei

Den Lackierprozess optimieren und Fehler langfristig vermeiden – Diese zwei Ziele lassen sich mit Data Science und Big Data in der Lackiererei erreichen. In diesem Blog-Artikel bieten wir Einblick in eines unserer Projekte. Dabei erklären wir grundlegende Anforderungen in Data-Science-Projekten und zeigen das Potential von Data Science für die Automobilbranche auf.

Bei der Fertigung und Montage einer Autokarosserie gibt es zahlreiche fehleranfällige Prozesse, die zeit– und kostenintensiv sind. Der Lackierprozess stellt dabei einen wesentlichen und zugleich fehleranfälligen Bestandteil dar. Eine Karosserie durchläuft den Lackierprozess häufig mehrfach. Einzelne Teile müssen sogar manuell nachgebessert werden. Daher stellt sich die Frage, wie sich der Lackierprozess optimieren lässt.

Der IT-gestützte Einsatz von Big-Data–Analytics beziehungsweise Data Scienceermöglicht es, den gesamten Fertigungsprozess ganzheitlich zu verstehen und nachhaltig zu optimieren. Dadurch gelingt es, Fehlerquellen auszuräumen und bislang nicht offensichtliche Zusammenhänge zu erkennen. Auf diese Weise entsteht ein umfangreiches Optimierungspotenzial, das es ermöglicht:

  • systematische Fehler zu vermeiden,
  • die Produktion in Echtzeit zu überprüfen und
  • den Fertigungsvorgang langfristig zu verbessern.

Die Herausforderungen bei Data-Science-Projekten: Das Verständnis der zugrundeliegenden Prozesse

Bei einem unserer Kunden, einem Automobilhersteller, gab es im Rahmen des Karosseriebaus immer wieder Schwierigkeiten. Nach dem Lackieren der Einzelteile erfolgte die Erstmontage der Karosserie und in vielen Fällen passten die Teile nicht richtig oder das Spaltmaß passte nicht. Darum kam es zu aufwändigen, manuellen Nacharbeiten, die anschließend vorgenommen werden mussten.

Die Vermutung lag nahe, dass sich die Maße der Spalten und Fugen durch den Lackiervorgang beziehungsweise durch den zu dick aufgetragenen Lack so stark veränderten, dass bei der Montage die Sollwerte überschritten wurden.

Der Lackierprozess bei einem Autohersteller (Hier am Beispiel BMW).

Zugleich sind Fehler in der Lackierung einer der häufigsten Auslöser, die später Schäden an der Karosserie verursachen. Um den Lackierprozess optimieren zu können, mussten zunächst einige Grundlagen geklärt werden. Die Herausforderung besteht in diesem Fall in einem genaueren Verständnis des Lackierprozesses. Nur so lassen sich alle entscheidenden Ansatzpunkte zur Fehleranalyse und –vermeidung sowie Möglichkeiten zur Automatisierung und Prozessoptimierung identifizieren.

Suche nach geeigneten Quellen zur Datenerhebung

Eine weitere zentrale Herausforderung bei Data-Science-Projekten ist es, eine solide Datengrundlage zu schaffen. Zu Beginn jedes Analyseprojektes steht daher die entscheidende Frage nach den Datenquellen. Insbesondere bei Prozessen, die noch nicht digitalisiert sind, beziehungsweise die sich nicht oder nur schwer digitalisieren lassen, stellt diese Frage eine besondere Herausforderung dar.

Im Fall der Lackiererei des Autoherstellers traf genau dieser Fall zu. Der Lack wird dort mit einem Lackierroboter in drei Phasen aufgetragen. Um eine Datengrundlage dieses Vorgangs zu erhalten, musste der gesamte Prozess in kleine Bestandteile zerlegt werden.

Die einzelnen Komponenten werden anschließend auf ihre Relevanz und ihre Eignung als Datenerhebungspunkte untersucht. Um Messwerte zu erhalten, müssen diese Stellen zum Teil mit geeigneten Sensoren ausgestattet werden. Daraus ergeben sich eine ganze Reihe von Parametern, die in den Analyseprozess einbezogen werden: Die pro Lackiervorgang verwendete Lackmenge, der PH-Wert des Lacks, der Druck beim Lackieren, die Trockentemperatur oder Daten über die Verweildauer an bestimmten Stationen. Dieses Prinzip der Datenerhebung lässt sich auf diverse andere Anwendungsfälle übertragen. Die Frage dabei ist stets, welche Datenquellen es gibt und welche sich zusätzlich noch erschließen lassen.

Linktipp: Die Datenbereitstellung ist einer der zentralen Bestandteile von Datenprojekten. Lesen Sie alles darüber in unserem Artikel über Data-Pipelines.

Datenmodellierung, Big Data und ganzheitliche Datenprozesse

Der erste Schritt auf dem Weg zur Lösung ist die Erstellung eines Modells, das so genau wie möglich die Wirklichkeit beschreiben soll. Im Rahmen eines Data-Science-Prozesses wird ein technisches Datenmodell erstellt, um wie in diesem Fall den Lackierprozess optimieren zu können. Dazu muss zunächst eine Datengrundlage geschaffen und diese in der Folge stets aktualisiert werden. Das bedeutet: Big-Data-Analysen sind iterative Vorgänge.

Sie machen es teilweise erforderlich, Daten in großem Maßstab permanent zu erheben, um so ein möglichst genaues Bild des gesamten Vorgangs zu erhalten. Eine Analogie zur Verdeutlichung: Anhand eines einzelnen Fotos von einem Auto, lässt sich nicht sagen, ob es fährt, steht, beschleunigt oder abbremst. Erhöht sich jedoch die Datengrundlage auf 24 Bilder pro Sekunde, bekommen wir ein exaktes Abbild vom Verhalten des Autos.

Je größer und genauer die Datengrundlage, desto exakter sind die Analysen und Prognosen über das aktuelle und zukünftige Verhalten in der Wirklichkeit. Im Fall der Fertigung der Autokarosserie erfolgt eine Datenerhebung und Analyse auf drei Ebenen:

  • Erstens durch die Messung der Lackschichtdicke
  • Zweitens durch die Messung des Spalt- und Fugenmaßes
  • Drittens durch eine Lackfehler-Analyse auf Basis von optischen Bildanalysen

Durch seinen ganzheitlichen Ansatz führte dieses Datenmodell zu Erkenntnissen, die nicht erwartet wurden. Beispielsweise konnte ein direkter Zusammenhang zwischen einem einzelnen Parameter des Lackierprozesses und der Veränderung des Spalt- und Fugenmaßes festgestellt werden.

Die Lösung: Visualisierung, Prognose und Kontrolle in Echtzeit

Bei der Lösung für den Autohersteller konnte durch eine Vielzahl von Sensoren gezielt an den relevanten Punkten Daten erhoben und damit der gesamte Fertigungsprozess dokumentiert werden. Aufbauend auf dieser Datenbasis konnte ein Datenmodell entwickelt und so ein umfassendes technisches und fachliches Datenverständnis geschaffen werden. Mit Hilfe des Modells ließen sich die signifikanten Einflussparameter zur Prognose der optimalen Lackschichtdicke identifizieren.

Diese wird nun in Echtzeit visualisiert, so dass Zusammenhänge und Auffälligkeiten hinsichtlich Lackfehlern und Lackschichtdicke sofort identifiziert werden können. Durch die Echtzeit-Visualisierung kann zu jeder Zeit festgestellt werden, wann und wie der Lackierprozess angepasst werden muss, um das richtige Spalt- und Fugenmaß zu erhalten.

Der große Vorteil: Schon während des Vorgangs des Lackierens kann eine Qualitätskontrolle durchgeführt werden. Fehler werden früher erkannt, Ursachen können sofort beseitigt werden und die Qualität des Ergebnisses nachhaltig und signifikant gesteigert werden.

Das Ergebnis: Weniger Fehler, höherer Automatisierungsgrad und ein besseres Verständnis des Gesamtprozesses

Am Ende konnten verschiedene Prozessparameter identifiziert werden, die signifikanten Einfluss auf die Lackschichtdicke haben und den Lackierprozess optimieren. Durch das verbesserte Verständnis des Gesamtprozesses konnten kausale Zusammenhänge erkannt werden. Die Datenanalyse und –modellierung führte zu der Notwendigkeit, bestimmte am Prozess beteiligte Parameter einer permanenten Datenerhebung zu unterziehen.

Zugleich gelang es, andere Teilprozesse wie beispielsweise die Qualitätskontrolle des Lackierprozesses zu automatisieren. Mess- und Sollwerte werden schon während des Lackierprozesses miteinander abgeglichen. Durch die Analyse auf granularer Ebene konnten sogar weitere Unregelmäßigkeiten in den einzelnen Lackschichten visualisiert werden.

Linktipp: Lesen Sie hier unseren Beitrag über Vorteile und Chancen der Digitalisierung für den Mittelstand.

Den Lackierprozess optimieren und nachhaltig die Qualität erhöhen

Aufgrund dieser Maßnahmen gelang es, den Lackierprozess zu optimieren. Durch die große Bandbreite an Fehlermessstationen konnten gleich mehrere, voneinander verschiedene Fehlerbilder bestimmt werden. Die Qualität der Lackierung konnte dadurch signifikant gesteigert werden. Im Ergebnis war es dadurch möglich, die Fehlerintensität bauteilabhängig zu bestimmen und teilweise automatisiert zu reduzieren.

Dies gelingt insbesondere dadurch, dass in Echtzeit prädiktive Handlungsempfehlungen vorliegen. Der Algorithmus bestimmt die optimalen Sollwerte für den Karosseriebau und erstellt eine Prognose für die Lackdicke. Die bis dato oftmals notwendigen Nacharbeiten wurden auf diese Weise auf ein Minimum reduziert, während die Qualität des Lackes gleichzeitig erhöht wurde.

Sie wünschen sich noch mehr Kenntnisse im Data Science Bereich? Melden Sie sich für unsere Data Science Schulung an.

Das DATA festival sucht Speaker für 2020

Das DATA festival sucht Speaker für 2020

Das DATA festival geht 2020 in die dritte Runde. Auf dem Event in München treffen sich die führenden Köpfe aus den Bereichen Data, Machine Learning und AI. Experten können sich bis zum 15. Oktober auf einen Speaker-Slot bewerben. 

Wie sieht die Zukunft aus? Welche Rolle spielen Daten, künstliche Intelligenz und Machine Learning? Darüber diskutieren Data Scientists, Data Engineers, Artificial Intelligence und Machine Learning Experten, Analysten, Softwareentwickler und Wissenschaftler auf dem DATA festival. Das Event, das vom Analystenhaus BARC und der Data & AI Beratung Alexander Thamm veranstaltet wird, steigt von 17. bis 19. März 2020 in München. Bis 15. Oktober 2019 können sich Speaker mit ihrem englischsprachigen Themenvorschlag über das Online Formular bewerben: www.datafestival.de/call-for-presentation. Die Keynotes können die Themen Datenmanagement, Datenanalyse und Visualisierung sowie konkrete Anwendungsbeispiele behandeln, die die Herausforderungen beim Einsatz der neuen Technologien aufzeigen und Lösungswege vorstellen. So können Speaker ihre Expertise weitergeben und sich mit Unternehmen und Experten vernetzen. Sie erhalten außerdem ein kostenfreies Ticket sowie ein um die Hälfte reduziertes Ticket für eine Begleitperson. Alle Teilnehmer der Veranstaltung profitieren vom Wissensaustausch, der Vernetzung und der Weiterbildung im Bereich Data Science, Machine Learning und AI.

Das Festival für den Austausch von Wissen

Das Festival beginnt am 17. März mit den Pre-Conference-Workshops in München. Am 18. und 19. März finden dann die Diskussionen und Keynotes im Muffatwerk in München statt. Neben 25-minütigen Vorträgen wird es nach dem Erfolg 2019 auch wieder Tech Deep Dive Stages geben. In den 90-minütigen, interaktiven Sessions werden technische Details beleuchtet und die neuesten Entwicklungen diskutiert: Generell sollen innovative Projekte und Use Cases vorgestellt, Best Practice Beispiele erläutert oder neue Wege für den Umgang mit Daten aufgezeigt werden. Um dem internationalen Publikum gerecht zu werden, werden alle Vorträge auf Englisch gehalten. „Uns ist es wichtig, Experten aus verschiedenen Branchen zu versammeln. Die Einblicke, die wir durch die vorgestellten Use Cases und Projekte erhalten, liefern einen unvergleichlichen Mehrwert für alle Anwesenden“, so Carsten Bange, Gründer und Geschäftsführer der BARC GmbH.

Deutschland braucht eine zentrale Plattform für die Data Community

Das DATA festival wurde von dem unabhängigen Beratungs- und Analystenzentrum BARC und der Data Science und AI Beratung Alexander Thamm GmbH ins Leben gerufen und findet 2020 zum dritten Mal in München statt. Mit über 450 Teilnehmern aus 130 Unternehmen wurde 2019 die Vision der Veranstalter Wirklichkeit: Eine zentrale Plattform für die Data Community im deutschsprachigen Raum zu etablieren. Denn nur so kann Deutschland beim Thema Artificial Intelligence aufholen. „Der Einsatz von Data Science und AI beschränkt sich nicht auf eine Branche. Ob Automobilindustrie, Versicherungsbranche oder Transportunternehmen – hier kann jeder von jedem lernen“, erklärt Alexander Thamm, Geschäftsführer der gleichnamigen GmbH und Initiator des DATA festivals.

August 2019

Über das DATA festival

Das DATA festival ist eine dreitägige Konferenz, in der sich Experten und Unternehmen aus den Bereichen Künstliche Intelligenz, Data Science und Data Engineering über aktuelle Technologien und Zukunftstrends austauschen. Ziel ist es, die Data Community in Deutschland zu vernetzen, um von Erfahrungen zu lernen, Wissen zu transferieren und sich über kommende Entwicklungen auszutauschen. Für die Zukunft sollen weitere Formate und Austauschmöglichkeiten wie Meet-Ups und Roadshows geschaffen werden.