#WirVsVirus – Einblick in einen virtuellen Hackathon

#WirVsVirus – Einblick in einen virtuellen Hackathon

Hinter uns liegt der größte Hackathon der Geschichte – so sagen es die Veranstalter des #WirVsVirus Hackathons. 42.968 professionelle und Freizeit-Hacker kämpften am vergangenen Wochenende mit der Hilfe von 100 Organisatoren und 2.922 Mentoren an 1.989 Challenges um Maßnahmen gegen und rund um das neuartige Coronavirus zu finden. Unter der Schirmherrschaft von Prof. Dr. Helge Braun, Chef des Bundeskanzleramtes, nahm sich die Bundesregierung ein Beispiel an Island und setzte diese bisher einmalige Maßnahme auf. 

Warum ein virtueller Hackathon? 

Für uns sind Hackathons nicht neu. Wir benutzen sie in unserem Arbeitsalltag in unterschiedlichsten Kundenprojekten und wissen die enorme Kraft zu schätzen. Wenn sich viele unterschiedliche Stärken vereinen, um fokussiert und mit klarem Ziel zu arbeiten, entstehen in kürzester Zeit herausragende Ergebnisse. In den meisten Fällen finden diese Hackathons jedoch nicht virtuell statt. Wie gut das jedoch funktionieren kann, hat man jetzt gesehen. Die Krise zeigt uns wie zielgerichtet virtuelles Arbeiten möglich ist, besonders wenn es um Projekte im Bereich Digitalisierung geht. Und das sogar bei dieser Masse an Teilnehmern. 

Was waren unsere Eindrücke? 

Einige unserer Kollegen haben die Chance am Wochenende genutzt und am Experiment teilgenommen. Unser Managing Data Engineer Samir hat in einem kleinen Recap seine Eindrücke mit dem #ATeam geteilt. Als Mentor haben Samir und sein Team sich mit dem Thema Social Distancing beschäftigt – viel genauer gesagt, mit dem Ziel Lösungen zu finden, um sich an diese wichtigen Vorgaben zu halten. Das erste Brainstorming fand mit knapp 150 Leuten statt, anschließend bildeten sich Teams von 15-20 Leuten, um einzelne Ideen zu verfolgen. Ein guter Schritt um von der Kreativität der Masse gezielt einzelne Ideen angehen zu können.  

Die Idee: dito! – do it together online 

Die Idee, bei der Samir mitgewirkt hat, ist dito!. Es handelt sich hierbei um eine Plattform, um Aktivitäten virtuell gemeinsam ausführen zu können. Sei es Sport, Musik hören, das Feierabendbier oder alle weiteren Aktivitäten, denen man gerne in physischen Gruppen nachgehen würde, jetzt aber zumindest virtuell gemeinsam erleben kann. Im Pitch-Video erklärt das Team die Plattform genauer. In 48 Stunden wurde vom Team ein Corporate Design erstellt, ein Click Dummy gebaut und ein Prototyp mit Datenbank, CI/CD und funktionalem Frontend und Backend gebaut. Das Ergebnis kann man auf der Website sehen. Die spannende Erkenntnis: die Lösung ist auch für nach der Corona-Krise eine super Idee. Viele Menschen sind ohnehin in ihrem Alltag eingeschränkt und nicht in der Lage sozialen Aktivitäten physisch beizuwohnen. Für diese ergibt sich hier eine neue Möglichkeit. 

Ein großes #Dankeschön an alle freiwilligen Teilnehmer 

Wir wollen Danke an die fast 43.000 Teilnehmer in Deutschland sagen. Der Hackathon war ein großartiges Beispiel, wie man mit gezieltem virtuellem Arbeiten in Krisenzeiten Innovationen schaffen kann, die einen echten Mehrwert für die Menschen liefern. Wir sind gespannt auf weitere Ergebnisse des Hackathons und freuen uns als [at] auch darauf mit unseren Kunden in diesen Zeiten neue datenbasierte Geschäftsmodelle zu entwickeln, die den Nutzern und der Gesellschaft einen Mehrwert bieten. 

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Wie geht es weiter? 

Ihr wollt wissen, welche anderen Projekte noch initiiert wurden und seid daran interessiert, wie es mit den Projekten weitergeht? Dann verfolgt die offizielle Website der Bundesregierung: www.wirvsvirushackathon.org 

Mit Data Science und Machine Learning Covid-19 bremsen

Mit Data Science und Machine Learning Covid-19 bremsen

Die Bedrohungen durch Sars-CoV-2, besser bekannt als „Corona-Virus“ – und die damit verbundenen Einschränkungen und Ausgangsbeschränkungen halten uns alle in Atem. Und ich frage mich: Tun wir wirklich genug, um unser Gesundheitswesen in Zeiten von drohender Überforderung – gerade der Intensiv-Kapazitäten – so effizient wie möglich zu nutzen und zu gestalten? Angesichts der sensationellen Erfolge von Künstlicher Intelligenz und Machine Learning in der Medizin erscheint mir diese Frage sehr berechtigt.  

Die meist auf künstlichen neuronalen Netzen beruhenden Algorithmen sind längst in der Lage, etwa Lungenentzündungen (1,2,3,4), aber auch Hautkrebs (5), Malaria und viele andere Krankheiten mit einer höheren, oder zumindest der gleichen Genauigkeit zu erkennen, wie die besten Spezialisten des jeweiligen Fachs. Die würden durch den Einsatz dieser Algorithmen keineswegs überflüssig – im Gegenteil: Die Ärzte hätten mehr Zeit, sich um andere Dinge zu kümmern, beispielsweise um eine bessere Aufklärung und Information der Patienten. Außerdem nähmen sie den Ärzten die Diagnose nicht ab, könnten die Mediziner jedoch sinnvoll unterstützen. Auch und gerade bei Corona-Infektionen. 

Vielleicht wundern Sie sich, warum der letzte Absatz so viele Konjunktive enthält. Tatsächlich ist die Situation paradox, zumindest in Deutschland und vielen Teilen Europas: Während Forschungseinrichtungen immer neue Rekorde bei der computergesteuerten Erkennung von Krankheiten vermelden, werden diese Modelle und Systeme in der Praxis noch viel zu wenig eingesetzt. Jedenfalls in Europa (6). Zu den Gründen dafür zählen auch unterschiedliche Anforderungen an den Datenschutz für Forschungszwecke einerseits und für den tatsächlichen Einsatz im klinischen Umfeld andererseits.  

Ganz konkret heißt das: Wer einen Algorithmus zur Erkennung von Krankheitsbildern trainieren und im Klinikbetrieb einsetzen will, braucht dazu Daten vieler hundert oder besser noch tausender Patienten. Vor allem aber braucht er laut Datenschutzgrundverordnung die eindeutige Einwilligung jedes Einzelnen dieser Patienten, dessen Daten zu nutzen. Und zwar zweckgebunden, also in diesem Fall: Zum Training eines KI- oder ML-Algorithmus und dessen Einsatz im klinischen Umfeld. Und zwar auch wenn die Daten anonymisiert werden. Allerdings sieht die DSGVO eine Ausnahme vor – nämlich, wenn ein „öffentliches Interesse“ an den Daten besteht, was in der Corona-Krise wohl außer Zweifel steht (7, 8). 

Vielleicht wundern Sie sich jetzt weiter, wieso ihr Telekommunikationsanbieter Verbindungsdaten anonymisiert verkaufen darf (9, 10). Schließlich handelt es sich dabei auch um personenbezogene, also Ihre ganz persönlichen Daten. Der Schlüssel dazu liegt in der Definition des Wortes „anonymisiert“.  

Laut der gängigen Rechtsprechung und -auslegung sind Daten nämlich nur dann tatsächlich anonymisiert, wenn diese Anonymisierung oder Verschlüsselung nicht rückgängig zu machen bzw. wieder zu entschlüsseln ist. Jedenfalls nicht durch den Anwender. Bei den Telefonanbietern ist die Sache ganz einfach: Die Unternehmen MÜSSEN die Daten nach einem halben Jahr vernichten. Und wenn es die Daten nicht mehr gibt, ist die Verschlüsselung auch nicht mehr rückgängig zu machen.  

Bei Medizindaten verbietet sich ein solches Vorgehen selbstverständlich. Und auch für das Training von neuronalen Netzen ist es notwendig, die Daten in seltenen Fällen zurückverfolgen zu können. Etwa wenn in der Fehleranalyse Zweifel aufkommen, ob etwa eine bestimmte Krankheit auf einem Blutabstrich oder einem Röntgenbild tatsächlich richtig gelabelt (also diagnostiziert) ist.  

Natürlich ist der Datenschutz wichtig – gerade und vor allem in Zeiten der Digitalisierung. Gesundheitsdaten aber können Leben retten und deshalb müssen wir einerseits den Schutz der Daten sicherstellen – andererseits aber auch ihre Möglichkeiten nutzen. Verschiedene, auch internationale Organisationen, darunter die US-Gesundheitsbehörde National Institutes of Health (NIH) (11,12), aber auch viele internationale Initiativen, wie etwa „AI for Good“ (13) oder der „Roundtable on Global Initiative and Data Commons“(14) die Auffassung, dass unsere Daten –  anonymisiert und nach strengen Standards und Sicherheitsanforderungen – ein Gemeingut sind 

Und warum auch nicht?  

Immerhin vertritt unser Gesundheitsminister die Auffassung, dass wir im Fall eines Hirntodes kein Recht an unseren Organen haben sollten, es sei denn, wir haben einer Transplantation zuvor ausdrücklich widersprochen. Soweit ist es im Bundestag nicht gekommen, stattdessen sollen die Bürger nun öfter gefragt werden, ob Sie Ihre Organe nach ihrem Tod spenden wollen.  

Wie wichtig eine ähnliche Lösung bei Daten gerade jetzt und heute wäre, zeigen die Möglichkeiten des Machine Learning. Ein Algorithmus etwa, der Corona-Infektionen auf Lungenröntgenbildern, oder auch den Aufnahmen eines Computertomographen erkennt, hätte in der Krise folgende Auswirkungen:  

  • Ärzte warten derzeit laut Medienberichten bis zu 3 Tage oder noch länger auf das Ergebnis eines Corona-Tests – jedenfalls dann, wenn Sie kein eigenes Labor zur Verfügung haben. Mit dem Algorithmus hätten sie die Möglichkeit, gerade bei Patienten mit schweren Verläufen, eine viel schnellere Diagnose zu bekommen.  
  • Im Falle überlasteter Intensiv-Kapazitäten könnten sie Patienten, die mit Covid-19 infiziert sind, gezielter isolieren – was einerseits eine Entlastung wäre und zudem die Ansteckungsgefahr in den Kliniken reduzieren würde.   
  • Der Algorithmus könnte zudem Ärzten helfen, die bislang noch nicht oder kaum mit Corona infizierten Patienten in Berührung gekommen sind – und das insbesondere beim Ausschluss von Corona-Infektionen. 
  • In einer späteren Phase könnte der Algorithmus möglicherweise auch dazu genutzt werden, Patienten zu erkennen und zu identifizieren, bei denen ein schwerer Verlauf der Infektions-Krankheit droht, was eine möglichst frühe, zielgerichtete Behandlung ermöglicht. 

Erste Forschungen auf dem Gebiet laufen auf Hochtouren. So setzen Krankenhäuser in Wuhan einen ähnlichen Algorithmus bereits ein, allerdings sind die Daten nicht öffentlich zugänglich (15, 16) – des Weiteren wäre ein Datensatz mit ausschließlich chinesischen Patienten auf Grund einer möglichen Verzerrung („Bias“) höchst problematisch. In den USA baut ein Wissenschaftler der Uni Stanford (17) zusammen mit Ärzten gerade einen öffentlich verfügbaren Datensatz auf, jedoch ist die Zahl der bislang hochgeladenen Bilder mit derzeit 105 Röntgenaufnahmen von 65 Patienten (Stand: Sonntag, 22. März 2020) viel zu klein, um einen zuverlässigen Algorithmus zu trainieren.   

In Europa gibt es derzeit meines Wissens nach noch keine vergleichbare Initiative. Die Alexander Thamm GmbH könnte so einen Algorithmus binnen kürzester Zeit programmieren, trainieren und allen interessierten Ärzten und Kliniken kostenfrei zur Verfügung stellen. Wir haben neben Hunderten industriellen Projekten im Maschinellen Lernen auch im medizinischen Bereich Erfahrungen, etwa bei   

  • der Erkennung von Lungenentzündungen auf Röntgenbildern  
  • der Identifikation von Malaria-Infektionen in Bildern von Blutabstrichen  
  • der Klassifizierung von Proteinen in Mikroskop-Aufnahmen  
  • der Erkennung der Schwere von diabetischer Retinopathie anhand von Aufnahmen des Augapfels

Um dieses Vorhaben zu verwirklichen und den Algorithmus in der angespannten Corona-Lage tatsächlich schnell zur Verfügung zu stellen, suchen wir einerseits Kontakte zu Kliniken, die uns anonymisiert Daten – also Lungenröntgenbilder oder CT-Aufnahmen zur Verfügung stellen können – und andererseits Sponsoren, die dieses Vorhaben unterstützen. Als sozial verantwortliches Unternehmen würden wir einen Teil der Kosten selbst tragen.  

Ernsthaft interessierten Sponsoren und/oder Kooperationspartnern aus der Medizinbranche stellen wir gerne eine Projektskizze zur Verfügung. Bitte wenden Sie sich dazu an:

Andreas Gillhuber (Co-CEO)
andreas.gillhuber@alexanderthamm.com

Wir würden uns sehr freuen, wenn wir in dieser Situation helfen könnten. Herzlichen Dank für Ihr Interesse und Ihre Aufmerksamkeit,
 
Alexander Thamm 
Gründer & CEO – Alexander Thamm GmbH

Quellen

  1. https://arxiv.org/pdf/1711.05225.pdf 
  2. https://www.nature.com/articles/s41746-019-0189-7 
  3. https://www.researchgate.net/publication/332049903_An_Efficient_Deep_Learning_Approach_to_Pneumonia_Classification_in_Healthcare  
  4. https://ieeexplore.ieee.org/document/8869364 
  5. https://cs.stanford.edu/people/esteva/nature/ 
  6. https://www.digitale-technologien.de/DT/Redaktion/DE/Downloads/Publikation/SSW_Policy_Paper_KI_Medizin.pdf?__blob=publicationFile&v=4 
  7. https://dejure.org/gesetze/DSGVO/6.html 
  8. https://staufer.de/blog/2019/06/dsgvo-schriftliche-einwilligung-patienten/
  9. https://www.mdr.de/datenspuren/datenbroker-daten-handel-100.html 
  10. https://netzpolitik.org/2016/mobilfunkbetreiber-telefonica-macht-jetzt-daten-seiner-kunden-zu-geld/ 
  11. https://www.ncbi.nlm.nih.gov/books/NBK54304/ 
  12. https://commonfund.nih.gov/commons/awardees 
  13. https://medium.com/berkman-klein-center/data-commons-version-1-0-a-framework-to-build-toward-ai-for-good-73414d7e72be 
  14. https://www.itu.int/en/ITU-T/extcoop/ai-data-commons/Pages/default.aspx 
  15. https://jamanetwork.com/journals/jama/fullarticle/2762997 
  16. https://www.alizila.com/how-damo-academys-ai-system-detects-coronavirus-cases/ 
  17. https://github.com/ieee8023/covid-chestxray-dataset 
Was ist Künstliche Intelligenz (KI)

Was ist Künstliche Intelligenz (KI)

Künstliche Intelligenz (KI) ist einer der wichtigsten Data-Science-Trends. Dabei gibt es nach wie vor ein sehr breites Spektrum an Auslegungen, was unter dem Begriff wirklich zu verstehen ist. Einerseits ist Künstliche Intelligenz in aller Munde. Andererseits nutzen laut einer jüngsten Studie von PWC erst 6 % der Unternehmen KI. Dieser Befund ist aus zwei Gründen erstaunlich. Denn zum einen ist selbst den Befragten der Studie der Nutzen von KI bewusst. Zum anderen ist das Spektrum an Anwendungsmöglichkeiten für Künstliche Intelligenz enorm.

Definition von Künstlicher Intelligenz

Zunächst ist Künstliche Intelligenz ein Sammelbegriff, unter dem eine Reihe von Teilgebieten der Informatik und Mathematik zusammengefasst sind. Das Ziel der darin erforschten Methoden ist, komplexe Aufgaben zu lösen. Häufig handelt es sich um Problemstellungen, die bisher nur mithilfe der menschlichen Kognition gelöst werden konnten.

Zu den bekanntesten Methoden in diesem Bereich gehören: Machine Learning, Deep Learning, neuronale Netze und Natural Language Processing (NLP). Darüber hinaus gibt es in jedem dieser Forschungsfelder zahlreiche weitere Methoden. Eine der Herausforderungen in der Praxis ist demnach, das Problem richtig zu erfassen und eine passende Methode zu dessen Lösung zu identifizieren. Die Grundfragestellung bei der Entwicklung der Künstlichen Intelligenz lautete vereinfacht gesagt: Können Computer das menschliche Gehirn nachahmen? Zahlreiche KI-basierte Methoden bilden daher die Funktionsweise des menschlichen Gehirns ab. Die menschliche Nervenzelle fungierte wie eine Art Blaupause für künstliche Neuronen.

vereinfachte Darstellung einer menschlichen Nervenzelle
Vereinfachte Darstellung einer menschlichen Nervenzelle. Das Neuron verarbeitet im Zellkern den Input in Form eines Signals, das interpretiert bzw. weitergegeben wird.

Dieser einfache Aufbau von Input, Signalverarbeitung und Output findet sich als Grundprinzip in nahezu allen gängigen KI-Methoden wieder. Dieser Versuchsaufbau liefert aber nur dann sinnvolle Ergebnisse, wenn er entsprechend trainiert wird. Dabei geht es um das Erlernen von Regeln, die bestimmen, wie das eingehende Signal verarbeitet werden soll.

Vereinfachte Form eines neuronalen Netzwerks

Nehmen wir zum besseren Verständnis das Beispiel Bilderkennung. In diesem Fall soll eine Künstliche Intelligenz darauf trainiert werden, Gesichter auf Bildern zu erkennen. Dazu muss eine passende Methode gefunden werden, mit der ein Neuronales Netz trainiert wird. Jede der Hidden Layer untersucht charakteristische bedeutungsunterscheidende Merkmale, um in den Bilddaten Gesichter zu erkennen. Während des Lernprozesses bekommt jeder einzelne Punkt im Netz eine bestimmte Gewichtung.

Künstliche Neuronale Netze

Die Grundlage

Die zentrale Grundlage für alle KI-Anwendungen ist eine ausreichende Menge an Daten. Zudem müssen sie eine entsprechende Datenqualität aufweisen. Diese Daten sind notwendig, weil die KI-Systeme für ihren Einsatz in der Praxis trainiert werden müssen. Erst dann können sie ihre Aufgabe erfüllen.

Dies wird am Beispiel von Verfahren zur Bilderkennung deutlich. Eine Künstliche Intelligenz lernt dabei zunächst anhand von Millionen von Bilddaten bestimmte Elemente auf den Bildern zu erkennen. Erst nach diesem Lernvorgang kann dieses System auf unbekannten Bildern dieses Element zu erkennen. Dabei kann es sich um Hunde, Katzen oder Gesichter von Menschen handeln.

Wohl eins der bekanntesten Beispiele dafür ist das “Muffin-Chihuahua Beispiel”. Sogar für den Menschen ist es manchmal auf den ersten Blick schwierig zu unterscheiden, ob es sich um einen Muffin oder ein Chihuahua handelt.

Grundsätzlich unterscheidet man zwischen zwei Arten von KI, der schwachen und der starken KI.

Schwache KI – Heute längst Realität

Als schwache KI werden all diejenigen Anwendungen von Künstlicher Intelligenz bezeichnet, die auf eine einzelne Aufgabe beschränkt ist. Alle heute existierenden Ausformungen fallen in den Bereich der schwachen KI. Entgegen der häufigen Annahme ist hier der Mensch nicht der Maßstab. Schon heute überschreiten die Fähigkeiten von schwacher KI die Leistungsfähigkeit des Menschen bei der Bewältigung derselben Aufgabe.

Starke KI – Eine Zukunftsvision

Von starker KI ist dann die Rede, wenn eine Künstliche Intelligenz die Intelligenz des Menschen in allen Bereichen überschreitet. Besonders, wenn es gleich noch um die Gefahren von Künstlicher Intelligenz gehen wird, ist in der Regel die starke KI gemeint. Diese zeichnet sich durch eine bestimmte Eigenschaft aus. Sie wäre dazu in der Lage, nicht nur eine Aufgabe besser als der Mensch zu bewältigen, sondern beliebig viele. Aufgrund dieser Fähigkeit wird diese Form der Künstlichen Intelligenz auch Artificial General Intelligence genannt.

Die Frage wann und ob eine starke KI jemals entwickelt werden wird, ist aber bis heute nicht geklärt. Zwar gibt es erste erfolgversprechende Versuche, die im Zusammenhang mit Reinforcement Learning erzielt wurden. Neben der technologischen Entwicklung müssen aber vor allem noch gesetzliche Rahmenbedingungen geschaffen. Dazu gehört auch eine gesellschaftliche Debatte über Fragen der Anwendbarkeit und der Ethik. Uneinigkeit herrscht auch ganz grundsätzlich hinsichtlich der Einschätzung, ob eine starke KI über Bewusstsein, Empathie oder emotionale Intelligenz verfügt. Der Erfolg der mit der starken KI verbunden Zukunftsvision steht und fällt aber nicht nur mit ihren Fähigkeiten. Mindestens ebenso wichtig ist das Vertrauen, das die Menschen in darin haben.

Die Gefahren von Künstlicher Intelligenz

Das Thema KI polarisiert. Warnungen und Angst begleiten die Entwicklung der Künstlichen Intelligenz seit jeher. Dabei lässt sich zwischen unbegründetem Alarmismus und realen Gefahren unterscheiden. Beispielsweise gibt es bislang keine Belege, dass KI zur Massenarbeitslosigkeit führen wird. Im Moment scheint viel eher das Gegenteil der Fall zu sein. Wahr ist, dass Künstliche Intelligenz ein großes Potenzial hat, die Arbeitswelt zu verändern.

Es gibt zahlreiche irrationale Ängste, wenn es um die zukünftige Entwicklung der starken KI geht. Dazu zählt etwa der Glaube, dass intelligente Maschinen ein Bewusstsein entwickeln und sich gegen den Menschen richten könnten. All diesen Szenarien sind aus heutiger Perspektive vor allem ein Argument entgegenzuhalten. Nämlich, dass nur sehr wenige Forscher sich überhaupt mit der Entwicklung einer starken KI beschäftigen.

Eine reale Gefahr besteht jedoch darin, dass Entscheidungsprozesse zu sehr auf den Analysen von Algorithmen basieren. Zum Problem wird dies vor allem dann, wenn ein tiefgreifendes Verständnis für Datenanalysen fehlt. Die Annahme, Programme würden die eigenen Fähigkeiten übersteigen, ist also eine Gefahr. Denn sie schaltet die eigene Urteilsfähigkeit aus und überträgt die Verantwortung an die Maschine.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Vor- und Nachteile von KI

Da diese Debatte über die Gefahren von KI die Teilnehmer lediglich in zwei Lager spaltet sollte sie versachlicht werden. Hier sollen darum die Vor- und Nachteile von KI aufgeführt werden. Auf diese Weise wird zum einen deutlich, wie Unternehmen vom Einsatz von KI profitieren können. Zum anderen werden Handlungsfelder aufgezeigt, in denen Risiken bestehen.

Die Vorteile

  • Optimierung von Prozessen und Steigerung der durch Steigerung der Effizienz
  • Einsparung von Kosten durch Automatisierung und Teilautomatisierung von Routineaufgaben
  • Verbesserung des Schutzes vor Cyber-Attacken und Hackerangriffen
  • Schaffung von Grundlagen für datengetriebene Geschäftsmodelle
  • Verbesserung der Customer Journey durch Personalisierung
  • Steigerung der Qualität von Datenanalysen
  • Erhöhung der Sicherheit beim Einsatz von Robotern oder autonomen Fahrzeugen
  • Förderung von Wissen aus Daten

Neben diesen bewusst eher allgemein gehaltenen Vorteilen ließen sich zahlreiche konkrete Vorteile benennen, die aus einzelnen Anwendungen resultieren. Beispielsweise lassen sich Krankheiten durch Künstliche Intelligenz besser diagnostizieren, die Entwicklungszeit von Medikamenten signifikant verkürzen oder im Fall des autonomen Fahrens die Zahl der Unfälle verringern.

Realistische Chancen

Beim Thema Künstliche Intelligenz wiederholt sich ein Reaktionsschema, das sich auch bei anderen Phänomenen wie Big Data oder Social Bots zeigte. Neue Technologien lassen sich zum Guten und zum Schlechten einsetzen. Darum ist es wichtig, sich mit den realen Gefahren und den Möglichkeiten auseinanderzusetzen.

Für Unternehmen ist es darum wichtig, mit Data-Science-Anwendungen, Chatbots oder Big Data positive Erfahrungen zu sammeln. Nur dann können sie ihren Mitarbeitern ein realistisches Bild von den damit verbundenen Chancen vermitteln.

Mitarbeiter müssen durch Workshops und Data Science Schulungen mit dem entsprechenden Wissen ausgestattet werden, um produktiv mit den neuen Technologien umzugehen. Ein proaktives Vorgehen lohnt sich allein aufgrund der Wettbewerbssituation. Wer früh Kompetenzen ins Unternehmen bringt und eine Bereitschaft sowie eine positive Einstellung bei seinen Mitarbeitern schafft, wird am meisten von den Vorteilen profitieren, die Künstliche Intelligenz mit sich bringt.

Die Nachteile und Risiken

  • Entscheidungsprozesse werden zum Teil nicht verstanden
  • Neue Risiken im Zusammenhang mit Datenschutz und Datensicherheit
  • Unrealistische Erwartungen an KI-basierte Anwendungen
  • Verantwortlichkeiten für neu entstehenden Bereiche oft unklar (Data Governance)
  • Ungeklärte Fragen bezüglich Haftung und Ethik
  • Verwischung der Grenze zwischen Wahrheit und Fake (Deepfake)

Insbesondere der letzte Punkt zeigt, dass die Risiken und Nachteile von KI einen Handlungsdruck erzeugen. Die Schaffung von gesetzlichen Rahmenbedingungen und die Aufklärung über die neuen Möglichkeiten sind unerlässlich. Denn auch das gehört zur Künstlichen Intelligenz: Die täuschend echte Manipulation von Daten wie im folgenden Video.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Organisationen müssen sich auf den Einsatz von Künstlicher Intelligenz vorbereiten. Dies gelingt, indem die Mitarbeiterinnen und Mitarbeiter geschult werden und ein Verständnis, dafür bekommen, wie sie Daten und Künstliche Intelligenz gewinnbringend nutzen können.

Künstliche Intelligenz im Alltag

Künstliche Intelligenz sorgt für zahlreiche Fortschritte in der Forschung wie beispielsweise in der Medizin oder im Rahmen der Industrie 4.0. Künstliche Intelligenz findet sich aber auch längst in zahlreichen Bereichen des alltäglichen Lebens wieder. Ohne dass es den Nutzern immer bewusst ist, profitieren sie häufig von den Vorteilen von KI-basierten Algorithmen. Beispielsweise nutzen Recommender-Systeme zur individualisierten Empfehlung von Content Künstliche Intelligenz. Das Prinzip „Wenn Dir A gefallen hat, gefällt Dir auch B“ findet sich inzwischen bei zahlreichen Plattformen wieder. Sei es bei Produktempfehlungen in Web-Shops oder bei Content-Anbietern wie Netflix oder Spotify.

Der Grund, warum die Qualität der personalisierten Empfehlungen in den letzten Jahren kontinuierlich zunahm, ist Künstliche Intelligenz. Während ältere Empfehlungsdienste noch ohne Künstliche Intelligenz auskamen, konnten mit den neuen Analysemethoden wesentliche Verbesserung erzielt werden.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Auch viele Chatbots und Sprachassistenten verstehen und imitieren die natürliche Sprache des Menschen dank Methoden wie NLP. Das zeigte Google spätestens bei der Vorführung des Google Assistent bei der Entwicklerkonferenz I/O im Jahr 2018 eindrücklich. Der Google Assistent führte auf völlig natürliche Art und Weise ein Telefonat mit einem Restaurant, um einen Termin zu koordinieren.

Auch die Fähigkeiten von anderen Sprachassistenten wie Amazons Alexa wachsen dank Künstlicher Intelligenz Jahr für Jahr. Ein anderes Beispiel bietet die Automobilbranche, die vor einer großen durch KI ausgelösten Transformation steht. Angefangen bei der Entwicklung, über die vernetzte Produktion bis hin zu Betrieb und Wartung. Letzteres zeigt sich insbesondere an neuen Wartungsansätzen wie Predictive Maintenance.

Überall finden sich Prozesse, die durch den Einsatz von Künstlicher Intelligenz verbessert und optimiert werden können. Und nicht zuletzt sind autonom fahrende Fahrzeuge ein wichtiges Beispiel für den zukünftigen Einsatz von KI im Alltag.

Künstliche Intelligenz in der Wirtschaft

Über Künstliche Intelligenz und ihre Auswirkungen in der Wirtschaft wird oft im Zusammenhang mit Befürchtungen diskutiert, dass durch den technologischen Fortschritt Arbeitsplätze verloren gehen. Doch oft sind die Vorstellungen darüber, was Künstliche Intelligenz tatsächlich ist, diffus und manchmal sogar falsch.

Unternehmen, die den Einsatz von Künstlicher Intelligenz erwägen, sollten aufgrund von den eingangs erwähnten Missverständnissen und damit verknüpften Unsicherheiten frühzeitig Aufklärungsarbeit leisten. Oft sind Ängste unbegründet und hemmen vielmehr bei der Einführung von neuen, innovativen Projekten.

Wer erfolgreich Künstliche Intelligenz im Unternehmen anwenden will, muss seine Mitarbeiter mitnehmen. Ängste und Hemmungen müssen abgebaut werden und der tatsächliche Nutzen und Zweck erläutert und bewusst gemacht werden.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Warum die Angst vor Künstlicher Intelligenz unbegründet ist

Stark verkürzt lässt sich Künstliche Intelligenz als Fähigkeit definieren, kognitive Prozesse digital abzubilden und nutzbar zu machen. Eine Vorstellung, die im Moment in die Irre leitet, bringt Künstliche Intelligenz sehr schnell mit menschenähnlichen Maschinen in Verbindung.

Die Idee, dass intelligente Maschinen Menschen überlegen sind und sie bald ersetzen können, ist oft durch Hollywoodfilme inspiriert. Dort finden sich zahlreiche Beispiele, in denen Maschinen mit Künstlicher Intelligenz den Menschen gegenüber feindlich eingestellt sind. Filme wie TerminatorMatrix oder Ex Machina prägen bewusst oder unbewusst unsere Erwartungshaltung gegenüber Künstlicher Intelligenz. Zugleich wird dadurch ein realistischer Blick auf die Thematik erschwert.

Die (unbegründete) Angst vor menschenleeren Fabriken und autonom arbeitenden Maschinen

Insbesondere in Betrieben der industriellen Fertigung geht diese Angst um, dass alle Arbeitsplätze dort zukünftig durch intelligente Maschinen ersetzt werden. Dabei wird übersehen, dass mit der Künstlichen Intelligenz nicht einfach nur der Grad an Automatisierung erhöht wird. Vielmehr ist es so, dass die Produktion als Ganzes transformiert wird und sich grundlegend verändert.

Künstliche Intelligenz läutet das Ende der Ära der automatisierten Massenproduktion ein. In der Smart Factory sind neue Produktionsformen möglich wie beispielsweise die „Lot-Size-One-Production“ oder „Losgröße-1-Fertigung“. Der Begriff bezeichnet die industrielle Fertigung von Einzelstücken.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Heute erleben wir mit dieser Entwicklung den Übergang in das Zeitalter der flexiblen Spezialisierung. Individuelle Kundenwünsche zu berücksichtigen wird heute durch den hohen Technologisierungsgrad bei der Produktion auf dem Level der Massenproduktion möglich. Sprich: Anstatt tausende Werkstücke der gleichen Sorte zu produzieren, können individuelle Kundenwünsche bei jedem einzelnen Auftrag berücksichtigt werden.

Bei Szenarien wie diesen, werden durchaus noch Menschen in Fabriken gebraucht. Und aus einem bestimmten Grund mehr denn je: Erst durch die Errungenschaften im Bereich der Künstlichen Intelligenz wird es möglich, dass es zu einer intensiveren Mensch-Maschine-Kooperation kommt. Die bisherige Entwicklung im Bereich Automatisierung schloss aufgrund ihrer eingeschränkten Möglichkeiten den Menschen eher aus.

Fazit und Ausblick

In den letzten Jahren erlebten altbekannte Methoden wie die des maschinellen Lernens eine Renaissance. Obwohl diese seit den 1970er Jahren theoretisch entwickelt wurden, war die Entwicklung im Bereich Rechenleistung und Speichertechnologie letztlich ausschlaggebend. Spannend bleibt die technologische Entwicklung wie etwa die des Quantencomputers. Sehr viel wichtiger wäre jedoch, das bereits heute vorhandene Potenzial von KI tatsächlich zu nutzen. Dafür muss das Bewusstsein geschärft werden, in welchen Fällen sich ein Einsatz von Künstlicher Intelligenz tatsächlich lohnt. Es gibt eine ganze Reihe von Gründen, warum es Unternehmen bisher kaum gelingt, Mehrwert aus ihren Daten zu generieren. Viele dieser Hindernisse können einfach beseitigt werden, um die Grundlage für den Einsatz von KI zu schaffen. Eines ist aber schon heute klar: Künstliche Intelligenz ist aus dem Leben nicht mehr wegzudenken.

Headerbild: Bild von 024-657-834 auf Pixabay