Aussagenlogik

Was ist Aussagenlogik?

Die Aussagenlogik, auch als aussagenlogische Logik oder propositionale Logik bekannt, ist ein Teilgebiet der formalen Logik, das sich mit der Analyse und Manipulation von Aussagen beschäftigt. Aussagen sind in der Logik als einfache, vollständig bestimmte Sätze definiert, die entweder wahr oder falsch sein können, aber nicht beides gleichzeitig. Die Aussagenlogik ist ein wichtiges Konzept in vielen Bereichen der Mathematik, Informatik, Philosophie und Wissenschaft, und bildet die Grundlage für die Analyse und Konstruktion von komplexeren logischen Systemen.

Die Aussagenlogik verwendet eine induktive Definition, um Aussagen zu definieren. Eine Aussage ist entweder ein Atom oder eine komplexe Aussage, die aus anderen Aussagen und Verknüpfungen von Junktoren gebildet wird. Atome sind dabei die einfachsten Aussagen, die nicht weiter in kleinere Bestandteile zerlegt werden können. Beispiele für Atome können sein: „Die Sonne scheint“, „Es regnet“, „1 + 1 = 2“, etc.

Konzepte der Aussagenlogik

In der Aussagenlogik gibt es bestimmte Konzepte oder Grundlagen, die das Verständnis und die Anwendung dieser logischen Disziplin ermöglichen. Hier sind einige der wichtigsten Konzepte der Aussagenlogik:

Aussagen und Verknüpfungen: In der Aussagenlogik basieren alle Aussagen auf der Idee von Aussagen, die wahr oder falsch sein können. Aussagen können mit verschiedenen logischen Verknüpfungen, wie zum Beispiel Konjunktion (∧) und Disjunktion (∨), miteinander verknüpft werden, um komplexe Ausdrücke zu bilden.

Variablen und Junktoren: In der Aussagenlogik können Variablen verwendet werden, um Platzhalter für Aussagen einzuführen. Variablen werden normalerweise mit Buchstaben oder Symbolen dargestellt und können verschiedene Wahrheitswerte annehmen. Junktoren sind logische Verknüpfungen, die verwendet werden, um Aussagen zu verknüpfen oder zu manipulieren, wie zum Beispiel Konjunktion (∧), Disjunktion (∨), Negation (¬), Implikation (→) und Äquivalenz (↔).

Tautologien: Tautologien sind Aussagen, die unabhängig von den Wahrheitswerten der beteiligten Variablen immer wahr sind. Tautologien spielen eine wichtige Rolle in der Aussagenlogik, da sie als Grundlage für logische Beweise und Argumentationen dienen. Tautologien können mit Hilfe von Wahrheitstabellen oder mit Hilfe von logischen Gesetzen, wie den Gesetzen der Aussagenlogik, identifiziert werden.

Wahrheitstabelle: Eine Wahrheitstabelle ist eine tabellarische Darstellung aller möglichen Kombinationen von Wahrheitswerten für die beteiligten Aussagen in einem logischen Ausdruck. Wahrheitstabellen werden oft verwendet, um die Wahrheitswerte von komplexen Aussagenlogik-Ausdrücken zu berechnen und zu analysieren, sowie um die Gültigkeit von logischen Gesetzen oder Tautologien zu überprüfen.

Gesetze der Aussagenlogik

Die Gesetze der Aussagenlogik, auch bekannt als logische Gesetze oder Aussagenlogik-Gesetze, sind Regeln und Prinzipien, die die Eigenschaften und das Verhalten von Aussagen und logischen Ausdrücken in der Aussagenlogik beschreiben. 

Identitätsgesetze:

  • Identitätsgesetz der Konjunktion: Eine Aussage, die mit sich selbst und dem logischen Operator „UND“ (Konjunktion) verknüpft wird, bleibt unverändert. Beispiel: A ∧ Wahrheit = A
  • Identitätsgesetz der Disjunktion: Eine Aussage, die mit sich selbst und dem logischen Operator „ODER“ (Disjunktion) verknüpft wird, bleibt unverändert. Beispiel: A ∨ Falschheit = A

Dominationgesetze:

  • Dominationsgesetz der Konjunktion: Wenn eine Aussage mit „Wahrheit“ (True) verknüpft wird und mit „UND“ (Konjunktion) verknüpft wird, ergibt sich die ursprüngliche Aussage. Beispiel: A ∧ Wahrheit = A
  • Dominationsgesetz der Disjunktion: Wenn eine Aussage mit „Falschheit“ (False) verknüpft wird und mit „ODER“ (Disjunktion) verknüpft wird, ergibt sich die ursprüngliche Aussage. Beispiel: A ∨ Falschheit = A

Negationsgesetze:

  • Gesetz der doppelten Negation: Die doppelte Verneinung einer Aussage hebt sich auf und ergibt die ursprüngliche Aussage. Beispiel: ¬(¬A) = A
  • Gesetz der Negation der Konjunktion: Die Verneinung einer konjunktierten Aussage ist äquivalent zur disjunktierten Verneinung der einzelnen Aussagen. Beispiel: ¬(A ∧ B) = (¬A) ∨ (¬B)
  • Gesetz der Negation der Disjunktion: Die Verneinung einer disjunktierten Aussage ist äquivalent zur konjunktierten Verneinung der einzelnen Aussagen. Beispiel: ¬(A ∨ B) = (¬A) ∧ (¬B)

De Morgan’sche Gesetze:

  • De Morgan’sches Gesetz der Negation der Konjunktion: Die Verneinung einer konjunktierten Aussage ist äquivalent zur disjunktierten Verneinung der einzelnen Aussagen mit umgekehrtem Operator. Beispiel: ¬(A ∧ B) = (¬A) ∨ (¬B)
  • De Morgan’sches Gesetz der Negation der Disjunktion: Die Verneinung einer disjunktierten Aussage ist äquivalent zur konjunktierten Verneinung der einzelnen Aussagen mit umgekehrtem Operator. Beispiel: ¬(A ∨ B) = (¬A) ∧ (¬B)

Aussagenlogik in der Informatik

Die Aussagenlogik spielt eine zentrale Rolle in der Informatik, insbesondere in Bereichen wie der formalen Verifikation von Software und Hardware, dem Schaltungsdesign, der Künstlichen Intelligenz (KI), der Wissensrepräsentation und der Datenbanktheorie.

In der formalen Verifikation von Software und Hardware wird die Aussagenlogik verwendet, um die Korrektheit von Programmen und Schaltkreisen zu überprüfen. Hierbei werden logische Formeln verwendet, um die gewünschten Eigenschaften des Systems zu spezifizieren, und es wird überprüft, ob diese Eigenschaften erfüllt sind.

Im Schaltungsdesign werden Aussagenlogik und Boolesche Algebra verwendet, um die Funktionsweise von digitalen Schaltungen zu beschreiben. Schaltungen werden oft als Kombination von logischen Gattern modelliert, die die Grundoperationen der Aussagenlogik wie Konjunktion, Disjunktion und Negation implementieren. Aussagenlogische Ausdrücke können verwendet werden, um die Funktionsweise von Schaltungen zu analysieren, zu optimieren und zu verifizieren.

In der Künstlichen Intelligenz spielt die Aussagenlogik eine Rolle bei der Modellierung von Wissen und der automatischen Schlussfolgerung. Wissensbasierte Systeme verwenden oft Aussagenlogik, um Wissen in Form von logischen Regeln zu repräsentieren, die verwendet werden können, um automatisch Schlüsse zu ziehen und Entscheidungen zu treffen. Auch in der Wissensrepräsentation, also der Formulierung von Wissen in KI-Systemen, wird oft auf Aussagenlogik zurückgegriffen.

Die Aussagenlogik wird auch in der Datenbanktheorie verwendet, um komplexe Anfragen und Abfragen von Datenbanken zu formulieren und auszuwerten. Hierbei können logische Ausdrücke verwendet werden, um komplexe Bedingungen zu definieren, die erfüllt sein müssen, damit bestimmte Daten aus der Datenbank abgefragt werden können.

In der Praxis werden in der Informatik oft spezielle Notationen und Werkzeuge verwendet, um Aussagenlogik effizient zu modellieren, zu analysieren und zu verarbeiten. Hierzu gehören beispielsweise logische Programmiersprachen wie Prolog, Model Checking-Tools für die Verifikation von Hardware und Software, und Datenbankabfragesprachen wie SQL.

Programmierschnittstelle (API)

Was ist eine Programmierschnittstelle (API)?

API steht für Application Programming Interface und bezeichnet eine Programmierschnittstelle, die die Kommunikation zwischen verschiedenen Anwendungen ermöglicht. Fremde Programme können über eine API Zugriff auf bestimmte Komponenten einer Software erhalten und Daten transferieren.

Anders als bei einer Binärschnittstelle findet die Programmanbindung auf Quelltext-Ebene statt. Operationen werden über Standardbefehle ausgeführt, sodass Kompatibilität mit unterschiedlichen Programmiersprachen gewährleistet ist. Eine API kann unter anderem auf Datenbanken, Festplatten, Grafikkarten und Benutzeroberflächen zugreifen.

Der Vorteil einer Programmierschnittstelle ist die einfache Integration neuer Anwendungskomponenten in ein bestehendes System. Zudem sind APIs meist ausführlich mit ihren dazugehörigen Parametern dokumentiert.

Wie funktioniert eine API?

Programmierschnittstellen (API) dienen insbesondere Entwicklern, um ihre Programme an ein anderes andocken zu lassen. Eine Programmierschnittstelle gibt vor, wie Daten erhalten und gesendet werden können. Die Befehle und Datentypen, die eine API akzeptiert, sind in Protokollen definiert. Sie werden von den entsprechenden Komponenten für eine einheitliche Kommunikation verwendet.

Grundsätzlich unterscheidet man zwischen internen/privaten APIs und externen/offenen APIs. Private Programmierschnittstellen können nur von den Programmierern innerhalb einer Organisation benutzt werden. Dadurch wird die Arbeit an unternehmensinternen Prozessen optimiert. Zusätzlich werden sie durch bestimmte Sicherheitsmaßnahmen vor unautorisiertem Zugang geschützt. Externe APIs stehen der Öffentlichkeit in Verzeichnissen für die Einbindung in andere Systeme zur Verfügung. Manchmal ist die Nutzung einer API jedoch beschränkt oder kostenpflichtig.

Anwendungsbereiche für Programmierschnittstellen

Mit APIs lässt sich eine Vielzahl von Prozessen miteinander verbinden:

Wettervorhersage

Globale Wetterdaten aus den verschiedensten internationalen Quellen werden über Programmierschnittstellen abgerufen und können dem Nutzer per App auf dem Smartphone angezeigt werden.

Terminbuchung

Dienstleister können mit APIs ihren Kunden ermöglichen, Buchungen auf Online-Portalen durchzuführen oder nach bestimmten Services zu suchen. Dies können zum Beispiel Terminauskünfte bei Arztpraxen oder der Vergleich von Flugpreisen sein. Die Webseite verbindet sich mit den Programmierschnittstellen der jeweiligen Dienstleister und generiert eine Übersicht mit den passendsten Optionen.

E-Commerce

Einzelhändler verwenden APIs, um den Bestand ihrer Produkte zu kontrollieren und Kunden Auskunft über die Verfügbarkeit zu geben.

Was ist der Unterschied von API und REST-API?

REST ist eine Abkürzung für Representational State Transfer und bezieht sich auf eine Softwarearchitektur, die sich nach den Grundsätzen und dem Verhalten des World Wide Web richtet. Eine REST-API ist eine bestimmte Form einer API, die für den Datentransfer auf verteilten Systemen verwendet wird. Die REST-Architektur besitzt im Vergleich zu einer allgemeinen API sechs Designprinzipien, die von Entwicklern eingehalten werden müssen:

Einheitliche Programmierschnittstelle

Die Ressourcen sind über einen bestimmten Uniform Resource Identifier (URI) zugänglich. Verschiedene Operationen können mithilfe von HTTP-Methoden über dieselben URI durchgeführt werden. Geeignete Formate für Ressourcen sind zum Beispiel JSON, XML oder Text.

Unabhängigkeit von Client und Server

Client- und Serveranwendungen müssen voneinander entkoppelt sein. Der Client sollte nichts weiter als den URI der jeweiligen Ressource benötigen.

Zwischenspeicher

Um die Skalierbarkeit des Servers zu erhöhen und die Performance des Clients zu verbessern, können Ressourcen im Cache gespeichert werden.

Zustandslosigkeit

Rest-APIs erfordern keine Informationen über Sitzungen. Wenn der Server Daten über die Client-Session benötigt, werden diese über eine separate Anfrage gesendet.

Mehrschichtige Systemarchitektur

Zwischen Client und Server kann es eine Reihe anderer Anwendungen geben, die miteinander kommunizieren. Der Client kann nicht erkennen, durch wie viele Server die Antwort übermittelt wurde.

Code auf Abruf (optional)

In den meisten Fällen werden über REST-APIs statische Ressourcen übertragen. Manchmal kann es sich aber auch um ausführbaren Code wie Java-Applets handeln. Dieser sollte nur auf Abruf ausgeführt werden.

AutoML

Was ist AutoML (Automated Machine Learning)?

„AutoML“ ist die Abkürzung für „Automated Machine Learning“. AutoML ist eine neue Entwicklung in der Evolution des Machine Learning (ML). Das Ziel von AutoML ist es, iterative Schritte bei der ML-Modellentwicklung zu automatisieren, um effizient ein optimiertes Modell zu erstellen.

Funktionsweise von AutoML-Lösungen

Der Schwierigkeitsgrad der Automatisierung zwischen den einzelnen Schritten variiert, wobei sich die Schritte der Modellauswahl und der Hyperparameter-Optimierung wegen ihrer Use Case Unabhängigkeit für die Automatisierung anbieten. Daher es ist die Automatisierung dieser beiden Schritte das, was gemeinhin unter AutoML verstanden wird. Im Idealfall umfasst die Eingabe lediglich einen bereinigten Datensatz, eine Fehlermetrik und die maximale Zeit für die Suche nach dem besten Modell. Die Ausgabe ist eine Rangliste der abgestimmten Modelle, geordnet nach der Fehlermetrik.

AutoML-Lösungen finden grob in drei Hauptkategorien Anwendung: in eigenständigen Code-Paketen, Cloud-Diensten und spezialisierten Data-Science-Plattformen.

Nutzen und Vorteile

Insgesamt erhöht der Einsatz von AutoML-Lösungen die Produktivität der Data Scientists und reduziert die Komplexität der ML-Modellentwicklung, indem mechanische Aufgaben automatisiert werden. Konkret bedeutet dies, dass:

  • weniger Zeit für sich wiederholende Aufgaben wie die Modellauswahl und das Abstimmen von Hyperparametern benötigt wird – womit mehr Zeit für die Konzentration auf das Geschäftsproblem, das Sammeln und Vorverarbeiten hilfreicher Daten und die Kommunikation des Ansatzes und der Ergebnisse an die Beteiligten bleibt.
  • eine solide Basis für einen Proof of Concept geliefert wird, die in späteren Phasen weiter verfeinert werden kann.

Falls Sie sich für eine kritische Auseinandersetzung mit AutoML interessieren, schauen Sie doch gerne in unserem weiterführenden Blogartikel vorbei. Stefan Lautenbacher (Senior Data Scientist) erörtert dort anhand eines stilisierten Arbeitsablaufs eines ML-Projekts inwiefern AutoML den Bedarf an menschlichen Data Scientists abdecken kann.

Augmented Analytics

Was ist Augmented Analytics?

Augmented Analytics beschreibt eine Technologie, mit welcher Datenanalysen im geschäftlichen Umfeld und der sogenannten Business Intelligence unter der Anwendung von Komponenten des maschinellen Lernens und der natürlichen Sprachverarbeitung (Natural Language Processing – NLP) unterstützt werden können. Business Intelligence bezeichnet dabei Vorgänge zur Sammlung sowie Auswertung und Visualisierung von Daten im Unternehmenskontext.

Zielsetzung dieser „erweiterten Analysen“ ist die Unterstützung bei der Durchführung und Aufbereitung von Daten- und Erkenntnisanalysen, welche in weiterer Folge als Entscheidungsgrundlage dienen sollen.

Prozess und Nutzen

In der heutigen Geschäftswelt stellt das Generieren von Informationen und Rohdaten keine große Herausforderung dar. Ein kritischer Pfad im Rahmen von Big Data ersteht jedoch bei der nachfolgenden Datenanalyse, bei welcher die zuvor gesammelten Daten derart aufbereitet und interpretiert werden sollen, um schlussendlich als Entscheidungsgrundlage dienen zu können.

Genau an diesem Punkt setzt Augmented Analytics an, obwohl auch die Datengenerierung in dieses Konzept einbezogen werden kann. Der Mehrwert ergibt sich dadurch, dass in der Regel sowohl der manuelle als auch zeitliche Aufwand zur Datenanalyse reduziert werden kann, da Maschinen in der Lage sind, systematisch und schnell große Datenmengen zu durchsuchen. In Kombination mit den Methoden des maschinellen Lernens entstehen Möglichkeiten, Algorithmen zu entwickeln, welche in der Lage sind, Trends sowie Abhängigkeiten und Muster zu erkennen bzw. durch Vorhersagemodelle Prognosen zu erstellen. Diese Algorithmen können sich mitunter selbst optimieren, wodurch darüber hinaus eine Qualitätsverbesserung der Ergebnisse im Zeitverlauf resultieren kann.

Obwohl die Datengenerierung nicht das Kernelement der Methode ist, lässt sich die Datenerhebung auch in die Technologie integrieren und darüber hinaus Nutzen generieren, indem in der Datenbereinigung bzw. -aufbereitung nützliche Informationen von unbrauchbaren in den Rohdaten getrennt werden.

Durch die Implementierung der natürlichen Sprachverarbeitung in Augmented Analytics dient diese als Kommunikationsschnittstelle. Einerseits wird sie dazu genutzt, um Fragestellungen zur Durchführung der Datenanalysen richtig zu interpretieren, andererseits wird diese Technologie auch verwendet, um nach der Durchführung der Analyse die Ergebnisse aufzubereiten bzw. zu kommunizieren. Damit wird die Basis zur Unterstützung von Entscheidungen im geschäftlichen Umfeld gelegt, welche den Hauptnutzen von Augmented Analytics darstellt.

Augmented Analytics Anwendungen

Viele Unternehmen bieten Softwarelösungen an, welche sich Fertigkeiten von Augmented Analytics und Big Data zunutze machen. Neben beispielsweise SAP Analytics Cloud, Oracle Analytics Cloud, IBM Cognos Analytics oder Power BI von Microsoft bieten unter anderem auch die Unternehmen Tableau sowie SAS mit SAS Visual Analytics Lösungen auf diesem Gebiet an. Die Technologie findet etwa in folgenden Geschäftsfeldern Anwendung:

  • Gesundheitswesen: Unternehmen setzen Augmented Analytics ein, um ihren Betrieb zu optimieren und die Aufenthaltsdauer sowie die Bettenbelegungsrate zu analysieren. Zudem können Prognosen über Wiedereinweisungen für kürzlich entlassene Patienten getroffen und entsprechend entgegengewirkt werden.
  • Finanz- und Bankenwesen: In dieser Branche wird Augmented Analytics eingesetzt, um angebotene Dienstleistungen für Kunden zu verbessern und das Geschäftswachstum zu fördern. Dadurch können vorrangig Daten bezüglich Trends und Kundenakquisitionskosten bewertet werden, welche in weiterer Folge zu spezifisch angebotenen Dienstleistungen für verschiedene Kundengruppen entwickelt werden können. Zudem ist es möglich, Anomalien in Transaktionen zu identifizieren und im besten Fall bereits im Vorfeld zu bereinigen.
  • Fertigung und Einzelhandel: Ähnlich wie im Bankenwesen wird die Technologie auch im Einzelhandel zur Analyse von Kundentrends und dem effizienten Einsatz von Werbemitteln genutzt. In der Produktion wird sie unter anderem für Kapazitätsplanungen, Prozess- und Lieferkettenoptimierungen eingesetzt.
  • Fluggesellschaften: Auch Fluggesellschaften nutzen Big Data zur Erhöhung der Kundenzufriedenheit. Des Weiteren dient es für Prognosen von Nachfrageschwankungen, worauf mit entsprechenden Kapazitätsveränderungen reagiert werden kann.
  • Telekommunikation: In der Telekommunikationsbranche lassen sich Daten zu Trends bezüglich Telefonverhalten sowie Internetnutzungsverhalten analysieren. Darauf aufbauend können sowohl Dienstleistungen für Kunden als auch beispielsweise eigene Bandbreitenkapazitäten optimiert werden.

AlphaFold

Was ist AlphaFold?

AlphaFold ist eine Künstliche Intelligenz, welche in der Lage ist, die dreidimensionale Proteinstruktur nur mithilfe der Aminosäuresequenz des Proteins vorherzusagen. 2020 hat AlphaFold2 die Genauigkeit von experimentellen Methoden erreicht und damit ein 50 Jahre altes Problem der Biologie gelöst: das Problem der Proteinfaltung.

Seit 2021 steht AlphaFold DB als Datenbank von Proteinstrukturen für Wissenschaftler auf der ganzen Welt frei zur Verfügung. Zudem kann eine kostenlose Version von AlphaFold2 als Open-Source-Software bei Github genutzt werden.

Die Lösung für das „protein folding problem“ (Proteinfaltungsproblem)

AlphaFold ist eine weitere Erfolgsgeschichte von Google DeepMind (AlphaGo, AlphaZero und Ithaca). Kurz nachdem AlphaGo den berühmten Profispieler Lee Sedol in Go deutlich besiegt hat, wurde 2016 ein neues Team von DeepMind zusammengestellt. Dessen Ziel war es, das Problem der Proteinstrukturvorhersage zu lösen.

2018 markiert den ersten Erfolg des Teams: AlphaFold belegt den ersten Platz bei dem 13. CASP-Wettbewerb.

Die CASP; Critical Assessment of Techniques for Protein Structure Prediction (zu Deutsch: kritische Bewertung von Techniken zur Vorhersage von Proteinstrukturen) ist ein Zusammenschluss von Wissenschaftlern, die seit 1994 die Problematik der Proteinfaltung erforschen. Alle zwei Jahre findet ein Wettbewerb statt, in dem Forschungsteams eine Auswahl an Aminosäuresequenzen für Proteine vorgegeben bekommen. Deren genaue dreidimensionale Form ist bereits bekannt, aber nicht öffentlich zugänglich. Die Teams geben ihre besten Vorhersagen ab, um zu sehen, wie nah sie an den tatsächlichen Strukturen sind.

Die hervorragenden Ergebnisse von AlphaFold bei diesem Wettbewerb werden in der Fachzeitschrift Nature veröffentlicht und das Team von DeepMind wird weiter vergrößert. 2020 ist der Durchbruch geschafft: AlphaFold2 gewinnt den 14. CASP-Wettbewerb mit großem Vorsprung und wird von den Organisatoren der CASP als Lösung für das 50 Jahre alte „protein folding problem“ (Proteinfaltungsproblem) anerkannt. AlphaFold2 kann die Proteinstrukturen bis auf atomare Genauigkeit mit einem mittleren Fehler (RMSD_95) von weniger als 1 Angström vorhersagen und ist damit dreimal genauer als das nächstbeste System und vergleichbar mit experimentellen Methoden. In der Fachwelt wird die Lösung des Proteinfaltungsproblems als eine der wichtigsten Errungenschaft seit der Kartierung des menschlichen Genoms betitelt.

Wie funktioniert AlphaFold?

Grundsätzlich nutzt AlphaFold Neuronale Netze welche durch Deep Learning trainiert werden. Nach den sehr guten Ergebnissen bei CASP13, wird das Programm weiterentwickelt. Dessen Methoden und der Code werden in der Fachzeitschrift Nature veröffentlicht. Daraus resultieren Open-Source-Implementierungen aus der Community. DeepMind selbst hat neue Deep-Learning-Architekturen hinzugefügt und die Methoden weiterentwickelt.

Ausschlaggebend für diese Methoden sind die Fachbereiche Biologie, besonders im Gebiet der Proteinfaltung, sowie Physik und maschinelles Lernen.

Für das Verständnis der physikalischen Wechselwirkungen innerhalb von Proteinen ist es wichtig zu verstehen, wie ein gefaltetes Protein aufgebaut ist. Es kann als „räumlicher Graph“ gesehen werden, in dem Reste die Knoten sind und Kanten die Reste in unmittelbarer Nähe verbinden. Für AlphaFold2, welches CASP14 gewinnt, wird ein aufmerksamkeitsbasiertes neuronales Netzwerksystem genutzt. Damit versucht es kontinuierlich, die Struktur des Proteins zu interpretieren, während es über das Diagramm, welches es gerade zusammenfügt, nachdenkt. Zur Verbesserung dieses Diagramms werden Multiple Sequence Alignment (kurz MSA; zu Deutsch: Multiple Sequenzalignierung) und eine Darstellung von Aminosäurerestpaaren verwendet.

Durch ständiges Wiederholen dieses Prozesses erzielt AlphaFold2 starke Vorhersagen der Proteinstruktur. Durch ein eigenes Konfidenzmaß ist AlphaFold2 außerdem in der Lage zu bestimmen, welche Teile seiner vorhergesagten Proteinstruktur als zuverlässig einzustufen sind.

AlphaFold Protein Structure Database

In enger Zusammenarbeit mit dem European Bioinformatics Institute am European Molecular Biology Laboratory (EMBL-EBI) startet DeepMind 2021 die AlphaFold Protein Structure Database. Damit hat die wissenschaftliche Gemeinschaft freien und offenen Zugang zum menschlichen Proteom (die Gesamtheit aller Proteine des menschlichen Körpers) zusammen mit 20 weiteren Modellorganismen, unter anderem von Mäusen. Damit umfasst die Datenbank insgesamt über 350.000 Strukturen. Anfang 2022 fügt DeepMind weitere 27 Proteome (das entspricht über 190.000 Proteinen) der Datenbank hinzu.

Bis heute haben über 300.000 Forscher weltweit von der Datenbank Gebrauch gemacht. Damit stellt AlphaFold einen der bedeutendsten Beiträge von KI zur Förderung der wissenschaftlichen Erkenntnisse dar.