Data & AI Glossar

AJAX progress indicator
  • Term
    Definition
  • Agiles Projektmanagement ist ein iterativer Ansatz zur Planung und Verwaltung eines Projekts. Bei anderen Projektmanagement-Ansätzen in der Softwareentwicklung, wie zum Beispiel dem Wasserfallmodell, ermittelt man typischerweise alle Anforderungen im Voraus und plant ein Projekt akribisch von(...)
  • Dabei handelt es sich um Daten, die zu groß oder zu komplex sind, um mit herkömmlichen Technologien gespeichert oder verarbeitet zu werden. Diese entstehen typischerweise durch die drei V‘s, mit denen Big Data assoziiert wird:  Volumen: Die Menge der Daten, die gesammelt, gespeichert und(...)
  • Business Intelligence (BI) ist die Anwendung von Datenanalytik auf Geschäftsinformationen und -daten. Das Ziel von BI ist es, historische, aktuelle und zukünftige Momentaufnahmen eines Unternehmens und seiner Aktivitäten zu liefern. Die Methoden, die dabei zum Einsatz kommen, sind(...)
  • Der Chief Data und Analytics Officer (CDAO) stellt die höchste Position in Bezug auf Daten, Analytik und KI dar. Abhängig von der Branche und der strategischen Bedeutung und Reife von Daten und Analysen in einem bestimmten Unternehmen kann diese Rolle ein Vorstandsmitglied, ein(...)
  • Die großen Cloud-Service-Provider bieten Dienste an, mit denen man Machine Learning-Modelle erstellen und direkt einsetzen kann. Diese kommen oft mit benutzerfreundlichen grafischen Benutzeroberflächen. Die von den großen Cloud-Anbietern angebotenen Dienste sind:  Microsoft Azure Machine(...)
  • Computer Vision untersucht, wie Computer programmiert werden können, um digitale Videos oder Bilder zu verstehen. Computer Vision ist in Bereichen wie der Objekterkennung und dem autonomen Fahren unerlässlich. Sowohl im NLP als auch bei Computer Vision haben sich Deep Learning-Ansätze als(...)
  • Ein Computercluster ist ein Netzwerk aus verbundenen Computern (Netzwerkknoten bzw. Englisch „node“). Während Ressourcen und Aufgaben innerhalb des Computernetzwerks geteilt werden, hat der Benutzer nur einen einzigen Zugriffspunkt. Der Vorteil an einem Computerluster ist, dass es eine(...)
  • Data-Governance befasst sich mit der Einrichtung von Prozessen, Abläufen und Rollen in einem Unternehmen. Wo befinden sich die Daten? Wem gehören sie? Wer soll auf sie zugreifen und wie? Dies sind nur einige Fragen, die ein ordentliches Datenmanagement erfordern. Das Ziel von(...)
  • Data Mining ist eine etwas missverständliche Bezeichnung. Das Ziel von Data Mining ist es, nach Mustern in den Daten zu suchen, nicht nach den Daten selbst. Dies geschieht mit Methoden aus der Statistik, Informatik und Machine Learning. Wie BI verwendet Data Mining deskriptive und(...)
  • Datenanalyse bezieht sich auf den Prozess der Untersuchung von Daten, um nützliche Informationen zu extrahieren. Es gibt verschiedene Arten der Datenanalyse und sie unterscheiden sich in ihrem Ziel. Die deskriptive Analyse versucht zu beschreiben, was passiert ist. Zum Beispiel würden wir(...)
  • Ein Datenarchitekt ist für die Konzeption, den Entwurf und die Realisierung der Datenarchitektur einer Abteilung oder eines Unternehmens verantwortlich. Das heißt, sie stehen in engem Kontakt mit den relevanten Interessenvertretern der Fachabteilung, um die Geschäftsziele und die daraus(...)
  • Dabei handelt es sich um eine Sammlung von Daten, die auf eine bestimmte Art und Weise organisiert sind, typischerweise auf einem Server gespeichert, der einen einfachen Zugriff, Abruf und eine Aktualisierung der Daten ermöglicht. Das DBMS ist eine Software, die auf dem Server läuft, um als(...)
  • Ein Datenbankadministrator ist für die Wartung einer Datenbank verantwortlich, um sicherzustellen, dass sie den Benutzern zur Verfügung steht und ordnungsgemäß funktioniert und dass die Daten integer sind. Er dient als Ansprechpartner, wenn jemand auf Daten in der Datenbank zugreifen(...)
  • Datenethik ist das Fachgebiet, das sich mit der Feststellung, Systematisierung und Empfehlung der moralischen Korrektheit von Verhalten und Handlungen im Zusammenhang mit der Nutzung von Daten beschäftigt.  Immer mehr Aspekte unseres Lebens werden durch datengesteuerte Algorithmen(...)
  • Datenschutz und Data Privacy (auch Informationsschutz genannt) bedeuten im Wesentlichen das Gleiche: Regelungen und Praktiken zum Schutz der Persönlichkeitsrechte des Einzelnen bei der Erhebung, Speicherung und Verarbeitung personenbezogener Daten. In den USA hat sich der Begriff "Data(...)
  • Datensicherheit kann als ein Teilgebiet der Computersicherheit (auch Cybersecurity oder IT-Sicherheit genannt) betrachtet werden, das sich auf den Schutz von Computersystemen bezieht. Da Computersysteme aus Hardware, Software und Daten bestehen, bezieht sich Datensicherheit auf den Schutz der(...)
  • Bei KI handelt es sich um Computersysteme oder Maschinen, die über intelligentes, menschenähnliches Verhalten und Fähigkeiten verfügen und denen es deshalb möglich ist Aufgaben zu erfüllen, die normalerweise menschliche Intelligenz erfordern. Da der Begriff der Intelligenz komplex ist, hilft(...)
  • Was ist MicroPython? C ist nicht die einzige Programmiersprache für Mikrocontroller. Dieser Artikel behandelt die kompatible Hardware und die Arbeitsschritte bei der Programmierung mit einer anderen Option - MicroPython.Es ist eine kompakte Implementierung der Programmiersprache Python 3,(...)
  • MySQL ist ein Relational Database Management System (RDBMS), das kostenlos verfügbar ist. Es ist ein Open-Source-System, das auf einem Client-Server-Modell basiert. Der Name kombiniert „My“, den Namen des Mitbegründers (Michael Wideniu) und SQL, was für strukturierte Abfragesprache(...)
  • Neo4j gehört zu den besten Diagramm-orientierten Datenbanken, die Entwickler verwenden können, um Codes von Grund auf neu zu erstellen. Sie sind nicht nur effektiv bei der Datenbildung, sondern auch beim Verbinden von Datenbeziehungen. Das Tool verbindet Daten mit ihrem Speicherort und(...)
  • Was ist ein neuronales Netzwerk? In der Regel handelt es sich bei einem neuronalen Netzwerk um eine Reihe oder einen Schaltkreis von Neuronen in der Welt der Computer-Software und der künstlichen Intelligenz. Es verfügt über eine Reihe von Algorithmen, die die zugrundeliegenden Beziehungen(...)
  • Oracle ist ein multinationales Computertechnologieunternehmen, das hauptsächlich verschiedene Technologie- und Programmierprodukte und Software für Unternehmen entwickelt und vertreibt. Die Software wird hauptsächlich für die Verwaltung von Datenbanken und Informationen verwendet, aber in den(...)
  • Personenbezogene Daten sind alle Informationen, die mit einer bestimmten Person in Verbindung gebracht werden können. Das heißt, wenn es irgendeine Art von (Kombination von) Daten gibt, die sich auf eine identifizierbare Person beziehen, handelt es sich um personenbezogene Daten.  Die(...)
  • PostgreSQL ist ein kostenloses Open-Source Relational Database Management System (RDBMS). Sein Name leitet sich von der Ingres-Datenbank ab, die zuvor von der University of California Berkeley entwickelt worden war. Der SQL-Name wurde der Vorsilbe hinzugefügt, um die Unterstützung für SQL(...)
  • PySpark ist eine Programmiersprache, die Apache Spark unterstützt und zum Erstellen einer Vielzahl von Datenplattformen und zur Handhabung umfangreicher Datenanalysen verwendet werden kann. Es ist eine Python-API, die im Rahmen der Zusammenarbeit zwischen Apache Spark und Python erstellt(...)
  • Python ist eine Allzweck-Programmiersprache. Sie ist Open Source.  Heute ist Python die am häufigsten verwendete Anwendung für Data Science und Machine Learning. Darüber hinaus ist Python auch in anderen Bereichen weit verbreitet, vor allem in der Softwareentwicklung. Es hat eine große,(...)
  • Die Quantitative Analyse (abgekürzt „QA“) ist eine wissenschaftliche Technik, die mathematische und statistische Messung, Modellierung und Forschung beinhaltet, um bestimmte Verhaltensweisen zu erklären. Bei der Quantitativen Analyse verwenden die Analysten in der Regel numerische Werte, um(...)
  • Die Programmiersprache R wurde speziell für statistische Berechnungen entwickelt. Sie wird von den meisten Statistikern und Data Miners verwendet, die sie für die statistische Datenverarbeitung nutzen. Die Programmiersprache R wurde hauptsächlich in C geschrieben und enthält im Kern auch(...)
  • Remote Dictionary Server - Redis - ist ein In-Storage-Datenspeicher, der als Schlüsselwert-datenbank, Nachrichtenbroker, Cache und Warteschlange verwendet wird. Er ist eine beliebte Wahl für eine Reihe von Funktionen wie zum Beispiel Pub-/Sub-Apps, Caching, Messaging, Echtzeit-Analysen und(...)
  • Um überwachtes Machine Learning anzuwenden, benötigen wir gelabelte Daten. Das Ziel von überwachten Machine Learning-Algorithmen ist es, ein Modell zu erstellen, das eine Zielvariable so genau wie möglich bestimmt oder vorhersagt. Innerhalb des überwachten Machine Learning unterscheiden wir(...)
  • Die Bandbreite der Aufgaben, die eine Maschine lernen kann, ist sehr groß. Im Allgemeinen unterscheiden wir zwischen drei verschiedenen Arten, wie eine Maschine diese Aufgaben lernen kann: Überwachtes Machine Learning, unüberwachtes Lernen und Reinforcement Learning. Im Wesentlichen(...)
  • Das relationale Modell ist eine Art von Datenbankmodell, d.h. eine Möglichkeit, strukturierte Daten in einer Datenbank zu organisieren. In einem relationalen Modell wird ein realer Prozess mit Daten abgebildet, die in miteinander verbundenen Tabellen (auch Relationen genannt) organisiert(...)
  • Der Fachbegriff Robotik befasst sich mit dem Design, der Konstruktion und dem Betrieb von Robotern. Es ist also eine Mischung aus verschiedenen Ingenieursbereichen wie Maschinenbau, Elektronik, Informationstechnik und KI. Solche Roboter werden z. B. für die robotische Prozessautomatisierung(...)
  • R ist eine Open-Source-Programmiersprache für statistische Analysen und Grafiken, wobei RStudio seine eigene integrierte Entwicklungsumgebung ist. Das bedeutet, dass die IDE nur dann funktionieren kann, wenn Sie R bereits installiert haben. Obwohl die IDE nur neben R funktionieren kann, kann(...)
  • Ruby (engl. Rubin) ist eine objektorientierte Programmiersprache, die 1995 von Yukihiro “Matz” Matsumoto entwickelt wurde. Seit 2012 ist die Ruby-Norm unter der Norm ISO/IEC 30170 spezifiziert.Mit dem Namen sollte die Sprache ein Juwel unter den Programmiersprachen sein.Was ist Ruby?Die(...)
  • Was ist SAP HANA? SAP HANA ist eine leistungsstarke analytische Datenbank, die enorme Datenmengen in kurzer Zeit verarbeitet. Sie maximiert die Verwendung der Speicherdatenbanktechnologie, um datengesteuerte Aktionen/Entscheidungen auszuführen und zu beschleunigen. Diese(...)
  • Scikit-learn ist eine Machine Learning-Bibliothek für Python. Sie enthält alle Arten von Algorithmen, mit denen sowohl überwachte als auch unüberwachte Machine Learning-Methoden implementiert werden können.  Python hat sich zum beliebtesten Werkzeug für die Erstellung(...)
  • Spark ist ein Open-Source-Cluster-Computing-Framework für die Verarbeitung großer Datenmengen auf Computerclustern. Spark sitzt normalerweise auf einem verteilten Dateisystem wie HDFS. Während die Kernfunktionalität die Verarbeitung von Big Data auf Computerclustern ist, bietet Spark(...)