Datenanalyse-Definitionen
-
A
Amazon Athena
Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von in Amazon S3 gespeicherten Daten mit SQL ermöglicht. Athena ein Serverless-Dienst.
-
Analytische Datenbank (Analysedatenbank)
Eine analytische Datenbank ist ein schreibgeschütztes System, das historische Daten zu Geschäftskennzahlen wie Verkaufsleistung und Lagerbeständen speichert.
-
Augmented Analytics
Augmented Analytics ist eine Analyseform, die maschinelles Lernen und Natural Language Processing verwendet, was zu besserer Datenanalyse und Datenwertschöpfung führen soll.
-
B
Backpropagation-Algorithmus
Backpropagation ist ein wichtiges mathematisches Verfahren zur Verbesserung der Vorhersagegenauigkeit beim Data Mining und Machine Learning.
-
Bestärkendes Lernen (Reinforcement Learning)
Bestärkendes Lernen (Reinforcement Learning) ist eine Methode des maschinellen Lernens, bei der ein Agent selbstständig eine Strategie durch Belohnungen erlernt.
-
Bestätigungsfehler (Confirmation Bias)
Eine Bestätigungsverzerrung kommt vor, wenn Informationen, die einen Glauben bestätigen, Vorrang vor Informationen haben, die ihn nicht unterstützen.
-
Big Data Analytics
Big Data Analytics ist der Prozess der Analyse großer Datenmengen, um Informationen, wie versteckte Muster, Korrelationen, Markttrends und Kundenpräferenzen, aufzudecken.
-
Big Data as a Service (BDaaS)
Unter Big Data as a Service versteht man die Bereitstellung von Anwendungen durch Cloud-Anbieter, die bei der Verarbeitung, Verwaltung und Analyse von Big Data unterstützen.
-
Business Intelligence (BI)
Business Intelligence (BI) ist ein technologiegestützter Prozess zur Datenanalyse, der Führungskräften, Managern und Endanwendern hilft, Geschäftsentscheidungen zu treffen.
-
Business Process Management Software (BPMS)
Business Process Management Software (BPMS) unterstützt Unternehmen bei der Konzeption, Modellierung, Ausführung, Automatisierung und Verbesserung einer Reihe von Prozessen.
-
Business Process Reengineering (BPR)
Der Begriff Business Process Reengineering wurde von Michael Hammer geprägt. Dabei werden Prozesse, die zur Erzielung eines Geschäftsergebnisses erforderlich sind, umgestaltet.
-
C
Composable Analytics
Composable Analytics ist ein Ansatz für Datenanalysen und BI, der es Organisationen ermöglicht, Komponenten aus verschiedenen Daten- und Analyse-Tools zu kombinieren.
-
Computerlinguistik (CL)
Computerlinguistik (CL) untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Unterstützung von Computeralgorithmen verarbeitet werden kann.
-
Crystal Reports (Crystal Reports for Enterprise)
Mit Crystal Reports lassen sich Berichte auf Basis vieler Datenquellen schreiben. Die Software wird mittlerweile unter der Regie von SAP entwickelt.
-
Customer Intelligence (CI)
Customer Intelligence (CI) sammelt und analysiert Kundendaten, die aus internen und externen Quellen stammen. Diese Analyse soll helfen, das Kundenverhalten zu verstehen.
-
D
Data Lake
Ein Data Lake ist ein Repository von Daten, die im Rohdatenformat darin gespeichert sind. Data Lakes kommen häufig zusammen mit Big-Data-Anwendungen zum Einsatz.
-
Data Lakehouse
Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.
-
Data Mart
Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.
-
Data Profiling
Data Profiling ist eine Methode bei der Datensätze untersucht, analysiert, überprüft und zusammengefasst werden, um einen Einblick in die Qualität der Daten zu erhalten.
-
Data Scientist (Datenwissenschaftler)
Ein Data Scientist oder Datenwissenschaftler sammelt, analysiert und interpretiert Daten und unterstützt damit die Entscheidungsfindung in einem Unternehmen.
-
Data Storytelling
Data Storytelling soll komplexe Daten und Analysen in einer Geschichte verständlich erzählen. Dies trägt dazu bei, eine geschäftliche Entscheidung oder Handlung zu beeinflussen.
-
Data Warehouse as a Service (DWaaS)
Data Warehouse as a Service (DWaaS) ist ein Cloud-Service, bei dem der Anbieter die für ein Data Warehouse notwendigen Hard- und Softwareressourcen konfiguriert und verwaltet.
-
Databricks
Databricks ist ein Softwareunternehmen und eine Plattform für die Verarbeitung großer Datenmengen, die von den Schöpfern von Apache Spark gegründet wurde.
-
Daten
Daten sind digitale Informationen, die so formatiert sind, dass sie von Rechensystemen verarbeitet, gespeichert, kopiert oder übertragen werden können.
-
Datenaufbereitung (Data Preparation)
Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Diese Prozess wird Datenaufbereitung genannt.
-
Datenbereinigung
Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.
-
Datenerfassung (Data Collection)
Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.
-
Datenexploration
Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.
-
Datenflussdiagramm (DFD)
Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.
-
Datenkatalog (Data Catalog)
Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.
-
Datenpflege (Datenkuratierung)
Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.
-
Datenpipeline
Eine Datenpipeline umfasst eine Reihe von Verarbeitungsschritten, die Daten von einem Quell- an ein Zielsystem verschieben und sie für geplante Geschäftszwecke transformieren.
-
Datenqualität
Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.
-
Datentransformation
Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.
-
Datenvalidierung
Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.
-
Datenvisualisierung
Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.
-
Datenvorverarbeitung (Data Preprocessing)
Bei der Datenvorverarbeitung werden verschiedene Schritte durchlaufen, um Rohdaten oder unstrukturierte Daten für die Datenverarbeitung aufzubereiten.
-
Datenwissenschaft (Data Science)
Datenwissenschaft wendet fortschrittliche Analysetechniken und wissenschaftliche Prinzipien an, um aus Daten wertvolle Informationen für den Geschäftsbetrieb zu gewinnen.
-
Deskriptive Analyse (beschreibende Analyse)
Die beschreibende Analyse ist eine Form der Datenanalyse, bei der Daten aus der Vergangenheit untersucht werden, um einen Bericht über das Geschehen zu erstellen.
-
Digitales Profiling (digitales Profil)
Digitales Profiling ist das Sammeln und Analysieren von Informationen aus dem Internet über eine Person. Digitales Profiling ist aber aus Datenschutzgründen nicht unumstritten.
-
E
Echtzeitüberwachung
Echtzeitüberwachung oder Real-Time Monitoring ist das Sammeln und Analysieren verschiedener IT-Leistungsparameter zu dem Zeitpunkt, an dem sie generiert werden.
-
Edge Analytics
Edge Analytics ist eine Methode der Datenanalyse, die automatisierte Algorithmen verwendet, um Daten von Sensoren und anderen Geräten am Ort der Erfassung zu verarbeiten.
-
Embedded Analytics (eingebettete Analysen)
Eingebettete Analysen bringen Datenanalyse- und Datenvisualisierungsfunktionen in die Anwendungen, die Mitarbeiter zur Ausführung von Prozessen und Aufgaben verwenden.
-
Embedded Business Intelligence (Embedded BI)
Embedded Business Intelligence (Embedded BI) ist die Integration von Self-Service-Business-Intelligence-Werkzeugen in häufig genutzte Business-Applikationen.
-
Ensemble Modeling (Ensemblemodellierung)
Beim Ensemble Modeling werden zwei oder mehr verwandte, aber unterschiedliche Analysemodelle ausgeführt und die Ergebnisse zu einem einzigen Ergebnis zusammengefasst.
-
Enterprise Data Hub
Ein Enterprise Data Hub ist ein Managementmodell für Big Data, das ein Hadoop-Ökosystem als zentrales Data Repository nutzt. Es wird vor allem von Cloudera verwendet.
-
Entitätsbeziehungsdiagramm (Entity Relationship Diagram, ERD)
Ein Entitätsbeziehungsdiagramm ist eine grafische Darstellung, die Beziehungen zwischen Personen, Objekten, Orten, Konzepten oder Ereignissen in einem IT-System abbildet.
-
Entscheidungsbaum
Entscheidungsbäume sind nützlich, wenn eine schwierige Entscheidung getroffen werden muss. Sie lassen sich auch einsetzen, um Mitarbeitern Richtlinien für Entscheidungen zu geben.
-
Entscheidungsintelligenz (Decision Intelligence)
Entscheidungsintelligenz ist ein Bereich, der Datenwissenschaft, künstliche Intelligenz und Entscheidungstheorie kombiniert, um die Entscheidungsfindung zu verbessern.
-
Entscheidungsunterstützungssystem (Decision Support System)
Ein Entscheidungsunterstützungssystem ist eine Computeranwendung, die zur Verbesserung der Entscheidungsfähigkeit eines Unternehmens eingesetzt wird.
-
ESG-Berichterstattung (Environmental, Social and Governance)
Ein ESG-Bericht ist eine Gelegenheit für ein Unternehmen, die Fortschritte bei der Erreichung von Umwelt-, Nachhaltigkeits- und Corporate-Governance-Zielen zu dokumentieren.
-
Explizite Daten
Explizite Daten sind Informationen, die absichtlich bereitgestellt werden und von Unternehmen für personalisierte Marketingkampagnen verwendet werden können.
-
Extrapolation und Interpolation
Extrapolation und Interpolation sind Methoden zur Bestimmung hypothetischer Werte für eine unbekannte Variable auf Grundlage der Beobachtung anderer Datenpunkte.
-
F
Feature Engineering
Beim Feature Engineering werden Rohdaten in Feature umgewandelt, die zur Erstellung eines Vorhersagemodells mit Unterstützung des maschinellen Lernens verwendet werden können.
-
Fischgrätendiagramm (Ursache-Wirkungs-Diagramm)
Ein Fischgrätendiagramm, auch Ishikawa- oder Ursache-Wirkungs-Diagramm, ist ein Visualisierungswerkzeug zur Kategorisierung möglicher Ursachen eines Problems.
-
G
Gantt-Diagramm
Ein Gantt-Diagramm ist ein horizontales Balkendiagramm, das vom US-Ingenieur und Sozialwissenschaftler Henry L. Gantt zur Produktionskontrolle entwickelt wurde.
-
Geschäftsanalyse (Business Analytics, BA)
Business Analytics (Geschäftsanalyse), umfasst eine Reihe von Disziplinen und Technologien zur Lösung von Geschäftsproblemen mit Datenanalysen und statistischen Modellen.
-
Google Cloud Dataproc
Google Cloud Dataproc ist ein Service für die Verarbeitung großer Datensätze. Er ist Teil der Public Cloud von Google und richtet sich an Data Scientists und Datenanalysten.
-
Google Trends
Google Trends ist ein Online Analyse Tool, das herausfiltert, welches Keyword wie oft gesucht wird und die Ergebnisse untereinander vergleicht.
-
H
Hawthorne-Effekt
Der Begriff Hawthorne-Effekt entstand im Zusammenhang mit den Hawthorne-Studien, die die Auswirkungen von Arbeitsbedingungen auf die Produktivität der Mitarbeiter untersuchte.
-
I
IBM (International Business Machines)
IBM ist ein großes international agierendes Unternehmen, dass bereits Anfang des 20. Jahrhunderts gegründet wurde und sich sehr früh auf IT-Lösungen spezialisierte.
-
Implizite Daten
Implizite Daten sind Informationen, die unbeabsichtigt zur Verfügung gestellt und aus verfügbaren Datenströmen direkt oder durch die Analyse expliziter Daten gesammelt werden.
-
Intelligenter Agent
Intelligente Agenten sammeln gewünschte Informationen und bereiten sie für den Anwender auf. Dazu durchsuchen sie beispielsweise das Internet oder einen Datenbestand.
-
IoT Analytics (Internet of Things Analytics)
Diese Definition erklärt, was IoT-Analytik ist und wie Datenintegration und Big-Data-Analyse entscheidend sind, um den Nutzen aus den anfallenden riesigen Datenmengen zu ziehen.
-
IT-Monitoring (IT-Überwachung)
IT-Monitoring beschreibt die Überwachung aller Komponenten in einer IT-Umgebung. Die Daten werden genutzt, um Optimierungspotenziale zu erkennen und Probleme zu erkennen.
-
IT-Servicemanagement (ITSM)
IT-Servicemanagement (ITSM) ist ein strategischer Ansatz für die Entwicklung, Bereitstellung, Verwaltung und Verbesserung der Art und Weise, wie Unternehmen IT nutzen.
-
K
Kaufabsicht (Purchase Intent)
Die Kaufabsicht ist die Wahrscheinlichkeit, dass ein Verbraucher ein Produkt oder einen Service kaufen wird. Um diese zu bestimmen, gibt es verschiedene Werkzeuge.
-
Komplexe Ereignisverarbeitung (Complex Event Processing, CEP)
Complex Event Processing (CEP) beschäftigt sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung von Ereignissen, die wahrscheinlich abhängig voneinander sind.
-
Konfigurationsmanagement
Konfigurationsmanagement ist ein Governance- und Entwicklungsprozess zur Sicherstellung der Konsistenz zwischen physischen und logischen Assets in einer Betriebsumgebung.
-
Künstliches neuronales Netz (KNN)
In der IT ist ein künstliches neuronales Netz (Artificial Neural Network) ein System aus Hard- und Software, das der Funktionsweise von Neuronen im Gehirn nachgebildet ist.
-
L
Lineare Regression
Lineare Regression ist eine Form der Regressionsanalyse, mit der man eine abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären versucht.
-
Logistische Regression
Die logistische Regression ist eine statistische Analysemethode zur Vorhersage eines binären Ergebnisses auf der Grundlage früherer Beobachtungen eines Datensatzes.
-
Lückenanalyse (Gap-Analyse, Gap Analysis)
Eine Lückenanalyse stellt fest, ob ein Unternehmen den eigenen angestrebten Zustand erreicht hat. Das kann sich auf einzelne Abteilungen oder die gesamte Firma beziehen.
-
M
Matrix
Das Wort Matrix hat nicht nur eine Bedeutung. Ursprünglich stammt es aus dem Lateinischen, wird aber heute sowohl in der IT, der Mathematik und der Cyberkultur anders verwendet.
-
Microsoft Azure HDInsight
Microsoft Azure HDInsight ist ein Cloud-Dienst für Big-Data-Analysen, der bei der Verarbeitung großer Mengen von Streaming- oder historischen Daten unterstützt.
-
Microsoft Azure Machine Learning
Microsoft Azure Machine Learning ist eine Sammlung von Services und Tools, die Entwicklern beim Training und der Bereitstellung von Machine-Learning-Modellen helfen.
-
Microsoft SQL Server
Microsoft SQL Server ist ein relationales Datenbankmanagementsystem (RDBMS), das eine Vielzahl von Transaktionsverarbeitungs- und Analyseanwendungen unterstützt.
-
Multidimensional Expressions (MDX)
Multidimensional Expressions (MDX) ist eine Datenbanksprache für analytische Problemstellungen und Online-Analytical-Processing-Datenbankanwendungen.
-
Multidimensional Online Analytical Processing (MOLAP)
Multidimensionales Online Analytical Processing ist eines der wichtigsten Verfahren, um schnell auf Informationen in einem Data Warehouse zuzugreifen.
-
N
Natural Language Processing (NLP)
Natural Language Processing (NLP) ist die Fähigkeit eines Programms, menschliche Sprache so zu verstehen, wie sie gesprochen wird. NLP ist eine Komponente der KI.
-
Negative Korrelationen
Mit dem Begriff Korrelation wird die Stärke einer Beziehung zweier Variablen miteinander ausgedrückt. Negative Korrelationen werden auch als Antikorrelationen bezeichnet.
-
NumPy
NumPy ist eine Programmbibliothek für mathematische und wissenschaftliche Berechnungen von Python-Programmieraufgaben. NumPy ist eine Abkürzung für Numerical Python.
-
O
OLAP-Würfel
Ein OLAP-Würfel ist eine multidimensionale Datenbank, die für Data Warehousing und Online Analytical Processing (OLAP) -Anwendungen optimiert ist.
-
Online Analytical Processing (OLAP)
Online Analytical Processing (OLAP) ist eine Verarbeitungsmethode, mit der sich Daten extrahieren und abfragen lassen, um sie unter verschiedenen Gesichtspunkten zu analysieren.
-
Operational Research (OR)
Operational Research (OR) beinhaltet in der Regel die Entwicklung und den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung.
-
Organische Suchergebnisse
Organische Suchergebnisse sind unbezahlte Einträge, die auf Ergebnisseiten von Suchmaschinen erscheinen. Diese basieren zum Beispiel auf Domain-Autorität, Links und SEO.
-
P
Predictive Analytics (prädiktive Analyse)
Predictive Analytics (prädiktive Analyse) ist eine Form der erweiterten Analyse, bei der aktuelle und historische Daten zur Vorhersage von Aktivitäten und Trends genutzt werden.
-
Predictive Modeling
Prädiktive Modellierung ist ein mathematischer Prozess, der Data Mining und Wahrscheinlichkeitsrechnung zur Prognose von Ergebnissen einsetzt.
-
Prescriptive Analytics
Prescriptive Analytics ist mit Descriptive und Predictive Analytics verwandt. Das Analyseverfahren soll optimale Lösungen für Probleme ermöglichen.
-
Q
Qualitative Daten
Qualitative Datenanalyse versucht, Fragen zu beantworten, warum Menschen sich so verhalten, wie sie es tun, und was dieses Verhalten motiviert.
-
Quantum
Quantum bezeichnet die kleinste diskrete Einheit einer physikalischen Größe, wie Energie oder Materie. Es beschreibt quantisierte Zustände, die für Quantenmechanik untersucht werden.
-
R
R (Programmiersprache)
Die Programmiersprache R ist eine Open-Source-Skriptsprache, welche für statistische Berechnungen, Predictive Analytics und Datenvisualisierungen verwendet wird.
-
Risikomanagement
Das Risikomanagement umfasst die Analyse und Bewertung von Risiken und Bedrohungen für ein Unternehmen sowie die Planung von geeigneten Maßnahmen, diese Risiken zu adressieren.
-
S
SAP Analytics Cloud
Analytics Cloud ist eine SaaS-BI-Plattform, die von SAP entwickelt wurde. SAP Analytics Cloud kombiniert BI- sowie Analytics-Funktionen in einem Cloud-Angebot.
-
SAP Data Hub
Mit SAP Data Hub können Unternehmen eine Datenpipeline aus verschiedenen Quellen aufbauen, die dann in neuen datengesteuerten Anwendungen genutzt werden können.
-
SAP Predictive Analytics
SAP Predictive Analytics ist eine BI-Software, die es Unternehmen ermöglicht, große Datensätze zu analysieren und zukünftige Ergebnisse und Verhaltensweisen vorherzusagen.
-
Self-Service Business Intelligence (Self-Service BI)
Über Self-Service Business Intelligence (BI) können Endanwender ihre eigenen Berichte und Analysen innerhalb ihres BI-Portfolios erstellen und einsetzen.
-
Social Media (Soziale Medien)
Soziale Medien sind Webseiten und Applikationen, über die Menschen und Firmen miteinander kommunizieren, sich mit Anwendern austauschen und Beiträge teilen können.
-
Spatial Computing (Räumliche Datenverarbeitung)
Spatial Computing verbindet digitale und physische Welten, indem es Geräte nutzt, um Daten im Raum zu erfassen, zu verarbeiten und mit der realen Umgebung zu interagieren.
-
Suchmaschinenoptimierung (Search Engine Optimization, SEO)
Suchmaschinenoptimierung (Search Engine Optimization, SEO) beschäftigt sich mit der Optimierung einer Website, um ihre Sichtbarkeit für spezifische Suchanfragen zu erhöhen.