Datenanalyse-Definitionen
-
A
Amazon Athena
Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von in Amazon S3 gespeicherten Daten mit SQL ermöglicht. Athena ein Serverless-Dienst.
-
Analytische Datenbank
Analytische Datenbanken sind entwickelt wurden, um Business-Intelligence- (BI) und Analyse-Anwendungen als Teil eines Data Warehouses zu unterstützen.
-
Augmented Analytics
Augmented Analytics ist eine Analyseform, die maschinelles Lernen und Natural Language Processing verwendet, was zu besserer Datenanalyse und Datenwertschöpfung führen soll.
-
B
Backpropagation-Algorithmus
Backpropagation ist ein wichtiges mathematisches Verfahren zur Verbesserung der Vorhersagegenauigkeit beim Data Mining und Machine Learning.
-
Bestärkendes Lernen (Reinforcement Learning)
Bestärkendes Lernen (Reinforcement Learning) ist eine Methode des maschinellen Lernens, bei der ein Agent selbstständig eine Strategie durch Belohnungen erlernt.
-
Bestätigungsfehler (Confirmation Bias)
Eine Bestätigungsverzerrung kommt vor, wenn Informationen, die einen Glauben bestätigen, Vorrang vor Informationen haben, die ihn nicht unterstützen.
-
Big Data Analytics
Big Data Analytics ist der Prozess der Analyse großer Datenmengen, um Informationen, wie versteckte Muster, Korrelationen, Markttrends und Kundenpräferenzen, aufzudecken.
-
Big Data as a Service (BDaaS)
Unter Big Data as a Service versteht man die Bereitstellung von Anwendungen durch Cloud-Anbieter, die bei der Verarbeitung, Verwaltung und Analyse von Big Data unterstützen.
-
Business Analytics (BA)
Business Analytics (BA) ist die kontinuierliche, iterative Untersuchung vergangener Leistungen, um Erkenntnisse für die Unternehmensplanung zu gewinnen.
-
Business Intelligence (BI)
Business Intelligence (BI) ist ein technologiegestützter Prozess zur Datenanalyse, der Führungskräften, Managern und Endanwendern hilft, Geschäftsentscheidungen zu treffen.
-
Business Process Management Software (BPMS)
Business Process Management Software (BPMS) unterstützt Unternehmen bei der Konzeption, Modellierung, Ausführung, Automatisierung und Verbesserung einer Reihe von Prozessen.
-
C
Crystal Reports (Crystal Reports for Enterprise)
Mit Crystal Reports lassen sich Berichte auf Basis vieler Datenquellen schreiben. Die Software wird mittlerweile unter der Regie von SAP entwickelt.
-
Customer Intelligence (CI)
Customer Intelligence (CI) sammelt und analysiert Kundendaten, die aus internen und externen Quellen stammen. Diese Analyse soll helfen, das Kundenverhalten zu verstehen.
-
D
Data Lake
Ein Data Lake ist ein Repository von Daten, die im Rohdatenformat darin gespeichert sind. Data Lakes kommen häufig zusammen mit Big-Data-Anwendungen zum Einsatz.
-
Data Lakehouse
Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.
-
Data Mart
Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.
-
Data Profiling
Data Profiling ist eine Methode bei der Datensätze untersucht, analysiert, überprüft und zusammengefasst werden, um einen Einblick in die Qualität der Daten zu erhalten.
-
Data Scientist (Datenwissenschaftler)
Ein Data Scientist oder Datenwissenschaftler sammelt, analysiert und interpretiert Daten und unterstützt damit die Entscheidungsfindung in einem Unternehmen.
-
Data Storytelling
Data Storytelling soll komplexe Daten und Analysen in einer Geschichte verständlich erzählen. Dies trägt dazu bei, eine geschäftliche Entscheidung oder Handlung zu beeinflussen.
-
Data Warehouse as a Service (DWaaS)
Data Warehouse as a Service (DWaaS) ist ein Cloud-Service, bei dem der Anbieter die für ein Data Warehouse notwendigen Hard- und Softwareressourcen konfiguriert und verwaltet.
-
Databricks
Databricks ist ein Softwareunternehmen und eine Plattform für die Verarbeitung großer Datenmengen, die von den Schöpfern von Apache Spark gegründet wurde.
-
Daten
Diese Definition erklärt die Bedeutung von Daten,das heißtvon Informationen, die in eine Form übersetzt wurden, die eine effiziente Bewegung oder Verarbeitung unterstützt.
-
Datenaufbereitung (Data Preparation)
Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Dies geschieht mit der Datenaufbereitung.
-
Datenbereinigung
Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.
-
Datenerfassung (Data Collection)
Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.
-
Datenexploration
Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.
-
Datenflussdiagramm (DFD)
Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.
-
Datenkatalog (Data Catalog)
Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.
-
Datenpflege (Datenkuratierung)
Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.
-
Datenqualität
Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.
-
Datentransformation
Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.
-
Datenvalidierung
Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.
-
Datenvisualisierung
Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.
-
Datenvorverarbeitung (Data Preprocessing)
Bei der Datenvorverarbeitung sind sechs Schritte notwendig, um Rohdaten oder unstrukturierte Daten für ein anderes Datenverarbeitungsverfahren aufzubereiten.
-
Deskriptive Analyse (Descriptive Analytics)
Die deskriptive Analyse ist eine Vorstufe der Datenverarbeitung, die historische Daten zusammenfasst, um Informationen für weitere Analysen vorzubereiten.
-
E
Echtzeitüberwachung
Echtzeitüberwachung oder Real-Time Monitoring ist das Sammeln und Analysieren verschiedener IT-Leistungsparameter zu dem Zeitpunkt, an dem sie generiert werden.
-
Edge Analytics
Edge Analytics ist eine Methode der Datenanalyse, die automatisierte Algorithmen verwendet, um Daten von Sensoren und anderen Geräten am Ort der Erfassung zu verarbeiten.
-
Embedded Business Intelligence (Embedded BI)
Embedded Business Intelligence (Embedded BI) ist die Integration von Self-Service-Business-Intelligence-Werkzeugen in häufig genutzte Business-Applikationen.
-
Ensemble Modeling (Ensemble-Modellierung)
Beim Ensemble Modeling (Ensemble-Modellierung) werden verwandte, aber unterschiedliche Analysemodelle ausgeführt und die Ergebnisse zu einem Ergebnis zusammengeführt.
-
Enterprise Data Hub
Ein Enterprise Data Hub ist ein Managementmodell für Big Data, das ein Hadoop-Ökosystem als zentrales Data Repository nutzt. Es wird vor allem von Cloudera verwendet.
-
Entitätsbeziehungsdiagramm (Entity Relationship Diagram, ERD)
Das Entitätsbeziehungsdiagramm ist eine grafische Darstellung, die Beziehungen zwischen Personen, Objekten, Orten, Konzepten oder Ereignissen innerhalb eines IT-Systems abbildet.
-
Entscheidungsbaum
Entscheidungsbäume sind nützlich, wenn eine schwierige Entscheidung getroffen werden muss. Sie lassen sich auch einsetzen, um Mitarbeitern Richtlinien für Entscheidungen zu geben.
-
ESG-Berichterstattung (Environmental, Social and Governance)
Ein ESG-Bericht ist eine Gelegenheit für ein Unternehmen, die Fortschritte bei der Erreichung von Umwelt-, Nachhaltigkeits- und Corporate-Governance-Zielen zu dokumentieren.
-
Explizite Daten
Explizite Daten sind Informationen, die absichtlich bereitgestellt werden und von Unternehmen für personalisierte Marketingkampagnen verwendet werden können.
-
F
Feature Engineering
Beim Feature Engineering werden Rohdaten in Feature umgewandelt, die zur Erstellung eines Vorhersagemodells mit Unterstützung des maschinellen Lernens verwendet werden können.
-
Fischgrätendiagramm (Ursache-Wirkungs-Diagramm)
Ein Fischgrätendiagramm, auch Ursache-Wirkungs-Diagramm, ist ein Instrument zur Visualisierung und Kategorisierung möglicher Ursachen eines Problems.
-
G
Gantt-Diagramm
Ein Gantt-Diagramm ist ein horizontales Balkendiagramm, das vom US-Ingenieur und Sozialwissenschaftler Henry L. Gantt zur Produktionskontrolle entwickelt wurde.
-
Google Cloud Dataproc
Google Cloud Dataproc ist ein Service für die Verarbeitung großer Datensätze. Er ist Teil der Public Cloud von Google und richtet sich an Data Scientists und Datenanalysten.
-
Google Trends
Google Trends ist ein Online Analyse Tool, das herausfiltert, welches Keyword wie oft gesucht wird und die Ergebnisse untereinander vergleicht.
-
I
Implizite Daten
Implizite Daten sind Informationen, die unbeabsichtigt zur Verfügung gestellt und aus verfügbaren Datenströmen direkt oder durch die Analyse expliziter Daten gesammelt werden.
-
Intelligenter Agent
Intelligente Agenten sammeln gewünschte Informationen und bereiten sie für den Anwender auf. Dazu durchsuchen sie beispielsweise das Internet oder einen Datenbestand.
-
IoT Analytics (Internet of Things Analytics)
Diese Definition erklärt, was IoT-Analytik ist und wie Datenintegration und Big-Data-Analyse entscheidend sind, um den Nutzen aus den anfallenden riesigen Datenmengen zu ziehen.
-
IT-Monitoring (IT-Überwachung)
IT-Monitoring beschreibt die Überwachung aller Komponenten in einer IT-Landschaft. Die Daten lassen sich nutzen, um Optimierungspotenziale zu erkennen und IT-Vorhersagen zu treffen.
-
IT-Servicemanagement (ITSM)
IT-Servicemanagement (ITSM) ist ein strategischer Ansatz für die Entwicklung, Bereitstellung, Verwaltung und Verbesserung der Art und Weise, wie Unternehmen IT nutzen.
-
K
Komplexe Ereignisverarbeitung (Complex Event Processing, CEP)
Complex Event Processing (CEP) beschäftigt sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung von Ereignissen, die wahrscheinlich abhängig voneinander sind.
-
Konfigurationsmanagement
Konfigurationsmanagement ist ein Governance- und Entwicklungsprozess zur Sicherstellung der Konsistenz zwischen physischen und logischen Assets in einer Betriebsumgebung.
-
Künstliches neuronales Netz (KNN)
In der IT ist ein künstliches neuronales Netz (Artificial Neural Network) ein System aus Hard- und Software, das der Funktionsweise von Neuronen im Gehirn nachgebildet ist.
-
L
Lineare Regression
Lineare Regression ist eine Form der Regressionsanalyse, mit der man eine abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären versucht.
-
Logistische Regression
Die logistische Regression ist eine statistische Analysemethode zur Vorhersage eines binären Ergebnisses auf der Grundlage früherer Beobachtungen eines Datensatzes.
-
Lückenanalyse (Gap-Analyse)
Eine Lückenanalyse ist eine Methode zur Bewertung der Leistung einer Geschäftseinheit, um abzuleiten, ob die Geschäftsanforderungen oder -ziele erfüllt werden.
-
M
Matrix
Das Wort Matrix hat nicht nur eine Bedeutung. Ursprünglich stammt es aus dem Lateinischen, wird aber heute sowohl in der IT, der Mathematik und der Cyberkultur anders verwendet.
-
Microsoft Azure HDInsight
Microsoft Azure HDInsight ist ein Cloud-Dienst für Big-Data-Analysen, der bei der Verarbeitung großer Mengen von Streaming- oder historischen Daten unterstützt.
-
Microsoft Azure Machine Learning
Microsoft Azure Machine Learning ist eine Sammlung von Services und Tools, die Entwicklern beim Training und der Bereitstellung von Machine-Learning-Modellen helfen.
-
Microsoft SQL Server
Microsoft SQL Server ist ein relationales Datenbankmanagementsystem, das eine Vielzahl von Transaktionsverarbeitungs- und Analyseanwendungen unterstützt.
-
Multidimensional Expressions (MDX)
Multidimensional Expressions (MDX) ist eine Datenbanksprache für analytische Problemstellungen und Online-Analytical-Processing-Datenbankanwendungen.
-
Multidimensional Online Analytical Processing (MOLAP)
Multidimensionales Online Analytical Processing ist eines der wichtigsten Verfahren, um schnell auf Informationen in einem Data Warehouse zuzugreifen.
-
N
Natural Language Processing (NLP)
Natural Language Processing (NLP) ist die Fähigkeit eines Programms, menschliche Sprache so zu verstehen, wie sie gesprochen wird. NLP ist eine Komponente der KI.
-
Negative Korrelationen
Mit dem Begriff Korrelation wird die Stärke einer Beziehung zweier Variablen miteinander ausgedrückt. Negative Korrelationen werden auch als Antikorrelationen bezeichnet.
-
O
OLAP-Würfel
Ein OLAP-Würfel ist eine multidimensionale Datenbank, die für Data Warehousing und Online Analytical Processing (OLAP) -Anwendungen optimiert ist.
-
Online Analytical Processing (OLAP)
Online Analytical Processing (OLAP) ist eine Methode, die es Analysten ermöglicht, Daten zu extrahieren und abzufragen, um sie aus verschiedenen Blickwinkeln zu analysieren.
-
Operational Research (OR)
Operational Research (OR) beinhaltet in der Regel die Entwicklung und den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung.
-
Organische Suchergebnisse
Organische Suchergebnisse sind unbezahlte Einträge, die auf Ergebnisseiten von Suchmaschinen erscheinen. Diese basieren zum Beispiel auf Domain-Autorität, Links und SEO.
-
P
Predictive Analytics
Predictive Analytics ist eine Form von Advanced Analytics, die sowohl auf neue als auch historische Daten zur Vorhersage von Aktivitäten, Verhalten und Trends zurückgreift.
-
Predictive Modeling
Prädiktive Modellierung ist ein mathematischer Prozess, der Data Mining und Wahrscheinlichkeitsrechnung zur Prognose von Ergebnissen einsetzt.
-
Prescriptive Analytics
Prescriptive Analytics ist mit Descriptive und Predictive Analytics verwandt. Das Analyseverfahren soll optimale Lösungen für Probleme ermöglichen.
-
Q
Quantum
In der Physik wird unter Quant ein Objekt verstanden, welches durch einen Zustandswechsel in einem System mit diskreten Werten einer physikalischen Größe erzeugt wird.
-
R
R (Programmiersprache)
Die Programmiersprache R ist eine Open-Source-Skriptsprache, welche vor allem für statistische Berechnungen, Predictive Analytics und Datenvisualisierungen verwendet wird.
-
Risikomanagement
Das Risikomanagement umfasst die Analyse und Bewertung von Risiken und Bedrohungen für ein Unternehmen sowie die Planung von geeigneten Maßnahmen, diese Risiken zu adressieren.
-
S
SAP Analytics Cloud
Analytics Cloud ist eine SaaS-BI-Plattform, die von SAP entwickelt wurde. SAP Analytics Cloud kombiniert BI- sowie Analytics-Funktionen in einem Cloud-Angebot.
-
SAP Data Hub
Mit SAP Data Hub können Unternehmen eine Datenpipeline aus verschiedenen Quellen aufbauen, die dann in neuen datengesteuerten Anwendungen genutzt werden können.
-
SAP Predictive Analytics
SAP Predictive Analytics ist eine BI-Software, die es Unternehmen ermöglicht, große Datensätze zu analysieren und zukünftige Ergebnisse und Verhaltensweisen vorherzusagen.
-
Self-Service Business Intelligence (Self-Service BI)
Über Self-Service Business Intelligence (BI) können Endanwender ihre eigenen Berichte und Analysen innerhalb ihres BI-Portfolios erstellen und einsetzen.
-
Social Media (Soziale Medien)
Soziale Medien sind Webseiten und Applikationen, über die Menschen und Firmen miteinander kommunizieren, sich mit Anwendern austauschen und Beiträge teilen können.
-
Suchmaschinenoptimierung (Search Engine Optimization, SEO)
Suchmaschinenoptimierung (Search Engine Optimization, SEO) beschäftigt sich mit der Optimierung einer Website, um ihre Sichtbarkeit für spezifische Suchanfragen zu erhöhen.
-
SWOT-Analyse
Bei der SWOT-Analyse handelt es sich somit um ein Framework zur Darstellung und Analyse der Stärken, Schwächen, Chancen und Risiken eines Unternehmens.
-
Synthetische Daten
Synthetische Daten sind Informationen, die künstlich erstellt und nicht durch reale Ereignisse generiert wurden. Sie dienen zum Beispiel als Ersatz für reale Testdatensätze.
-
T
Text Mining (Textanalyse)
Text Mining umfasst Prozesse, mit denen unstrukturierte Textdaten mit Software nach wertvollen Informationen analysiert werden. Es wird auch als Textanalyse bezeichnet.