Datenanalyse-Definitionen

Nach einer Definition suchen
  • A

    Amazon Athena

    Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von in Amazon S3 gespeicherten Daten mit SQL ermöglicht. Athena ein Serverless-Dienst.

  • Analytische Datenbank (Analysedatenbank)

    Eine analytische Datenbank ist ein schreibgeschütztes System, das historische Daten zu Geschäftskennzahlen wie Verkaufsleistung und Lagerbeständen speichert.

  • Augmented Analytics

    Augmented Analytics ist eine Analyseform, die maschinelles Lernen und Natural Language Processing verwendet, was zu besserer Datenanalyse und Datenwertschöpfung führen soll.

  • B

    Backpropagation-Algorithmus

    Backpropagation ist ein wichtiges mathematisches Verfahren zur Verbesserung der Vorhersagegenauigkeit beim Data Mining und Machine Learning.

  • Bestärkendes Lernen (Reinforcement Learning)

    Bestärkendes Lernen (Reinforcement Learning) ist eine Methode des maschinellen Lernens, bei der ein Agent selbstständig eine Strategie durch Belohnungen erlernt.

  • Bestätigungsfehler (Confirmation Bias)

    Eine Bestätigungsverzerrung kommt vor, wenn Informationen, die einen Glauben bestätigen, Vorrang vor Informationen haben, die ihn nicht unterstützen.

  • Big Data Analytics

    Big Data Analytics ist der Prozess der Analyse großer Datenmengen, um Informationen, wie versteckte Muster, Korrelationen, Markttrends und Kundenpräferenzen, aufzudecken.

  • Big Data as a Service (BDaaS)

    Unter Big Data as a Service versteht man die Bereitstellung von Anwendungen durch Cloud-Anbieter, die bei der Verarbeitung, Verwaltung und Analyse von Big Data unterstützen.

  • Business Intelligence (BI)

    Business Intelligence (BI) ist ein technologiegestützter Prozess zur Datenanalyse, der Führungskräften, Managern und Endanwendern hilft, Geschäftsentscheidungen zu treffen.

  • Business Process Management Software (BPMS)

    Business Process Management Software (BPMS) unterstützt Unternehmen bei der Konzeption, Modellierung, Ausführung, Automatisierung und Verbesserung einer Reihe von Prozessen.

  • Business Process Reengineering (BPR)

    Der Begriff Business Process Reengineering wurde von Michael Hammer geprägt. Dabei werden Prozesse, die zur Erzielung eines Geschäftsergebnisses erforderlich sind, umgestaltet.

  • C

    Composable Analytics

    Composable Analytics ist ein Ansatz für Datenanalysen und BI, der es Organisationen ermöglicht, Komponenten aus verschiedenen Daten- und Analyse-Tools zu kombinieren.

  • Computerlinguistik (CL)

    Computerlinguistik (CL) untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Unterstützung von Computeralgorithmen verarbeitet werden kann.

  • Crystal Reports (Crystal Reports for Enterprise)

    Mit Crystal Reports lassen sich Berichte auf Basis vieler Datenquellen schreiben. Die Software wird mittlerweile unter der Regie von SAP entwickelt.

  • Customer Intelligence (CI)

    Customer Intelligence (CI) sammelt und analysiert Kundendaten, die aus internen und externen Quellen stammen. Diese Analyse soll helfen, das Kundenverhalten zu verstehen.

  • D

    Data Lake

    Ein Data Lake ist ein Repository von Daten, die im Rohdatenformat darin gespeichert sind. Data Lakes kommen häufig zusammen mit Big-Data-Anwendungen zum Einsatz.

  • Data Lakehouse

    Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.

  • Data Mart

    Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.

  • Data Profiling

    Data Profiling ist eine Methode bei der Datensätze untersucht, analysiert, überprüft und zusammengefasst werden, um einen Einblick in die Qualität der Daten zu erhalten.

  • Data Scientist (Datenwissenschaftler)

    Ein Data Scientist oder Datenwissenschaftler sammelt, analysiert und interpretiert Daten und unterstützt damit die Entscheidungsfindung in einem Unternehmen.

  • Data Storytelling

    Data Storytelling soll komplexe Daten und Analysen in einer Geschichte verständlich erzählen. Dies trägt dazu bei, eine geschäftliche Entscheidung oder Handlung zu beeinflussen.

  • Data Warehouse as a Service (DWaaS)

    Data Warehouse as a Service (DWaaS) ist ein Cloud-Service, bei dem der Anbieter die für ein Data Warehouse notwendigen Hard- und Softwareressourcen konfiguriert und verwaltet.

  • Databricks

    Databricks ist ein Softwareunternehmen und eine Plattform für die Verarbeitung großer Datenmengen, die von den Schöpfern von Apache Spark gegründet wurde.

  • Daten

    Daten sind digitale Informationen, die so formatiert sind, dass sie von Rechensystemen verarbeitet, gespeichert, kopiert oder übertragen werden können.

  • Datenaufbereitung (Data Preparation)

    Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Diese Prozess wird Datenaufbereitung genannt.

  • Datenbereinigung

    Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.

  • Datenerfassung (Data Collection)

    Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.

  • Datenexploration

    Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.

  • Datenflussdiagramm (DFD)

    Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.

  • Datenkatalog (Data Catalog)

    Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.

  • Datenpflege (Datenkuratierung)

    Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.

  • Datenpipeline

    Eine Datenpipeline umfasst eine Reihe von Verarbeitungsschritten, die Daten von einem Quell- an ein Zielsystem verschieben und sie für geplante Geschäftszwecke transformieren.

  • Datenqualität

    Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.

  • Datentransformation

    Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.

  • Datenvalidierung

    Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.

  • Datenvisualisierung

    Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.

  • Datenvorverarbeitung (Data Preprocessing)

    Bei der Datenvorverarbeitung werden verschiedene Schritte durchlaufen, um Rohdaten oder unstrukturierte Daten für die Datenverarbeitung aufzubereiten.

  • Datenwissenschaft (Data Science)

    Datenwissenschaft wendet fortschrittliche Analysetechniken und wissenschaftliche Prinzipien an, um aus Daten wertvolle Informationen für den Geschäftsbetrieb zu gewinnen.

  • Deskriptive Analyse (beschreibende Analyse)

    Die beschreibende Analyse ist eine Form der Datenanalyse, bei der Daten aus der Vergangenheit untersucht werden, um einen Bericht über das Geschehen zu erstellen.

  • Digitales Profiling (digitales Profil)

    Digitales Profiling ist das Sammeln und Analysieren von Informationen aus dem Internet über eine Person. Digitales Profiling ist aber aus Datenschutzgründen nicht unumstritten.

  • E

    Echtzeitüberwachung

    Echtzeitüberwachung oder Real-Time Monitoring ist das Sammeln und Analysieren verschiedener IT-Leistungsparameter zu dem Zeitpunkt, an dem sie generiert werden.

  • Edge Analytics

    Edge Analytics ist eine Methode der Datenanalyse, die automatisierte Algorithmen verwendet, um Daten von Sensoren und anderen Geräten am Ort der Erfassung zu verarbeiten.

  • Embedded Analytics (eingebettete Analysen)

    Eingebettete Analysen bringen Datenanalyse- und Datenvisualisierungsfunktionen in die Anwendungen, die Mitarbeiter zur Ausführung von Prozessen und Aufgaben verwenden.

  • Embedded Business Intelligence (Embedded BI)

    Embedded Business Intelligence (Embedded BI) ist die Integration von Self-Service-Business-Intelligence-Werkzeugen in häufig genutzte Business-Applikationen.

  • Ensemble Modeling (Ensemblemodellierung)

    Beim Ensemble Modeling werden zwei oder mehr verwandte, aber unterschiedliche Analysemodelle ausgeführt und die Ergebnisse zu einem einzigen Ergebnis zusammengefasst.

  • Enterprise Data Hub

    Ein Enterprise Data Hub ist ein Managementmodell für Big Data, das ein Hadoop-Ökosystem als zentrales Data Repository nutzt. Es wird vor allem von Cloudera verwendet.

  • Entitätsbeziehungsdiagramm (Entity Relationship Diagram, ERD)

    Ein Entitätsbeziehungsdiagramm ist eine grafische Darstellung, die Beziehungen zwischen Personen, Objekten, Orten, Konzepten oder Ereignissen in einem IT-System abbildet.

  • Entscheidungsbaum

    Entscheidungsbäume sind nützlich, wenn eine schwierige Entscheidung getroffen werden muss. Sie lassen sich auch einsetzen, um Mitarbeitern Richtlinien für Entscheidungen zu geben.

  • Entscheidungsintelligenz (Decision Intelligence)

    Entscheidungsintelligenz ist ein Bereich, der Datenwissenschaft, künstliche Intelligenz und Entscheidungstheorie kombiniert, um die Entscheidungsfindung zu verbessern.

  • Entscheidungsunterstützungssystem (Decision Support System)

    Ein Entscheidungsunterstützungssystem ist eine Computeranwendung, die zur Verbesserung der Entscheidungsfähigkeit eines Unternehmens eingesetzt wird.

  • ESG-Berichterstattung (Environmental, Social and Governance)

    Ein ESG-Bericht ist eine Gelegenheit für ein Unternehmen, die Fortschritte bei der Erreichung von Umwelt-, Nachhaltigkeits- und Corporate-Governance-Zielen zu dokumentieren.

  • Explizite Daten

    Explizite Daten sind Informationen, die absichtlich bereitgestellt werden und von Unternehmen für personalisierte Marketingkampagnen verwendet werden können.

  • Extrapolation und Interpolation

    Extrapolation und Interpolation sind Methoden zur Bestimmung hypothetischer Werte für eine unbekannte Variable auf Grundlage der Beobachtung anderer Datenpunkte.

  • F

    Feature Engineering

    Beim Feature Engineering werden Rohdaten in Feature umgewandelt, die zur Erstellung eines Vorhersagemodells mit Unterstützung des maschinellen Lernens verwendet werden können.

  • Fischgrätendiagramm (Ursache-Wirkungs-Diagramm)

    Ein Fischgrätendiagramm, auch Ishikawa- oder Ursache-Wirkungs-Diagramm, ist ein Visualisierungswerkzeug zur Kategorisierung möglicher Ursachen eines Problems.

  • G

    Gantt-Diagramm

    Ein Gantt-Diagramm ist ein horizontales Balkendiagramm, das vom US-Ingenieur und Sozialwissenschaftler Henry L. Gantt zur Produktionskontrolle entwickelt wurde.

  • Geschäftsanalyse (Business Analytics, BA)

    Business Analytics (Geschäftsanalyse), umfasst eine Reihe von Disziplinen und Technologien zur Lösung von Geschäftsproblemen mit Datenanalysen und statistischen Modellen.

  • Google Cloud Dataproc

    Google Cloud Dataproc ist ein Service für die Verarbeitung großer Datensätze. Er ist Teil der Public Cloud von Google und richtet sich an Data Scientists und Datenanalysten.

  • Google Trends

    Google Trends ist ein Online Analyse Tool, das herausfiltert, welches Keyword wie oft gesucht wird und die Ergebnisse untereinander vergleicht.

  • H

    Hawthorne-Effekt

    Der Begriff Hawthorne-Effekt entstand im Zusammenhang mit den Hawthorne-Studien, die die Auswirkungen von Arbeitsbedingungen auf die Produktivität der Mitarbeiter untersuchte.

  • I

    IBM (International Business Machines)

    IBM ist ein großes international agierendes Unternehmen, dass bereits Anfang des 20. Jahrhunderts gegründet wurde und sich sehr früh auf IT-Lösungen spezialisierte.

  • Implizite Daten

    Implizite Daten sind Informationen, die unbeabsichtigt zur Verfügung gestellt und aus verfügbaren Datenströmen direkt oder durch die Analyse expliziter Daten gesammelt werden.

  • Intelligenter Agent

    Intelligente Agenten sammeln gewünschte Informationen und bereiten sie für den Anwender auf. Dazu durchsuchen sie beispielsweise das Internet oder einen Datenbestand.

  • IoT Analytics (Internet of Things Analytics)

    Diese Definition erklärt, was IoT-Analytik ist und wie Datenintegration und Big-Data-Analyse entscheidend sind, um den Nutzen aus den anfallenden riesigen Datenmengen zu ziehen.

  • IT-Monitoring (IT-Überwachung)

    IT-Monitoring beschreibt die Überwachung aller Komponenten in einer IT-Umgebung. Die Daten werden genutzt, um Optimierungspotenziale zu erkennen und Probleme zu erkennen.

  • IT-Servicemanagement (ITSM)

    IT-Servicemanagement (ITSM) ist ein strategischer Ansatz für die Entwicklung, Bereitstellung, Verwaltung und Verbesserung der Art und Weise, wie Unternehmen IT nutzen.

  • K

    Kaufabsicht (Purchase Intent)

    Die Kaufabsicht ist die Wahrscheinlichkeit, dass ein Verbraucher ein Produkt oder einen Service kaufen wird. Um diese zu bestimmen, gibt es verschiedene Werkzeuge.

  • Komplexe Ereignisverarbeitung (Complex Event Processing, CEP)

    Complex Event Processing (CEP) beschäftigt sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung von Ereignissen, die wahrscheinlich abhängig voneinander sind.

  • Konfigurationsmanagement

    Konfigurationsmanagement ist ein Governance- und Entwicklungsprozess zur Sicherstellung der Konsistenz zwischen physischen und logischen Assets in einer Betriebsumgebung.

  • Künstliches neuronales Netz (KNN)

    In der IT ist ein künstliches neuronales Netz (Artificial Neural Network) ein System aus Hard- und Software, das der Funktionsweise von Neuronen im Gehirn nachgebildet ist.

  • L

    Lineare Regression

    Lineare Regression ist eine Form der Regressionsanalyse, mit der man eine abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären versucht.

  • Logistische Regression

    Die logistische Regression ist eine statistische Analysemethode zur Vorhersage eines binären Ergebnisses auf der Grundlage früherer Beobachtungen eines Datensatzes.

  • Lückenanalyse (Gap-Analyse, Gap Analysis)

    Eine Lückenanalyse stellt fest, ob ein Unternehmen den eigenen angestrebten Zustand erreicht hat. Das kann sich auf einzelne Abteilungen oder die gesamte Firma beziehen.

  • M

    Matrix

    Das Wort Matrix hat nicht nur eine Bedeutung. Ursprünglich stammt es aus dem Lateinischen, wird aber heute sowohl in der IT, der Mathematik und der Cyberkultur anders verwendet.

  • Microsoft Azure HDInsight

    Microsoft Azure HDInsight ist ein Cloud-Dienst für Big-Data-Analysen, der bei der Verarbeitung großer Mengen von Streaming- oder historischen Daten unterstützt.

  • Microsoft Azure Machine Learning

    Microsoft Azure Machine Learning ist eine Sammlung von Services und Tools, die Entwicklern beim Training und der Bereitstellung von Machine-Learning-Modellen helfen.

  • Microsoft SQL Server

    Microsoft SQL Server ist ein relationales Datenbankmanagementsystem (RDBMS), das eine Vielzahl von Transaktionsverarbeitungs- und Analyseanwendungen unterstützt.

  • Multidimensional Expressions (MDX)

    Multidimensional Expressions (MDX) ist eine Datenbanksprache für analytische Problemstellungen und Online-Analytical-Processing-Datenbankanwendungen.

  • Multidimensional Online Analytical Processing (MOLAP)

    Multidimensionales Online Analytical Processing ist eines der wichtigsten Verfahren, um schnell auf Informationen in einem Data Warehouse zuzugreifen.

  • N

    Natural Language Processing (NLP)

    Natural Language Processing (NLP) ist die Fähigkeit eines Programms, menschliche Sprache so zu verstehen, wie sie gesprochen wird. NLP ist eine Komponente der KI.

  • Negative Korrelationen

    Mit dem Begriff Korrelation wird die Stärke einer Beziehung zweier Variablen miteinander ausgedrückt. Negative Korrelationen werden auch als Antikorrelationen bezeichnet.

  • NumPy

    NumPy ist eine Programmbibliothek für mathematische und wissenschaftliche Berechnungen von Python-Programmieraufgaben. NumPy ist eine Abkürzung für Numerical Python.

  • O

    OLAP-Würfel

    Ein OLAP-Würfel ist eine multidimensionale Datenbank, die für Data Warehousing und Online Analytical Processing (OLAP) -Anwendungen optimiert ist.

  • Online Analytical Processing (OLAP)

    Online Analytical Processing (OLAP) ist eine Verarbeitungsmethode, mit der sich Daten extrahieren und abfragen lassen, um sie unter verschiedenen Gesichtspunkten zu analysieren.

  • Operational Research (OR)

    Operational Research (OR) beinhaltet in der Regel die Entwicklung und den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung.

  • Organische Suchergebnisse

    Organische Suchergebnisse sind unbezahlte Einträge, die auf Ergebnisseiten von Suchmaschinen erscheinen. Diese basieren zum Beispiel auf Domain-Autorität, Links und SEO.

  • P

    Predictive Analytics (prädiktive Analyse)

    Predictive Analytics (prädiktive Analyse) ist eine Form der erweiterten Analyse, bei der aktuelle und historische Daten zur Vorhersage von Aktivitäten und Trends genutzt werden.

  • Predictive Modeling

    Prädiktive Modellierung ist ein mathematischer Prozess, der Data Mining und Wahrscheinlichkeitsrechnung zur Prognose von Ergebnissen einsetzt.

  • Prescriptive Analytics

    Prescriptive Analytics ist mit Descriptive und Predictive Analytics verwandt. Das Analyseverfahren soll optimale Lösungen für Probleme ermöglichen.

  • Q

    Qualitative Daten

    Qualitative Datenanalyse versucht, Fragen zu beantworten, warum Menschen sich so verhalten, wie sie es tun, und was dieses Verhalten motiviert.

  • Quantum

    Quantum bezeichnet die kleinste diskrete Einheit einer physikalischen Größe, wie Energie oder Materie. Es beschreibt quantisierte Zustände, die für Quantenmechanik untersucht werden.

  • R

    R (Programmiersprache)

    Die Programmiersprache R ist eine Open-Source-Skriptsprache, welche für statistische Berechnungen, Predictive Analytics und Datenvisualisierungen verwendet wird.

  • Risikomanagement

    Das Risikomanagement umfasst die Analyse und Bewertung von Risiken und Bedrohungen für ein Unternehmen sowie die Planung von geeigneten Maßnahmen, diese Risiken zu adressieren.

  • S

    SAP Analytics Cloud

    Analytics Cloud ist eine SaaS-BI-Plattform, die von SAP entwickelt wurde. SAP Analytics Cloud kombiniert BI- sowie Analytics-Funktionen in einem Cloud-Angebot.

  • SAP Data Hub

    Mit SAP Data Hub können Unternehmen eine Datenpipeline aus verschiedenen Quellen aufbauen, die dann in neuen datengesteuerten Anwendungen genutzt werden können.

  • SAP Predictive Analytics

    SAP Predictive Analytics ist eine BI-Software, die es Unternehmen ermöglicht, große Datensätze zu analysieren und zukünftige Ergebnisse und Verhaltensweisen vorherzusagen.

  • Self-Service Business Intelligence (Self-Service BI)

    Über Self-Service Business Intelligence (BI) können Endanwender ihre eigenen Berichte und Analysen innerhalb ihres BI-Portfolios erstellen und einsetzen.

  • Social Media (Soziale Medien)

    Soziale Medien sind Webseiten und Applikationen, über die Menschen und Firmen miteinander kommunizieren, sich mit Anwendern austauschen und Beiträge teilen können.

  • Spatial Computing (Räumliche Datenverarbeitung)

    Spatial Computing verbindet digitale und physische Welten, indem es Geräte nutzt, um Daten im Raum zu erfassen, zu verarbeiten und mit der realen Umgebung zu interagieren.

  • Suchmaschinenoptimierung (Search Engine Optimization, SEO)

    Suchmaschinenoptimierung (Search Engine Optimization, SEO) beschäftigt sich mit der Optimierung einer Website, um ihre Sichtbarkeit für spezifische Suchanfragen zu erhöhen.