Datenanalyse-Definitionen

Nach einer Definition suchen
  • A

    Amazon Athena

    Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von in Amazon S3 gespeicherten Daten mit SQL ermöglicht. Athena ein Serverless-Dienst.

  • Analytische Datenbank

    Analytische Datenbanken sind entwickelt wurden, um Business-Intelligence- (BI) und Analyse-Anwendungen als Teil eines Data Warehouses zu unterstützen.

  • Augmented Analytics

    Augmented Analytics ist eine Analyseform, die maschinelles Lernen und Natural Language Processing verwendet, was zu besserer Datenanalyse und Datenwertschöpfung führen soll.

  • B

    Backpropagation-Algorithmus

    Backpropagation ist ein wichtiges mathematisches Verfahren zur Verbesserung der Vorhersagegenauigkeit beim Data Mining und Machine Learning.

  • Bestärkendes Lernen (Reinforcement Learning)

    Bestärkendes Lernen (Reinforcement Learning) ist eine Methode des maschinellen Lernens, bei der ein Agent selbstständig eine Strategie durch Belohnungen erlernt.

  • Bestätigungsfehler (Confirmation Bias)

    Eine Bestätigungsverzerrung kommt vor, wenn Informationen, die einen Glauben bestätigen, Vorrang vor Informationen haben, die ihn nicht unterstützen.

  • Big Data Analytics

    Big Data Analytics ist der Prozess der Analyse großer Datenmengen, um Informationen, wie versteckte Muster, Korrelationen, Markttrends und Kundenpräferenzen, aufzudecken.

  • Big Data as a Service (BDaaS)

    Unter Big Data as a Service versteht man die Bereitstellung von Anwendungen durch Cloud-Anbieter, die bei der Verarbeitung, Verwaltung und Analyse von Big Data unterstützen.

  • Business Analytics (BA)

    Business Analytics (BA) ist die kontinuierliche, iterative Untersuchung vergangener Leistungen, um Erkenntnisse für die Unternehmensplanung zu gewinnen.

  • Business Intelligence (BI)

    Business Intelligence (BI) ist ein technologiegestützter Prozess zur Datenanalyse, der Führungskräften, Managern und Endanwendern hilft, Geschäftsentscheidungen zu treffen.

  • Business Process Management Software (BPMS)

    Business Process Management Software (BPMS) unterstützt Unternehmen bei der Konzeption, Modellierung, Ausführung, Automatisierung und Verbesserung einer Reihe von Prozessen.

  • C

    Crystal Reports (Crystal Reports for Enterprise)

    Mit Crystal Reports lassen sich Berichte auf Basis vieler Datenquellen schreiben. Die Software wird mittlerweile unter der Regie von SAP entwickelt.

  • Customer Intelligence (CI)

    Customer Intelligence (CI) sammelt und analysiert Kundendaten, die aus internen und externen Quellen stammen. Diese Analyse soll helfen, das Kundenverhalten zu verstehen.

  • D

    Data Lake

    Ein Data Lake ist ein Repository von Daten, die im Rohdatenformat darin gespeichert sind. Data Lakes kommen häufig zusammen mit Big-Data-Anwendungen zum Einsatz.

  • Data Lakehouse

    Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.

  • Data Mart

    Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.

  • Data Profiling

    Data Profiling ist eine Methode bei der Datensätze untersucht, analysiert, überprüft und zusammengefasst werden, um einen Einblick in die Qualität der Daten zu erhalten.

  • Data Scientist (Datenwissenschaftler)

    Ein Data Scientist oder Datenwissenschaftler sammelt, analysiert und interpretiert Daten und unterstützt damit die Entscheidungsfindung in einem Unternehmen.

  • Data Storytelling

    Data Storytelling soll komplexe Daten und Analysen in einer Geschichte verständlich erzählen. Dies trägt dazu bei, eine geschäftliche Entscheidung oder Handlung zu beeinflussen.

  • Data Warehouse as a Service (DWaaS)

    Data Warehouse as a Service (DWaaS) ist ein Cloud-Service, bei dem der Anbieter die für ein Data Warehouse notwendigen Hard- und Softwareressourcen konfiguriert und verwaltet.

  • Databricks

    Databricks ist ein Softwareunternehmen und eine Plattform für die Verarbeitung großer Datenmengen, die von den Schöpfern von Apache Spark gegründet wurde.

  • Daten

    Diese Definition erklärt die Bedeutung von Daten,das heißtvon Informationen, die in eine Form übersetzt wurden, die eine effiziente Bewegung oder Verarbeitung unterstützt.

  • Datenaufbereitung (Data Preparation)

    Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Dies geschieht mit der Datenaufbereitung.

  • Datenbereinigung

    Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.

  • Datenerfassung (Data Collection)

    Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.

  • Datenexploration

    Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.

  • Datenflussdiagramm (DFD)

    Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.

  • Datenkatalog (Data Catalog)

    Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.

  • Datenpflege (Datenkuratierung)

    Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.

  • Datenqualität

    Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.

  • Datentransformation

    Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.

  • Datenvalidierung

    Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.

  • Datenvisualisierung

    Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.

  • Datenvorverarbeitung (Data Preprocessing)

    Bei der Datenvorverarbeitung sind sechs Schritte notwendig, um Rohdaten oder unstrukturierte Daten für ein anderes Datenverarbeitungsverfahren aufzubereiten.

  • Deskriptive Analyse (Descriptive Analytics)

    Die deskriptive Analyse ist eine Vorstufe der Datenverarbeitung, die historische Daten zusammenfasst, um Informationen für weitere Analysen vorzubereiten.

  • E

    Echtzeitüberwachung

    Echtzeitüberwachung oder Real-Time Monitoring ist das Sammeln und Analysieren verschiedener IT-Leistungsparameter zu dem Zeitpunkt, an dem sie generiert werden.

  • Edge Analytics

    Edge Analytics ist eine Methode der Datenanalyse, die automatisierte Algorithmen verwendet, um Daten von Sensoren und anderen Geräten am Ort der Erfassung zu verarbeiten.

  • Embedded Business Intelligence (Embedded BI)

    Embedded Business Intelligence (Embedded BI) ist die Integration von Self-Service-Business-Intelligence-Werkzeugen in häufig genutzte Business-Applikationen.

  • Ensemble Modeling (Ensemble-Modellierung)

    Beim Ensemble Modeling (Ensemble-Modellierung) werden verwandte, aber unterschiedliche Analysemodelle ausgeführt und die Ergebnisse zu einem Ergebnis zusammengeführt.

  • Enterprise Data Hub

    Ein Enterprise Data Hub ist ein Managementmodell für Big Data, das ein Hadoop-Ökosystem als zentrales Data Repository nutzt. Es wird vor allem von Cloudera verwendet.

  • Entitätsbeziehungsdiagramm (Entity Relationship Diagram, ERD)

    Das Entitätsbeziehungsdiagramm ist eine grafische Darstellung, die Beziehungen zwischen Personen, Objekten, Orten, Konzepten oder Ereignissen innerhalb eines IT-Systems abbildet.

  • Entscheidungsbaum

    Entscheidungsbäume sind nützlich, wenn eine schwierige Entscheidung getroffen werden muss. Sie lassen sich auch einsetzen, um Mitarbeitern Richtlinien für Entscheidungen zu geben.

  • ESG-Berichterstattung (Environmental, Social and Governance)

    Ein ESG-Bericht ist eine Gelegenheit für ein Unternehmen, die Fortschritte bei der Erreichung von Umwelt-, Nachhaltigkeits- und Corporate-Governance-Zielen zu dokumentieren.

  • Explizite Daten

    Explizite Daten sind Informationen, die absichtlich bereitgestellt werden und von Unternehmen für personalisierte Marketingkampagnen verwendet werden können.

  • F

    Feature Engineering

    Beim Feature Engineering werden Rohdaten in Feature umgewandelt, die zur Erstellung eines Vorhersagemodells mit Unterstützung des maschinellen Lernens verwendet werden können.

  • Fischgrätendiagramm (Ursache-Wirkungs-Diagramm)

    Ein Fischgrätendiagramm, auch Ursache-Wirkungs-Diagramm, ist ein Instrument zur Visualisierung und Kategorisierung möglicher Ursachen eines Problems.

  • G

    Gantt-Diagramm

    Ein Gantt-Diagramm ist ein horizontales Balkendiagramm, das vom US-Ingenieur und Sozialwissenschaftler Henry L. Gantt zur Produktionskontrolle entwickelt wurde.

  • Google Cloud Dataproc

    Google Cloud Dataproc ist ein Service für die Verarbeitung großer Datensätze. Er ist Teil der Public Cloud von Google und richtet sich an Data Scientists und Datenanalysten.

  • Google Trends

    Google Trends ist ein Online Analyse Tool, das herausfiltert, welches Keyword wie oft gesucht wird und die Ergebnisse untereinander vergleicht.

  • I

    Implizite Daten

    Implizite Daten sind Informationen, die unbeabsichtigt zur Verfügung gestellt und aus verfügbaren Datenströmen direkt oder durch die Analyse expliziter Daten gesammelt werden.

  • Intelligenter Agent

    Intelligente Agenten sammeln gewünschte Informationen und bereiten sie für den Anwender auf. Dazu durchsuchen sie beispielsweise das Internet oder einen Datenbestand.

  • IoT Analytics (Internet of Things Analytics)

    Diese Definition erklärt, was IoT-Analytik ist und wie Datenintegration und Big-Data-Analyse entscheidend sind, um den Nutzen aus den anfallenden riesigen Datenmengen zu ziehen.

  • IT-Monitoring (IT-Überwachung)

    IT-Monitoring beschreibt die Überwachung aller Komponenten in einer IT-Landschaft. Die Daten lassen sich nutzen, um Optimierungspotenziale zu erkennen und IT-Vorhersagen zu treffen.

  • IT-Servicemanagement (ITSM)

    IT-Servicemanagement (ITSM) ist ein strategischer Ansatz für die Entwicklung, Bereitstellung, Verwaltung und Verbesserung der Art und Weise, wie Unternehmen IT nutzen.

  • K

    Komplexe Ereignisverarbeitung (Complex Event Processing, CEP)

    Complex Event Processing (CEP) beschäftigt sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung von Ereignissen, die wahrscheinlich abhängig voneinander sind.

  • Konfigurationsmanagement

    Konfigurationsmanagement ist ein Governance- und Entwicklungsprozess zur Sicherstellung der Konsistenz zwischen physischen und logischen Assets in einer Betriebsumgebung.

  • Künstliches neuronales Netz (KNN)

    In der IT ist ein künstliches neuronales Netz (Artificial Neural Network) ein System aus Hard- und Software, das der Funktionsweise von Neuronen im Gehirn nachgebildet ist.

  • L

    Lineare Regression

    Lineare Regression ist eine Form der Regressionsanalyse, mit der man eine abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären versucht.

  • Logistische Regression

    Die logistische Regression ist eine statistische Analysemethode zur Vorhersage eines binären Ergebnisses auf der Grundlage früherer Beobachtungen eines Datensatzes.

  • Lückenanalyse (Gap-Analyse)

    Eine Lückenanalyse ist eine Methode zur Bewertung der Leistung einer Geschäftseinheit, um abzuleiten, ob die Geschäftsanforderungen oder -ziele erfüllt werden.

  • M

    Matrix

    Das Wort Matrix hat nicht nur eine Bedeutung. Ursprünglich stammt es aus dem Lateinischen, wird aber heute sowohl in der IT, der Mathematik und der Cyberkultur anders verwendet.

  • Microsoft Azure HDInsight

    Microsoft Azure HDInsight ist ein Cloud-Dienst für Big-Data-Analysen, der bei der Verarbeitung großer Mengen von Streaming- oder historischen Daten unterstützt.

  • Microsoft Azure Machine Learning

    Microsoft Azure Machine Learning ist eine Sammlung von Services und Tools, die Entwicklern beim Training und der Bereitstellung von Machine-Learning-Modellen helfen.

  • Microsoft SQL Server

    Microsoft SQL Server ist ein relationales Datenbankmanagementsystem, das eine Vielzahl von Transaktionsverarbeitungs- und Analyseanwendungen unterstützt.

  • Multidimensional Expressions (MDX)

    Multidimensional Expressions (MDX) ist eine Datenbanksprache für analytische Problemstellungen und Online-Analytical-Processing-Datenbankanwendungen.

  • Multidimensional Online Analytical Processing (MOLAP)

    Multidimensionales Online Analytical Processing ist eines der wichtigsten Verfahren, um schnell auf Informationen in einem Data Warehouse zuzugreifen.

  • N

    Natural Language Processing (NLP)

    Natural Language Processing (NLP) ist die Fähigkeit eines Programms, menschliche Sprache so zu verstehen, wie sie gesprochen wird. NLP ist eine Komponente der KI.

  • Negative Korrelationen

    Mit dem Begriff Korrelation wird die Stärke einer Beziehung zweier Variablen miteinander ausgedrückt. Negative Korrelationen werden auch als Antikorrelationen bezeichnet.

  • O

    OLAP-Würfel

    Ein OLAP-Würfel ist eine multidimensionale Datenbank, die für Data Warehousing und Online Analytical Processing (OLAP) -Anwendungen optimiert ist.

  • Online Analytical Processing (OLAP)

    Online Analytical Processing (OLAP) ist eine Methode, die es Analysten ermöglicht, Daten zu extrahieren und abzufragen, um sie aus verschiedenen Blickwinkeln zu analysieren.

  • Operational Research (OR)

    Operational Research (OR) beinhaltet in der Regel die Entwicklung und den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung.

  • Organische Suchergebnisse

    Organische Suchergebnisse sind unbezahlte Einträge, die auf Ergebnisseiten von Suchmaschinen erscheinen. Diese basieren zum Beispiel auf Domain-Autorität, Links und SEO.

  • P

    Predictive Analytics

    Predictive Analytics ist eine Form von Advanced Analytics, die sowohl auf neue als auch historische Daten zur Vorhersage von Aktivitäten, Verhalten und Trends zurückgreift.

  • Predictive Modeling

    Prädiktive Modellierung ist ein mathematischer Prozess, der Data Mining und Wahrscheinlichkeitsrechnung zur Prognose von Ergebnissen einsetzt.

  • Prescriptive Analytics

    Prescriptive Analytics ist mit Descriptive und Predictive Analytics verwandt. Das Analyseverfahren soll optimale Lösungen für Probleme ermöglichen.

  • Q

    Quantum

    In der Physik wird unter Quant ein Objekt verstanden, welches durch einen Zustandswechsel in einem System mit diskreten Werten einer physikalischen Größe erzeugt wird.

  • R

    R (Programmiersprache)

    Die Programmiersprache R ist eine Open-Source-Skriptsprache, welche vor allem für statistische Berechnungen, Predictive Analytics und Datenvisualisierungen verwendet wird.

  • Risikomanagement

    Das Risikomanagement umfasst die Analyse und Bewertung von Risiken und Bedrohungen für ein Unternehmen sowie die Planung von geeigneten Maßnahmen, diese Risiken zu adressieren.

  • S

    SAP Analytics Cloud

    Analytics Cloud ist eine SaaS-BI-Plattform, die von SAP entwickelt wurde. SAP Analytics Cloud kombiniert BI- sowie Analytics-Funktionen in einem Cloud-Angebot.

  • SAP Data Hub

    Mit SAP Data Hub können Unternehmen eine Datenpipeline aus verschiedenen Quellen aufbauen, die dann in neuen datengesteuerten Anwendungen genutzt werden können.

  • SAP Predictive Analytics

    SAP Predictive Analytics ist eine BI-Software, die es Unternehmen ermöglicht, große Datensätze zu analysieren und zukünftige Ergebnisse und Verhaltensweisen vorherzusagen.

  • Self-Service Business Intelligence (Self-Service BI)

    Über Self-Service Business Intelligence (BI) können Endanwender ihre eigenen Berichte und Analysen innerhalb ihres BI-Portfolios erstellen und einsetzen.

  • Social Media (Soziale Medien)

    Soziale Medien sind Webseiten und Applikationen, über die Menschen und Firmen miteinander kommunizieren, sich mit Anwendern austauschen und Beiträge teilen können.

  • Suchmaschinenoptimierung (Search Engine Optimization, SEO)

    Suchmaschinenoptimierung (Search Engine Optimization, SEO) beschäftigt sich mit der Optimierung einer Website, um ihre Sichtbarkeit für spezifische Suchanfragen zu erhöhen.

  • SWOT-Analyse

    Bei der SWOT-Analyse handelt es sich somit um ein Framework zur Darstellung und Analyse der Stärken, Schwächen, Chancen und Risiken eines Unternehmens.

  • Synthetische Daten

    Synthetische Daten sind Informationen, die künstlich erstellt und nicht durch reale Ereignisse generiert wurden. Sie dienen zum Beispiel als Ersatz für reale Testdatensätze.

  • T

    Text Mining (Textanalyse)

    Text Mining umfasst Prozesse, mit denen unstrukturierte Textdaten mit Software nach wertvollen Informationen analysiert werden. Es wird auch als Textanalyse bezeichnet.

ComputerWeekly.de
Close