Datenverwaltung-Definitionen

  • A

    Amazon Elastic MapReduce (Amazon EMR)

    Amazon Elastic MapReduce (EMR) ist ein Amazon Web Service (AWS) für Datenverarbeitung und Analyse. Amazon EMR basiert auf dem Hadoop-Framework.

  • Amazon Kinesis

    Amazon Kinesis, eine Cloud-Plattform für Data Streaming der Amazon Web Services (AWS), verarbeitet bis zu mehrere Hundert Terabyte Daten in Echtzeit.

  • Amazon Redshift

    Amazon Redshift ist ein vollständig verwalteter Data-Warehouse-Service. Amazon Redshift ist vor allem für analytische Workloads in der Cloud gedacht.

  • Apache Falcon

    Apache Falcon ist ein Tool zur Überwachung von Data Pipelines in Hadoop-Clustern, um eine konsistente Leistung für komplexe Prozesse sicherzustellen.

  • Apache Flink

    Apache Flink ist eine verteilte Data-Processing-Plattform für den Einsatz in Big-Data-Umgebungen, insbesondere die Analyse von in Hadoop-Clustern gespeicherten Daten.

  • Apache Hadoop

    Das Framework Apache Hadoop ist ein Open-Source-Projekt für rechenintensive Prozesse mit großen Datenmengen. Das Hadoop-Projekt besteht aus mehreren Modulen.

  • Apache Hadoop YARN (Yet Another Resource Negotiator)

    Apache Hadoop YARN (Yet Another Resource Negotiator) ist eine Cluster-Management-Technologie, die mit der zweiten Version von Hadoop eingeführt wurde.

  • Apache HBase

    Apache HBase ist eine Key-Value-Datenbank, die entwickelt wurde, um oberhalb des Hadoop Distributed File Systems (HDFS) als Teil von Hadoop zu laufen.

  • Apache Hive

    Apache Hive ist ein Open-Source Data Warehouse-System für Abfragen und Analysen großer, in Hadoop-Dateien gespeicherter Datensets.

  • Apache Pig

    Apache Pig ist eine Open-Source-Technologie, die eine Möglichkeit für die parallele Programmierung von MapReduce-Jobs auf Hadoop-Clustern bietet.

  • Apache Spark

    Apache Spark ist ein Open-Source-Framework für Parallel Processing, das Anwendern umfangreiche Datenanalyse auf verteilten Cluster-Systemen erlaubt.

  • Apache Storm

    Apache Storm ist ein Open-Source-Berechnungssystem für die Datenverarbeitung mit Hadoop, das von der Apache Software Foundation entwickelt wird.

  • C

    Conformed Dimension

    Conformed Dimensions sind Dimensionen, die so organisiert sind, dass sie von unterschiedlichen Data Marts gemeinsam genutzt werden können.

  • D

    Data Governance

    Data Governance umfasst das Management der Verfügbarkeit, Benutzerfreundlichkeit, Integrität und Sicherheit der Daten, die eine Firma verwendet.

  • Data Sampling (Datenauswahl)

    Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird.

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close