ComputerWeekly.de-Definitionen
-
D
Dark Pattern
Dark Pattern bezeichnet ein Element einer manipulativen Benutzeroberfläche, das darauf abzielt, den Nutzer zu Aktionen zu verleiten, die er sonst nicht vorgenommen hätte.
-
Darknet
Ein Darknet ist eine geroutete Zuweisung eines IP-Adressraums, die mit gängigen Mitteln nicht aufzufinden ist. Darknet ist eine Variante eines VPN.
-
Darstellungsschicht (Presentation Layer)
Die Darstellungsschicht ist auch als Schicht 6 des OSI-Modells bekannt. Sie ist für die Datenübersetzung, Komprimierung und Verschlüsselung zwischen Anwendungen zuständig.
-
DAS (Distributed Antenna System)
Ein DAS ist ein Netzwerk an kleinen Antennen, die als Repeater fungieren. Sie werden etwa in Einkaufszentren und anderen großen Gebäuden für die Mobilfunkversorgung eingesetzt.
-
Data Access Objects (DAO)
Data Access Objects (DAO) ist eine Programmierschnittstelle (API) in Microsoft Visual Basic für den Zugriff auf eine Microsoft Access-Datenbank.
-
Data as a Service (DaaS)
Data as a Service, abgekürzt DaaS, ist eine Cloud-Computing-Technologie. Mit DaaS lassen sich Daten über das Internet bereitstellen und verteilen.
-
Data at Rest
Der Begriff Data at Rest bezieht sich auf Daten, die nicht kontinuierlich verändert werden.
-
Data Availability (Datenverfügbarkeit)
Datenverfügbarkeit ist die Fähigkeit, Daten bis zu einem bestimmten Leistungsniveau unter allen Umständen verfügbar zu halten.
-
Data Center (Rechenzentrum)
Ein Rechenzentrum beschreibt einen dedizierten Bereich in einem Unternehmen, in dem alle Ressourcen für Verarbeitung, Speicherung, Verteilung, und Überwachung zusammengefasst sind.
-
Data Center as a Service (DCaaS)
Data Center as a Service ist ein Bereitstellungsmodell, bei dem Kunden Rechenzentrumsressourcen anmieten, um dort eigene Hardware über WAN zu warten und zu nutzen.
-
Data Center Bridging (DCB)
DCB soll das gesamte Rechenzentrum mit einer Ethernet-basierenden konvergenten Fabric vernetzen.
-
Data Center Infrastructure Management (DCIM)
Data Center Infrastructure Management (DCIM) ist die Annäherung von IT und Gebäude-Funktionen mit dem Ziel des ganzheitlichen Data-Center-Überblicks.
-
Data Currency (Datenwährung)
Mit Data Currency können Firmen ihren Daten einen Wert zuweisen. Dieser Wert kann monetär sein, kann aber auch bei der Priorisierung der Daten und Transaktionen helfen.
-
Data Dictionary
Ein Data Dictionary ist eine Sammlung von Beschreibungen der Datenobjekte in einem Datenmodell, um Programmierer und Entwickler zu unterstützen.
-
Data Driven Decision Management (DDDM)
Data Driven Decision Management ist Entscheidungsverfahren, bei dem Daten und Datenanalysen zurate gezogen werden, um geschäftliche Entscheidungen treffen zu können.
-
Data Encryption Standard (DES)
Der Data Encryption Standard (DES) ist ein weit verbreitetes symmetrisches Verfahren zur Datenverschlüsselung, das aber inzwischen als veraltet gilt.
-
Data Governance
Data Governance verwaltet die Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit der Unternehmensdaten, basierend auf internen Datenstandards und Richtlinien.
-
Data Gravity (Datengravitation)
Data Gravity, auch Datengravitation genannt, beschreibt den Prozess, wie große Datensammlungen Anwendungen, Services und andere Daten „anziehen“ und an sich binden.
-
Data in motion (data in flight)
Data in motion oder data in flight beschreibt digitale Informationen, die zwischen zwei Standorten transportiert werden. Dies kann innerhalb eines oder zwischen zwei Systemen sein.
-
Data Lake
Ein Data Lake ist ein Repository von Daten, die im Rohdatenformat darin gespeichert sind. Data Lakes kommen häufig zusammen mit Big-Data-Anwendungen zum Einsatz.
-
Data Lakehouse
Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.
-
Data Lifecycle Management (DLM)
Data Lifecycle Management (DLM) ist eine Methode, um Daten während ihres Lebenszyklus zu steuern. Dieser Ansatz basiert auf vordefinierte Richtlinien.
-
Data Lineage (Datenherkunft)
Die Datenherkunft ist die Historie der Daten, einschließlich des Weges, den die Daten im Laufe ihrer Existenz innerhalb einer Organisation zurückgelegt haben.
-
Data Loss Prevention (DLP)
Die Strategie Data Loss Prevention (DLP) soll sensible oder kritische Informationen schützen. Des Weiteren beschreibt DLP auch Software-Lösungen.
-
Data Management as a Service (DMaaS)
Data Management as a Service (DMaaS) ist ein bestimmter Cloud-Dienst, der Unternehmen eine zentrale Speicherung von Daten aus unterschiedlichen Datenquellen ermöglicht.
-
Data Mart
Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.
-
Data Masking (Datenmaskierung)
Wenn Unternehmen Software testen, sollte dies mit möglichst realistischen Daten passieren. Originaldaten sind hierfür tabu, bei der Datenmaskierung werden Daten anonymisiert.
-
Data Mining
Data Mining ist eine Technik, um in Daten bestimmte geschäftlich verwertbare Muster zu finden. Dabei kommen verschiedene Techniken zum Einsatz.
-
Data Plane (DP, Datenebene, Datenschicht)
Ein grundlegender Teil eines Netzwerks ist die Datenschicht (Datenebene, Data Plane, DP), die für den Transport des Anwender-Traffics zuständig ist.
-
Data Profiling
Data Profiling ist eine Methode bei der Datensätze untersucht, analysiert, überprüft und zusammengefasst werden, um einen Einblick in die Qualität der Daten zu erhalten.
-
Data Protection
Data Protection umfasst alle Prozesse und Lösungen, die Datenverlust, -kompromittierung, versehentliche Löschungen und böswilligen Zugriff verhindern.
-
Data Protection Management (DPM)
Data Protection Management ist die Verwaltung aller relevanter Prozesse, die dafür nötig sind, dass alle Daten sicher gespeichert und einfach und schnell wiederherstellbar sind.
-
Data Retention Policy
Eine Data Retention Policy – oder Datenaufbewahrungsrichtlinie – legt fest, welche Daten für wie lange und auf welchem Storage gesichert und dann archiviert werden sollen.
-
Data Sampling (Datenauswahl)
Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird.
-
Data Scientist (Datenwissenschaftler)
Ein Data Scientist oder Datenwissenschaftler sammelt, analysiert und interpretiert Daten und unterstützt damit die Entscheidungsfindung in einem Unternehmen.
-
Data Source Name (DSN)
In einer DSN sind Informationen über die Datenstruktur sowie Name, Verzeichnis, Treiber der Datenbank und je nach DSN-Typ auch ID und Passwort des Users enthalten.
-
Data Storytelling
Data Storytelling soll komplexe Daten und Analysen in einer Geschichte verständlich erzählen. Dies trägt dazu bei, eine geschäftliche Entscheidung oder Handlung zu beeinflussen.
-
Data Warehouse (Information Warehouse)
Ein Data Warehouse speichert die von verschiedenen Geschäftssystemen erfassten Daten, um sie in einer Datenbank zur weiteren Analyse bereitzustellen.
-
Data Warehouse as a Service (DWaaS)
Data Warehouse as a Service (DWaaS) ist ein Cloud-Service, bei dem der Anbieter die für ein Data Warehouse notwendigen Hard- und Softwareressourcen konfiguriert und verwaltet.
-
Data-Federation-Software
Die Data-Federation-Software ermöglicht es einem Unternehmen, Daten in einer virtuellen Datenbank zu sammeln und für Analysen zu verwenden.
-
Data-Governance-Richtlinie
Data-Governance-Richtlinien sind ein dokumentierter Satz von Policies, mit denen sichergestellt wird, dass die Datenbestände einer Organisation konsistent verwaltet werden.
-
Database as a Service (DBaaS)
Database as a Service ist ein Datenbankdienst, der in einer Cloud- oder Cloud-ähnlichen Infrastruktur bereitgestellt wird. Hardware am eigenen Standort wird dabei nicht benötigt.
-
Database-Marketing (Datenbankmarketing)
Database-Marketing (Datenbankmarketing) ist zielgruppenorientiertes Direktmarketing auf der Basis detaillierter Kundeninformationen, die in Datenbanken verwaltet werden.
-
Datagramm
Ein Datagramm ist eine abgeschlossene, unabhängige Instanz an Daten, die genügend Informationen enthält, um von der Quelle zum Zielcomputer geroutet werden zu können.
-
Dateilose Malware (fileless malware)
Bei einem Angriff mit dateiloser Malware nutzt ein Angreifer bereits auf einem System installierte Anwendungen. Es müssen keine bösartige Software oder Dateien installiert werden.
-
Dateiserver (File Server)
Ein Dateiserver (oder File Server) ist ein Server, auf dem Organisationen Datendateien Speichern und Verwalten, damit andere Geräte über das Netzwerk auf diese zugreifen können.
-
Dateisystem
Dateisystem sind integraler Bestandteil eines Betriebssystems und definieren, wie Dateien benannt und wo sie logisch gespeichert werden.
-
Daten
Diese Definition erklärt die Bedeutung von Daten,das heißtvon Informationen, die in eine Form übersetzt wurden, die eine effiziente Bewegung oder Verarbeitung unterstützt.
-
Datenabstraktion
Datenabstraktion reduziert einen Datenkörper auf das Wesentliche. Sie wird zum Beispiel bei der Datenbankentwicklung eingesetzt.
-
Datenadministration (Data Stewardship)
Datenadministration kümmert sich um die Datenqualität, ihre Bereitstellung und ihre Übereinstimmung mit den Vorgaben des Unternehmens.
-
Datenarchitekt (Data Architect)
Ein Datenarchitekt (Data Architect) ist als IT- und Datenspezialist für Design und Aufbau einer Datenarchitektur innerhalb eines Unternehmens verantwortlich.
-
Datenarchitektur
Eine Datenarchitektur dokumentiert die Daten einer Organisation, bildet Datenflüsse durch die IT-Systeme ab und enthält einen Plan für das passende Datenmanagement.
-
Datenarchivierung (Archivierung)
Datenarchivierung ist die Sicherung und Ablage von Daten, auf die zwar wenig oder gar nicht mehr zugegriffen wird, die aber für einen längeren Zeitraum vorgehalten werden müssen.
-
Datenaufbereitung (Data Preparation)
Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Dies geschieht mit der Datenaufbereitung.
-
Datenbank
Eine Datenbank ist eine Sammlung von Informationen, die so organisiert sind, dass sie einfach abgerufen, verwaltet und aktualisiert werden können.
-
Datenbank-Administrator (DBA)
Ein Datenbank-Administrator (DBA) ist für die generelle Verwaltung von Datenbanksystemen verantwortlich. Hauptaufgabe ist der störungsfreie Betrieb.
-
Datenbank-Managementsystem (DBMS)
Mit einem Datenbank-Managementsystem (DBMS) können Nutzer Datenbanken erstellen und verwalten. Das System kann Informationen sammeln, lesen, aktualisieren und löschen.
-
Datenbankreplikation
Bei der Datenbankreplikation werden Kopien von Datenbankdaten angelegt, entweder für ein mögliches Restore oder um verteilte Datenbanken auf dem gleichen aktuellen Stand zu halten.
-
Datenbereinigung
Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.
-
Datenbindung
Bei Datenbindung werden zwei Datenquellen gekoppelt und synchronisiert. Eine Änderung in einem Datensatz wird automatisch im gebundenen Datensatz aktualisiert.
-
Datendeduplizierung
Datendeduplizierung reduziert den benötigten Speicherplatz, indem es Dubletten und redundante Datenblöcke durch Zeiger ersetzt, die auf eine einzige Datenkopie referenzieren.
-
Datendeduplizierungsverhältnis
Beim Datendeduplizierungsverhältnis gibt es eine Diskrepanz zwischen Herstellerangaben und Realität. Zahlreiche Faktoren bestimmen das Verhältnis.
-
Datendiebstahl (Data Breach)
Wenn sensible Daten eingesehen oder geklaut werden, spricht man von einem Datendiebstahl oder -missbrauch.
-
Datenerfassung (Data Collection)
Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.
-
Datenerhebung (Datenerfassung)
Datenerhebung ist der systematische Ansatz zum Sammeln und Messen von Daten aus verschiedenen Quellen, um ein vollständiges und genaues Bild eines Bereichs zu erhalten.
-
Datenexfiltration
Die Datenexfiltration bezeichnet einen nicht genehmigten Abfluss von Daten, die auf einem Computer liegen. Das kann durch physischen Zugang zum Rechner oder per Software erfolgen.
-
Datenexploration
Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.
-
Datenflussdiagramm (DFD)
Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.
-
Datenhaltung (Data Retention)
Datenhaltung oder Data Retention beschreibt den Zeitraum, über den digitale Informationen verfügbar vorgehalten respektive gespeichert werden müssen.
-
Datenhygiene
Unter Datenhygiene fallen alle Funktionen, die die relative Fehlerfreiheit von Daten gewährleisten. Eine hohe Datenqualität ist für Firmen elementar.
-
Datenintegrität
Datenintegrität ist die Gewissheit, dass die Informationen unversehrt sind und nur von denjenigen, die dazu berechtigt sind, aufgerufen oder verändert werden können.
-
Datenkatalog (Data Catalog)
Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.
-
Datenklassifizierung
Mit Unterstützung von Datenklassifizierung kann eine Organisation sicherstellen, dass sie die betrieblichen, lokalen sowie staatlichen Richtlinien für den Umgang mit Daten einhält.
-
Datenkompetenz
Datenkompetenz ist die Fähigkeit, aus Daten aussagekräftige Informationen zu erschließen. Vor allem im Zusammenhang mit Datenanalysen spielt Datenkompetenz eine wichtige Rolle.
-
Datenmanagement
Datenmanagement umfasst den gesamten Prozess der Erfassung, Speicherung, Organisation und Pflege von Daten, die eine Organisation erstellt und gesammelt hat.
-
Datenmigration (Data Migration)
Datenmigration beschreibt den Prozess des Verschiebens digitaler Informationen von einem Speicherort an einen anderen. Das können Hardware-Systeme, VMs oder Cloud-Services sein.
-
Datenmodellierung
Datenmodellierung ist die schematische Darstellung von Datenflüssen in einem Diagramm. Datenmodelle dienen als Vorlage für den Entwurf einer neuen Datenbank oder Anwendung.
-
Datenpflege (Datenkuratierung)
Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.
-
Datenpunkt (Data Point)
Ein Datenpunkt – virtuell oder physisch – ist die kleinste Einheit für Informationen. Ein Datenpunkt kann aus einer Analyse, Messung oder Untersuchung heraus definiert werden.
-
Datenqualität
Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.
-
Datenreduktion
Die Datenreduktion beschreibt den Vorgang, die anfallende Datenmenge vor dem Speichern in einer Storage-Umgebung möglichst weit zu reduzieren.
-
Datenresidenz (Data Residency)
Datenresidenz bezieht sich auf den geografischen Speicherort der Daten eines Unternehmens beziehungsweise den damit verbundenen regulatorischen Anforderungen.
-
Datensatz
In der heutigen IT begegnet man immer wieder dem Begriff Datensatz. Er steht für eine Sammlung an Daten, die in der Regel in einer vorgegebenen Weise formatiert sind.
-
Datenschatten (data shadow)
Ein Datenschatten ist die Gesamtheit der Daten, die im Laufe eines Lebens einer Person automatisch generiert, aufgezeichnet und nicht absichtlich erstellt und abgelegt werden.
-
Datenschutzkonferenz (DSK)
Die Datenschutzkonferenz hat die Aufgabe die Grundrechte in Sachen Datenschutz zu schützen und zu wahren. Das erfolgt durch Beschlüsse, Orientierungshilfen und Standardisierungen.
-
Datensilo
Datensilos sind ein Hindernis für effektives Arbeiten und gefährden die Datenintegrität.
-
Datenstruktur
Eine Datenstruktur ist ein Format für die Organisation und das Speichern von Daten. Beispiele sind Arrays, Dateien, Tabellen, Bäume oder Graphen.
-
Datentransformation
Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.
-
Datenvalidierung
Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.
-
Datenvisualisierung
Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.
-
Datenvorverarbeitung (Data Preprocessing)
Bei der Datenvorverarbeitung sind sechs Schritte notwendig, um Rohdaten oder unstrukturierte Daten für ein anderes Datenverarbeitungsverfahren aufzubereiten.
-
Datenwiederherstellung (Data Recovery)
Datenwiederherstellung ist der Prozess, verlorene, gelöschte oder beschädigte Daten erneut zur Verfügung zu stellen. Dafür lassen sich verschiedene Technologien nutzen.
-
Datenwiederherstellung (Data Restore)
Für eine Datenwiederherstellung nutzt der Admin ein Backup, um verlorene oder geschädigte Daten am Ausgangsstandort oder an anderer Stelle wiederherzustellen und verfügbar zu machen.
-
Datenübertragungsrate, Datentransferrate
Wie viele Daten sich innerhalb einer bestimmten Zeit übertragen lassen, wird mit der Datenübertragungsrate in Bits pro Sekunde beschrieben.
-
DCE (Distributed Computing Environment)
DCE ist das Akronym für Distributed Computing Environment. Damit lassen sich Computer und Datenaustausch in verteilten Systemen managen.
-
DDoS-Angriff (Distributed Denial-of-Service)
Bei einem DDoS-Angriff (Distributed Denial-of-Service) greifen mehrere kompromittierte Systeme ein Ziel an und verursachen dort eine Störung der Dienste und Verfügbarkeit.
-
DDR-SDRAM
DDR-SDRAM ist ein Memory-Typ, den es in vier verschiedenen Versionen gibt und der hohe Datentransferraten umsetzen kann.
-
Deadlock (Verklemmung)
Bei einem Deadlock (Systemblockade) fordert ein Programm Ressourcen an, die von einem anderen belegt werden und umgekehrt. Somit sperren sich beide Programme gegenseitig.
-
Debian
Debian ist ein freies Open-Source-Betriebssystem auf der Basis von Linux. Es ist eine der ältesten und beliebtesten Linux-Distributionen, die heute regelmäßig zum Einsatz kommen.
-
Debugging
Debugging ist das Identifizieren von Fehlern in einem Programmcode oder in einer Hardwareimplementierung sowie die Suche nach Lösungen, um sie zu beheben oder vermeiden.