D - Definitionen

Nach einer Definition suchen
  • D

    Daemon

    Ein Daemon ist in der Regel ein Prozess, der im Hintergrund läuft und und auf Anfragen reagiert. Dies kann die Weiterleitung an andere Prozesse, Programme oder Services sein.

  • Daisy Chain

    Eine Daisy-Chain ist eine Verbindung von Computer- und Peripheriegeräten oder Netzwerkknoten in Reihe. Die Geräte sind an einem Bussystem eines nach dem anderen angeordnet.

  • Dark Data

    Der Begriff Dark Data bezeichnet Datensätze, die ein Unternehmen sammelt und speichert, ohne einen festen Plan für deren Weiterverwendung oder Monetarisierung zu haben.

  • Dark Fiber

    Dark Fiber bezeichnet Lichtwellenleiter, die zwar installiert sind, zum gegenwärtigen Zeitpunkt aber nicht genutzt werden.

  • Dark Pattern

    Dark Pattern bezeichnet ein Element einer manipulativen Benutzeroberfläche, das darauf abzielt, den Nutzer zu Aktionen zu verleiten, die er sonst nicht vorgenommen hätte.

  • Darknet

    Ein Darknet ist eine geroutete Zuweisung eines IP-Adressraums, die mit gängigen Mitteln nicht aufzufinden ist. Darknet ist eine Variante eines VPN.

  • Darstellungsschicht (Presentation Layer)

    Die Darstellungsschicht ist auch als Schicht 6 des OSI-Modells bekannt. Sie ist für die Datenübersetzung, Komprimierung und Verschlüsselung zwischen Anwendungen zuständig.

  • DAS (Distributed Antenna System)

    Ein DAS ist ein Netzwerk an kleinen Antennen, die als Repeater fungieren. Sie werden etwa in Einkaufszentren und anderen großen Gebäuden für die Mobilfunkversorgung eingesetzt.

  • Data Access Objects (DAO)

    Data Access Objects (DAO) ist eine Programmierschnittstelle (API) in Microsoft Visual Basic für den Zugriff auf eine Microsoft Access-Datenbank.

  • Data as a Service (DaaS)

    Data as a Service, abgekürzt DaaS, ist eine Cloud-Computing-Technologie. Mit DaaS lassen sich Daten über das Internet bereitstellen und verteilen.

  • Data at Rest

    Der Begriff Data at Rest bezieht sich auf Daten, die nicht kontinuierlich verändert werden.

  • Data Availability (Datenverfügbarkeit)

    Datenverfügbarkeit ist die Fähigkeit, Daten bis zu einem bestimmten Leistungsniveau unter allen Umständen verfügbar zu halten.

  • Data Center (Rechenzentrum)

    Ein Rechenzentrum beschreibt einen dedizierten Bereich in einem Unternehmen, in dem alle Ressourcen für Verarbeitung, Speicherung, Verteilung, und Überwachung zusammengefasst sind.

  • Data Center as a Service (DCaaS)

    Data Center as a Service ist ein Bereitstellungsmodell, bei dem Kunden Rechenzentrumsressourcen anmieten, um dort eigene Hardware über WAN zu warten und zu nutzen.

  • Data Center Bridging (DCB)

    DCB soll das gesamte Rechenzentrum mit einer Ethernet-basierenden konvergenten Fabric vernetzen.

  • Data Center Infrastructure Management (DCIM)

    Data Center Infrastructure Management (DCIM) ist die Annäherung von IT und Gebäude-Funktionen mit dem Ziel des ganzheitlichen Data-Center-Überblicks.

  • Data Currency (Datenwährung)

    Mit Data Currency können Firmen ihren Daten einen Wert zuweisen. Dieser Wert kann monetär sein, kann aber auch bei der Priorisierung der Daten und Transaktionen helfen.

  • Data Dictionary

    Ein Data Dictionary ist eine Sammlung von Beschreibungen der Datenobjekte in einem Datenmodell, um Programmierer und Entwickler zu unterstützen.

  • Data Driven Decision Management (DDDM)

    Data Driven Decision Management ist Entscheidungsverfahren, bei dem Daten und Datenanalysen zurate gezogen werden, um geschäftliche Entscheidungen treffen zu können.

  • Data Encryption Standard (DES)

    Der Data Encryption Standard (DES) ist ein weit verbreitetes symmetrisches Verfahren zur Datenverschlüsselung, das aber inzwischen als veraltet gilt.

  • Data Governance

    Data Governance verwaltet die Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit der Unternehmensdaten, basierend auf internen Datenstandards und Richtlinien.

  • Data Gravity (Datengravitation)

    Data Gravity, auch Datengravitation genannt, beschreibt den Prozess, wie große Datensammlungen Anwendungen, Services und andere Daten „anziehen“ und an sich binden.

  • Data in motion (data in flight)

    Data in motion oder data in flight beschreibt digitale Informationen, die zwischen zwei Standorten transportiert werden. Dies kann innerhalb eines oder zwischen zwei Systemen sein.

  • Data Lake

    Im Unterschied zu hierarchischen Data Warehouses speichern Data Lakes Daten in einer flachen Architektur.

  • Data Lakehouse

    Ein Data Lakehouse ist eine Datenmanagementarchitektur, welche die Merkmale und Funktionen eines herkömmlichen Data Warehouse und eines Data Lake kombiniert.

  • Data Lifecycle Management (DLM)

    Data Lifecycle Management (DLM) ist eine Methode, um Daten während ihres Lebenszyklus zu steuern. Dieser Ansatz basiert auf vordefinierte Richtlinien.

  • Data Loss Prevention (DLP)

    Die Strategie Data Loss Prevention (DLP) soll sensible oder kritische Informationen schützen. Des Weiteren beschreibt DLP auch Software-Lösungen.

  • Data Management as a Service (DMaaS)

    Data Management as a Service (DMaaS) ist ein bestimmter Cloud-Dienst, der Unternehmen eine zentrale Speicherung von Daten aus unterschiedlichen Datenquellen ermöglicht.

  • Data Mart

    Data Marts ermöglichen es Unternehmensanwendern, Informationen für einzelne Abteilungen oder Themen abzurufen, wodurch sie schneller auf Marktsituationen reagieren können.

  • Data Masking (Datenmaskierung)

    Beim Data Masking handelt es sich um ein Verfahren zur Anonymsierung von Daten, um diese etwa zu Testzwecken zu verwenden.

  • Data Mining

    Data Mining ist eine Technik, um in Daten bestimmte geschäftlich verwertbare Muster zu finden. Dabei kommen verschiedene Techniken zum Einsatz.

  • Data Plane (DP, Datenebene, Datenschicht)

    Ein grundlegender Teil eines Netzwerks ist die Datenschicht (Datenebene, Data Plane, DP), die für den Transport des Anwender-Traffics zuständig ist.

  • Data Profiling

    Data Profiling analysiert und bewertet mit statistischen Methoden die Datenqualität eines Datensatzes. Die Erkenntnisse lassen sich vielfältig nutzen.

  • Data Protection

    Data Protection umfasst alle Prozesse und Lösungen, die Datenverlust, -kompromittierung, versehentliche Löschungen und böswilligen Zugriff verhindern.

  • Data Protection Management (DPM)

    Data Protection Management ist die Verwaltung aller relevanter Prozesse, die dafür nötig sind, dass alle Daten sicher gespeichert und einfach und schnell wiederherstellbar sind.

  • Data Retention Policy

    Eine Data Retention Policy – oder Datenaufbewahrungsrichtlinie – legt fest, welche Daten für wie lange und auf welchem Storage gesichert und dann archiviert werden sollen.

  • Data Sampling (Datenauswahl)

    Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird.

  • Data Scientist

    Ein Data Scientist verfügt über Kennntisse in Statistik, Künstlicher Intelligenz sowie Informatik und unterstützt Firmen bei der Auswertung von Daten.

  • Data Source Name (DSN)

    In einer DSN sind Informationen über die Datenstruktur sowie Name, Verzeichnis, Treiber der Datenbank und je nach DSN-Typ auch ID und Passwort des Users enthalten.

  • Data Warehouse (Information Warehouse)

    Ein Data Warehouse speichert die von verschiedenen Geschäftssystemen erfassten Daten, um sie in einer Datenbank zur weiteren Analyse bereitzustellen.

  • Data-Federation-Software

    Die Data-Federation-Software ermöglicht es einem Unternehmen, Daten in einer virtuellen Datenbank zu sammeln und für Analysen zu verwenden.

  • Data-Governance-Richtlinie

    Data-Governance-Richtlinien sind ein dokumentierter Satz von Policies, mit denen sichergestellt wird, dass die Datenbestände einer Organisation konsistent verwaltet werden.

  • Database as a Service (DBaaS)

    Database as a Service (DBaaS) ist ein Cloud-basierter Ansatz zur Verwaltung von strukturierten Daten. DBaaS bietet ähnliche Funktionen wie RDBMS.

  • Database-Marketing (Datenbankmarketing)

    Database-Marketing (Datenbankmarketing) ist zielgruppenorientiertes Direktmarketing auf der Basis detaillierter Kundeninformationen, die in Datenbanken verwaltet werden.

  • Datagramm

    Ein Datagramm ist eine abgeschlossene, unabhängige Instanz an Daten, die genügend Informationen enthält, um von der Quelle zum Zielcomputer geroutet werden zu können.

  • Dateilose Malware (fileless malware)

    Bei einem Angriff mit dateiloser Malware nutzt ein Angreifer bereits auf einem System installierte Anwendungen. Es müssen keine bösartige Software oder Dateien installiert werden.

  • Dateiserver (File Server)

    Ein Dateiserver (oder File Server) ist ein Server, auf dem Organisationen Datendateien Speichern und Verwalten, damit andere Geräte über das Netzwerk auf diese zugreifen können.

  • Dateisystem

    Dateisystem sind integraler Bestandteil eines Betriebssystems und definieren, wie Dateien benannt und wo sie logisch gespeichert werden.

  • Daten

    Diese Definition erklärt die Bedeutung von Daten,das heißtvon Informationen, die in eine Form übersetzt wurden, die eine effiziente Bewegung oder Verarbeitung unterstützt.

  • Daten-Exfiltration (Data Extrusion)

    Die Daten-Exfiltration oder Data Extrusion bezeichnet einen nicht genehmigten Abfluss von Daten, die auf einem Computer liegen.

  • Datenabstraktion

    Datenabstraktion reduziert einen Datenkörper auf das Wesentliche. Sie wird zum Beispiel bei der Datenbankentwicklung eingesetzt.

  • Datenadministration (Data Stewardship)

    Datenadministration kümmert sich um die Datenqualität, ihre Bereitstellung und ihre Übereinstimmung mit den Vorgaben des Unternehmens.

  • Datenarchivierung (Archivierung)

    Datenarchivierung ist die Sicherung und Ablage von Daten, auf die zwar wenig oder gar nicht mehr zugegriffen wird, die aber für einen längeren Zeitraum vorgehalten werden müssen.

  • Datenbank

    Eine Datenbank ist eine Sammlung von Informationen, die so organisiert sind, dass sie einfach abgerufen, verwaltet und aktualisiert werden können.

  • Datenbank-Administrator (DBA)

    Ein Datenbank-Administrator (DBA) ist für die generelle Verwaltung von Datenbanksystemen verantwortlich. Hauptaufgabe ist der störungsfreie Betrieb.

  • Datenbank-Managementsystem (DBMS)

    Mit einem Datenbank-Managementsystem (DBMS) können Nutzer Datenbanken erstellen und verwalten. Das System kann Informationen sammeln, lesen, aktualisieren und löschen.

  • Datenbankreplikation

    Bei der Datenbankreplikation werden Kopien von Datenbankdaten angelegt, entweder für ein mögliches Restore oder um verteilte Datenbanken auf dem gleichen aktuellen Stand zu halten.

  • Datenbereinigung (Data Cleaning)

    Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren. Diese werden dabei gelöscht oder korrigiert.

  • Datendeduplizierung

    Datendeduplizierung reduziert den benötigten Speicherplatz, indem es Dubletten und redundante Datenblöcke durch Zeiger ersetzt, die auf eine einzige Datenkopie referenzieren.

  • Datendeduplizierungsverhältnis

    Beim Datendeduplizierungsverhältnis gibt es eine Diskrepanz zwischen Herstellerangaben und Realität. Zahlreiche Faktoren bestimmen das Verhältnis.

  • Datendiebstahl (Data Breach)

    Wenn sensible Daten eingesehen oder geklaut werden, spricht man von einem Datendiebstahl oder -missbrauch.

  • Datenerhebung (Datenerfassung)

    Datenerhebung ist der systematische Ansatz zum Sammeln und Messen von Daten aus verschiedenen Quellen, um ein vollständiges und genaues Bild eines Bereichs zu erhalten.

  • Datenhaltung (Data Retention)

    Datenhaltung oder Data Retention beschreibt den Zeitraum, über den digitale Informationen verfügbar vorgehalten respektive gespeichert werden müssen.

  • Datenhygiene

    Unter Datenhygiene fallen alle Funktionen, die die relative Fehlerfreiheit von Daten gewährleisten. Eine hohe Datenqualität ist für Firmen elementar.

  • Datenintegrität

    Datenintegrität ist die Gewissheit, dass die Informationen unversehrt sind und nur von denjenigen, die dazu berechtigt sind, aufgerufen oder verändert werden können.

  • Datenklassifizierung

    Bei der Datenklassifizierung werden digitale Informationen in bestimmte Kategorien eingeteilt. Es ist Teil des Datenmanagements und soll bei der Ablage und dem Auffinden helfen.

  • Datenkompetenz

    Datenkompetenz ist die Fähigkeit, aus Daten aussagekräftige Informationen zu erschließen. Vor allem im Zusammenhang mit Datenanalysen spielt Datenkompetenz eine wichtige Rolle.

  • Datenmanagement

    Datenmanagement versetzt Unternehmen in die Lage, ihren Informationskreislauf so zu steuern, dass sie größtmöglichen Nutzen aus ihren Daten ziehen.

  • Datenmigration (Data Migration)

    Datenmigration ist das Verschieben von Daten innerhalb einer Infrastruktur oder von einer IT-Umgebung in eine andere. Das können Server, Storage-Systeme oder Cloud-Plattformen sein.

  • Datenmodellierung

    Bei Datenmodellierung handelt es sich um Formalisierung sowie Dokumentation von Prozessen und Ereignissen, die im Laufe der Konzeption und Entwicklung von Software auftreten.

  • Datenpunkt (Data Point)

    Ein Datenpunkt – virtuell oder physisch – ist die kleinste Einheit für Informationen. Ein Datenpunkt kann aus einer Analyse, Messung oder Untersuchung heraus definiert werden.

  • Datenqualität

    Datenqualität bezeichnet die Bewertung von Daten in Bezug auf die Frage, wie gut Daten dafür geeignet sind, ihrem Zweck in einem bestimmten Zusammenhang zu erfüllen.

  • Datenreduktion

    Die Datenreduktion beschreibt den Vorgang, die anfallende Datenmenge vor dem Speichern in einer Storage-Umgebung möglichst weit zu reduzieren.

  • Datenresidenz (Data Residency)

    Datenresidenz bezieht sich auf den geografischen Speicherort der Daten eines Unternehmens beziehungsweise den damit verbundenen regulatorischen Anforderungen.

  • Datensatz

    In der heutigen IT begegnet man immer wieder dem Begriff Datensatz. Er steht für eine Sammlung an Daten, die in der Regel in einer vorgegebenen Weise formatiert sind.

  • Datenschatten (data shadow)

    Ein Datenschatten ist die Gesamtheit der Daten, die im Laufe eines Lebens einer Person automatisch generiert, aufgezeichnet und nicht absichtlich erstellt und abgelegt werden.

  • Datenschutzkonferenz (DSK)

    Die Datenschutzkonferenz hat die Aufgabe die Grundrechte in Sachen Datenschutz zu schützen und zu wahren. Das erfolgt durch Beschlüsse, Orientierungshilfen und Standardisierungen.

  • Datensilo

    Datensilos sind ein Hindernis für effektives Arbeiten und gefährden die Datenintegrität.

  • Datenstruktur

    Eine Datenstruktur ist ein Format für die Organisation und das Speichern von Daten. Beispiele sind Arrays, Dateien, Tabellen, Bäume oder Graphen.

  • Datenvisualisierung

    Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.

  • Datenwiederherstellung (Data Recovery)

    Datenwiederherstellung ist der Prozess, verlorene, gelöschte oder beschädigte Daten erneut zur Verfügung zu stellen. Dafür lassen sich verschiedene Technologien nutzen.

  • Datenwiederherstellung (Data Restore)

    Für eine Datenwiederherstellung nutzt der Admin ein Backup, um verlorene oder geschädigte Daten am Ausgangsstandort oder an anderer Stelle wiederherzustellen und verfügbar zu machen.

  • Datenübertragungsrate, Datentransferrate

    Wie viele Daten sich innerhalb einer bestimmten Zeit übertragen lassen, wird mit der Datenübertragungsrate in Bits pro Sekunde beschrieben.

  • DCE (Distributed Computing Environment)

    DCE ist das Akronym für Distributed Computing Environment. Damit lassen sich Computer und Datenaustausch in verteilten Systemen managen.

  • DDoS-Angriff (Distributed Denial-of-Service)

    Bei einem DDoS-Angriff (Distributed Denial-of-Service) greifen mehrere kompromittierte Systeme ein Ziel an und verursachen dort eine Störung der Dienste und Verfügbarkeit.

  • DDR-SDRAM

    DDR-SDRAM ist ein Memory-Typ, den es in vier verschiedenen Versionen gibt und der hohe Datentransferraten umsetzen kann.

  • Deadlock (Verklemmung)

    Bei einem Deadlock (Systemblockade) fordert ein Programm Ressourcen an, die von einem anderen belegt werden und umgekehrt. Somit sperren sich beide Programme gegenseitig.

  • Debian

    Debian gehört zu den am weitesten verbreiteten Linux-Versionen und dient gleichzeitig als Grundlage für populäre Derivate wie Ubuntu-Linux.

  • Debugging

    Debugging ist das Identifizieren von Fehlern in einem Programmcode oder in einer Hardwareimplementierung sowie die Suche nach Lösungen, um sie zu beheben oder vermeiden.

  • Deception-Technologie

    Deception-Werkzeuge und -Techniken sollen verhindern, dass ein Angreifer, der bereits in das Netzwerk eingedrungen ist, im Unternehmen Schaden anrichten kann.

  • Decision Model and Notation (DMN)

    Decision Model and Notation (DMN) ist ein offizieller Notationsstandard für Entscheidungsregeln in Geschäftsprozessen, der von der Object Management Group (OMG) definiert wurde.

  • Decision-Support-System (DSS)

    Ein Decision-Support-System (DSS) analysiert und bereitet Geschäftsdaten so auf, so dass Manager geschäftliche Maßnahmen leichter treffen können.

  • Deconvolutional Neural Network (DNN)

    Ein Deconvolutional Neural Network (DNN) ist ein Convolutional Neural Network (CNN), das in umgekehrter Richtung funktioniert. Es ist eine eigenständige KI-Anwendung.

  • DECT (Digital Enhanced Cordless Telecommunications)

    DECT ist ein Funkstandard für die digitale drahtlose Telefonie. Im Gegensatz zu Mobilfunk ist es für den persönlichen Gebrauch in Gebäuden und kleineren Gebieten konzipiert.

  • Dedizierte Leitung

    Eine dedizierte Leitung gehört zu einem spezifischen Nutzer oder Kommunikationsendpunkt. Einer Firma steht so z.B. 24 Stunden eine Leitung zwischen zwei Punkten zur Verfügung.

  • Deduktion

    Die Deduktion oder deduktives Denken ist in der Philosophie und in der Logik ein Prozess, bei dem eine Schlussfolgerung auf mehreren Prämissen basiert.

  • Deep Learning

    Deep Learning ist eine Form des maschinellen Lernens und der künstlichen Intelligenz, welche die Art und Weise imitiert, wie Menschen bestimmte Arten von Wissen gewinnen.

  • Deep Packet Inspection (DPI)

    Deep Packet Inspection (DPI) ist eine fortschrittliche Methode, um Datenpakete zu filtern. DPI arbeitet auf der OSI-Anwendungsschicht.

  • Deep Web

    Das Deep Web ist der Teil des Internets, der nicht frei zugänglich für Suchmaschinen ist. Nach Schätzungen handelt es sich dabei um mehr als 99 Prozent der Inhalte im Internet.

  • Deepfake

    Als Deepfake oder auch Deep Fake werden Audio-, Bild- oder Videofälschungen bezeichnet, die mit Unterstützung künstlicher Intelligenz und Deep Learning angefertigt wurden.

ComputerWeekly.de
Close