ComputerWeekly.de-Definitionen

Nach einer Definition suchen
  • C

    Continuous Delivery (CD)

    Continuous Delivery ist eine Variante der agilen Softwarebereitstellung, bei der Entwickler Software vor dem Wechsel in die produktive Umgebung in kleinen Portionen testen.

  • Control Framework COSO

    Ein Control Framework wie COSO kann Praktiken und Prozesse etablieren, die Mehrwerte für das Unternehmen schaffen und Risiken minimieren.

  • Control Plane (CP, Kontrollebene, Kontrollschicht)

    Ein grundlegender Teil eines Netzwerks ist die Control Plane (Kontrollschicht), die für das Leiten des Traffics zuständig ist.

  • COPE (Corporate-Owned, Personally-Enabled)

    Beim COPE-Modell gehören die mobilen Arbeitsgeräte dem Unternehmen, allerdings können Mitarbeiter sie auch privat nutzen.

  • Copy Data Management (CDM)

    Copy Data Management (CDM) ist ein Lösungsansatz um den Speicherverbrauch zu reduzieren. Dadurch wird eine Duplizierung von Produktionsdaten überflüssig.

  • Core Router

    Ein Core Router leitet im Gegensatz zu einem Edge Router Netzwerkpakete nur innerhalb eines Netzwerks weiter (Forwarding) und nicht netzwerkübergreifend.

  • Corporate Governance

    Corporate Governance umfasst Regeln und Prozesse, mit denen Unternehmen rechtlich einwandfreies und ethisch korrektes Handeln sicherstellen wollen.

  • Corporate Performance Management (CPM)

    Corporate Performance Management ist ein Teilbereich von Business Intelligence. Dabei wird mittels Kennzahlen die Leistung einer Organisation erfasst.

  • CPE (Customer Premises Equipment)

    Mit CPE oder Customer Premises Equipment werden Geräte oder Ausrüstung bezeichnet, die sich am physischen Standort des Endkunden befindet.

  • Cracker

    Cracker werden oft fälschlicherweise Hacker genannt. Dabei ist ein Cracker die Person, die in Computer und Netzwerke einzubrechen versucht.

  • CrashPlan

    CrashPlan ermöglicht die Sicherung beliebiger, auch gerade geöffneter Daten auf lokale Laufwerke, Cloud-Storage oder andere entfernte Speicherorte.

  • CRC-4 (Cyclic Redundany Check 4)

    CRC-4 steht für Cyclic Redundancy Check 4. Damit werden Datenübertragungen in E1-Trunk-Leitungen auf Fehler überprüft.

  • Credential stuffing

    Credential stuffing bezeichnet den Missbrauch von Anmeldeinformationen. Gestohlene Zugangsdaten werden verwendet, um Zugang zu Konten auf einer Reihe von Websites zu erlangen.

  • Crimeware

    Crimeware ist ein Computerprogramm oder eine Sammlung von Programmen, die gezielt dazu bestimmt sind, illegal Aktivitäten im Internet zu erleichtern.

  • CRM-Analyse

    CRM-Analyse bietet die Möglichkeit, erfasste Kundendaten zu analysieren und zu visualisieren. Ziel ist eine bessere, produktivere Kundenbeziehung.

  • Crossover-Kabel

    Crossover-Kabel werden benutzt, um zwei Computer miteinander zu verbinden. Moderne Netzwerkkarten können die Verbindungen aber selbst kreuzen.

  • Crystal Reports (Crystal Reports for Enterprise)

    Mit Crystal Reports lassen sich Berichte auf Basis vieler Datenquellen schreiben. Die Software wird mittlerweile unter der Regie von SAP entwickelt.

  • CSMA/CA (Carrier Sense Multiple Access/Collision Avoidance)

    In 802.11-Netzwerken dient CSMA/CA der Kollisionsvermeidung. Hierbei wird eine durch einen Backoff Factor definierte Zeitspanne abgewartet, bis der Kanal frei ist.

  • CSMA/CD (Carrier Sense Multiple Access/Collision Detect)

    Carrier Sense Multiple Access/Collision Detect (CSMA/CD) ist ein Protokoll, das den Zugriff in Ethernet-Netzwerken regelt.

  • CSR (Certificate Signing Request)

    Wenn Sie sich ein SSL-Zertifikat von einer CA (Certification Authority) ausstellen lassen wollen, dann ist ein CSR (Certificate Signing Request) erforderlich.

  • CSU/DSU (Channel Service Unit/Data Service Unit)

    Ein CSU/DSU (Channel Service Unit/Data Service Unit) wandelt digitale Data Frames von LAN- auf WAN-Tauglichkeit um und andersherum. Das Gerät gibt es als separate Einheit.

  • Cubic RAID

    Cubic RAID ist ein multidimensionales RAID-Verfahren, das auf einer Grid-Architektur basiert und Flash-Storage vor Datenverlust schützen soll.

  • Customer Experience Management (CEM)

    Customer Experience Management (CEM) umfasst alle Methoden, mit denen eine Firma Interaktionen mit Kunden beeinflusst. Ziel ist die Kundenbindung.

  • Customer Intelligence (CI)

    Customer Intelligence (CI) ist ein Verfahren zur Analyse von Kundendaten. Das von Ziel Customer Intelligence ist, Kunden besser verstehen zu können.

  • Customer Relationship Management (CRM)

    Customer Relationship Management (CRM) umfasst Anwendungen (On-Premise oder SaaS) und Funktionen für die Verwaltung von Kunden eines Unternehmens.

  • CVE

    CVE (Common Vulnerabilities and Exposures) ist ein Industriestandard zur Kennzeichnung von Sicherheitslücken und bekannten Sicherheitsbedrohungen.

  • CVSS (Common Vulnerability Scoring System)

    Das CVSS (Common Vulnerability Scoring System) ist ein Industriesstandard zur Einstufung des Risikos von Sicherheitslücken in Software.

  • CWDM (Coarse Wavelength Division Multiplexing)

    CWDM steht für Coarse Wavelength Division Multiplexing. Mit diesem Verfahren lassen sich Daten über Glasfaserkabel per Laser mit Licht verschiedener Wellenlänge übertragen.

  • Cyber-Erpressung

    Cyber-Erpressung findet über das Internet statt. Meist werden dafür DoS-Attacken (Denial of Service) oder Ransomware genutzt.

  • Cybersicherheit

    Cybersicherheit umfasst alle Maßnahmen zur Absicherung von IT-Systemen wie Applikationssicherheit, Netzwerksicherheit und Schulungen der Mitarbeiter im Unternehmen.

  • Cyberversicherung

    Mit Hilfe einer Cyberversicherung können sich Unternehmen gegen Schäden aus IT-Sicherheitsvorfällen oder Hackerangriffen absichern.

  • Cyborg-Anthropologe

    Ein Cyborg-Anthropologe erforscht die Interaktion zwischen Menschen und Computern.

  • Data Center Chiller (Kühlaggregat)

    Kühlaggregate halten die Temperatur in einem Data Center auf einem Niveau, auf dem Server und andere darin verwendete Systeme nicht überhitzen.

  • Microsoft Client Hyper-V

    Client Hyper-V ist Microsofts Typ-1-Hypervisor zum lokalen Hosten virtueller Maschinen. Client Hyper-V ist für Windows 8 und Windows 10 verfügbar.

  • D

    D2D2C (disk-to-disk-to-cloud)

    D2D2C-Backup beschreibt einen Vorgang, bei dem Daten zuerst lokal gesichert und später verschlüsselt auf einen Cloud-Speicher übertragen werden.

  • Dark Data

    Dark Data sind ungenutzte Daten. Mit Einzug von Big Data nennt man auch nicht analysierte Daten so. Obsolete Datenträger sind hier auch anzusiedeln.

  • Dark Storage

    Dark Storage bedeuten Kapazitäten, die zugewiesen sind, aber nicht genutzt werden.

  • Darknet

    Ein Darknet ist eine geroutete Zuweisung eines IP-Adressraums, die mit gängigen Mitteln nicht aufzufinden ist. Darknet ist eine Variante eines VPN.

  • Darstellungsschicht (Presentation Layer)

    Die Darstellungsschicht ist auch als Schicht 6 des OSI-Modells bekannt. Sie ist für die Datenübersetzung, Komprimierung und Verschlüsselung zwischen Anwendungen zuständig.

  • DASD (Direct Access Storage Device)

    DASD bezeichnet ein Speichergerät mit Direktzugriff.

  • Data Access Objects (DAO)

    Data Access Objects (DAO) ist eine Programmierschnittstelle (API) in Microsoft Visual Basic für den Zugriff auf eine Microsoft Access-Datenbank.

  • Data as a Service (DaaS)

    Data as a Service, abgekürzt DaaS, ist eine Cloud-Computing-Technologie. Mit DaaS lassen sich Daten über das Internet bereitstellen und verteilen.

  • Data at Rest

    Der Begriff Data at Rest bezieht sich auf Daten, die nicht kontinuierlich verändert werden.

  • Data Availability (Datenverfügbarkeit)

    Datenverfügbarkeit ist die Fähigkeit, Daten bis zu einem bestimmten Leistungsniveau unter allen Umständen verfügbar zu halten.

  • Data Center (Rechenzentrum)

    Ein Rechenzentrum ist eine physische oder virtuelle Lagerstätte für die Speicherung, Verwaltung und Verarbeitung von Daten und Informationen.

  • Data Center as a Service (DCaaS)

    Data Center as a Service beschreibt die bedarfsgerechte Nutzung von IT-Kapazitäten eines Drittanbieters, der diese über ein WAN zur Verfügung stellt.

  • Data Center Bridging (DCB)

    DCB soll das gesamte Rechenzentrum mit einer Ethernet-basierenden konvergenten Fabric vernetzen.

  • Data Center Infrastructure Efficiency (DCIE)

    Data Center Infrastructure Efficiency (DCIE) ist eine Kennzahl zur Messung der Energieeffizienz eines Data Centers und wird in Prozent angegeben.

  • Data Center Infrastructure Management (DCIM)

    Data Center Infrastructure Management (DCIM) ist die Annäherung von IT und Gebäude-Funktionen mit dem Ziel des ganzheitlichen Data-Center-Überblicks.

  • Data Encryption Standard (DES)

    Der Data Encryption Standard (DES) ist ein weit verbreitetes symmetrisches Verfahren zur Datenverschlüsselung, das aber inzwischen als veraltet gilt.

  • Data Governance

    Data Governance verwaltet die Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit der Unternehmensdaten, basierend auf internen Datenstandards und Richtlinien.

  • Data Lake

    Im Unterschied zu hierarchischen Data Warehouses speichern Data Lakes Daten in einer flachen Architektur.

  • Data Lifecycle Management (DLM)

    Data Lifecycle Management (DLM) ist eine Methode, um Daten während ihres Lebenszyklus zu steuern. Dieser Ansatz basiert auf vordefinierte Richtlinien.

  • Data Link Layer (Datenverbindungsschicht, Sicherungsschicht)

    Im OSI-Modell (Open Systems Interconnect) entspricht die Datenverbindungsschicht (Data Link Layer) Layer 2 und sorgt für den korrekten Datenempfang.

  • Data Loss Prevention (DLP)

    Die Strategie Data Loss Prevention (DLP) soll sensible oder kritische Informationen schützen. Des Weiteren beschreibt DLP auch Software-Lösungen.

  • Data Mart

    Ein Data Mart ist ein Data Repository, das einer bestimmten Gruppe von Mitarbeitern (Knowledge Worker) in einer Organisation zur Datenanalyse dient.

  • Data Masking (Datenmaskierung)

    Beim Data Masking handelt es sich um ein Verfahren zur Anonymsierung von Daten, um diese etwa zu Testzwecken zu verwenden.

  • Data Mining

    Data Mining ist eine Technik, um in Daten bestimmte geschäftlich verwertbare Muster zu finden. Dabei kommen verschiedene Techniken zum Einsatz.

  • Data Plane (DP, Datenebene, Datenschicht)

    Ein grundlegender Teil eines Netzwerks ist die Datenschicht (Datenebene, Data Plane, DP), die für den Transport des Anwender-Traffics zuständig ist.

  • Data Profiling

    Data Profiling analysiert und bewertet mit statistischen Methoden die Datenqualität eines Datensatzes. Die Erkenntnisse lassen sich vielfältig nutzen.

  • Data Protection

    Data Protection umfasst alle Prozesse und Lösungen, die Datenverlust, -kompromittierung, versehentliche Löschungen und böswilligen Zugriff verhindern.

  • Data Protection Management (DPM)

    Data Protection Management ist die Verwaltung aller relevanter Prozesse, die dafür nötig sind, dass alle Daten sicher gespeichert und einfach und schnell wiederherstellbar sind.

  • Data Retention Policy

    Data Retention muss für jedes Unternehmen nach unterschiedlichen Regeln und Gesetzen aufgebaut werden.

  • Data Sampling (Datenauswahl)

    Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird.

  • Data Warehouse (Information Warehouse)

    Ein Data Warehouse speichert die von verschiedenen Geschäftssystemen erfassten Daten, um sie in einer Datenbank zur weiteren Analyse bereitzustellen.

  • Data Warehouse Appliance

    Eine Data Warehouse Appliance läuft auf einem vorkonfigurierten Server und bringt ein eigenes Betriebssystem sowie Datenbank-Management-System mit.

  • Data Warehouse as a Service (DWaaS)

    DWaaS ist ein Outsourcing-Modell, bei dem ein Service-Provider die für ein Data Warehouse benötigten Ressourcen konfiguriert, verwaltet und wartet.

  • Data-Federation-Software

    Die Data-Federation-Software ermöglicht es einem Unternehmen, Daten in einer virtuellen Datenbank zu sammeln und für Analysen zu verwenden.

  • Data-Governance-Richtlinie

    Data-Governance-Richtlinien sind ein dokumentierter Satz von Policies, mit denen sichergestellt wird, dass die Datenbestände einer Organisation konsistent verwaltet werden.

  • Database as a Service (DBaaS)

    Database as a Service (DBaaS) ist ein Cloud-basierter Ansatz zur Verwaltung von strukturierten Daten. DBaaS bietet ähnliche Funktionen wie RDBMS.

  • Datagramm

    Ein Datagramm ist eine abgeschlossene, unabhängige Instanz an Daten, die genügend Informationen enthält, um von der Quelle zum Zielcomputer geroutet werden zu können.

  • Dateilose Malware

    Dateilose Malware injiziert beispielsweise Code in laufende Prozesse, statt sich auf der Festplatte zu installieren.

  • Daten-Exfiltration (Data Extrusion)

    Die Daten-Exfiltration oder Data Extrusion bezeichnet einen nicht genehmigten Abfluss von Daten, die auf einem Computer liegen.

  • Datenabstraktion

    Datenabstraktion reduziert einen Datenkörper auf das Wesentliche. Sie wird zum Beispiel bei der Datenbankentwicklung eingesetzt.

  • Datenadministration (Data Stewardship)

    Datenadministration kümmert sich um die Datenqualität, ihre Bereitstellung und ihre Übereinstimmung mit den Vorgaben des Unternehmens.

  • Datenarchivierung (Archivierung)

    Datenarchivierung ist die Sicherung und Ablage von Daten, auf die zwar wenig oder gar nicht mehr zugegriffen wird, die aber für einen längeren Zeitraum vorgehalten werden müssen.

  • Datenbank-Administrator (DBA)

    Ein Datenbank-Administrator (DBA) ist für die generelle Verwaltung von Datenbanksystemen verantwortlich. Hauptaufgabe ist der störungsfreie Betrieb.

  • Datenbankmanagementsystem (DBMS)

    Ein Datenbankmanagementsystem (DBMS) ist eine Software, über die ein oder mehrere Anwender beziehungsweise Entwickler Daten in eine Datenbank erstellen und abrufen können.

  • Datenbankreplikation

    Die Datenbankreplikation ist ein regelmäßiger Kopiervorgang, um Inkonsistenzen zu vermeiden. Alle Nutzer arbeiten so mit dem gleichen Datenbestand.

  • Datenbereinigung (Data Cleaning)

    Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren. Diese werden dabei gelöscht oder korrigiert.

  • Datendeduplizierung

    Datendeduplizierung reduziert den benötigten Speicherplatz, indem es Dubletten und redundante Datenblöcke durch Zeiger ersetzt, die auf eine einzige Datenkopie referenzieren.

  • Datendeduplizierungsverhältnis

    Beim Datendeduplizierungsverhältnis gibt es eine Diskrepanz zwischen Herstellerangaben und Realität. Zahlreiche Faktoren bestimmen das Verhältnis.

  • Datendiebstahl (Data Breach)

    Wenn sensible Daten eingesehen oder geklaut werden, spricht man von einem Datendiebstahl oder -missbrauch.

  • Datenhaltung (Data Retention)

    Datenhaltung oder Data Retention beschreibt den Zeitraum, über den digitale Informationen verfügbar vorgehalten respektive gespeichert werden müssen.

  • Datenhygiene

    Unter Datenhygiene fallen alle Funktionen, die die relative Fehlerfreiheit von Daten gewährleisten. Eine hohe Datenqualität ist für Firmen elementar.

  • Datenintegrität

    Datenintegrität ist die Gewissheit, dass die Informationen unversehrt sind und nur von denjenigen, die dazu berechtigt sind, aufgerufen oder verändert werden können.

  • Datenlöschung

    Bei der Datenlöschung geht es darum, digitale Informationen unwiederbringlich auf Medien zu zerstören, oft aufgrund rechtlicher Bestimmungen.

  • Datenmanagement

    Datenmanagement versetzt Unternehmen in die Lage, ihren Informationskreislauf so zu steuern, dass sie größtmöglichen Nutzen aus ihren Daten ziehen.

  • Datenmigration (Data Migration)

    Die Migration von Daten ist ein Umzug von Dateien auf andere Computer-Systeme, Daten-Formate oder Storage-Systeme. Hier einige Best Practices.

  • Datenmodellierung

    Bei Datenmodellierung handelt es sich um Formalisierung sowie Dokumentation von Prozessen und Ereignissen, die im Laufe der Konzeption und Entwicklung von Software auftreten.

  • Datenqualität

    Datenqualität bezeichnet die Bewertung von Daten in Bezug auf die Frage, wie gut Daten dafür geeignet sind, ihrem Zweck in einem bestimmten Zusammenhang zu erfüllen.

  • Datenreduktion

    Die Datenreduktion beschreibt den Vorgang, die anfallende Datenmenge vor dem Speichern in einer Storage-Umgebung möglichst weit zu reduzieren.

  • Datenstruktur

    Eine Datenstruktur ist ein Format für die Organisation und das Speichern von Daten. Beispiele sind Arrays, Dateien, Tabellen, Bäume oder Graphen.

  • Datenvirtualisierung

    Bei Datenvirtualisierung geht es darum, Daten abzurufen, ohne deren technische Details zu kennen. Das Prinzip wird wird etwa bei Facebook eingesetzt.

  • Datenvisualisierung

    Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.

  • Datenwiederherstellung (Data Recovery)

    Data Recovery oder Wiederherstellung von Daten ist ein Vorgang, um beschädigte oder verlorengegangene Daten von einem Backup zu rekonstruieren.

  • Datenübertragungsrate, Datentransferrate

    Wie viele Daten sich innerhalb einer bestimmten Zeit übertragen lassen, wird mit der Datenübertragungsrate in Bits pro Sekunde beschrieben.

  • DCE (Distributed Computing Environment)

    DCE ist das Akronym für Distributed Computing Environment. Damit lassen sich Computer und Datenaustausch in verteilten Systemen managen.

  • DCML (Data Center Markup Language)

    DCML steht für Data Center Markup Language und stellt einen einheitlichen Standard zur Beschreibung einer Rechenzentrumsumgebung zur Verfügung.

  • DDR-SDRAM

    DDR-SDRAM ist ein Memory-Typ, den es in vier verschiedenen Versionen gibt und der hohe Datentransferraten umsetzen kann.

ComputerWeekly.de
Close