Tipps
Tipps
Datenverwaltung
-
Warum Datenqualität für ERP-Prozesse entscheidend ist
Schlechte Datenqualität kann sich auf verschiedene Aspekte der Geschäftstätigkeit eines Unternehmens negativ auswirken. Warum die Datenqualität für ERP wichtig ist. Weiterlesen
-
Die 18 wichtigsten Datenkatalog-Tools und Technologien
Für die Erstellung und Verwaltung von Datenkatalogen gibt es zahlreiche Tools auf dem Markt. Im Folgenden finden Sie die 18 bekanntesten Datenkatalog-Plattformen. Weiterlesen
-
Die 18 wichtigsten Big-Data-Plattformen und -Technologien
Es gibt zahlreiche Tools, die für Big-Data-Anwendungen eingesetzt werden können. Im Folgenden finden Sie einen Überblick über 18 beliebte Big-Data-Technologien. Weiterlesen
-
Herausforderungen bei der Blockchain-Einführung meistern
Unternehmen stehen bei der Blockchain-Einführung oft vor den gleichen Hürden. Diese zu kennen, könnte der erste große Schritt sein, um sie auf dem Weg zum Erfolg zu überwinden. Weiterlesen
-
3 Faktoren für die Optimierung von Multi-Cloud-Kosten
Ohne Überwachung werden Multi-Cloud-Implementierungen teuer. Diese Datenverwaltungs- und Sicherheitspraktiken unterstützen, die monatlichen Kosten besser zu kontrollieren. Weiterlesen
-
Apache Nutch: Webcrawler für Suche, Extraktion und Analyse
Apache Nutch ist ein Webcrawler, der zusammen mit Apache Hadoop und anderen Open-Source-Anwendungen eingesetzt wird, um große Datenmengen aus Webanwendungen zu analysieren. Weiterlesen
-
Apache NiFi: Datenflüsse zwischen Systemen automatisieren
Apache NiFi ist eine Open-Source-Lösung, mit der sich Datenflüsse zwischen Softwaresystemen in Unternehmen automatisieren lassen, inklusive der Verarbeitung großer Datenmengen. Weiterlesen
-
Apache Kylin: Analytical Data Warehouse für Big Data
Mit Apache Kylin lassen sich große Datenmengen analysieren und für Machine Learning verarbeiten. Der Artikel deckt die Funktionen der Open-Source-Software auf. Weiterlesen
-
Verarbeitung von Datenströmen mit Apache Samza
Apache Samza ist ein System zur Verarbeitung von Datenströmen in Echtzeit. Die Lösung arbeitet hierfür mit Apache Kafka, HBase und Hadoop YARN zusammen. Weiterlesen
-
Microsoft Fabric: KI-Lösung für die Datenanalyse
Mit Fabric stellt Microsoft eine Cloud-KI-Analyselösung zur Verfügung, die mehrere Analyse-Tools zusammenfasst. Wir zeigen die Möglichkeiten sowie Funktionen. Weiterlesen
-
Was Datenmodellierung und Datenarchitekturen unterscheidet
Datenmodellierer und Datenarchitekten haben unterschiedliche Aufgaben, die sich jedoch ergänzen. Beide unterstützen Unternehmen dabei, den Geschäftswert von Daten zu erschließen. Weiterlesen
-
Wie sich Daten- und Informationsarchitektur unterscheiden
Datenarchitekten sammeln Statistiken, Informationsarchitekten setzen die Zahlen in einen Kontext. Sie arbeiten eng zusammen, um neue Strategien für Unternehmen zu entwerfen. Weiterlesen
-
9 Schritte zur Erstellung eines Datenarchitekturplans
Lernen Sie die neun Schritte zu einem umfassenden Datenarchitekturplan kennen. Dieser umfasst unter anderem eine Bewertung der Dateninfrastruktur und eine SWOT-Analyse. Weiterlesen
-
SQL Server Migration Assistant for Db2 richtig einsetzen
Wenn ein Umzug von IBM Db2-Datenbanken zu Microsoft SQL Server ansteht, kann SQL Server Migration Assistant für Db2 sinnvoll sein. Der Beitrag zeigt die Vorgehensweise. Weiterlesen
-
Techniken und Konzepte der Datenmodellierung für Unternehmen
Es gibt verschiedene Datenmodelle und -techniken, die Datenmanagementteams zur Verfügung stehen, um die Umwandlung von Daten in wertvolle Geschäftsinformationen zu unterstützen. Weiterlesen
-
Unstrukturierte Daten Compliance-konform absichern
Data-Protection-Teams müssen mit allen regionalen und branchenspezifischen Vorschriften vertraut sein, um unstrukturierte Daten vorschriftsmäßig zu sichern. Weiterlesen
-
Backup unstrukturierter Daten: Herausforderungen bewältigen
Das Backup unstrukturierter Daten erfordert die Verwaltung und den Schutz riesiger Datenmengen, die verfügbar und sicher sein müssen, was einer entsprechenden Strategie bedarf. Weiterlesen
-
So halten Sie Ihr File Storage geordnet und organisiert
Auch in der Speicherlandschaft ist hin und wieder Aufräumen angesagt. Sechs erprobte Methoden zum Ordnung halten in der Dateispeicherung von Namenskonvention bis Versionierung. Weiterlesen
-
Bewährte Verfahren für die Datenklassifizierung
Datenanalysen erfassen eine Vielzahl von Datenkategorien, die eine effiziente Datenorganisation erfordern. Diese Best Practices tragen zu deren Optimierung bei. Weiterlesen
-
So setzen Sie Data Protection für unstrukturierte Daten um
Unstrukturierte Daten erfordern eine genau so sorgfältige Sicherung wie strukturierte Daten, allerdings verschlingen sie unter Umständen erheblich mehr Speicherplatz. Weiterlesen
-
Die Leistung eines Data Warehouse bewerten und optimieren
Unternehmen integrieren Data-Warehouse-Systeme, um ihr Informationsmanagement zu verbessern. Das volle Potenzial schöpfen sie allerdings erst nach deren Optimierung aus. Weiterlesen
-
8 sichere Services für File Transfer in Unternehmen
Bei der Fülle an Optionen kann es eine Herausforderung sein, den besten File Transfer Service für Firmen zu finden. Erfahren Sie, wie Sie eine fundierte Entscheidung treffen können. Weiterlesen
-
Sieben Anwendungen für die Optimierung der Datenqualität
Tools für das Datenqualitätsmanagement unterstützen bei der Automatisierung und Schließung von Lücken in den Datenprozessen. Hier sind sieben der besten Tools auf dem Markt. Weiterlesen
-
Die fünf wichtigsten Elemente eines modernen Data Warehouse
Klassische Data Warehouses können mit den schnell wachsenden Datenmengen nur schwer Schritt halten. Die hier vorgestellten fünf Funktionen erlauben es, BI umfassend zu nutzen. Weiterlesen
-
Offline- versus Online-Datenübertragung für die Cloud-Migration
Bei der Cloud-Migration haben Sie die Wahl zwischen dem Online- und Offline-Ansatz. Wir erklären, wie Sie die richtige Strategie finden, um Ihre Daten in die Cloud zu schieben. Weiterlesen
-
Mit OpenRefine Daten bereinigen und zusammenführen
Das Open Source Tool OpenRefine ermöglicht Anwendern das Bereinigen und Aufbereiten von Daten aus verschiedenen Quellen. Wir zeigen in diesem Beitrag die Funktionen des Tools. Weiterlesen
-
Machine-Learning-Modelle mit DataRobot Core entwickeln
Mit DataRobot Core erhalten Data Scientists eine Sammlung von Tools, mit denen sich KI- und Machine-Learning-Lösungen entwickeln und umsetzen lassen. Weiterlesen
-
Stitch Data Loader: gemanagte Datenpipeline für die Cloud
Mit Stitch Data Loader von Talend können Anwender Daten aus verschiedenen Quellen in ein Cloud Data Warehouse übertragen und anschließend ihre Datenanalysen starten. Weiterlesen
-
Apache Beam: Einstieg in das Parallel Computing Framework
Apache Beam ist ein Parallel Computing Framework zur Verarbeitung großer Datenmengen. Der Beitrag zeigt die Möglichkeiten und gibt einen Einblick in das Projekt. Weiterlesen
-
6 Methoden für sichere Dateiübertragung in Unternehmen
Die gemeinsame Nutzung und die Übertragung von Dateien gehören zum Alltag von Unternehmen. Um Gefahren dabei einzugrenzen, sind verschiedene Vorsichtsmaßnahmen notwendig. Weiterlesen
-
Was ist KI-Governance und warum braucht man sie?
KI-Governance ist angesichts des KI-Booms entscheidend. Sie unterscheidet sich von üblichen IT-Governance-Praktiken, da sie sich mit dem verantwortungsvollen KI-Einsatz befasst. Weiterlesen
-
Retention Policies und Datenhygiene: Storage optimal nutzen
Planung von Datenspeichern und Aufbewahrungsrichtlinien sind Kerngedanken der Datenhygiene – und wichtig für die effiziente und schonende Auslastung von Speicherressourcen. Weiterlesen
-
Dark Data aufspüren, verarbeiten und verwalten
Bevor ein Unternehmen Dark Data verwenden kann, muss es die Daten finden. Welche Herausforderungen man bei der Arbeit mit Dark Data bewältigen muss. Weiterlesen
-
Dark Data sinnvoll erforschen und ausnutzen
Ungenutzte Datenquellen führen dazu, dass Unternehmen auf eine Fülle von Informationen verzichten. Warum man Dark Data mehr Beachtung schenken sollte. Weiterlesen
-
Datenaufbewahrungs- und Löschrichtlinien richtig anlegen
Diese Tipps für Richtlinien zur Datenaufbewahrung und -vernichtung helfen bei der Einhaltung der Vorschrif-ten. Damit können Sie auch andere Datenverwaltungsvorgaben erstellen. Weiterlesen
-
Eine Infrastruktur für künstliche Intelligenz (KI) aufbauen
Der Aufbau einer KI-Infrastruktur erfordert eine umfassende Auseinandersetzung mit dem Storage-, Netzwerk- und Datenbedarf. Dafür braucht es strategische Planung. Weiterlesen
-
Wie man Dark Data mit Machine Learning und KI auswertet
Maschinelles Lernen und KI können unstrukturierte und ungenutzte Daten in wertvolle Informationen verwandeln. Wie sich Dark Data auswerten lässt. Weiterlesen
-
Best Practices für den Einsatz von Cloud-Datenbanksystemen
Diese Best Practices zur Optimierung des Cloud-Datenbankmanagements unterstützen dabei, die Leistung der Datenbanksysteme zu verbessern und Compliance-Audits zu überstehen. Weiterlesen
-
Ein Leitfaden zu Big Data in der Cloud
Wenn Unternehmen Big-Data-Projekte in die Cloud verlagern, müssen IT-Administratoren einiges beachten. Ein Leitfaden zum Big-Data-Management in der Cloud. Weiterlesen
-
Big Data mit Apache Calcite managen und analysieren
Mit dem Open Source Tool Apache Calcite können Daten aus verschiedenen Quell-, Management- und Datenbanksystemen für die Analyse zusammengefasst werden. Weiterlesen
-
Tipps und Tricks zur Verbesserung der Leistung von SAP HANA
Die Leistungsoptimierung gehört zu den zentralen Aufgaben von SAP-HANA-Entwicklern und -Administratoren. Welche Stellschrauben und Tools die In-Memory-Datenbank bietet. Weiterlesen
-
Was Content-Management und Wissensmanagement unterscheidet
Wissensmanagement und Content-Management befassen sich beide mit dem Erstellen, Verwalten und Verteilen von Information. Es gibt jedoch wesentliche Unterschiede. Weiterlesen
-
SAP HANA: Architektur, Einsatzgebiete und versteckte Kosten
SAP HANA bietet für Unternehmen die Möglichkeit, Daten sehr schnell abzufragen. Dadurch sind Geschäftsberichte unmittelbar verfügbar. Doch HANA hat auch zwei große Nachteile. Weiterlesen
-
SAP HANA: Tipps für Installation und Administration
SAP HANA bietet zahlreiche Möglichkeiten der Verwaltung und Optimierung. In diesem Beitrag geben wir einige Tipps und Hinweise, was beachtet werden muss. Weiterlesen
-
Best Practices für intelligentes Datenmanagement
Mit intelligentem Datenmanagement können Unternehmen mehr aus ihren Daten herausholen. Erfahren Sie, warum sich dieser Trend durchgesetzt hat und wie Sie davon profitieren. Weiterlesen
-
Wie Sie die Sicherheit eines Data Lakes gewährleisten
Ein Data Lake ist voller sensibler Informationen. Die Sicherung dieser Daten hat oberste Priorität. Hier sind die besten Methoden, um die Daten vor Hackern zu schützen. Weiterlesen
-
Mit Lake Formation einen Data Lake auf AWS einrichten
Moderne Unternehmen müssen riesige Datenmengen organisieren. AWS Lake Formation unterstützt Analysten und Datenspezialisten bei der Big-Data-Verwaltung und -Analyse. Weiterlesen
-
Wie sich Content- und Dokumentenmanagement unterscheiden
Die schiere Anzahl von Akronymen im Zusammenhang mit Enterprise Content kann verwirrend sein. Die Unterschiede zwischen Content-Management und Dokumentenmanagement im Detail. Weiterlesen
-
Cloudera, AWS, Azure und Co.: Hadoop-Distributionen bewerten
Welches sind die wichtigsten Merkmale, die man bei Hadoop-Distributionen bewertet? Wir stellen vier Punkte vor, die vor einem Abonnement oder Integration zu beachten sind. Weiterlesen
-
Schlüsselfaktoren für eine optimale Data-Lake-Integration
Von der Technologie bis zu Governance: Eine Data-Lake-Implementierung besteht aus vielen Schritten. Erfahren Sie, welche Faktoren für eine Implementierungsstrategie wichtig sind. Weiterlesen
-
Sieben Use Cases für Data-Catalog-Software in Unternehmen
Von der Modernisierung von Data Lakes bis hin zur Demokratisierung von Daten – ein Datenkatalog bietet viele Vorteile. Sieben Anwendungsfälle, wie Unternehmen davon profitieren. Weiterlesen
-
Data Hub versus Data Lake: Wie unterscheiden sie sich?
Data Lake und Data Hub sind Konzepte für das Datenmanagement, die sich konträr gegenüberstehen. Hier sind die Hauptunterschiede zwischen den beiden Optionen. Weiterlesen
-
Cloud-Data-Lake- und Data-Warehouse-Optionen von AWS
Um Datenanalysen und Workloads mit AWS auszuführen, müssen Anwender die verschiedenen Data Repositories und Speicherdienste erkunden. Eine Navigationshilfe durch das AWS-Portfolio. Weiterlesen
-
Datensilos mit strenger Data Governance auflösen
Datensilos können für Datenspezialisten ein großes Problem sein. Eine strenge Data Governance Policy kann verteilte Daten verhindern und zu einer besseren Datenqualität führen. Weiterlesen
-
Public-Cloud-Daten mit SAP Data Custodian kontrollieren
Public-Cloud-Technologie hat sich weiterentwickelt, doch Führungskräfte machen sich Sorgen um den Datenschutz. Wie ihnen SAP Data Custodian dabei helfen kann. Weiterlesen
-
Unterschiede von Operational Data Stores und Data Warehouses
Sowohl Operational Data Stores als auch Data Warehouses speichern operative Daten, doch die Gemeinsamkeiten enden hier. Beide spielen eine eigene Rolle in Analysearchitekturen. Weiterlesen
-
Einen Data Lake in der Cloud oder On-Premises einsetzen?
On-Premises oder in der Cloud: Was ist der bessere Ort für einen Data Lake? Bevor man sich entscheidet, wo man eine Big-Data-Umgebung einsetzt, gibt es einiges zu beachten. Weiterlesen
-
Data-Warehouse-Plattformen und ihre Anwendung evaluieren
Es gibt noch immer Bedarf für Data Warehouses in Unternehmen. Datenmanager und Analysten müssen allerdings prüfen, wofür sie ein Data Warehouse einsetzen wollen. Weiterlesen
-
Wie Data Lineage Tools Data-Governance-Richtlinien fördern
Organisationen können Data-Governance-Bemühungen unterstützen, indem sie die Herkunft der Daten in ihren Systemen verfolgen. Tipps für den Einsatz von Data Lineage Tools. Weiterlesen
-
Fünf Tipps für das Deep-Learning-Modelltraining
Das Deep-Learning-Modelltraining erfordert nicht nur die richtige Datenmenge, sondern auch die richtigen Daten. Entwickler müssen daher erfinderisch, aber auch vorsichtig sein. Weiterlesen
-
Greenfield vs. Brownfield: Was für SAP S/4HANA verwenden?
Was einen Greenfield- vom Brownfield-Ansatz unterscheidet und was diese Ansätze für eine SAP S/4HANA-Migration bedeuten, wird in diesem Artikel erläutert. Weiterlesen
-
Was CIOs vor der Migration auf SAP S/4HANA beachten sollten
Die ERP-Landschaft befindet sich im Wandel. Insbesondere SAP-Kunden müssen mittelfristig eine Entscheidung treffen, ob sie von ECC zu S/4HANA migrieren wollen. Weiterlesen
-
SAP HANA und S/4HANA zu Microsoft Azure migrieren
Ab 2027 beziehungsweise 2030 stellt SAP den Support für Kernanwendungen der Business Suite 7 ein. Empfohlen wird der Wechsel zu S/4HANA und eine Migration zu Microsoft Azure. Weiterlesen
-
Unbewusst digital: Die Ära des digitalen Reflexes
Verbraucherverhalten und die Nutzung digitaler Services beeinflussen sich gegenseitig. Dies lässt sich gut an der Entwicklung der letzten zehn, 20 Jahre erkennen. Weiterlesen
-
Wie man das passende Tool für die Datenintegration findet
Um aus dem kommerziellen und Open-Source-Angebot die richtige Datenintegrationsplattform auszuwählen, empfiehlt sich im Vorfeld ein Vergleich der Anwendungen Weiterlesen
-
Welche Rolle Blockchain bei Data Governance einnehmen kann
Während die Blockchain als Grundlage für verschiedene Kryptowährungen ihren Anfang nahm, kann sie nun auch im Content Management von Vorteil sein. Weiterlesen
-
Wie Entwickler Verzerrungen in KI-Algorithmen bekämpfen
Da KI alle Arten von Software durchdringt, sollten Tester einen Plan zur Überprüfung der Ergebnisse entwickeln. Entwickler sollten aber zuerst das Bias beseitigen. Weiterlesen
-
Fünf Best Practices für die Verwaltung von Echtzeitdaten
Echtzeit-Datenintegration und traditionelle Datenintegration unterscheiden sich. Doch was muss man beachten? Best Practices für Echtzeit-Datenintegration. Weiterlesen
-
Big-Data-Management mit der Hadoop-Distribution von Hortonworks
Die Hortonworks Data Platform (HDP) besteht aus Anwendungen der Apache Software Foundation und bietet Funktionen für Datenerfassung und -analyse. Weiterlesen