Tipps
Tipps
Big Data
-
Die 18 wichtigsten Big-Data-Plattformen und -Technologien
Es gibt zahlreiche Tools, die für Big-Data-Anwendungen eingesetzt werden können. Im Folgenden finden Sie einen Überblick über 18 beliebte Big-Data-Technologien. Weiterlesen
-
Diese 18 Tools sollten Datenwissenschaftler kennen
Datenwissenschaftler können auf zahlreiche Tools zurückgreifen. Wir stellen 18 Tools vor, einschließlich ihrer Funktionen, Möglichkeiten und Einsatzzwecke. Weiterlesen
-
Apache NiFi: Datenflüsse zwischen Systemen automatisieren
Apache NiFi ist eine Open-Source-Lösung, mit der sich Datenflüsse zwischen Softwaresystemen in Unternehmen automatisieren lassen, inklusive der Verarbeitung großer Datenmengen. Weiterlesen
-
Apache Kylin: Analytical Data Warehouse für Big Data
Mit Apache Kylin lassen sich große Datenmengen analysieren und für Machine Learning verarbeiten. Der Artikel deckt die Funktionen der Open-Source-Software auf. Weiterlesen
-
Verarbeitung von Datenströmen mit Apache Samza
Apache Samza ist ein System zur Verarbeitung von Datenströmen in Echtzeit. Die Lösung arbeitet hierfür mit Apache Kafka, HBase und Hadoop YARN zusammen. Weiterlesen
-
Was Datenmodellierung und Datenarchitekturen unterscheidet
Datenmodellierer und Datenarchitekten haben unterschiedliche Aufgaben, die sich jedoch ergänzen. Beide unterstützen Unternehmen dabei, den Geschäftswert von Daten zu erschließen. Weiterlesen
-
Wie sich Daten- und Informationsarchitektur unterscheiden
Datenarchitekten sammeln Statistiken, Informationsarchitekten setzen die Zahlen in einen Kontext. Sie arbeiten eng zusammen, um neue Strategien für Unternehmen zu entwerfen. Weiterlesen
-
9 Schritte zur Erstellung eines Datenarchitekturplans
Lernen Sie die neun Schritte zu einem umfassenden Datenarchitekturplan kennen. Dieser umfasst unter anderem eine Bewertung der Dateninfrastruktur und eine SWOT-Analyse. Weiterlesen
-
Die Leistung eines Data Warehouse bewerten und optimieren
Unternehmen integrieren Data-Warehouse-Systeme, um ihr Informationsmanagement zu verbessern. Das volle Potenzial schöpfen sie allerdings erst nach deren Optimierung aus. Weiterlesen
-
Sieben Anwendungen für die Optimierung der Datenqualität
Tools für das Datenqualitätsmanagement unterstützen bei der Automatisierung und Schließung von Lücken in den Datenprozessen. Hier sind sieben der besten Tools auf dem Markt. Weiterlesen
-
Die fünf wichtigsten Elemente eines modernen Data Warehouse
Klassische Data Warehouses können mit den schnell wachsenden Datenmengen nur schwer Schritt halten. Die hier vorgestellten fünf Funktionen erlauben es, BI umfassend zu nutzen. Weiterlesen
-
Zehn Big-Data-Herausforderungen und wie man sie bewältigt
Die Umsetzung einer Big-Data-Initiative erfordert eine Reihe von Fähigkeiten und Best Practices. Hier sind zehn Herausforderungen, auf die sich Unternehmen vorbereiten müssen. Weiterlesen
-
Mit OpenRefine Daten bereinigen und zusammenführen
Das Open Source Tool OpenRefine ermöglicht Anwendern das Bereinigen und Aufbereiten von Daten aus verschiedenen Quellen. Wir zeigen in diesem Beitrag die Funktionen des Tools. Weiterlesen
-
Apache Beam: Einstieg in das Parallel Computing Framework
Apache Beam ist ein Parallel Computing Framework zur Verarbeitung großer Datenmengen. Der Beitrag zeigt die Möglichkeiten und gibt einen Einblick in das Projekt. Weiterlesen
-
Big-Data-Analysen mit Tools der Apache Software Foundation
Die Open-Source-Lösungen der Apache Software Foundation sind im Bereich Big Data Analytics umfangreich. Die verschiedenen Anwendungen im Überblick. Weiterlesen
-
Fünf notwendige Prozesse für Predictive Analytics
Verstehen Datenspezialisten den mehrstufigen Prozesszyklus für Predictive Analytics, können sie leichter Engpässe im Ablauf finden und Prognosen treffen. Weiterlesen
-
Dark Data aufspüren, verarbeiten und verwalten
Bevor ein Unternehmen Dark Data verwenden kann, muss es die Daten finden. Welche Herausforderungen man bei der Arbeit mit Dark Data bewältigen muss. Weiterlesen
-
Dark Data sinnvoll erforschen und ausnutzen
Ungenutzte Datenquellen führen dazu, dass Unternehmen auf eine Fülle von Informationen verzichten. Warum man Dark Data mehr Beachtung schenken sollte. Weiterlesen
-
Eine Infrastruktur für künstliche Intelligenz (KI) aufbauen
Der Aufbau einer KI-Infrastruktur erfordert eine umfassende Auseinandersetzung mit dem Storage-, Netzwerk- und Datenbedarf. Dafür braucht es strategische Planung. Weiterlesen
-
So gewährleisten Sie die Stromversorgung Ihrer Edge-Geräte
Edge-Geräte lassen sich häufig nicht an eine unterbrechungsfreie Stromversorgung anschließen. Sie müssen daher andere Wege finden, wie Sie diese sicher am Netz halten. Weiterlesen
-
Wie man Dark Data mit Machine Learning und KI auswertet
Maschinelles Lernen und KI können unstrukturierte und ungenutzte Daten in wertvolle Informationen verwandeln. Wie sich Dark Data auswerten lässt. Weiterlesen
-
Ein Leitfaden zu Big Data in der Cloud
Wenn Unternehmen Big-Data-Projekte in die Cloud verlagern, müssen IT-Administratoren einiges beachten. Ein Leitfaden zum Big-Data-Management in der Cloud. Weiterlesen
-
Big Data mit Apache Calcite managen und analysieren
Mit dem Open Source Tool Apache Calcite können Daten aus verschiedenen Quell-, Management- und Datenbanksystemen für die Analyse zusammengefasst werden. Weiterlesen
-
Was Content-Management und Wissensmanagement unterscheidet
Wissensmanagement und Content-Management befassen sich beide mit dem Erstellen, Verwalten und Verteilen von Information. Es gibt jedoch wesentliche Unterschiede. Weiterlesen
-
SAP Internet of Things: Services für IIoT-Anwendungen
SAP ermöglicht die Einbindung von IoT-Geräten in entsprechende Infrastrukturen. Was SAP für IoT-Services bietet und wie diese mit anderen Cloud-Diensten zusammenarbeiten. Weiterlesen
-
SAP HANA: Architektur, Einsatzgebiete und versteckte Kosten
SAP HANA bietet für Unternehmen die Möglichkeit, Daten sehr schnell abzufragen. Dadurch sind Geschäftsberichte unmittelbar verfügbar. Doch HANA hat auch zwei große Nachteile. Weiterlesen
-
Acht IoT-Anwendungen und -Beispiele in der Wirtschaft
IoT-Technologien kommen mittlerweile in vielen Bereichen zum Einsatz. Die Anwendungsfälle für das Internet der Dinge variieren dabei je nach Branche und Organisation. Weiterlesen
-
Was Big Data und Machine Learning vereint und unterscheidet
Big Data und Machine Learning sind eine leistungsstarke Analytics-Kombination. Doch was unterscheidet die beiden Bereiche und wie lassen sie sich gemeinsam einsetzen? Weiterlesen
-
Leistungstests von Big-Data-Anwendungen sind entscheidend
Wenn es darum geht, Big-Data-Anwendungen zu testen, gibt es viel zu beachten. Datenmanager können möglicherweise überfordert sein. Es gibt allerdings hilfreiche Tools. Weiterlesen
-
Wie Sie die Sicherheit eines Data Lakes gewährleisten
Ein Data Lake ist voller sensibler Informationen. Die Sicherung dieser Daten hat oberste Priorität. Hier sind die besten Methoden, um die Daten vor Hackern zu schützen. Weiterlesen
-
Mit Lake Formation einen Data Lake auf AWS einrichten
Moderne Unternehmen müssen riesige Datenmengen organisieren. AWS Lake Formation unterstützt Analysten und Datenspezialisten bei der Big-Data-Verwaltung und -Analyse. Weiterlesen
-
Big Data Analytics mit Microsoft Azure Synapse Analytics
Mit Microsoft Azure Synapse Analytics können Unternehmen in der Cloud Datenabfragen aus verschiedenen Quellen zentral zusammenfassen und aufbereiten lassen. Weiterlesen
-
Cloudera, AWS, Azure und Co.: Hadoop-Distributionen bewerten
Welches sind die wichtigsten Merkmale, die man bei Hadoop-Distributionen bewertet? Wir stellen vier Punkte vor, die vor einem Abonnement oder Integration zu beachten sind. Weiterlesen
-
Schlüsselfaktoren für eine optimale Data-Lake-Integration
Von der Technologie bis zu Governance: Eine Data-Lake-Implementierung besteht aus vielen Schritten. Erfahren Sie, welche Faktoren für eine Implementierungsstrategie wichtig sind. Weiterlesen
-
Sieben Use Cases für Data-Catalog-Software in Unternehmen
Von der Modernisierung von Data Lakes bis hin zur Demokratisierung von Daten – ein Datenkatalog bietet viele Vorteile. Sieben Anwendungsfälle, wie Unternehmen davon profitieren. Weiterlesen
-
Data Hub versus Data Lake: Wie unterscheiden sie sich?
Data Lake und Data Hub sind Konzepte für das Datenmanagement, die sich konträr gegenüberstehen. Hier sind die Hauptunterschiede zwischen den beiden Optionen. Weiterlesen
-
Cloud-Data-Lake- und Data-Warehouse-Optionen von AWS
Um Datenanalysen und Workloads mit AWS auszuführen, müssen Anwender die verschiedenen Data Repositories und Speicherdienste erkunden. Eine Navigationshilfe durch das AWS-Portfolio. Weiterlesen
-
Unterschiede von Operational Data Stores und Data Warehouses
Sowohl Operational Data Stores als auch Data Warehouses speichern operative Daten, doch die Gemeinsamkeiten enden hier. Beide spielen eine eigene Rolle in Analysearchitekturen. Weiterlesen
-
Einen Data Lake in der Cloud oder On-Premises einsetzen?
On-Premises oder in der Cloud: Was ist der bessere Ort für einen Data Lake? Bevor man sich entscheidet, wo man eine Big-Data-Umgebung einsetzt, gibt es einiges zu beachten. Weiterlesen
-
Data-Warehouse-Plattformen und ihre Anwendung evaluieren
Es gibt noch immer Bedarf für Data Warehouses in Unternehmen. Datenmanager und Analysten müssen allerdings prüfen, wofür sie ein Data Warehouse einsetzen wollen. Weiterlesen
-
Fünf Tipps für das Deep-Learning-Modelltraining
Das Deep-Learning-Modelltraining erfordert nicht nur die richtige Datenmenge, sondern auch die richtigen Daten. Entwickler müssen daher erfinderisch, aber auch vorsichtig sein. Weiterlesen
-
Greenfield vs. Brownfield: Was für SAP S/4HANA verwenden?
Was einen Greenfield- vom Brownfield-Ansatz unterscheidet und was diese Ansätze für eine SAP S/4HANA-Migration bedeuten, wird in diesem Artikel erläutert. Weiterlesen
-
Was CIOs vor der Migration auf SAP S/4HANA beachten sollten
Die ERP-Landschaft befindet sich im Wandel. Insbesondere SAP-Kunden müssen mittelfristig eine Entscheidung treffen, ob sie von ECC zu S/4HANA migrieren wollen. Weiterlesen
-
SAP HANA und S/4HANA zu Microsoft Azure migrieren
Ab 2027 beziehungsweise 2030 stellt SAP den Support für Kernanwendungen der Business Suite 7 ein. Empfohlen wird der Wechsel zu S/4HANA und eine Migration zu Microsoft Azure. Weiterlesen
-
Jenseits der Kundenanalyse: Wie sich NLP-Tools nutzen lassen
Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) wird immer interessanter für Unternehmen. Doch wie lässt sich NLP-Technologie einsetzen? Weiterlesen
-
Microsoft SQL Server 2019 zusammen mit Linux einsetzen
SQL Server 2019 kann in Windows, Linux und als Container betrieben werden. Neben Big Data Features wurden auch neue Sicherheitsfunktionen in die jüngste Version integriert. Weiterlesen
-
Wie man das passende Tool für die Datenintegration findet
Um aus dem kommerziellen und Open-Source-Angebot die richtige Datenintegrationsplattform auszuwählen, empfiehlt sich im Vorfeld ein Vergleich der Anwendungen Weiterlesen
-
AWS-Datenbankservices: RDS, DynamoDB, Neptune, QLDB und Co.
Amazon Web Services (AWS) ist einer der führenden Cloud-Anbieter. In der Amazon-Cloud stehen dabei auch verschiedene Datenbankdienste zur Verfügung. Weiterlesen
-
Wie Entwickler Verzerrungen in KI-Algorithmen bekämpfen
Da KI alle Arten von Software durchdringt, sollten Tester einen Plan zur Überprüfung der Ergebnisse entwickeln. Entwickler sollten aber zuerst das Bias beseitigen. Weiterlesen
-
Predictive Analytics und KI stärken sich gegenseitig
Unternehmen haben den Wert von Predictive Analytics längst erkannt. Jetzt, da künstliche Intelligenz beginnt, die Prognose-Tools zu prägen, können die Vorteile noch tiefer gehen. Weiterlesen
-
Yellowfin: Business Intelligence, die Geschichten erzählt
Neben großen BI-Anbietern dringen auch Spezialanbieter in den Markt vor – zum Beispiel Yellowfin. Das Unternehmen aus Down Under will den Markt neu aufmischen. Weiterlesen
-
SQL Server 2019: Die neue Generation des Datenbankservers
Die neue Version des Microsoft SQL Server bietet einige Verbesserungen und vielfältige Installationsvarianten. Die wichtigsten Funktionen im Überblick. Weiterlesen
-
Tableau: Business Intelligence mit intuitiver Oberfläche
Viele Business-Intelligence-Pakete lassen sich nur von erfahrenen Datenexperten nutzen. Anbieter wie Tableau wollen die Komplexität der BI-Tools minimieren. Weiterlesen
-
Amazon Forecast vereint Zeitreihendaten mit Machine Learning
Amazon Forecast hilft zum Beispiel bei Datenprognosen und der Ressourcenplanung. Wie der Service funktioniert und wie er sich an Bedürfnisse anpassen lässt. Weiterlesen
-
Wie man Predictive Modeling mit Machine Learning realisiert
Machine Learning ist ein unschätzbares Werkzeug zur Lösung von Geschäftsproblemen. Im Zusammenhang mit Predictive Analytics sollte man verschiedene Faktoren berücksichtigen. Weiterlesen
-
Fünf Best Practices für die Verwaltung von Echtzeitdaten
Echtzeit-Datenintegration und traditionelle Datenintegration unterscheiden sich. Doch was muss man beachten? Best Practices für Echtzeit-Datenintegration. Weiterlesen
-
Was Datenverantwortliche bei der EU-DSGVO häufig übersehen
Um sicherzustellen, dass bei der DSGVO-Umsetzung keine Fehler gemacht wurden, sollten Verantwortliche eine Checkliste für Datennutzungen und Prozesse erstellen. Weiterlesen
-
Gute Datenqualität ist ein Muss für Machine Learning
Wenn Unternehmen Machine-Learning-Anwendungen einsetzen, müssen sie erst ihre Daten prüfen. Initiativen zur Verbesserung der Datenqualität sind deshalb wichtig. Weiterlesen
-
Die passende Machine-Learning-Plattform auswählen
Der Machine-Learning-Markt ist in den letzten Jahren immer größer und unübersichtlicher geworden. Die Top-Kriterien für die Wahl des richtigen Anbieters. Weiterlesen
-
Content Analytics in ECM-Systemen einsetzen
Content Analytics geht über bewährte Webanalysen hinaus und erweitert das IT-Arsenal von Unternehmen um Sprachverarbeitung sowie Bild- und Videoerkennung. Weiterlesen
-
Big-Data-Management und Analytics mit IBM BigInsights und Apache Hadoop
IBM BigInsights bietet verschiedene Services, die sich zusammen mit dem Open-Source-Framework Hadoop für Big-Data-Mangement einsetzen lassen. Weiterlesen
-
Kosten für Big-Data-Lösungen: Oracle Appliance versus Eigenbau
Die Kosten für eine Big-Data-Lösung sind schwer abzuschätzen. Nur eine genaue Analyse zeigt, ob eine All-in-one- oder Selbstbau-Lösung besser ist. Weiterlesen