Features
Features
Datenmanagement
-
Mit Hammerspace Datensilos zusammenführen
Hammerspace bietet eine globale Datenumgebung, die sich über Rechenzentren und beliebige Cloud-Infrastrukturen erstreckt. Damit soll die Plattform Datensilos zusammenführen. Weiterlesen
-
Wie CloudFabrix die Arbeit von IT-Administratoren optimiert
CloudFabrix Data Fabric vereinheitlicht die Überwachung der IT-Landschaft eines Unternehmens und bietet KI-gestützte Analysen bei auftretenden Problemen. Weiterlesen
-
Backup unstrukturierter Daten: Darauf muss geachtet werden
Unstrukturierte Daten stellen einen signifikanten Anteil der Informationen in Unternehmen dar. Bei der Sicherung muss einiges beachtet werden. Darauf gehen wir in diesem Text ein. Weiterlesen
-
AirMettle: Object Storage für Analytik und generative KI
AirMettle bietet eine Object-Storage-Lösung, bei der Analysen im Datenspeicher selbst durchgeführt werden. Die entwickelte Software läuft auf Standard-Hardware. Weiterlesen
-
Cerabyte will Speicherung von Cold Data revolutionieren
Cerabyte möchte die langfristige Speicherung von Daten grundlegend neu gestalten. Hierfür entwickelt das deutsche Start-up einen Glasdatenträger mit Keramikbeschichtung. Weiterlesen
-
ZettaScale macht mit Zenoh Edge Computing effizienter
ZettaScale Technology möchte mit Zenoh die Kommunikation, Speicherung und Rechenleistung in einer dezentralen Infrastruktur optimieren. Wie das funktionieren soll. Weiterlesen
-
Ressourcenschonendes Datenmanagement mit Tiger Technology
Tiger Technology entwickelt unter anderem eine Cloud-Speicherlösung, bei der nur Verweise auf die Dateien angezeigt werden, ohne dass diese lokal gespeichert sind. Weiterlesen
-
Disk Archive Corporation: eine Alternative zu LTO-Technologie
Das 2008 gegründete Unternehmen Disk Archive ist davon überzeugt, dass seine Alternative to LTO (ALTO) Appliance klassischen Archivierungsmethoden überlegen ist. Weiterlesen
-
XenData: Speicherlösungen für die Unterhaltungsindustrie
XenData ist Anbieter von Datenspeicherlösungen, die für Videoinhalte, medizinische Bildgebung, Videoüberwachung und verwandte Anwendungen mit großen Dateimengen optimiert sind. Weiterlesen
-
Welche Auswirkungen die SAP S/4HANA Premium-Strategie hat
SAP ließ während der Telefonkonferenz zu den Ergebnissen des zweiten Quartals 2023 eine Bombe platzen. Bestimmte Kunden müssen künftig auf KI-Innovationen in S/4HANA verzichten. Weiterlesen
-
Warum Standards und Zertifizierungen für die KI wichtig sind
Verschiedene Gremien und Institute wie das Fraunhofer Institut arbeiten an der Entwicklung von KI-Standards. Wir erklären, welche Faktoren hier wichtig sind und wie KI geprüft wird. Weiterlesen
-
So hilft Rubrik Zero Labs Anwendern Backups zu optimieren
Rubrik Zero Labs hat seinen ersten Report zur Datensicherheit veröffentlicht und will seinen Anwendern langfristig helfen, ihre Backup- und Data-Protection-Strategie zu verbessern. Weiterlesen
-
So optimiert Cohesity Turing Data Protection und Backups
In Partnerschaft mit Google und Vertex AI entwickelte der Anbieter Turing, eine Sammlung an KI- und ML-Technologien, die das Backup und so die Data Protection optimieren sollen. Weiterlesen
-
Welche Rolle Storage beim Horten von Daten spielt
Das Potenzial von Datenauswertungen motiviert Firmen, Daten massenweise zu speichern. Dies kann Nachteile haben, und es gibt bessere Verwaltungsmethoden, als alles zu speichern. Weiterlesen
-
8 Vorteile der Big-Data-Nutzung für Unternehmen
Big Data ist eine großartige Ressource für intelligente Geschäftsentscheidungen. Hier sind acht Möglichkeiten, wie die Nutzung von Big Data Geschäftsabläufe optimiert. Weiterlesen
-
Die Dateisysteme NFS und CIFS im Vergleich
Es gibt viele Unterschiede zwischen den File-Sharing-Protokollen NFS, CIFS und SMB. Hier vergleichen wir die wichtigsten Merkmale wie Zugriffsart, Konfiguration und Sicherheit. Weiterlesen
-
Wie man eine universelle Big-Data-Pipeline aufbaut
Ähnlich einer Autobahn lassen sich über eine Big-Data-Pipeline massenweise Daten von der Quelle zum Ziel transportieren. Wie aber baut man eine solche Pipeline? Weiterlesen
-
Was zeichnet eine Analysepipeline aus?
Analysepipelines befinden sich traditionell im Verborgenen. Das ändert sich gerade, da Unternehmen ihre Daten agil verarbeiten müssen. Was zeichnet eine Analysepipeline aus? Weiterlesen
-
Generative KI verursacht neue juristische Herausforderungen
Vor 20 Jahren wurde Napster aus urheberrechtlichen Gründen verboten. Mehrere Gerichtsverfahren werfen die Frage auf, ob einige KI-Anbieter vor einem ähnlichen Problem stehen. Weiterlesen
-
6 Kenntnisse, die für die Arbeit mit Big Data notwendig sind
Big-Data-Fachkräfte werden stark nachgefragt, brauchen aber auch spezielle Kenntnisse. Lesen Sie, welche Big-Data-Fähigkeiten Unternehmen suchen und was Sie dafür brauchen. Weiterlesen
-
6 Tipps für das Sichern und Verwalten von Metadaten
Metadaten sind wichtig für die optimale Nutzung von Daten, daher sollten Firmen sie richtig speichern. Zu bewährten Verfahren gehören Schutz und Verständnis der IT-Architektur. Weiterlesen
-
Eine Big-Data-Strategie in vier Schritten aufbauen
Fast alle Unternehmen analysieren große Datenmengen. Doch ohne Big-Data-Strategie sind diese Bemühungen wenig erfolgreich. Hier erfahren Sie, wie Sie eine Strategie entwickeln. Weiterlesen
-
Die verschiedenen Arten von Datenbankprodukten
Die verschiedenen Arten von Datenbanksoftware haben jeweils eigene Vor- und Nachteile sowie Einsatzmöglichkeiten, über die sich Käufer vor der Wahl eines DBMS bewusst sein sollten. Weiterlesen
-
Zukunft der Datenwissenschaft: Karriere- und Branchentrends
Da neue Technologien die Aufgaben von Datenwissenschaftlern verändern, ist das künftige Jobprofil von Data Sciencists unklar. Der Beruf befindet sich im Wandel. Weiterlesen
-
Die Unterschiede strukturierter und unstrukturierter Daten
Strukturierte und unstrukturierte Daten stellen Herausforderungen bei der Kategorisierung, Definition und Speicherung dar. Wir informieren Sie über die wesentlichen Unterschiede. Weiterlesen
-
Datenaufbereitung für maschinellen Lernen in sechs Schritten
Zuverlässige Analyseergebnisse hängen von den richtigen Daten ab. Datenwissenschaftler sollten folgende Schritte gehen, wenn sie Daten für maschinelles Lernen aufbereiten. Weiterlesen
-
Wie Anwender von Self-Service-Datenaufbereitung profitieren
Die Verwendung von Self-Service-Tools zur Datenaufbereitung vereinfacht Analyse- und Visualisierungsaufgaben und beschleunigt Modellierungsprozesse für Datenwissenschaftler. Weiterlesen
-
Bewertung und Auswahl von Software zur Datenvisualisierung
Das Reporting von Datenanalysen erfordert klare und informative Darstellungen. Doch wie lässt sich hierfür die passende Software auswählen und was ist dabei zu beachten? Weiterlesen
-
So organisieren Sie unterschiedliche Datentypen
Wir erklären Alternativen zu relationalen Datenbanken, die helfen, unstrukturierte Daten zu strukturieren und wertvolle Erkenntnisse zu gewinnen, indem sie halbstrukturiert werden. Weiterlesen
-
Wie man größere Probleme bei der Datenaufbereitung bewältigt
Datenaufbereitung ist ein wichtiger Bestandteil der Datenanalyse, doch sie ist kompliziert. Sieben Herausforderungen, die den Prozess erschweren, und wie man sie bewältigt. Weiterlesen
-
NLP und KI treiben automatisiertes Data Warehouse voran
Moderne Data Warehouses automatisieren so viele Elemente wie möglich. Features wie Augmented Analytics und Natural Language Processing optimieren die Prozesse. Weiterlesen
-
Strukturierte und unstrukturierte Daten: Die Unterschiede
Strukturierte und unstrukturierte Daten stellen besondere Anforderungen an die Datenspeicherung. Wir erklären die Unterschiede und den Stellenwert semistrukturierter Daten. Weiterlesen
-
Was eine Big-Data-Strategie ausmacht und wie man sie aufbaut
Unternehmen analysieren große Datenmengen, um ihre Prozesse zu optimieren. Doch ohne eine langfristige Big-Data-Strategie werden diese Bemühungen wenig Erfolg haben. Weiterlesen
-
Klassifizierung von Daten für Datensicherungsstrategien
Unternehmen können in vielen Fällen Ressourcen nur begrenzt zur Verfügung stellen, um Daten zu schützen. Datenklassifizierung kann dabei helfen, den Einsatz zu optimieren. Weiterlesen
-
Datenklassifizierung: Was es ist und warum man es braucht
Compliance, optimaler Schutz von Daten, Verfügbarkeit, Analysefähigkeit und die kostengünstige Speicherung sind Gründe, warum Datenklassifizierung so wichtig ist. Weiterlesen
-
Hadoop versus Spark: ein Vergleich der Big Data Frameworks
Apache Hadoop und Spark sind zwei weit verbreitete Big Data Frameworks. Ein Einstieg in ihre Funktionen und Möglichkeiten sowie die wichtigsten Unterschiede bei den Technologien. Weiterlesen
-
Welche Vorteile SAP S/4HANA für Unternehmen bietet
Für moderne Geschäftsmodelle bietet SAP S/4HANA verschiedene Pluspunkte. Das ERP-System ermöglicht in Verbindung mit HANA schnelle Analysen und Prognosen. Weiterlesen
-
Datenbank- und Analytics-Software aus dem Silicon Valley
Das Silicon Valley gilt erste Adresse für Unternehmensgründungen. Die zweiteilige Artikelserie präsentiert acht Start-ups aus dem Software- und Datenbankumfeld. Weiterlesen
-
Tools für das IT- und Datenmanagement aus dem Silicon Valley
Das Silicon Valley gilt als Zentrum für Unternehmensgründungen. Die zweiteilige Artikelserie widmet sich einigen dieser Firmen aus dem Software- und Datenbankumfeld. Weiterlesen
-
Wie Unternehmen RPA und Machine Learning zusammen einsetzen
RPA führt zusammen mit maschinellem Lernen und anderen KI-Techniken zu einer intelligenten Automatisierung. Doch die beste Automatisierung hängt von den Bedürfnissen ab. Weiterlesen
-
Wie Datenanalysen zu besseren Entscheidungen führen
Daten werden häufig nur in Teilen analysiert. Dabei bietet Datenanalyse für Unternehmen einige Vorteile. In diesem Artikel werden die Grundlagen der Datenanalyse beschrieben. Weiterlesen
-
Blockchain as a Service (BaaS): acht Anbieter im Vergleich
Man muss ein Blockchain-Projekt nicht von Grund auf neu aufbauen. Es gibt Cloud-Anbieter, die Blockchain-Infrastruktur, -Netzwerke und Entwicklungswerkzeuge bereitstellen. Weiterlesen
-
Sechs Blockchain-Alternativen für Business-Anwender
Technologien wie verteilte Datenbanken bieten einige Vorteile der Blockchain in Bezug auf Datenintegrität und Zuverlässigkeit mit weniger Leistungsproblemen. Weiterlesen
-
Was digitale Souveränität definiert und wer auf sie setzt
Heinz-Joachim Schmitz und Benjamin Brake von IBM sprechen im Interview über die Bedeutung digitaler Souveränität und welche Initiativen erfolgsversprechend sind. Weiterlesen
-
Wie man eine Umfrage zur Kundenzufriedenheit erstellt
Unternehmen müssen einen Plan haben, bevor sie Umfragen zur Kundenzufriedenheit verschicken. Die Reaktion auf das Feedback ist genauso wichtig wie das Sammeln der Rückmeldungen. Weiterlesen
-
Datenintegrität ist der Schlüssel zur Datenqualität
Um Datenintegrität und Datenqualität zu gewährleisten, müssen Unternehmen ihre Prozesse anpassen und in die Datenkompetenz der Mitarbeiter investieren. Weiterlesen
-
Ein Datenkompetenz-Framework für Unternehmen entwerfen
Da Daten für Unternehmen immer wichtiger werden, müssen auch Mitarbeiter außerhalb des Datenteams über Datenkenntnisse verfügen. Das erfordert verschiedene Schritte. Weiterlesen
-
Warum mehr Mitarbeiter Datenkompetenz benötigen
Jedes Unternehmen profitiert davon, wenn es seine Mitarbeiter ermutigt, sich Datenkompetenz anzueignen. Wie sich Datenkompetenz erlernen lässt. Weiterlesen
-
Wie man Datenqualität für Big Data gewährleistet
Da die Datenmengen exponentiell ansteigen, sind Methoden zur Verbesserung der Qualität von Big Data von entscheidender Bedeutung, um genaue Geschäftsentscheidungen zu treffen. Weiterlesen
-
Die Vor- und Nachteile des Big Data Outsourcing
Immer mehr Unternehmen suchen nach externer Hilfe, um den Wert der Daten zu nutzen. Das Outsourcing von Big-Data-Verarbeitungsprojekten bringt einige Vor- und Nachteile mit sich. Weiterlesen
-
Informatica erweitert Cloud-Angebot auf Azure Deutschland
Informatica stellt die Intelligent Data Management Cloud nun auch über Azure Deutschland bereit. Rik Tamm-Daniels beschreibt das Angebot und wofür es sich einsetzen lässt. Weiterlesen
-
Was ist der Unterschied zwischen KI und IT-Automatisierung?
KI und Automatisierung gehen Hand in Hand, doch es gibt wichtige Unterschiede zwischen ihnen. Wie KI und Automatisierung zusammenarbeiten und was sie unterscheidet. Weiterlesen
-
Warum die Monetarisierung von Open Source ein Dilemma bleibt
Der Kampf zwischen AWS und Elastic um die kommerzielle Nutzung von Elasticsearch zeigt, wie sich Open Source-Softwareanbieter im Zeitalter des Cloud Computing verändern müssen. Weiterlesen
-
Wie Informatica den Zugang zu Analysen demokratisieren will
Informatica hat eine Spark-basierte Cloud Data Integration Engine präsentiert. Rik Tamm-Daniels von Informatica erläutert im Gespräch die Lösung und wofür sie sich einsetzen lässt. Weiterlesen
-
Datameer Spectrum: Datenaufbereitung in der Cloud
Der Big-Data-Spezialist Datameer hat Ende 2020 mit Spectrum und Spotlight sein Portfolio erweitert. Das Unternehmen konzentriert sich damit auf die Datenverarbeitung in der Cloud. Weiterlesen
-
Alteryx: Der Markt für Analytik wächst immer weiter zusammen
Im Interview spricht Alan Gibson, Vice President EMEA bei Alteryx, darüber, wie der Anbieter durch die Coronakrise kommt und welche Analytics-Lösungen sie in der Pipeline haben. Weiterlesen
-
Wie BMW und Equinox Media auf Serverless Computing setzen
In den beiden Anwendungsbeispielen von BMW und Equinox Media sehen wir uns an, wie diese AWS- und Serverless-Architekturen zum Verarbeiten und Analysieren von Daten verwenden. Weiterlesen
-
IT-Jobs: Was macht ein Data Analytics Expert?
Die Fähigkeiten von Datenspezialisten wie Data-Analytics-Experten müssen breit gefächert sein. Neben statistischen Kenntnissen zählt aber auch, Daten anschaulich zu vermitteln. Weiterlesen
-
IT-Jobs: Was macht ein Data Engineer?
Die Anforderungen an Datenspezialisten sind immens, haben sie doch mit einer Fülle an komplexen Daten zu tun. Das gilt insbesondere für Data Engineers. Weiterlesen
-
IT-Jobs: Was macht ein Data Scientist?
Der Bedarf für Data Scientists ist in den letzten Jahren stark gestiegen. Grund genug, das Aufgabenfeld eines Datenwissenschaftlers näher unter die Lupe zu nehmen. Weiterlesen
-
Hadoop-Distributionen für das Big-Data-Management erkunden
Hadoop bietet vielfältige Möglichkeiten für das Management und die Verarbeitung von Big Data. Allerdings ist die Auswahl an kommerziellen Lösungen begrenzt. Weiterlesen
-
Business-Intelligence-Trends für 2021 und darüber hinaus
Diese acht Business-Intelligence-Trends beeinflussen, wie Unternehmen im Jahr 2021 mit Daten arbeiten. Neben Augmented und Embedded Analytics wird der Markt von RPA geprägt. Weiterlesen
-
Warum SAP S/4HANA das Data Warehouse nicht ersetzt
Auch wenn bereits über 15.000 Kunden S/4HANA einsetzen, stehen viele Anwender dem System skeptisch gegenüber. Das hat unter anderem mit der Datenbankarchitektur zu tun. Weiterlesen
-
In vielen Firmen gibt es auch in Zukunft Data Warehouses
Mit Data Lakehouse und SQL Analytics bietet Databricks zwei Anwendungen für die Datenanalyse an. Joel Minnick von Databricks erklärt im Interview, was Anwender damit erreichen. Weiterlesen
-
Warum ethische Datenverarbeitung für Firmen so wichtig ist
Für viele Konsumenten steht Datenschutz und ethisch vertretbare Datenverarbeitung im Vordergrund. Auf diese Entwicklung müssen Unternehmen reagieren. Weiterlesen
-
Was Predictive Maintenance ist und wie es angewendet wird
Mit Predictive Maintenance lassen sich Ausrüstung und Anlagen überwachen sowie mögliche Ausfälle vorbeugen. Was man zu Predictive Maintenance wissen muss. Weiterlesen
-
Neue Analytics-Anforderungen ergänzen Data Warehouses
Da sich Datenspeicherung und zugehörige Technologien weiterentwickeln, denken Anwenderunternehmen auch über die Optimierung ihres Data Warehouses nach. Weiterlesen
-
Data Warehouses erleben in der Cloud eine Renaissance
Cloud Data Warehouses finden Gefallen bei Teams, die die Verwaltung der Infrastruktur abgeben möchten. Neuere Data-Warehouse-Services übernehmen viele Administrationsaufgaben. Weiterlesen
-
Amazon-Timestream für die Datenverarbeitung in IoT-Lösungen
Viele IoT- und Industrie-4.0-Lösungen produzieren Zeitreihendaten, die sie meist in relationalen Datenbanken speichern. AWS verspricht mit Timestream eine kostengünstigere Lösung. Weiterlesen
-
Unsere Kunden sehen MongoDB als General-Purpose-Datenbank
Im Interview erläutert Benjamin Lorenz, Pre-Sales Manager bei MongoDB, unter anderem, wie der Datenbankanbieter von der aktuellen wirtschaftlichen Situation profitiert. Weiterlesen
-
Drei Anwendungsfälle für Graphdatenbanken
Graphdatenbanken stellen Beziehungen zwischen Daten her. Die Datenbanken können in vielen Anwendungsfällen von Vorteil sein. Hier sind die drei wichtigsten davon. Weiterlesen
-
WANdisco will Kernproblem der digitalen Transformation lösen
Im Interview erklärt Jürgen Lübeck, Regional Director DACH bei WANdisco, warum sich ein Distributed-Computing-Ansatz optimal für die Big-Data-Verarbeitung eignet. Weiterlesen
-
Neue Deep-Learning-Techniken verbessern KI-Anwendungen
Mittlerweile helfen Generative Adversarial Networks, Reinforcement Learning und Transfer Learning dabei, über Machine Learning hinaus zu besserer KI zu gelangen. Weiterlesen
-
Dezentrales Deep Learning bietet neuen Modelltrainingsansatz
Das Training von Deep-Learning-Modellen stellt eine große Belastung für die Infrastruktur von Unternehmen dar. Ein dezentraler Ansatz kann das Problem lösen. Weiterlesen
-
Deep-Learning-Algorithmen erfordern unbegrenzte Datenmengen
Je mehr Daten vorliegen, desto wirkungsvoller sind Deep-Learning-Projekte. Allerdings benötigen Unternehmen auch die richtigen Daten für Deep Learning. Weiterlesen
-
Wissensgraphen gewinnen in der Datenverarbeitung an Wert
Mit einer zunehmenden Reife von Wissensgraphen finden Unternehmen neue Wege, sie in den Geschäftsbetrieb zu integrieren – auch wenn es nach wie vor Stolpersteine gibt. Weiterlesen
-
Der Einsatz kleiner Datensätze für Machine Learning nimmt zu
Große Datensätze ermöglichen ein relativ einfaches Machine-Learning-Modelltraining. Entwickler forschen aber auch an Modellen, die mit kleinen Datensätzen funktionieren. Weiterlesen
-
Innovation aus der Raumfahrt: der mobile virtuelle Assistent
CIMON II ist ein virtueller Assistent, der die Astronauten auf der ISS bei der Arbeit unterstützt. Wir haben mit Matthias Biniok von IBM über Tücken und Chancen dieses Projekts gesprochen. Weiterlesen
-
COVID-19-App: Wichtig ist die Anonymisierung aller Daten
Der Einsatz einer App zum Nachverfolgen von COVID-19-Ansteckungen wird aktuell diskutiert. Steffen Schneider von Couchbase erläutert im Interview die mögliche Umsetzung. Weiterlesen
-
Wie weit ist Artificial General Intelligence entwickelt?
Entwickler und Forscher diskutieren aktuell darüber, inwieweit künstliche Intelligenz (KI) das menschliche Gehirn nachahmen muss. Zwei Denkschulen sind hier federführend. Weiterlesen
-
Viele SAP-Migrationen sind bereits aus dem Ruder gelaufen
Der Umstieg auf SAP S/4HANA beschäftigt aktuell viele Unternehmen. Im Interview erläutert Gerrit de Veer, Senior Vice President MEE von Signavio, zentrale Lösungsansätze. Weiterlesen
-
Die Unterschiede zwischen SAP ECC, S/4HANA und R/3 verstehen
SAP ECC, HANA, S/4HANA und R/3 sind alles wertvolle Werkzeuge in der Enterprise-Welt. Erfahren Sie mehr über die Gemeinsamkeiten und Unterschiede der Anwendungen. Weiterlesen
-
Die Vor- und Nachteile von Robotic Process Automation (RPA)
Robotic Process Automation (RPA) hat sich in vielen Unternehmen etabliert. Die Technologie bietet zahlreiche Vorteile, aber auch Risiken für die Anwenderfirmen. Weiterlesen
-
NLU, NLG und NLP: Wie und wofür Sprache verarbeitet wird
Natural Language Processing (NLP) ist für KI-Applikationen von zentraler Bedeutung. Inzwischen wurde NLP in einer ganzen Reihe von Anwendungen realisiert. Weiterlesen
-
Was die NLP-Integration in Business Intelligence bremst
Natural Language Processing (NLP) wird auch in Business-Intelligence- und Analytics-Anwendungen integriert. Doch die Herausforderungen bei der Entwicklung sind groß. Weiterlesen
-
Aristotle von Bouquet.ai ermöglicht Chats mit Datenbanken
Bouquet.ai stellt mit Aristotle ein Tool mit künstlicher Intelligenz bereit, das es Analysten und Führungskräften erlaubt, mit ihren Datenbanken direkt zu chatten. Weiterlesen
-
Wie Low Code Tools in BI-Anwendungen integriert werden
Im Interview spricht Yellowfin CTO Brad Scarff darüber, warum Analytics-Anbieter damit beginnen, Low-Code-Tools als Teil ihres Angebots zur Verfügung zu stellen. Weiterlesen
-
Wie Low Code Tools BI-Kundenbedürfnisse erfüllen
Yellowfin CTO Brad Scarff diskutiert im Interview, wie und warum Low Code Tools für die Anwendungsentwicklung im BI-Bereich eingesetzt werden. Weiterlesen
-
Onepanel: KI-Workflow-Automatisierung in beliebiger Umgebung
Onepanel automatisiert KI-Workflows auf einer beliebigen Infrastruktur und erleichtert so die Bereitstellung produktionsreifer Lösungen mit künstlicher Intelligenz. Weiterlesen
-
Wie sich Firmen auf ethisches Data Mining konzentrieren
Da die Datenanalyse zunehmend zu einem Kernbestandteil der Unternehmensstrategie geworden ist, gibt es auch Bedenken über die Art der Datengewinnung. Weiterlesen
-
Unternehmen sollten einen Ethik-Framework für KI entwickeln
Wenn Unternehmen beginnen, KI einzusetzen, sollten sie sich nicht nur mit KI-, sondern auch mit Ethik- und Datenschutzfragen beschäftigen, und Richtlinien festlegen. Weiterlesen
-
Wie Compliance.ai das Compliance-Management automatisiert
Das Start-up Compliance.ai automatisiert mit seiner Lösung das Compliance-Management. Hierfür vergleicht es den Datenbestand einer Organisation mit rechtlichen Vorgaben. Weiterlesen
-
Wie sich Ethik, Governance und Compliance unterscheiden
Beim Data Mining werden Governance, Compliance und Ethik irrtümlich als ein Punkt betrachtet. Datenmanager sollten sich aber der Unterschiede bewusst sein. Weiterlesen
-
IT-Trends 2020: Das prognostizieren Gartner, IDC und Co.
Ob 5G, RPA oder Edge Computing - die Forscher der Analystenhäuser prognostizieren für die einzelnen Technologien ein deutliches Absatzwachstum. Weiterlesen
-
Wie Analytics-Teams ethische Grundsätze befolgen
Unternehmen kommen nicht umhin, für Data-Mining- und Analytics-Anwendungen ethische Grenzen festzulegen. Diese ethischen Regeln müssen aber auch befolgt werden. Weiterlesen
-
Petuum: künstliche Intelligenz für den industriellen Einsatz
Petuum möchte mit seiner Plattform Unternehmen die KI-Welt näherbringen. Als Basis dient die KI-Plattform Symphony, die Standard-Methoden für die Entwicklung bereithält. Weiterlesen
-
Es werden Milliarden für nutzlose Dateninitiativen vergeudet
Im Interview erklärt Dean Stoecker, CEO von Alteryx, wie Data Science bei der Bekämpfung der Opioidkrise hilft und zu einer Verringerung der Lebensmittelverschwendung führen kann. Weiterlesen
-
Promethium navigiert Analysten durch das Big-Data-Dickicht
Das noch junge Unternehmen Promethium möchte mit seiner Anwendung Daten einen Sinn verleihen und die Datenverarbeitung und -analyse beschleunigen. Weiterlesen
-
Network Traffic Analysis mit Corelight Sensors und Zeek
Corelight entwickelt Network-Traffic-Analyselösungen, die Netzwerkdatenpakete in Protokolle und extrahierte Dateien umwandeln, um Sicherheitsbedrohungen schneller zu erkennen. Weiterlesen
-
NoSQL-Systeme können mit neuen Datentypen besser umgehen
Wolfgang Fresser, Country Manager DACH bei Couchbase, erläutert im Interview die Merkmale von NoSQL-Datenbanken und wie Unternehmen von diesen profitieren. Weiterlesen