
Getty Images/iStockphoto
5 Netzwerkanforderungen für Cloud Computing
IT-Teams sollten in ihren Cloud-Strategien Faktoren wie Bandbreiten- und Latenzoptimierung, Sicherheit, Netzwerkredundanz, QoS und Netzwerkautomatisierung berücksichtigen.
Das Aufkommen von Cloud Computing und SaaS-Architekturen hat die gesamte IT-Branche tiefgreifend verändert und sich auch auf das Networking ausgeweitet. Die Möglichkeit, von überall auf der Welt aus auf Ressourcen zuzugreifen, hat Unternehmen dazu bewegt, diese technologische Revolution aktiv zu nutzen.
Wenn Unternehmen zur Cloud wechseln, möchten sie Skalierbarkeit erreichen, Kunden gewinnen und mehr Gewinn erzielen. Für Netzwerktechniker ist es jedoch nicht immer einfach, Cloud-Strategien zu entwickeln oder mit Cloud-Teams zusammenzuarbeiten. Die Kooperation zwischen Networking- und Cloud-Teams hilft Unternehmen dabei, ihre Erwartungen an die Cloud zu erfüllen. Gemeinsam sollten diese Teams die folgenden Networking-Anforderungen für Cloud Computing berücksichtigen:
- Bandbreiten- und Latenzoptimierung.
- Sicherheit.
- Netzwerkresilienz und -redundanz.
- Quality of Service (QoS).
- Netzwerkautomatisierung und -orchestrierung.
1. Bandbreiten- und Latenzoptimierung
Die Optimierung von Bandbreite und Latenz spielt eine entscheidende Rolle für die effiziente Bereitstellung von Cloud-Diensten. Die Bandbreite bezieht sich auf die Datenmenge, die in einem bestimmten Zeitraum über ein Netzwerk übertragen werden kann. Die Latenz ist die Zeit, die Daten benötigen, um von einem Punkt zum anderen zu gelangen.
Wenn Teams ihre Bandbreiten- und Latenzanforderungen optimieren, lassen sich Cloud-Dienste effizient bereitstellen. Diese Optimierung führt zu folgenden Vorteilen:
- Verbesserte Benutzererfahrung (User Experience, UX) durch schnellere Reaktionszeiten und weniger Unterbrechungen.
- Geringere Kosten.
- Erhöhte Zuverlässigkeit von Cloud-Services.
Zeitkritische und datenintensive Anwendungen erfordern die Echtzeitverarbeitung großer Datenmengen. Diese Anforderung ist in Branchen wie dem Finanz- und Gesundheitswesen sowie dem Streaming-Bereich weit verbreitet. Es kann jedoch schwierig sein, Anwendungen mit optimierter Bandbreite und Latenz zu entwickeln und bereitzustellen.
Im Folgenden finden Sie einige Methoden, um Bandbreite und Latenz für Anwendungen und Workloads in der Cloud zu optimieren:
- Skalierbarkeit: IT-Teams können Cloud-basierte Plattformen nach oben oder unten skalieren, um die Kapazitäten flexibel an die Bedürfnisse der Anwendung anzupassen.
- Elastizität: Eine Cloud-basierte Anwendung kann der Anwendung bei Bedarf automatisch Ressourcen zuweisen.
- Zuverlässigkeit: Cloud-basierte Anwendungen sind typischerweise äußerst zuverlässig und bieten eine hohe Verfügbarkeit.
Eine weitere Option besteht darin, ein Content Delivery Network (CDN) zu verwenden. Darunter versteht man ein Netzwerk von Servern, die über die ganze Welt verteilt sind. CDNs cachen Inhalte an mehreren Standorten, sodass Server angeforderte Inhalte schneller an Endnutzer liefern können. CDNs verbessern somit die Leistung, Verfügbarkeit und Kosteneffizienz von Websites und Anwendungen.
2. Sicherheit
Die Omnipräsenz von PaaS-, IaaS- und SaaS-Architekturen macht Cloud Computing zu einer attraktiven Option für Unternehmen. Doch es reicht nicht aus, einfach nur in der Cloud zu sein. Unternehmen müssen auch Wert auf Sicherheit legen, um den Schutz ihrer Daten zu gewährleisten.
Sobald Daten kompromittiert sind, stehen Kriminellen alle Möglichkeiten offen. Sie können Daten sperren, um Lösegeld zu erpressen, sensible Dateien herunterladen und Betroffene daran hindern, auf ihr Netzwerk und dessen Ressourcen zuzugreifen.
Networking- und Cloud-Teams sollten mit Sicherheitsteams zusammenarbeiten, um Sicherheitskonzepte zu entwickeln, die das Unternehmen, seine Nutzer und die gesamte Cloud-Strategie schützen.
Ende-zu-Ende-Verschlüsselung
Verschlüsselung hat oberste Priorität, um Data at Rest und Data in Motion kontinuierlich vor Cyberangriffen zu schützen und die Vertraulichkeit zu gewährleisten.
Unternehmen stehen verschiedene Typen von Verschlüsselungs- und Sicherheitsprotokollen zur Verfügung, beispielsweise Advanced Encryption Standard (AES)und Transport Layer Security (TLS). Diese Methoden verschlüsseln Daten, wenn sie vom Client zum Server und umgekehrt übertragen werden. Für den Schutz von Data at Rest gibt es weitere Verschlüsselungsmethoden. Netzwerktechniker und Cloud-Teams sollten die Verschlüsselung entsprechend den geschäftlichen Anforderungen auswählen.
Identity and Access Management
Identity and Access Management (IAM) kann mit Cloud-basierten Services überprüfen, wer die Benutzer sind und welche Rechte sie für die jeweiligen Ressourcen besitzen. IAM hilft, die Cloud-Zugriffsrechte verschiedener Benutzer und Gruppen, wie Mitarbeiter, IT-Teams und Kunden, zu verwalten. Außerdem schützt es die Cloud-Ressourcen vor unbefugtem Zugriff oder Angreifern, indem es Sicherheitsrichtlinien durchsetzt und Benutzeraktionen überwacht.
Nachfolgend sind einige Vorteile von IAM-Diensten aufgeführt:
- Es ist möglich, einen einzigen Identitätsanbieter, etwa AWS, Azure und Salesforce. zu verwenden, um Benutzer in einer Multi-Cloud-Umgebung und in Anwendungen zu authentifizieren.
- IT-Teams können über eine einzige Schnittstelle die Zugriffsrechte von Benutzern und Gruppen verwalten.
- IAM-Dienste können Machine Learning integrieren, um missbräuchliche Zugriffsrechte, die ein potenzielles Sicherheitsrisiko darstellen, zu erkennen und zu entfernen.
Netzwerksegmentierung
Netzwerksegmentierung ist eine Methode, um ein Cloud-Netzwerk in kleinere Einheiten, sogenannte Subnetze oder Segmente, zu unterteilen. Jedes Segment verfügt über eigene Richtlinien und Sicherheitsmechanismen. Segmentierung trägt zur Verbesserung der Sicherheit, der Cloud-Überwachung und des autorisierten Zugriffs bei und kann das Risiko von Datenpannen verringern.
Zu den Vorteilen von Netzwerksegmentierung gehören unter anderem:
- Verbesserung der Netzwerk-Performance: Die Anzahl der Benutzer in bestimmten Zonen wird reduziert.
- Schutz des Netzwerks vor Angriffen: Ein segmentiertes Netzwerk hilft, den Umfang potenzieller Angriffe zu begrenzen.
- Schutz anfälliger Geräte: Durch Segmentierung lässt sich verhindern, dass schädlicher Traffic Geräte erreicht, die sich nicht selbst vor Attacken schützen können.
Branchenspezifische Vorschriften
Cloud Computing ist ein sich ständig weiterentwickelnder Bereich, und jede Region der Welt hat eigene gesetzliche und branchenspezifische Vorgaben. Diese Vorschriften betreffen sowohl Anbieter als auch Nutzer und beeinflussen, wie Unternehmen Cloud-Dienste einsetzen und die Zuständigkeiten definieren.
Zu den bekanntesten Compliance-Rahmenwerken und -Vorschriften zählen unter anderem:
- Datenschutz-Grundverordnung (DSGVO): Die DSGVO ist ein EU-weites Regelwerk mit dem Ziel, den Datenschutz in allen Mitgliedsstaaten zu harmonisieren. Sie gilt für alle Organisationen, die personenbezogene Daten von Personen in der EU verarbeiten, unabhängig davon, wo sich die Organisation oder die Daten befinden.
- Health Insurance Portability and Accountability Act (HIPAA): Der HIPAA ist ein US-amerikanisches Gesetz, das den Datenschutz und die Sicherheit von Gesundheitsdaten regelt. HIPAA-konforme Cloud-Dienste müssen gewährleisten, dass personenbezogene Gesundheitsdaten verschlüsselt sind und nur befugte Stellen darauf zugreifen dürfen.
- International Organization for Standardization (ISO). Die ISO ist die globale Organisation, die Industriestandards entwickelt und veröffentlicht, darunter auch für Cloud Computing.
Hier einige relevante Cloud-Standards, die man kennen sollte:
- ISO/IEC 27001 zu Managementsystemen für Informationssicherheit.
- ISO/IEC 27017 zu Sicherheitsmaßnahmen für Cloud-Dienste.
- ISO/IEC 27018 zum Schutz personenbezogener Daten in der Cloud.

3. Netzwerkresilienz und -redundanz
Netzwerkresilienz und -redundanz sind für stabile Netzwerke von wesentlicher Bedeutung. Datenverlust, Netzwerkfehlkonfigurationen, fehlerhafte Netzwerkgeräte und Unwetter sind nur einige der unzähligen Probleme, die das Netzwerk lahmlegen können.
Resilienz beschreibt die Fähigkeit eines Netzwerks, Ausfällen oder Veränderungen der Umgebung standzuhalten und den Betrieb schnell wieder aufzunehmen. Dazu gehört auch, dass das Netzwerk sich an Topologieänderungen anpassen, Ausfälle erkennen und darauf reagieren sowie die Netzwerkkonnektivität aufrechterhalten kann.
Mit Redundanz duplizieren Netzwerkteams Systemkomponenten, um die Zuverlässigkeit zu erhöhen. Redundanz nutzt verschiedene Mechanismen, etwa Load Balancing, Datenreplikation und Failover Clustering, um sicherzustellen, dass Daten und Anwendungen immer verfügbar sind sowie Downtime und Ausfälle vermieden werden.
Es gibt verschiedene Arten von Redundanz, zum Beispiel:
- Netzwerkredundanz, die sich darauf konzentriert, eine zuverlässige Konnektivität bereitzustellen.
- Geografische Redundanz, die dabei hilft, Daten zwischen mehreren Standorten zu replizieren. Wenn ein Rechenzentrum betroffen ist, bleiben die anderen weiterhin verfügbar.
- Hardwareredundanz, die mehrere fehlertolerante Systeme nutzt, um Software auszuführen und Serviceunterbrechungen zu verhindern.
- Prozessredundanz, bei der ein Backup-Prozess für kritische Geschäftsfunktionen wie Kundenservice, Rechnungsstellung und Inventarisierungsverwaltung zum Einsatz kommt.
Das sind einige der Vorteile von Redundanz:
- Hohe Verfügbarkeit, um Downtime und Serviceunterbrechungen zu minimieren.
- Datenschutz, um zu verhindern, dass Daten aufgrund von Systemausfällen verloren gehen oder beschädigt werden.
- Kosteneffizienz, um die Ressourcennutzung zu optimieren und die Kosten für die Nutzung einer geeigneten Infrastruktur zu reduzieren.
Ein umfassender Disaster-Recovery-Plan unterstützt Netzwerktechniker und Cloud-Teams dabei, den Netzwerkbetrieb nach einem Ausfall oder einer Katastrophe wiederherzustellen. Der Plan umfasst Maßnahmen wie Datensicherung, Disaster-Recovery-Tests und Incident-Response-Planung.
Cloud Provider stellen außerdem verschiedene Tools und Services zur Verfügung, mit denen Kunden Netzwerkresilienz und -redundanz umsetzen können. Amazon bietet beispielsweise Amazon Elastic Load Balancing, Amazon Route 53 und Amazon Simple Storage Service an. Microsoft Azure stellt vergleichbare Dienste bereit, etwa Azure Site Recovery, Azure Traffic Manager und Azure Load Balancer.
4. Quality of Service
QoS (Dienstgüte) spielt eine entscheidende Rolle im Netzwerkmanagement, da es in der Lage ist, den Netzwerk-Traffic nach festgelegten Regeln zu priorisieren. So lässt sich gewährleisten, dass kritische Anwendungen und besonders wichtiger Traffic auch bei hoher Netzwerkauslastung die Bandbreite und Ressourcen erhalten, die sie für eine gute Performance benötigen.
QoS bietet unter anderem folgende Vorteile:
- Verbesserte Leistung kritischer Anwendungen und Services.
- Bessere UX.
- Weniger Latenz und Jitter.
QoS wird als Teil des Netzwerkmanagements auf der Netzwerkschicht implementiert. Um die UX und die QoS ihrer Cloud-basierten Anwendungen und Dienste zu verbessern, können Netzwerkteams folgende Strategien anwenden:
- Einsatz einer Cloud-basierten Monitoring-Plattform.
- Nutzung eines Cloud-basierten CDNs.
- Auswahl eines Cloud-Anbieters mit nachweislich hoher QoS-Kompetenz.
5. Netzwerkautomatisierung und -orchestrierung
Netzwerktechniker und Cloud-Teams können per Netzwerkautomatisierung und -orchestrierung das Netzwerkmanagement optimieren. Diese Methoden reduzieren die Anzahl manueller Konfigurationen und helfen IT-Teams, effizient zu arbeiten.
Netzwerkautomatisierung nutzt Software, um wiederkehrende Aufgaben zu automatisieren – etwa die Konfiguration von Netzwerkgeräten, das Ausrollen von Änderungen (Change Deployment) und die Bereitstellung neuer Geräte. Orchestrierung nutzt Software, um mehrere Automatisierungsaufgaben als Teil eines größeren Workflows zu steuern. Im Grunde genommen ermöglicht die Orchestrierung es IT-Teams, einen größeren Workflow auf einmal auszuführen.
Zu den Vorteilen von Netzwerkorchestrierung und -automatisierung gehören:
- Verbesserte Effizienz.
- Reduzierte Fehlerquote.
- Erhöhte Agilität.
- Geringere Kosten.
Um Netzwerkautomatisierung und -orchestrierung in der Cloud zu implementieren, stehen Netzwerk- und Cloud-Teams zahlreiche Strategien zur Verfügung, unter anderem:
- Einsatz einer Cloud-nativen Automatisierungs- und Orchestrierungsplattform: Zu den Optionen gehören Azure Resource Manager, AWS CloudFormation oder Google Cloud Deployment Manager.
- Nutzung einer hybriden Automatisierungs- und Orchestrierungsplattform: Beispiele hierfür sind Ansible, Chef und Puppet.
- Kombination aus Cloud-nativen und hybriden Plattformen: Dieser Ansatz eignet sich besonders für Multi-Cloud-Umgebungen oder für die Automatisierung und Orchestrierung in Legacy-Netzwerken, die nicht Cloud-nativ sind.
- Schrittweises Vorgehen: Automatisierung und Orchestrierung zählen nicht zu den einfachen Aufgaben. Es empfiehlt sich deshalb, zunächst konkrete Probleme zu identifizieren, bevor Sie das gesamte Netzwerk automatisieren.
- Regelmäßige Tests: Es ist wichtig, neue Netzwerkskripte in einer Staging-Umgebung zu testen, ehe sie produktiv eingesetzt werden.
- Monitoring und Wartung: Nach dem Bereitstellen von Skripten ist es unbedingt erforderlich, zu überprüfen, ob sie wie vorgesehen funktionieren. Darüber hinaus müssen sie regelmäßig an Änderungen im Netzwerk angepasst werden.