Adacor - Cloud

23. Juni 2021 von Valentin Rothenberg

Azure, AWS und Google Cloud – das sind die wichtigsten Unterschiede

Die digitale Transformation verändert die Anforderungen an die IT-Infrastrukturen in den Unternehmen. Für viele bietet die Cloud optimale Möglichkeiten, um die Systeme und Netzwerke an die neuen Vorgaben anzupassen. Insbesondere der Einsatz einer Public Cloud lohnt sich für viele IT-Projekte. Im Rahmen der Konzepterstellung ist neben einer durchdachten Strategie die konkrete Zielsetzung das A und O, um Anwendungen erfolgreich in die Cloud zu integrieren. Zu vermeiden ist allerdings, dass die Public Cloud als Rettungsanker für fehlende Innovationen, veraltete Systeme oder die Auslagerung von IT-Know-how gesehen wird. Die besten Ergebnisse lassen sich erzielen, wenn Unternehmen schon im Vorfeld die Vor- und Nachteile einer Cloud-Migration abwägen. Im Internet bilden die meisten Analysen nur die technischen Aspekte ab, dieser Beitrag stellt die Services der drei großen Anbieter Amazon Web Services (AWS), Google Cloud und Microsoft Azure aus Managementsicht gegenüber.

Cloud Computing stellt eine Infrastruktur in Form von virtuellen Servern oder Load Balancern digital zur Verfügung (Infrastructure as a Service). Bezogen werden können zusätzlich Plattformen zur Entwicklung und zum Betrieb von Applikationen (Platform as a Service) sowie Applikationen, die direkt „on the fly“ in und aus der Cloud genutzt werden können (Application as a Service). Die verschiedenen Cloud-Modelle unterscheiden sich stark voneinander. In einer Public Cloud teilen sich mehrere Nutzende die gleichen (Rechen-)Ressourcen. Die Angebote umfassen meist standardisierte Dienste, die günstiger sind als Dienste und Server mit hohem Individualisierungsgrad und bei denen die Rechenpower nur jeweils einem Nutzenden dediziert zur Verfügung steht.

Die häufigsten fünf Ziele für den Wechsel in die Public Cloud

Es gibt vielfältige Gründe, um auf eine Public-Cloud-Plattform zu wechseln. Ausschlaggebend ist für Unternehmen mindestens eins der folgenden fünf Ziele:

  1. Kostenersparnis
  2. Mehr Agilität und Skalierbarkeit
  3. Hohe Verfügbarkeit
  4. Auslagerung von Verantwortung
  5. Einkauf von Know-how in Form von professionellen Cloud Services

Im Video erfahren Sie, wie wichtig die Gegenüberstellung der Vor-und Nachteile der Cloud-Angebote ist, um objektiv zu entscheiden, ob der Umzug in die Cloud Ihre IT voranbringen wird.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Ein Überblick über Amazon, Microsoft und Google

Amazon startete 2002 mit einem ersten Public-Cloud-Angebot, unter anderem mit einem Datenspeicher. Seit 2006 gibt es mit der Elastic Compute Cloud (EC2) die Möglichkeit Cloud-Server anzumieten. AWS bietet hunderte Services mit umfangreichen Funktionalitäten, die über weltweit verteilte Rechenzentren bereitgestellt werden.

Erst seit 2010 bietet Microsoft Cloud-Dienste in Verbindung mit vielen Microsoft-Produkten an. Analog zu AWS können in der Azure-Cloud Server mit Linux-Betriebssystem betrieben werden. Die Plattform umfasst ebenfalls hunderte Produkte und Cloud-Services und wächst stetig. Sie wurde konzipiert, um Unternehmen bei der Entwicklung, Ausführung und Verwaltung von IT-Lösungen zu unterstützen.

Das erste Cloud-Angebot von Google gibt es seit 2008. In der initialen Version konnten Python- und Java-Applikationen in der Cloud ausgeführt werden. Seit 2013 bietet Google Cloud-Server mit verschiedenen Betriebssystemen an. Google Cloud besteht aus einer Reihe von physischen Komponenten wie Computer und Festplatten sowie aus virtuellen Ressourcen wie virtuelle Maschinen (VMs). Der Betrieb erfolgt in den Google-Rechenzentren, die weltweit verteilt sind.

Hohe Zahl an Services unterstützt Admins

Alle drei Anbieter bieten eine große Auswahl an kombinierbaren Services. Von Cloud-Server, Datenbanken oder Daten- und Langzeitspeicher über Content Delivery Networks (CDNs), Load Balancer bis hin zu Big-Data-Analysetools können IT-Administratoren sämtliche Funktionen komfortabel bedienen. Schwarze Konsolenfenster und kryptische Zeichenketten gehören somit der Vergangenheit an. Daher ist es kein Wunder, dass Cloud-Projekte initial oft nicht vom Management sondern von den IT-Abteilungen und den Mitarbeitenden angestoßen werden, weil diese bereits privat oder in Projekten mit Cloud-Diensten arbeiten.

Aufwändige Anpassung von Bestandsanwendungen

Die Migration von Bestandsanwendungen bringt je nach deren Alter und Programmierung wenig Freude. Zusätzlich fallen bei einem Wechsel der Betriebsumgebung Migrationsaufwände und Kosten an. Ein Umzug in die Public Cloud einer der drei Anbieter bedingt meist etwas höhere Kosten als die Migration in eine individuell angepasste Umgebung. Das liegt daran, dass die Anwendungen als Set an die standardisierten Services angepasst werden müssen. Diese lassen sich zwar wie zuvor in der Public Cloud betreiben, aber Vorteile wie Skalierbarkeit und automatisierte Deployments gehen verloren. Daher ist es besser, bestehende Applikationen für den Betrieb in der Cloud anzupassen.

Komplizierte Schätzung der Kosten 

Eine herausfordernde Aufgabe stellt die Ermittlung der voraussichtlichen Betriebskosten der eigenen IT-Infrastruktur bei AWS, Google Cloud oder Microsoft Azure dar. Alle Anbieter haben ein komplexes Preismodell mit Staffelungen und vielen unterschiedlichen Positionen. Microsoft und Google unterscheiden bei den Preisen für den Datentransfer nach Destination. Bei Amazon werden Load Balancer nicht nur pro Stunde, sondern auch nach verbrauchten Load Balancer Capacity Units berechnet. Eine Vorhersage der Kosten ohne ein technisches Konzept und voraussichtlichen Verbrauchswerten ist nur eingeschränkt möglich. Hingegen stellt ein umfassender Ressourcenplan, der mit einer Cloud-Strategie zur Auswahl der richtigen Komponenten und Struktur verbunden ist, eine gute Basis für die Kalkulation der Cloud-Betriebskosten dar. Alle Cloud-Anbieter stellen jedoch einen umfassenden Rechner zur Verfügung, der die Kostenschätzung vereinfacht.

Kostenvorteile ergeben sich dort, wo Server nur temporär gestartet werden, um Lastspitzen aufzufangen. Hier profitieren Unternehmen von einer stunden- (Azure), minuten- (Google) oder sekundengenauen (AWS) Abrechnung. Bei Umgebungen mit 24/7-Betrieb und geringer Nutzung der Skalierungsfunktionen fallen die Kostenvorteile voraussichtlich geringer aus.

Die Personalkosten für das Server und Infrastruktur Management ändern sich nur geringfügig, da die zeitlichen Aufwände etwa gleichbleibend sind. Selbst in der Cloud mit allen Automatisierungsmöglichkeiten bedarf es Administratoren, die die Infrastruktur kennen, überwachen, warten und weiterentwickeln. Dieser Punkt wird bei der initialen Kostenkalkulation für den Cloud-Betrieb oft vergessen, er ist aber nicht zu unterschätzen. Im Ergebnis lassen sich durch die Umstellung von Applikationen auf den Cloud-Einsatz und die Etablierung eines hohen Automatisierungsgrads speziell bei großen Umgebungen langfristig Kosten sparen. Dies geht – sofern noch keine Umstellung erfolgt ist – mit einem Technologiewechsel und einem Umdenken in der IT einher. Kosten können dort reduziert werden, wo Server nicht einzeln gepflegt werden müssen, sondern wo sie automatisiert mit neuer Konfiguration erstellt werden können. Dies erfordert die Unterstützung von allen eingebundenen IT-Systeme.

Analyse der Vertragsmodalitäten und SLAs notwendig

Um die Qualität eines Hosting-Vertrages zu beurteilen, sind die Service Level Agreements (SLAs) entscheidend.

Die drei wichtigsten Fragen beim Anbietervergleich:

  1. Sind Preisanpassungen möglich?
    Amazon, Microsoft und Google stehen nach wie vor in einem starken Wettbewerb zueinander, obwohl Amazon laut der Business Data Platform Statista – weltweit gesehen – mit 33 Prozent über den größten Marktanteil bei den Public-Cloud-Anbietern verfügt und der Konkurrenz weit voraus ist. Microsoft liegt mit 18 Prozent auf dem zweiten Platz, verzeichnet aber aktuell das größte Wachstum. Abgeschlagen auf dem dritten Rang folgt Google mit 8 Prozent. Aufgrund der anhaltenden Rivalität ist aktuell nicht zu erwarten, dass die Preise großartig steigen. Dennoch behalten sich die Anbieter das Recht vor, ihre Preise innerhalb von 30 Tagen frei zu ändern. Langfristig besteht daher das Risiko höherer Preise.
  2. Welche Rechtsgrundlage gilt?
    Bei keinem Anbieter gilt deutsches Recht für die Vertragsbedingungen. AWS nutzt das Recht des US-amerikanischen Bundesstaats Washington, Google Cloud das des Bundesstaats Kalifornien und Azure agiert auf Basis von irischem Recht. Ob die Clouds DSGVO (im Englischen GDPR) konform nutzbar sind, ist hoch umstritten und wird laut ZDNet aktuell vom EU-Datenschutzbeauftragten geprüft. Laut eRecht24 plant Microsoft in Zukunft die Daten nur noch in Europa zu speichern. Ab wann das gilt und ob es dann DSGVO konform ist, bleibt abzuwarten. Es ist allerdings wahrscheinlich, dass der Technologiegigant zu diesem Zugeständnis stehen wird.
  3. Welche Verfügbarkeitszusagen gibt es?
    Branchenüblich weisen alle Anbieter für Cloud-Server Service Level Agreements (SLAs) mit Verfügbarkeitszusagen aus. Bei Amazon, Microsoft und Google unterscheidet sich speziell die Erstattungssumme für ausgefallene Services. Grundsätzlich fallen die Verfügbarkeiten pro Service sehr unterschiedlich aus, sodass im Folgenden als Beispiel die Verfügbarkeiten und Erstattungen für Cloud Server (VMs) aufgezeigt werden.
    Google Cloud
    < 99,99 % Verfügbarkeit => Erstattungssumme = 10 %
    < 99 % Verfügbarkeit => Erstattungssumme = 25 %
    < 95 % Verfügbarkeit => Erstattungssumme = 100 %
    AWS
    < 99,99 % Verfügbarkeit => Erstattungssumme = 10 %
    < 99 % Verfügbarkeit => Erstattungssumme = 30 %
    < 95 Prozent Verfügbarkeit => Erstattungssumme = 100 %
    Azure
    < 99,95 % Verfügbarkeit => Erstattungssumme = 10 %
    < 99 % Verfügbarkeit => Erstattungssumme = 25 %
    < 95 % Verfügbarkeit => Erstattungssumme = 100 %
    Die Verfügbarkeitszusage und mögliche Erstattungsansprüche finden nur Anwendung, wenn spezielle Rahmenbedingungen eingehalten werden. Beispielsweise muss die Infrastruktur auf mehrere Availability Zones verteilt und eine Festplatte vom Typ „Premium“ gebucht sein. Zudem verlangen alle Anbieter einen Beleg für einen Ausfall unter Vorlage hinreichender Aufzeichnungen. Deshalb ist aus juristischer Sicht ein eigenes Monitoringsystem unerlässlich.

Verfügbarkeitstabelle jetzt downloaden

Finden Sie heraus, wie Sie die Qualität Ihrer bestehenden IT-Systeme messen.
Alle Details lesen Sie im Whitepaper von Adacor-CEO Thomas Wittbecker.

Klicken Sie auf den unteren Button, um den Inhalt von t3be38774.emailsys1a.net zu laden.

Inhalt laden

Infos zum Datenschutz

SLAs sind juristische Dokumente, welche die Cloud-Anbieter zu ihren Gunsten formulieren. So ist zwar eine Erstattung für einen Ausfall möglich, diese zu beantragen, ist jedoch mit Aufwand verbunden. Zudem wird bei einem Webshop eine Erstattung von 10 Prozent den Ausfall nicht kompensieren. Dies spielt am besten eine untergeordnete Rolle, da der Kunde die Verantwortung mitträgt: Er selbst hat es in der Hand  eine Infrastruktur zu schaffen, die potenziellen Ausfällen standhält. Das Ausfallrisiko lässt sich nur mit einem guten Cloud-Konzept, das die Verteilung der Infrastruktur auf mehrere Standorte beinhaltet, reduzieren.

In der Praxis zeigt besonders Microsoft Kooperationswillen und verhandelt individuelle SLAs mit Kunden, die potenziell hohe Umsätze generieren. AWS und Google Cloud bieten vermutlich zumindest großen Kunden individuelle SLAs an oder planen dies für die Zukunft. Das Nachsehen haben Kunden mit kleinen Umgebungen.

Die Verfügbarkeiten im Praxis-Check

In keinem SLA sollten Verfügbarkeitszusagen und Gutschriften (Service Level Credits) fehlen. Leider helfen diese wenig im Moment des Ausfalls und ein Arbeiten ohne die technische Infrastruktur ist in keinem Unternehmen möglich. Interne Systeme müssen hochverfügbar sein, sonst steht der Betrieb. Deshalb stellt sich die Frage nach der Verlässlichkeit der angebotenen Public Clouds.

Auf Websites wie CloudHarmony von Gartner lassen sich die Verfügbarkeiten der letzten Wochen oder Monate vergleichen. Betrachtet man die Statistiken der letzten Jahre, so lässt sich feststellen, dass alle Public Clouds ziemlich verlässliche Ergebnisse liefern. Kurze Ausfallzeiten an einzelnen Standorten sind normal, daher sollte die Infrastruktur auf mindestens zwei Availability Zones verteilt werden. Bei kritischen Applikationen (z. B. einem Finanzportal), bei denen eine kurze Downtime verheerende Folgen hätte, empfiehlt sich der Aufbau einer vernetzten Infrastruktur unter Einbeziehung der Ressourcen von zwei Public-Cloud-Anbietern.

Zusammenfassend lässt sich sagen, dass aufgrund der Flexibilität und Kombinationsmöglichkeiten von Standorten und Cloud-Anbietern eine sehr hohe Verfügbarkeit erreicht werden kann. Die Verfügbarkeit entsteht auf Basis eines durchdachten Konzepts für die Gesamtinfrastruktur, das in Kundenhand liegt und final eine Budgetfrage ist. Beim Betrieb der eigenen Infrastruktur in zwei Availability Zones mit automatischem Failover ist im Normalfall mit branchenüblichen Verfügbarkeiten über 98 Prozent pro Monat zu rechnen. Bei einem Ausfall brauchen Unternehmen eigene Administratoren, welche die in der Cloud betriebenen Systeme 24/7 überwachen und im Fehlerfall sofort reagieren. Die Cloud Provider werden bei einem Ausfall schnell aktiv, reparieren aber nur die eigene Infrastruktur. Der Kunde muss selbst überprüfen, ob alle Systeme automatisiert wieder hochfahren und sich wie gewünscht verhalten.

Hohe Agilität und Skalierbarkeit – kein Vendor Lock-in?

Die Public Cloud ermöglicht eine flexible Reaktion auf neue Anforderungen. Bestehende Ressourcen können mit wenigen Einschränkungen beliebig erweitert und neue Ressourcen hinzugezogen werden. Gleichzeitig sind fast alle Leistungen flexibel zur nächsten vollen Stunde kündbar. In der Praxis werden neue Ressourcen meist zum Abfangen von Lastspitzen (etwa durch eine Werbekampagne) temporär hinzugebucht. Entwickler können kurzfristig benötigte Instanzen per Knopfdruck erzeugen und nach Abschluss des Entwicklungsschrittes wieder stoppen.

Durch die Optimierung und Anpassung der eigenen Software kann ein Teil der Abhängigkeit vom Public-Cloud-Anbieter (Lock-in-Effekt) reduzieren werden. Denn die Anwendung ist nicht mehr von speziellen Komponenten abhängig und liegt idealerweise in einem Container, der auf jeder Plattform betrieben werden kann. Wenn diese Voraussetzungen gegeben sind, dann kann die eigene Umgebung einfach auf einen anderen Provider portiert werden. Zu bedenken ist allerdings, dass die Leistungen der Anbieter nicht zu 100 Prozent identisch sind. Die detaillierten Konfigurationsmöglichkeiten von Load Balancern, Speichermedien, Datenbanken und anderen Komponenten sowie die APIs (Application Programming Interfaces) zur Verwaltung unterscheiden sich an einigen Stellen. Zudem sind die Größen und Leistungsdaten der VMs nicht standardisiert. Es empfiehlt sich, genau zu prüfen, welcher Aufwand einem Plattformwechsel gegenübersteht. Dieser wird schnell unterschätzt und ein Lock-in-Effekt aufgrund der proprietären Lösungen der Anbieter und fehlender Standards besteht fort.

Jeder Anbieter strebt für sich eine Spezialisierung in eine bestimmte Richtung an: Google konzentriert sich auf den Bereich Big Data Analysis. Das Angebot von Amazon beinhaltet die meisten Zusatzleistungen. Microsoft spezialisiert sich auf Windows Server und -Anwendungen out of the box. So ist es bei spezifischen Leistungen möglich, dass diese nicht im gewohnten Umfang bei der Konkurrenz angeboten werden. Daher lohnt sich ein Vergleich.

Microsoft Azure Cloud für Ihr Business

Die Adacor Managed Azure Cloud erleichtert Ihnen die Konzeption, Migration und den Betrieb Ihrer Anwendungen auf der Microsoft Azure Cloud Platform.

Über Managed Azure Cloud informieren

Mehr Sicherheit als gedacht

Die Datensicherheit stellt für Unternehmen eines der größten Argumente gegen die Public Cloud dar. Häufig herrscht Ungewissheit über Sicherheitslücken und mögliche Zugriffe Dritter sowie die Angst vor einem Datenverlust. In der Wissenschaft ist Cloud-Sicherheit ebenfalls ein heiß diskutiertes Thema. Um Vertrauen zu bilden, investieren die Anbieter viel Geld in die Entwicklung von Sicherheitsmechanismen. Deshalb ist davon auszugehen, dass das Sicherheitsniveau der Clouds von Amazon, Google und Microsoft hoch ist. Ein größeres Risiko stellt ohnehin die falsche Konfiguration durch Nutzende oder Administratoren dar. Letztere brauchen ein gutes Verständnis für die von den Cloud-Anbietern bereitgestellten Sicherheitsvorkehrungen, um die eigenen Daten mit geeigneten Maßnahmen angemessen zu schützen.

Fazit: Vergleich der Services ist zwingender Teil der Cloud-Strategie

Cloud Computing erfordert ein Umdenken in der IT und bietet – je nach Projekt – diverse Vorzüge. Public-Cloud-Lösungen von AWS, Azure und Microsoft können den Zugang zu neuen Technologien erleichtern und Kosteneinsparungen ermöglichen. Voraussetzungen sind eine vorausschauend geplante Architektur und ein fundiertes Management der Umgebung. Die Services der Anbieter stellen eine solide, sichere Basis für den Betrieb der eigenen Infrastruktur dar. Es bedarf – analog zu jeder anderen Hosting-Form – ebenfalls Administratoren mit dem notwendigen Know-how, um die Umgebung einzurichten und zu verwalten. Niedrige Infrastrukturkosten gehen mit dem Transfer der Verantwortung vom Anbieter zum Kunden einher, der die Redundanz und Datensicherheit fast vollständig selbst verantworten muss. Ein genauer Vergleich der Services von AWS, Microsoft und Google, individuell ausgehandelte SLAs sowie ein fundiertes Migrations-, Sicherheits- und Backup-Konzept sollten daher zwingender Teil jeder Cloud-Strategie sein.

Dieser Beitrag ist vorab bei T3N erschienen.

Verwandte Artikel

Neue Impulse gefällig?
Sie erhalten unseren 4-wöchigen Newsletter zu den Themen Cloud, Hosting, IT-Security und Leadership.
Ich kann die Einwilligung jederzeit widerrufen. Ja, die Adacor Datenschutzerklärung habe ich gelesen.