Studie: Cloud Transformation 2024

In der aktuellen Studie von CIO, CSO und COMPUTERWOCHE wurden über 300 Experten und Expertinnen sowie IT-Verantwortliche der DACH-Region zu ihren Erfahrungen befragt. Mit unserer langjährigen Expertise in der Transformation von komplexen Cloud-Transformation-Projekten haben T-Systems und Detecon die Studie begleitet. Im Folgenden haben wir Stefan Schnitter, Managing Partner bei Detecon und Experte für Cloud Transformation zu Ergebnissen der Studie und wesentlichen Herausforderungen im Cloud-Umfeld befragt.

Die meisten Cloud-Transformation-Projekte werden strategisch geplant und umgesetzt. Was ist dabei zu beachten?

Der Mehrwert von einem Cloud-Transformation-Projekt entsteht nur über erhöhten Mehrwert für das Business. Dabei braucht man ein genaues Verständnis darüber wie ein Cloud Operating Model strategisch zu transformieren ist. Hier gibt es ja einerseits klassische Varianten, wo IT und Business noch jeweils eigene Abteilungen haben, bis hin zum anderen Extrem mit vollständigen DevOps-Prinzipien, wo sehr agil agiert wird. Daneben gibt es noch hybride Formen mit einem Cloud Center of Excellence (CCoE), das als eine Art Hub die Brücke in die Fachabteilungen bilden soll. Wichtig ist vor allem, ein Cloud-Transformation-Projekt nicht ausschließlich von der technologischen Seite her zu betrachten, da sich auch Organisation und Arbeitsweisen von IT und Fachbereichen den neuen Möglichkeiten anpassen müssen.

Warum sind fehlende Skills, Ressourcen oder eine unpassende Unternehmenskultur immer noch ein großes Handicap für Cloud-Transformation-Projekte?

Bei den Skills fehlt der Rollout von Kompetenzen in die Fläche. Es wird zu wenig verstanden, dass fast jeder Cloud Skills haben sollte. Leider führen auch Modelle wie ein Cloud Center of Excellence oft eher zu Silos. Skills werden dann nicht breit verfügbar gemacht, weil jeder denkt, dass es hierfür ja ein Expertenteam gibt. Cloud Skills sind sehr breit fassen, einerseits gibt es die klassischen Infrastruktur-Skills, also die Kenntnisse über Plattformlayer. Hier braucht es Leute, die wissen müssen, welche Hyperscaler welche Datenbank-Produkte anbieten. Auch die Daten selber erfordern Cloud Skills, etwa das Wissen darüber, welche Data Pipelines man in Azure, AWS oder GCP aufsetzt. Auch völlig neue Inhalte wie AI und Machine Learning sind letztendlich Cloud Skills. Und schließlich sind auch Organisations-Frameworks wie etwa FinOps wichtig, also das kulturelle Verständnis darüber, dass sich alle, also auch Entwickler und nicht nur das Controlling, mit Kosten beschäftigen müssen. All diese verschiedenen Skills gilt es passend zu verteilen.

Was sind die Erfolgsfaktoren für gute Cloud-Transformation-Projekte?

Ich bin ein Freund vom Prinzip „Start small and create value“. Also eben nicht zu lange planen und dann irgendein Großprojekt aufsetzen. Realistische Ziele sind gefragt statt zu hoher Ambitionen bei Anteilen von Anwendungen, die man bis zu Zeitpunkt X migriert haben will. Stattdessen kann ein intelligenter „Lift & Shift-Ansatz“ sehr sinnvoll sein. Viele denken, es braucht zunächst eine fundamentale Transformation der Anwendungslandschaft, bevor erste Schritte in der Cloud gangbar sind. Das ist anfangs aber falsch. Zudem sollte Experimentieren, also die Möglichkeit gegeben sein, realistische Erfahrungen zu sammeln. Auch Leuchtturmprojekte, von denen andere lernen können, sind wichtig. Und es sollten erste Anwendungen tatsächlich in Produktion laufen und nicht möglichst die gesamte Value Chain in der Cloud zwar abgebildet, aber nichts davon im Live-Betrieb.

Es gilt, iterative Ansätze zu ermöglichen. Wenn dann Dinge etabliert sind, und deutlich skaliert werden soll, dann sind auch umfangreiche Bestandsaufnahmen unumgänglich.

Wie wichtig ist Digitale Souveränität bei der Cloud Transformation?

Zweifellos wird dies immer wichtiger. Sovereign-Cloud-Lösungen sind rechtsraumsichere Cloud-Angebote, die besondere Anforderungen an Datenhoheit, -sicherheit, -integrität und Anbieterunabhängigkeit erfüllen. Die Studie zeigt, dass rund 41 Prozent der Befragten damit ihre „digitale Souveränität“ sicherstellen wollen. Weitere 45 Prozent haben entsprechende

Lösungen noch nicht im Einsatz, evaluieren aber bereits die einschlägigen

Angebote im Markt. Es gibt auch schon Firmen, die aus Datenschutz- und Souveränitätsgründen wieder über eine Rückführung aus der Cloud nachdenken. Das ist allerdings ein harter Schritt, zuvor sollte gründlich über souveräne Cloud-Lösungen nachgedacht werden. Letztendlich bieten alle Hyperscaler und Private-Cloud-Anbieter dies an, wobei man die unterschiedlichen Facetten und Varianten wie etwa Datenschutz, Geheimhaltung und Regulatorik für eigene Anforderungsprofile bewerten muss.

Wie wichtig ist der Aspekt der Nachhaltigkeit bei einer Cloud Transformation? Was zeichnet GreenOps-Praktiken aus?

Der CO2-Fußabdruck ist sicher der wesentliche Aspekt. Aber nicht nur der laufende Betrieb, sondern auch die Lieferkette mit ihren Scope3-Emissionen ist zu betrachten. Klar, wenn ich eine virtuelle Maschine in einem wasserkraftbetriebenen Data Center in Schweden betreibe, ist das sehr unterschiedlich, als wenn ich das an der Ostküste der USA mit sehr hoher CO2-Intensität mache. Wobei es aus Latenzgründen wiederum nicht einfach ist, sämtliche Rechenzentren in Schweden zu betreiben. Aber hinsichtlich GreenOps, also dem Verständnis für nachhaltiges Handeln, machen auch die Nutzer einen wichtigen Unterschied: Denn je nachdem wie ich meine Anwendung weiterentwickele, erzeuge ich mehr oder weniger Emissionen. Etwa, wenn ich mehr mit modularen Funktionen wie Containern oder „function-as-a-service“-Prinzipien im Vergleich zu vollständigen virtuellen Maschinen arbeite, lässt sich auch der CO2-Fußabdruck durch meine eigene Nutzung der Cloud deutlich vermindern. Generell ist übrigens zu beachten, dass Multi-Cloud-Ansätze einen Mehraufwand in der Erfassungsmethodik bedeuten, da der gesamte CO2-Fußabdruck über die verschiedenen Clouds einheitlich für das eigene Unternehmen bewertet werden soll.