Tranksript Podcast “Was ist Cloud” - Uwe Geier, Aufnahme 20.08.2025, Berlin.
Andreas Maurer: Hallo und herzlich willkommen zu einer neuen Folge von Inside. Mein Name ist Andreas Maurer. Heute wird es heiter bis wolkig bei uns, denn wir sprechen über ein Thema, das eigentlich in jeder unserer Inside-IONOS-Folgen eine Rolle spielt, aber das außerhalb der Fachwelt kaum so richtig versteht, nämlich die Cloud. Was ist das eigentlich? Wie begann die Cloud? Was steckt dahinter? Und mit diesen Fragen gehe ich heute gemeinsam mit einem Experten auf den Grund. Und das ist niemand geringeres als Uwe Geier, unser Head of Cloud Solutions bei IONOS. Uwe, schön, dass du da bist.
Uwe Geier: Ja, vielen Dank Andreas. Schön, dass ich hier sein darf.
Andreas Maurer: Uwe, wo kommt der Begriff Cloud eigentlich her? Wir reden da alle drüber, benutzen es bei uns in der Firma im Alltag, aber was steckt dahinter?
Uwe Geier: Ja, Cloud hat sich mittlerweile als Akronym für die Bereitstellung von IT-Ressourcen etabliert. Eigentlich stammt der Begriff aus den frühen 90ern, in denen man die Netzwerkverbindung als Wolke dargestellt hat, die dann relativ abstrakt war und eigentlich nur einen Ein- und einen Ausgang beschrieben hat. Aber es hat sich über die Jahre dann etabliert und aus der Wolke wurde dann die Cloud und das ist so ein bisschen der Ursprung des Begriffs.
Andreas Maurer: Das war eigentlich eher ein Zufall, weil irgendjemand mal dieses Bild
Uwe Geier: Ja, das war in diesen alten, vielleicht kennst du es noch, Visio-Programmen und Netzwerk-Darstellungsprogrammen. War das immer ein beliebtes Symbol für die abstrakte Darstellung von Verbindung?
Andreas Maurer: Eine Frage, die wir, glaube ich, auch intern sehr oft diskutieren: Seit wann spricht man jetzt von Cloud Computing? Wann ist das Thema aufgekommen?
Uwe Geier: Cloud Computing ist so Anfang Mitte der 2000er aufgekommen und hat sich etabliert und die Schlüsselwendepunkte waren dafür die Virtualisierungstechnik. Spätestens mit dem ersten Angebot von Amazon EC2 – ich weiß gar nicht genau, wann es war, 2006 – ist dann auch ein erster Service rund um Cloud Computing entstanden, der ja heute mittlerweile einer der bekanntesten ist, neben vielleicht Microsoft und Google.
Andreas Maurer: Und das war ja damals, glaube ich, bei Amazon eher ein Abfallprodukt aus ihrem normalen E-Commerce-Geschäft, ne?
Uwe Geier: Ja, im Prinzip schon, aber mit sehr mutiger und immenser Investition bis heute. Und hat sich ja mittlerweile eigentlich zum Kerngeschäft entwickelt bei Amazon.
Andreas Maurer: 2008 haben wir ja auch schon bei IONOS, damals noch unter 1&1 und Strato Partner, seit 20 Jahren Webhosting gemacht. Was ist jetzt genau die Cloud im Vergleich zum Webhosting? Man könnte ja auch sagen, eigentlich alles, was wir machen, ist Cloud. Also, bei uns steckt das Internet überall drin. Was unterscheidet jetzt das Cloud Computing im engeren Sinne wirklich von den Hosting-Themen, die es vorher schon gab?
Uwe Geier: Also, die Hosting-Themen sind ja meist sehr starre und relativ unflexible Infrastrukturen, die man nutzt, während die Cloud eine sehr dynamische Skalierung ermöglicht im Sinne von Leistungszunahme: Compute, Netzwerk und Storage sind ja die drei modularen Bausteine, die die Cloud dann am Ende ausmachen. Im Webhosting-Bereich ist ja eher ein relativ vordefiniertes Paket, meistens dann der Speicherplatz und die damit verbundene Konnektivität zum Internet, aber nicht direkten Zugriff auf die Skalierung, der dann entlang eines nötigen Serviceerfolgs erforderlich ist.
Andreas Maurer: Du hast jetzt zwei Begriffe genannt, die man, glaube ich, noch mal ein bisschen genauer erklären muss, die auch zusammenhängen, nämlich dynamisch und Skalierung.
Andreas Maurer: Das heißt, das Gegenteil von dynamisch wäre statisch. Das heißt, das Ganze ist flexibel, beweglich und kann skalieren. Wie kann ich mir das in der Cloud praktisch vorstellen?
Uwe Geier: Also die drei Hauptkomponenten, die die Cloud ausmachen, sind Compute-Rechenleistung, Netzwerk für die Verbindung und Storage für den Speicherplatz. Die gibt es in unterschiedlichen Leistungsklassen entlang der nötigen Bedarfe. Skalierung heißt in dem Fall, dass es an den individuellen Workload oder die Notwendigkeit abstrakter angepasst möglich ist, in jeder Dimension Ressourcen hinzuzunehmen, also zu skalieren, hochzufahren oder wieder zurückzufahren, runterzufahren. Klassische Anwendungsbeispiele sind vielleicht Lastspitzen in bestimmten saisonalen Bereichen, um Weihnachten herum für ein Shopsystem oder aber für eine Datenprozessierung, Rechnungsstellung am Ende des Monats eines Kunden. Und in dem Fall können die Ressourcen bedarfsgerecht hinzugenommen werden, skaliert werden oder entlang eines kontinuierlichen Geschäftserfolges, wie zum Beispiel bei Streamingdiensten, die eine größere Verbreitung finden, die darauf angewiesen sind, selbst ihre Infrastruktur immer weiter wachsen zu lassen. Also gar keine punktuelle Rechenleistung, zum Beispiel Monatsende, saisonalbedingt zum Jahresende, Weihnachtsgeschäft bereitzustellen, sondern kontinuierliches Wachstum ermöglichen. Und das meint im Prinzip die Skalierung auch ohne große Planungsperspektive, weil ich ja keine Infrastruktur in dem Sinne kaufen muss oder in mein Rechenzentrum ausbringen muss, sondern aus der Cloud beziehen kann.
Andreas Maurer: Das heißt, das Gegenbeispiel dazu wäre der Dedicated Server, was wir so als Root-Server oder auch als Managed Server verkaufen, wo ich dann eben eine dedizierte, mir explizit zugewiesene Ressource für mich alleine habe.
Uwe Geier: In gewisser Weise schon, wobei man auch hier natürlich skalieren kann, indem man mehrere Dedicated Server dann bucht und die wieder mit geeigneter Weise miteinander verschaltet. Alle sind ja in gewisser Weise an unsere Wolke, an die Cloud angeschlossen. Aber ja, also grundsätzlich meint der Dedicated Server erstmal ein vordefiniertes Set von Compute und Storage, das erstmal so nicht dynamisch erweiterbar ist. In der Cloud zum Beispiel kann ich eine virtuelle Instanz, so nennen wir das, VM, Virtual Machine, mit zwei Cores initial bereitstellen und mich dann sowohl in der Laufzeit als auch durch einfache Reboots, je nach Kritikalität der Anwendung und Applikation, weitere Cores hinzunehmen. Das geht im Dedicated nicht und da habe ich einen festgelegten Rahmen von 2, 12, 24 Cores, je nach Paket, das ich gerade gebucht habe. Also da ist diese Dynamik in der einzelnen Maschine nicht möglich. Grundsätzlich kann ich aber mehrere Systeme hinzunehmen.
Andreas Maurer: Und in der Regel gibt's Dynamik nicht nur in der Leistung, sondern auch bei den Kosten.
Uwe Geier: Ja, das ist richtig. Aber da arbeiten wir zum Beispiel mit sehr transparenten Kostenmodellen, die wenig bis gar keine nutzungsbasierten Kosten verursachen. Im Gegenteil oder im Gegensatz zu verschiedenen Wettbewerbsangeboten hat man eine gewisse Komplexität zu durchschauen, wo ich dann am Monatsende mit meinen Kosten lande in dieser Dynamik. Das ist alles transparent berechenbar. Es gibt einen Preiskalkulator, mit dem ich entsprechend mit Parametern ausrüsten kann und dann ist der entlang der nötigen CPUs, des Speichers und der gewünschten Storage in der Leistungsklasse sozusagen berechnete das den potenziellen Preis einer monatlichen Nutzung, wobei die natürlich die kleinste Einheit, die wir bepreisen, Minuten, ist.
Andreas Maurer: Also sprich, ich zahle das, was ich tatsächlich benötige, oder was ich glaube zu benötigen.
Uwe Geier: Genau.
Andreas Maurer: Im Vergleich zu der Leistung, die sonst vielleicht zu 80, 90 % der Zeit gar nicht benötigt wird, aber die der Server im Hintergrund halt im Idle-Modus bereitstellen würde.
Uwe Geier: Genau. Richtig.
Andreas Maurer: Genau. Vielleicht noch mal zu den Begrifflichkeiten: Also, ob jetzt bei uns auf der Homepage, in der Branche, oder Cloud, fallen ja mittlerweile viele Sachen. Also, wir reden vielleicht über das, was wir generell als Cloud meinen, reden wir von der Enterprise Cloud Plattform. Vielleicht kannst du das mal so ein bisschen runterbrechen. Was ist das und was für andere Cloud-Modelle, Komponenten gibt's da noch?
Uwe Geier: Also, die Enterprise Cloud Plattform richtet sich weitesgehend mit ihrer Funktionalität an gewerbliche Enterprise-Kunden, die sowohl einen hohen Bedarf für technisch anspruchsvolle und skalierungsfähige Infrastrukturen haben, als auch auf der anderen Seite die Notwendigkeit bestimmter Zertifizierungen und Nachweise für technische und operative Exzellenz. Wie wir das kennen, ISO ist so ein Thema. ISO 27000, C5, der BSI Standard oder IT-Grundschutz. Das sind möglicherweise Merkmale, die in gewissen Bereichen benötigt werden, um überhaupt Cloud-Dienste zu nutzen. Und deswegen sprechen wir dann von der Enterprise Cloud auch bei der Verwendung der Infrastruktur. Im Hinblick auf Leistungsfähigkeit der CPUs sind wir da eher im Enterprise-Segment. Werden wir in anderen Bereichen auch Einstiegssegmente haben, die sich dann eher vielleicht an kleinere und kleinste Unternehmen oder Einzelpersonen richten. Und deswegen sprechen wir da eher dann von Enterprise aufgrund des Gesamtangebotes in seiner Gänze. Container Services, um einen zu nennen, andere Plattform-Services, Datenbank as a Service oder Network File Storage. Also, das sind gewisse Elemente, die man eher in einem Enterprise-Geschäftsumfeld nutzen würde als in einem kleinen oder mittelständischen oder kleinen Unternehmen.
Andreas Maurer: Dann gibt's ein Begriffspaar, das ein bisschen gegenseitig gegensätzlich verwendet wird: die Public Cloud gegenüber der Private Cloud. Was hat's damit auf sich?
Uwe Geier: Ja, das liegt schon in der Begrifflichkeit so ein bisschen. Natürlich, Private meint, das ist nur für mich und bei mir und üblicherweise ist das auch der Fall. Da bin ich dann in Kontrolle über die gesamte Wertschöpfungskette von Anschaffung der Server bis Aufspielen der nötigen Software und dann der Nutzung der Virtualisierung. Und in der Vergangenheit gab es einige Angebote, die eine Private Cloud-Installation ermöglicht haben. Das prominenteste Beispiel ist VMware. Das meint also das Zusammenbringen von individuellen Hardwarekomponenten mit einer geeigneten Softwarelösung, um Virtualisierung exklusiv zu betreiben. Andere kleinere Lösungen sind zum Beispiel Proxmox oder man kennt auch OpenStack als großes Open-Source-Projekt, das die Möglichkeit erlaubt, eine private, für den eigenen Bestimmungszweck zugeschnittene Cloud zu nutzen. Public, also
Andreas Maurer: Das heißt, ich habe aber dann wirklich quasi auch ein vordefiniertes Set an Hardware, der nur für mich bereitsteht.
Uwe Geier: Genau. Der aber erweitert werden kann. Der hat eine initiale Größe. Wir schlagen vor, die kleinste Einheit sollte drei sein, um eine gewisse Ausfallsicherheit abzubilden und auch ein Quorum zu haben. Bei drei, bei zwei ist schwierig, ein Quorum zu haben. Ab drei macht das Sinn. Aber das kann natürlich auch bis beliebig 300, 3000 erweitert werden. Der dahinterliegende Kerngedanke ist, dass ich diese Hardware exklusiv für mich nutze, ohne den in der Public Cloud üblichen Teil, dass ich mir im Wettbewerb verteilte Ressourcen mit anderen Kunden teile. Natürlich habe ich eine abgegrenzte, logisch abgegrenzte Segmentierung, aber ich bin erstmal im Wettbewerb der Infrastruktur, Nutzung der Infrastruktur auch mit anderen Kunden, die halt in der Public Cloud dann tätig sind.
Andreas Maurer: Damit hast du jetzt vom Prinzip her schon die Public Cloud mit erklärt.
Uwe Geier: Genau, so ein bisschen mit erklärt. Public meint halt, ich bin dahingehend in der gemeinsamen Nutzung, wobei, wie gesagt, wir natürlich streng logisch trennen und auch durch geeignete Maßnahmen sicherstellen, dass keine unerlaubte Nutzung stattfinden kann. Aber ich muss mir halt, kann halt nicht darüber entscheiden, ob ich jetzt ein neues Hardwaresystem dazunehme oder nicht und bin auf die Konfiguration und Konfektion angewiesen, die wir bereitstellen.
Andreas Maurer: Dann habe ich noch drei Begriffe auf der Liste. Das eine ist, was, das ist, glaube ich, auch erst so die letzten Jahre aufgekommen: Stichwort Bare-Metal Cloud.
Uwe Geier: Ja.
Andreas Maurer: Was ist das?
Uwe Geier: Bare-Metal Cloud ist im Prinzip das, was wir gerade so ein bisschen angedeutet haben, und zwar die massenhafte Nutzung von Dedicated Servern, unter Umständen sogar noch in einer sehr speziellen Konfiguration für sehr große Kunden, die eigentlich keine Virtualisierung nutzen können oder wollen, in Abhängigkeit des eigentlichen Nutzungszwecks. Also, wir sprechen dann von Hunderten, teilweise sogar Tausenden von Dedicated Bare-Metal Servern, die schon fast Cloud-artig für den Kunden bereitgestellt werden und die Nutzung ist insofern für den Kunden möglich, dass er ab dem Betriebssystem alles selbst organisieren kann. Wir stellen dann im Prinzip, etwas vereinfacht gesagt, das Gebäude, die Klima, den Strom, das Netz zur Verfügung und den nötigen Service bei Ausfall von Komponenten. Passiert ja hier und da mal, dass ein Speicherriegel kaputt geht oder eine Festplatte defekt ist. Kümmern wir uns also um all das. Aber ab dem Betriebssystem, also quasi ab dem Boot-Prompt, ist der Kunde selbstverantwortlich und nutzt eine große Hardwareumgebung für einen individuellen Verwendungszweck, der mitunter Virtualisierung nicht erlaubt. Beispiel sind vielleicht GPU-Trainingscluster.
Andreas Maurer: GPUs sind Grafikserver, die heute überwiegend für KI genutzt werden.
Uwe Geier: Genau. Genau. Zum Beispiel. Ja. Ja.
Andreas Maurer: Genau. Und die letzten zwei Begriffe, die sind bei uns im vergangenen Jahr bei einem großen Projekt aufgetaucht, und zwar Stichwort Air-gapped On-Premise Cloud. Und zwar haben wir die ja im April letztes Jahr als Projekt gewonnen beim ITZBund, dem IT-Dienstleister der Bundesregierung oder Bundesverwaltung. Was muss ich mir jetzt unter On-Premise Cloud und dann noch dazu unter dem Schlagwort Air-gapped vorstellen?
Uwe Geier: Ja, guter Punkt. Also, On-Premise heißt in der Hoheit des Kunden, also in den Gebäuden des Kunden heißt On-Premise. Und Air-gapped, wie der Name schon sagt, übersetzt ja "luftabgeschlossen", meint also den Betrieb der Cloud ohne eine Netzwerkverbindung in das Internet. Also, es gibt keine Möglichkeit, von außen auf diese Umgebung zuzugreifen, weil der Schutzbedarf an diese Umgebung so groß ist, dass man durch Abschneiden dieser äußeren Verbindung sicherstellt, dass der gesamte Workload in dieser Umgebung bleibt: On-Premise beim Kunden in dessen Hoheitsgebiet. Und das stellt natürlich enorme Herausforderungen an die Installation und den Betrieb dieser Cloud eben dar, weil es nicht möglich ist, von außen Dinge zu organisieren. Also, man muss immer einen sehr speziellen Zugriff nehmen und es pauschal technisch verhindert, bis teilweise gar nicht vorgesehen ist, eine nach außen gerichtete Verbindung aufzubauen oder zuzulassen. Und das meint dieses Air-gapped und das stellt besondere Herausforderungen auch an den Betrieb dann am Ende dar, indem andere Prinzipien zum Tragen kommen, andere Anwendungen kommen, als wir das in den anderen Strukturen bereitstellen. Auch, glaube ich, was gar nicht so viele Anbieter liefern können, oder?
Uwe Geier: Nee, ganz wenige nur. Es gab jetzt durchaus in der Presse wirksam die Information, dass die Bundeswehr, glaube ich, mit Google auch ein Air-gapped Environment zustande gebracht hat. Und viele gibt's da nicht. Und wir sind einer der wenigen, die das geleistet haben, und da sind wir auch sehr stolz drauf und hoffen natürlich auch weitere Umgebungen mit dem jetzt auch mit dem Wissensaufbau, den wir da auch betrieben haben, mit den Learnings, den Betriebsmodellen und vor allen Dingen auch dann im täglichen Betrieb.
Andreas Maurer: Unser Projekt braucht Zeit. Wir haben den Auftrag im April letztes Jahr bekommen und ich glaube, jetzt vor Kurzem sind die ersten Dienste tatsächlich in Betrieb gegangen.
Uwe Geier: Ja, der formale Go-live war jetzt am 1.8. Wir haben das aber über mehrere Stufen mit dem Kunden entwickelt. Also, es war verabredet und vorgesehen, zunächst mal eine sogenannte Staging-Testumgebung aufzubauen, in der die grundsätzliche Funktionalität getestet wird und dann den ersten produktiven Building Block und im Anschluss einen Backup-Redundanz-Building-Block. Und erst damit war dann das avisierte Mindestmaß der Mindestumgebung etabliert, die es dem Kunden jetzt ermöglicht hat, damit online zu gehen und ja, seine Dienste darauf abzubilden.
Andreas Maurer: Redundanz ist auch noch mal ein gutes Stichwort. Wir haben natürlich Redundanz. Es gibt die berühmten RAIDs, die ja das Redundant schon im Namen haben mit dem Redundant Array of Inexpensive Disks – ich glaube, es ist jetzt irgendwas anderes als Independent.
Andreas Maurer: Das heißt, da hast du die Redundanz auf Festplattenebene.
Andreas Maurer: Beim Shared Hosting, da wollen wir jetzt gar nicht größer drauf eingehen. Das ist quasi das Geschäft, aus dem IONOS oder 1&1 und Strato Partner ursprünglich mal kommt. Beim Shared Hosting haben wir ja vor einigen Jahren angefangen, ganze Rechenzentren an einem anderen Standort zu spiegeln. Das ist bei einer doch eher heterogenen Cloud-Struktur mit ganz unterschiedlichen Anwendungsfällen im Gegensatz zum Webhosting schwierig. Wie stelle ich da typischerweise eine Redundanz her, wenn ich das als Kunde haben will?
Uwe Geier: Also, wir stellen Mittel und Tools dazu bereit, aber es ist natürlich auch ein eigenes Maß an Verantwortung des Kunden gefordert. Wir haben individuell betriebene Zentren und Standorte, die miteinander über das Public Internet sehr gut verschaltet sind und die erstmal grundsätzlich alle Möglichkeiten eines redundanten Aufbaus bereitstellen. Wir haben darüber hinaus die Möglichkeit, eine kluge Verschaltung vorzunehmen, die auch dann interne Strukturen miteinander verschaltet. Also, nicht alles ist immer öffentlich angeschlossen. Manchmal gibt's auch Kundenumgebungen, die nur einen privaten Netzwerk-Teil vorsehen. Auch den können wir miteinander verschalten. Aber um eine wirkliche Redundanz aufzubauen, muss der Kunde natürlich auch gewisse Dinge mit organisieren. Also, ist auch von der Applikation abhängig. Zum Beispiel Datenbanken können repliziert werden. Man kann auch einfache Redundanz aufbauen, indem man einfach nur eine regelmäßige Spiegelung/Backup an anderen Standort vorsieht. Das ist immer ein bisschen individuell und unter Einbeziehung des Kunden zu organisieren. Wir stellen da natürlich ausführliche Beratung bereit und zeigen auf, wie man zu einer Form von Redundanz und zur Zuhilfenahme unseres Angebots kommen kann, aber am Ende muss der Kunde entscheiden, was für ihn dann Redundanz ausmacht und inwieweit Ausfallsicherung dann auch abgebildet werden kann.
Andreas Maurer: Das Spannende ist dabei wahrscheinlich aber gerade auch das Schlagwort Georedundanz, das heißt, ich kann tatsächlich meine Daten in Rechenzentren hosten, die Tausende Kilometer voneinander entfernt sind und damit auch näher am Kunden, oder?
Uwe Geier: Ja, das schon auch. Aber da muss man auch ein bisschen aufpassen. Das Wort Georedundanz meint schon auch den Ausfall einer Lokation, ohne dass der Service in Gänze beeinträchtigt ist. Muss man immer ein bisschen spitzfindig aufpassen, was dann Georedundanz wirklich heißt. Natürlich kann ich unter Zuhilfenahme unserer Serviceleistung einen Service an mehreren Standorten aufbauen und damit in die Nähe des Kunden bringen. Ob das dann wirklich eine Georedundanz, also der vollständige, vollumfängliche Ausfall eines Standorts ohne Beeinträchtigung des eigentlichen Services ist, ist auch immer ein bisschen dann von der Kundenapplikation abhängig und inwieweit diese überhaupt georedundant aufgebaut werden kann. Stichworte sind dann so ein bisschen Split Brain und auch was ich gerade schon genannt hatte, Quorum. Wer entscheidet jetzt, ob die Lokation wirklich weg ist und abgeschaltet ist? Schon auch immer ein bisschen Aufwand dahinter, eine wirkliche Georedundanz abzubilden, aber ja, du hast recht, wir haben viele Standorte, die es erlauben, Nähe zum Kunden zu ermöglichen und dahingehend seine Applikation klug aufzubauen und zu verteilen.
Andreas Maurer: Ist eben gerade für Unternehmen spannend, die beispielsweise in mehreren Ländern aktiv sind, in ganz Europa beispielsweise und dann ihre Last verteilen können. Du hast eben schon das Stichwort faires Pricing genannt. Vielleicht zum Schluss noch mal kurz, was sind denn so die Alleinstellungsmerkmale oder die Besonderheiten der Cloud-Lösung von IONOS? Also vielleicht mal angefangen, auch ein Begriff, den wir noch nicht genannt haben, der auch jetzt gerade die letzten Wochen und Monate häufiger auch in der Presse gefallen ist: Stichwort Cloud Stack. Also, wir reden jetzt vom Eurostack und vom Deutschlandstack. Wie sieht denn der IONOS Cloud Stack aus und was unterscheidet den von anderen Clouds?
Uwe Geier: Ja, also wir unterscheiden uns insofern, dass wir die volle Kontrolle der Wertschöpfungskette bedienen. Wir entwickeln weitesgehend alles selber oder nutzen Open-Source-Komponenten. Wir sind ein deutsches Unternehmen mit deutschen Rechenzentren und haben im Prinzip im Souveränitätsgedanken Kontrolle über diese gesamte Wertschöpfungskette. Und wichtigerweise auch darüber, wo Daten liegen und wer Zugriff auf Daten hat. Das ist, glaube ich, ein ganz wesentliches Unterscheidungsmerkmal zu den sogenannten Hyperscalern, wo ich mir halt nicht vollständig sicher sein kann, wer Zugriff auf die Daten nimmt und wo diese mitunter liegen oder auch noch liegen. Und das ist, glaube ich, so der hauptsächlichste Differentiator als IONOS. Dazu kommt, dass wir ein sehr einfach transparentes Kostenmodell haben und insofern bis auf ausgehenden Netzwerktraffic keine nutzungsbasierten Kostenanteile haben, außer die, die im Paket im Vorfeld im Paketpreis definiert sind, also in der Auswahl deiner Cores, Storage oder Memory-Nutzung. Und ich glaube, das unterscheidet uns in der Hinsicht von anderen Wettbewerbsanbietern, allen voran den amerikanischen Wettbewerbern. Und wir haben einen relativ einfachen Zugang zu unserer Cloud in Form eines sehr verständlichen User Interface zusammen mit einer REST-API, die im Prinzip mir alles bereitstellt, um es in Automationen zu integrieren oder aber sehr verständlich in erster Nutzungserfahrung nahezubringen. User Interface ist der sogenannte Data Center Designer.
Andreas Maurer: Genau, das ist der DCD, unser Alleinstellungsmerkmal. Den gibt es so nach wie vor nicht und ermöglicht halt so eine Canvas-basierte Ansicht und damit auch eine leicht verständliche und leicht eingängliche Sicht auf das virtuelle Rechenzentrum. Und ist eigentlich eine ganz schöne Möglichkeit, Zugang dazu zu finden.
Andreas Maurer: Also, ich kenne ihn auch von diversen Messeauftritten, wo wir den immer prominent vorstellen. Also, vielleicht da auch schon mal ein Teaser. Wir sind jetzt auf der it-sa in Nürnberg demnächst, dann auf der Smart Country Convention hier in Berlin, wo wir gerade das Gespräch aufnehmen. Also, von daher gibt's viele Gelegenheiten und zum Schluss habe ich auch noch mal einen Hinweis. Letzte, nee, vorletzte Frage vielleicht: Für wen ist denn jetzt tatsächlich Cloud Computing sinnvoll? Also, wir haben eben gesagt, Enterprise, große Unternehmen. Was sind denn typische Use Cases, wo es absolut Sinn macht, mit der Anwendung in die Cloud zu gehen?
Uwe Geier: Also, das ist eigentlich wirklich Crossover über alle Industriebereiche und so sieht auch unsere Kundenklientel aus, dass wir da wirklich die verschiedensten Workloads fahren. Eine sehr prominente [Anwendung] ist Softwareentwicklungsunternehmen, die Cloud-Instanzen nutzen, um ihre Software as a Service vielleicht zu hosten. Andere sind natürlich E-Commerce-Webshops, die, wie eingangs genannt, ein bisschen Shopsystem abbilden, saisonalbedingt auch Finanzwesen, auch ein großer Industriebereich. Aber auch Medien und Streamingdienste. Insofern ist es wirklich sehr weit aufgestellt und eigentlich mittlerweile ist die Nutzung von Cloud-Leistung ja schon fast Commodity geworden, denn jedes Unternehmen ist irgendwie auf IT-Infrastrukturen angewiesen, also hat digitale Verarbeitungsprozesse und muss sich irgendwie Rechenleistung dazu zunutze machen. Und wir sind in der Cloud-Evaluation der Cloud mittlerweile so weit, dass man Cloud-first sagt und sich eigentlich keine Rechenleistung mehr in den Keller stellt, wenn man das vielleicht etwas vereinfacht jetzt sagen möchte oder auch bestrebt ist. Also auch keine eigenen Rechenzentren mehr zu betreiben, weil a, das Know-how dafür mittlerweile auch natürlich vorhanden sein muss in den Unternehmen, wirklich Betrieb zu machen. Zum zweiten, aber das ist, sehr plakativ bekannt, dass man Capital Expenditure zu Operational Expenditure macht, also quasi auf Betriebskosten verlagert. Und das ist in der Cloud halt der Fall. Und insofern ist das für alle Industriebereiche eine sehr willkommene Lösung, Infrastruktur zu nutzen.
Andreas Maurer: Und gerade jetzt auch noch mal zu dem Beispiel On-Premise ist, glaube ich, auch ein wichtiger Aspekt, haben wir noch gar nicht drüber geredet: Thema Sicherheit. Es gibt, wissen wir alle, jeden Tag Millionen von Angriffe im Internet und für uns ist das ein Tagesgeschäft als Cloud-Anbieter. Wir haben da ein großes Team, das sich drum kümmert, das zu bekämpfen und ich weiß, ich habe auch schon Linux-Server aufgesetzt und fand früher auch die Idee toll, mir einen eigenen Mailserver aufzusetzen. Also, auf die Idee käme ich gar nicht mehr, weil ich weiß, das Ding würde mir sofort wahrscheinlich von außen abgeschossen und das ist natürlich mit geschäftskritischen Anwendungen noch viel wichtiger.
Uwe Geier: Ja, das ist super anstrengend. Du sagst es, und wir erleben im Prinzip auch jeden Tag DDoS-Attacken, zu denen wir uns sehr gut aufgestellt haben. Wir nutzen sogenannte Scrubbing Center, die dann den unerwünschten Traffic filtern, sodass er gar nicht bis zum Kunden durchkommt. Hier und da erwischt uns auch mal, dann kommen wir auch ins Schwitzen. Aber das lässt sich eigentlich gar nicht mehr in kleineren Dimensionen sinnvoll betreiben. Und allein das ist schon Grund genug, auch in die Cloud zu gehen, weil ich da vor solcher Exposure auch in großen Teilen geschützt bin und die, wie du sagst, auch anstrengenden Aspekte um den Betrieb von Commodity Services eigentlich nicht mehr betreiben muss. Das ist nicht mehr zeitgemäß.
Andreas Maurer: Jetzt aber wirklich zum Schluss, letzte Frage, letzter Komplex. Eigentlich in fast jeder Inside-IONOS-Folge auch am Schluss die Frage, wie sieht's mit der Zukunft aus? Was sind die großen Trends und Entwicklungen? Eben ist das Stichwort GPUs schon gefallen. KI, nehme ich an, wird dazu gehören. Auf was müssen wir uns da in den nächsten Jahren einstellen?
Uwe Geier: Also, KI wird ein großes Thema werden und auch wahrscheinlich sogar noch der stärkere Wachstumsmarkt werden, als es Cloud aktuell ist und auch bleiben wird. Und KI-Anwendungen werden immer mehr in den Alltag einziehen. Wir werden sehr stark den Weg gehen, auch GPU-Rechenleistung anzubieten. Sowohl tun wir ja heute schon im Zugang zu physischen GPUs – in Klammern Nvidia-Karten – als auch in Zukunft dann zu virtuellen GPU-Instanzen, auf denen dann nicht nur Inference, sondern auch Training möglich ist. Training benötigt immer eine größere Anzahl dann auch von GPUs, um in endlicher Zeit auf einem großen Datensatz wirkliches Training durchführen zu können. Aber weitere Punkte sind natürlich auch so was wie Blockchain-Anwendungen für Finanzprodukte. Aber auch Edge Computing wird immer mehr ein Thema werden, das auf Cloud mehr und mehr angewiesen ist. Mit Edge Computing muss man vielleicht kurz erklären, das sind dann eher die kleineren Rechenzentren, die in der Breite sind. Also, ein Beispiel bei uns im Konzern wären die 5G-Rechenzentren, das Open RAN-Netz von den Kollegen von 1&1.
Uwe Geier: Genau. Genau. Genau. Und in den Edge-Rechenzentren findet eine sehr nahe Datenvorbereitung statt oder Daten-Processing statt, die aber dann auf zusätzliche Cloud-Infrastruktur angewiesen ist, um dann vielleicht persistiert zu werden oder dort weiter verarbeitet zu werden. Und insofern wird es ein starker Wachstumsmarkt bleiben, der durch den Einzug von KI-Modellen zusätzlich befeuert wird und erst die Symbiose aus beidem, also geeignete KI-Infrastruktur mit Cloud-Infrastruktur, macht eigentlich den Mehrwert eines zum Beispiel KI-Agenten. Und wir sehen da weiterhin ein enormes Wachstumspotenzial für die nächste Zeit und im Prinzip auch die Fortsetzung des eingeschlagenen Trends, möglicherweise sogar noch eine starke Beschleunigung auch jetzt durch die einziehende KI-Verbreitung.
Andreas Maurer: Und vielleicht muss man an der Stelle auch noch mal das Stichwort KI Giga Factory erwähnen, wo wir uns für eine dieser großen KI-Rechenzentren, die von der EU ausgeschrieben worden sind, bewerben werden. Und letztendlich ist aber wichtig: So ein KI-Rechenzentrum ist letztendlich auch ein Cloud-Rechenzentrum.
Uwe Geier: Ja, es ist auf jeden Fall auf Cloud-Infrastruktur massiv angewiesen, denn auch die dann die Ergebnisse der KI muss unterstützt werden von Rechenleistung. Aber wobei der Aufbau dieser Giga Factory noch mal für sich ein eigenes Thema ist. Das ist wirklich im Sinne einer Fabrik zu denken, die auf massenhaftes Zusammenschalten von geeigneter Hardware angelegt ist, um entsprechende Trainings zu organisieren.
Andreas Maurer: Zu dem Thema können wir uns vielleicht in einigen Wochen noch mal treffen. Ja, ich glaube, das ist eine Podcast-Folge wert, wo wir uns das noch mal genau anschauen können, was dahinter steckt. Vielleicht noch ein Hinweis zum Thema Cloud. Wir haben, glaube ich, in der vorletzten Folge von Inside-IONOS mit Sebastian Hohwieler über das Thema Ethernet im Cloud-Rechenzentrum gesprochen. Wir haben jetzt gerade in Frankfurt ein neues Rechenzentrum in Betrieb genommen. Also, wer da noch mal ein bisschen tiefer in die Technik einsteigen will, dem lege ich diese Folge ans Herz. Die verlinken wir natürlich in den Shownotes. Bis dahin erstmal vielen Dank, Uwe, für diese spannenden Insights. Das war wirklich ein tiefgehender Einblick in die Welt der Cloud und ich hoffe, damit ist vielleicht die Cloud für unsere Hörerinnen und Hörer ein bisschen weniger wolkig geworden. Wie immer gilt, wenn Sie Fragen, Anregungen oder Kritik haben, freuen wir uns über eine Mail an podcast@ionos.com und genauso freuen wir uns über Kommentare oder auch eine Bewertung in der Podcast-Plattform Ihrer Wahl oder empfehlen Sie uns auch gerne einfach so weiter. Bevor Sie abschalten, noch einen Tipp für Ihren Kalender. Wir haben ja schon über einige Veranstaltungen gesprochen. Am 4. November findet dieses Jahr wieder in Berlin der IONOS Summit statt, das Event für digitale Souveränität, sichere Cloud-Lösungen und die wichtigen Technologiefragen von morgen. Und unter events.ionos.com können Sie sich jetzt schon kostenlos für dieses tolle Event anmelden und sich dann auf starke Impulse aus Politik, Wirtschaft und der Tech-Branche freuen und erleben, wie digitale Unabhängigkeit, digitale Souveränität wirklich funktioniert mit Sicherheit, Datenschutz und Konformität. Damit vielen Dank fürs Zuhören. Tschüss und bis zum nächsten Mal.
Uwe Geier: Tschüss.