00:00:07: Thilo Haertel: Hallo und herzlich willkommen bei Inside IONOS. Mein Name ist Thilo Haertel. Wir haben uns schon in etlichen Folgen mit dem Thema künstliche Intelligenz auseinandergesetzt. Wir haben uns über die Grundlagen und den Aufbau von KI Modellen unterhalten. Wir haben über Anwendungsfelder und rechtliche Fragen rund um KI gesprochen. Aber wie nutzen wir KI bei IONOS? Welche Dienste bieten wir unseren Kunden an, um sie mit KI-Unterstützung erfolgreich machen zu können und wie bewährt sind diese KI Modelle in der praktischen Anwendung? Das wollen wir heute alles klären und dazu begrüße ich Stefan Schosser, AI Product Lead bei IONOS.
00:00:41: Stefan Schosser: Hallo Thilo.
00:00:42: Thilo Haertel: Hallo Stefan. Mein Eindruck ist ja, dass gefühlt nicht mehr jede Woche so ein bahnbrechendes KI Modell auf den Markt kommt, das seine Vorgänger in den Schatten stellt. Ist denn der große AI Hype jetzt erstmal vorbei oder wie sieht der aktuelle Status Quo aus?
00:01:05: Stefan Schosser: Für mein Gefühl - ich bin relativ nah dran - gibt's immer noch regelmäßig deutliche Inkremente und wir finden deutlich neue Modelle mit neuen Funktionen. Also, wenn man sich das anguckt, Meta hat vor vier Wochen mit seinem Lama 3.2 eine neue Generation herausgebracht, die jetzt multimodal ist. Die versteht also nicht nur Texte, sondern auch Bilder und so haben wir schon noch eine ganze Menge an Entwicklung in diesen Modellen drin. Die werden besser und besser und können auch mehr als noch vor einem Jahr. Und das ist jetzt nur ein Beispiel. Aber das gilt mehr oder weniger für alles oder alle Hersteller, alle Entwickler von diesen Modellen. Die Modelle werden weiterhin besser und werden auch nicht langsamer besser als vor einem Jahr. Was man vielleicht sagen kann, ist, dass sich in der Anwendung ein bisschen was geändert hat. Ich mache das ganze AI Business jetzt seit 2016 und tatsächlich gab es vor zwei Jahren so richtige Goldgräber und Aufbruchstimmung. Ja, man hat plötzlich lauter neue Use Cases gesehen, die man irgendwie umsetzen wollte, lauter neue Anwendungsgebiete. Und das ist jetzt, nachdem diese Generative AI-Welle, so würde ich es mal nennen, durch ist oder zumindest abflacht, merkt man, die Euphorie ist so ein bisschen dem Realismus gewichen. Wir erkennen heute, dass es viele Use Cases gibt, bei denen die neuen Modelle helfen. Aber die Begeisterung, die noch vor zwei Jahren im Markt war, wo alle gesagt haben, egal welches Problem, ich löse es jetzt mit Generative AI, das ist in meiner Sicht und meiner Überzeugung nach vorbei. Wir fragen heute kritischer nach, hilft mir das, was ich da mache, und erst dann setze ich auf Generative AI.
00:02:24: Thilo Haertel: Und wenn wir jetzt eben zwei Jahre ungefähr zurückgehen, wie hat IONOS denn konkret auf diesen KI-Hype reagiert? Wie wurde KI intern, aber auch für extern integriert?
00:02:34: Stefan Schosser: Ich will auch ein bisschen weiter ausholen. Wir bei IONOS sind Hoster. Das heißt, unser Kerngeschäft besteht darin, Hardware in einer sehr zuverlässigen Art und Weise dem Endkunden bereitzustellen. Jetzt überschätze ich uns vielleicht ein bisschen, aber ich bin eigentlich stolz drauf. Wir sind in Deutschland der Marktführer, der größte Anbieter und haben dann natürlich auch ein gewisses Gewicht. Und was am Anfang dieses AI Hypes kam, war im Wesentlichen, dass man Modelle nutzen konnte wie Chat GPT von Open AI, die zur Verfügung standen, aber eben aus den Vereinigten Staaten kamen. Die wurden also nicht in Europa gehostet und nicht hier entwickelt. Und als diese Modelle eben aufkamen, war AI bei uns bei IONOS kein großes Thema. Und wir haben eben sehr früh das Potenzial erkannt und haben erkannt, okay, es gibt ganz viele Berater, auch in Deutschland, die anfangen AI in die Unternehmen zu bringen. Aber es gibt niemanden, der AI Hosting in einem professionellen, günstigen Setting anbietet. Und wir als Hoster haben für uns definiert und gesagt, das ist eigentlich ein Thema, da müssen wir rein. Das ist so groß, dass es für unsere Kunden auf jeden Fall bedeutungsvoll sein wird und wir wollen da rein. Dann hat damals Achim, also unser CEO, entschieden, wir backen jetzt nicht kleine Brötchen, sondern wir gucken, dass wir möglichst schnell an den Start kommen. Er hat also ein Team aufgestellt, das im ersten Schritt eben genau dieses Thema Hosting von AI Modellen als Produkt umsetzen sollte. Und dieses Produkt haben wir jetzt letztes Jahr auf den Markt gebracht. Wir entwickeln es kontinuierlich weiter und sind jetzt quasi in einer Phase, in der wir das Hosting im Griff haben. Jetzt schauen wir, wie wir die bei uns gehosteten Modelle auch in unsere Endprodukte rein kriegen. Das heißt, wir sind sehr schnell aufgesprungen und haben uns sehr stark fokussiert auf unsere Kernkompetenz, Hosting, haben das einmal umgesetzt und überlegen jetzt, was sind die Produkte, die wir außenrum anbieten und versuchen dort das Ganze auch zu integrieren. Also ganz klar nach dem Motto: Fokus aufs Wesentliche, dafür richtig rein und dann gucken, dass die Learnings weiter ausrollen.
00:04:33: Thilo Haertel: Du hast es schon gerade ein bisschen angedeutet. Wie hat sich seit der Einführung von Chat GPT die Wahrnehmung von KI in der Geschäftswelt verändert? Wenn du schon seit 2016 dabei warst, wirst du ja schon eine große Veränderung gesehen haben.
00:04:44: Stefan Schosser: Also KI in seinen ganzen Facetten ist schon ein relativ altes Thema. Ja, also das heißt, diese neuronalen Netze, die heute so groß rauskommen, gibt's eigentlich schon seit den 1960er Jahren. Herausforderung früher war, dass die Rechenleistung noch nicht ausreichend war, um die richtig coolen Sachen zu machen. So, was es aber jetzt schon Anfang des Jahrtausends gab, ist quasi die Überlegung in Daten Muster zu erkennen und diese Muster irgendwie zu nutzen, um Vorhersagen zu treffen und um irgendwelche Probleme zu lösen und zu automatisieren. Das war 2016, als ich damit angefangen habe, ein großer Trend insbesondere im Marketing, wo das Potenzial relativ groß war und es viele Cases gab, wo man den Kunden individuell ansprechen wollte. Ja, also diese Zeit bis Anfang des Jahrtausend war Massenwerbung quasi das große Ding. Du hast im Fernsehen einen Spot geschaltet, alle konnten das Lied aus deinem Fernsehspot nachsingen und so hast du Werbung gemacht. Das funktionierte dann irgendwann nicht mehr, weil das Internet da war und im Internet alle Kunden individuell irgendwie angesprochen werden wollten und auch sehr individuell - oder sagen wir mal so, sie waren nicht bereit lang nach Produkten zu suchen, sondern die wollten individuell die Top fünf Produkte für sich sehen und haben dann daraus ausgesucht und bestellt. Dem kam man entgegen, indem man quasi AI benutzt hat und damals starke Personalisierung betrieben hat, z.B. indem man auf Webseiten verschiedenes Sorting macht, je nachdem welcher Kunde kommt. Ja, also auch heute, wenn ich mich bei einem modernen Webshop anmelde, stehen da andere Artikel als wenn meine Frau sich da anmeldet. Nicht, weil ich vorher anklicke, ich bin der Stefan und nicht meine Frau, sondern weil die Technologie im Hintergrund einfach erkennt, okay, da kommt jetzt gerade so ein ein bisschen technikaffiner Typ, der legt nicht so viel Wert auf Äußeres, dem verkaufen wir mal Jeans und einen Schlabber-Pullover. Das funktioniert bei meiner Frau leider nicht. Also diese Individualisierung hat man 2016 schon gemacht und damit ist man sehr, sehr weit gekommen. Was das mit sich brachte, ist auch ein sehr stark datengetriebenes Vorgehen. Ja, also das heißt, die Leute, die sich mit dem Thema befasst haben, waren weg von so einer Bauchgefühl-Steuerung, die man früher bei Massenmedien, quasi in der Werbung gemacht hat. Da hast du eine Lösung gemacht und die musste gefühlt auf alles passen und die Stimmung deiner Marke transportieren. Davon warst du weg und du versuchtest, Kunden individuell irgendwie Sachen anzupassen und auch zu optimieren und hast dann die Daten analysiert. Du hast jeden einzelnen Kunden analysiert, was steigert seine Kaufwahrscheinlichkeit, was nicht und hast Modelle gebaut, die darauf quasi abgestimmt waren. Und das hat sehr gut funktioniert. Also ich habe auch davon sehr gut gelebt bis vor zwei Jahren. Und vor zwei Jahren kam aber dann einfach ein Durchbruch, so würde ich es mal nennen. Und zwar hat ja Open AI damals das Large Language Model, also mit Chat GPT quasi eine Lösung vorgestellt, die dazu in der Lage ist, den Menschen das Gefühl zu geben, er spricht mit einem richtigen anderen Menschen. Plötzlich ist man in der Lage nicht mehr nur Eigenschaften auszuwerten und Vorhersagen zu treffen, sondern man schafft es, menschenähnliche Kommunikation abzubilden und auch Bilder zu generieren, die früher nur ein Künstler erstellen konnte. Und das ist noch mal eine bahnbrechende Änderung, weil man plötzlich eine ganze Menge Use Cases erschließt, die vorher nicht möglich waren. Man öffnet einfach ein größeres Spektrum an Zielen, an Aufgaben, die man plötzlich arbeiten kann, die man vor zwei Jahren eben nicht erreichen konnte. Man tut das gleichzeitig zu einem sehr, sehr hohen Preis. Also die ganzen Modelle, mit denen man 2016 agiert hat, liefen alle im Endeffekt auf einem Notebook. Das, was wir heute machen, läuft auf sehr, sehr leistungsstarken Rechnern im Rechenzentrum. Ja, also das heißt, es hat sich vorne in der Anwendung etwas geändert, weil wir plötzlich Sachen generieren können wie richtige Menschen. Aber auch im Backend hat sich etwas geändert. Wir brauchen jetzt Hochleistungssysteme, um das Ganze irgendwie betreiben zu können, was für uns als IONOS wieder eine riesige Chance ist, weil solche Rechenzentren wie unsere plötzlich eine noch klarere Rechtfertigung haben, als sie das vorher schon hatten.
00:08:24: Thilo Haertel: Bei welchen Produkten setzen wir künstliche Intelligenz ein? Kannst du da vielleicht einen Überblick geben?
00:08:29: Stefan Schosser: Wahrscheinlich keinen Vollständigen. Also, hier arbeiten mehrere Geeks, nicht nur ich. Das heißt, viele meiner Kollegen sind ziemlich technikbegeistert und haben von Anfang an, als sie dann die Möglichkeiten gesehen haben, überlegt, wie sie das in ihre Produkte integrieren können. Ich bin im Wesentlichen an den großen Initiativen bei uns dran. Das eine ist, hatte ich ja vorher schon angedeutet, wir nennen das den AI Modelhub. Das ist eine Lösung, wo wir eine Hosting von solchen Foundation Models machen. Da geht's nur darum, die Technologie bereitzustellen, die man dann in anderen Produkten nutzen kann. Auf dem Layer darunter bieten wir auch GPUs an. Also, das heißt, die Rechenmaschinen, die da dahinter stehen, kann man bei uns auch buchen und mieten. Das ist quasi das ganze technische Backend. Da sind wir relativ stark, weil es eben unser Kerngeschäft ist. Da kommen wir her. So. Und was wir daneben noch anbieten, sind, ich würde mal sagen, Endkundenprodukte. Also Produkte, die für den User am Schluss da sind und die das Ziel haben, auch einfach und verständlich zu sein. Und da haben wir in vielen auch schon KI integriert. Ein Beispiel ist und da sind wir sehr stolz drauf, weil wir am Markt, glaube ich, die ersten waren, die das überhaupt realisiert hatten. Wir haben ein Offering, wo man eine Webseite bei uns im Unternehmen erstellen kann und diese Webseite basiert im Wesentlichen auf so einem Baukastensystem. Also das heißt, ich kann mir da einzelne Komponenten zusammenklicken und kann dann schön meine Webseite machen. Das ist so, dass ich nicht programmieren können muss, sondern ich kann das wirklich relativ einfach zusammen generieren, um Leuten, die nicht technisch versiert sind, eine Webseite zu ermöglichen. So und wir waren immer ein bisschen unzufrieden damit, weil das funktionierte, aber es war nicht so super easy. Also es kostete viel Zeit, weil du diese Komponenten zusammen klicken musst. Ehrlich gesagt brauchst du auch eine ganze Menge Kreativität, um Texte zu generieren und dass sie dann auch noch cool und hip klingen. Das ist nicht komplett trivial. Und was wir da angeboten haben, ist, wir haben diese generativen Modelle genutzt und dann sowohl Bilder generiert als auch Texte und sind damit in der Lage einem Neukunden, der quasi ein neues Webhosting-Paket bei uns abschließt, innerhalb von wenigen Minuten eine erste Version seiner Webseite zu generieren. Die besteht dann aus mehreren Seiten und die umfassen im Wesentlichen alles das, was du brauchst, um online durchzustarten. Und das ist aus meiner Sicht super cool. Warum? Für den Kunden ist es cool. Ich kenne es aus meiner eigenen Erfahrung, bevor ich hier gearbeitet habe. Ich hatte schon in den 90ern, also im letzten Jahrtausend eine eigene Webseite, war da ganz stolz drauf. Das war Höllenaufwand und ich habe irgendwann die Zeit nicht mehr gefunden, um da irgendwas anzupassen. Heute machst du das einfach mit unserem Tool. Brauchst 5 Minuten und das Ding ist live. Und damals war die Herausforderung, ich hatte am Anfang eine Domain für mich gekauft und ich glaube, es dauert ein halbes Jahr, bis da irgendwie der Inhalt so drauf war, dass ich damit zufrieden bin. Heute, wie gesagt, sind das 5 Minuten und die Kunden sagen uns auch, sie sind so zufrieden, dass sie das Ding nutzen. Und wir sehen auch in der Usage, dass Kunden den Webspace bei uns dann länger behalten. Ja, also es gab sonst welche, die einfach Webspace gekauft haben, dann unzufrieden waren und das wieder gelöscht haben, weil sie es in dem ersten halben Jahr gar nicht geschafft haben, irgendwas aufzusetzen. Das Problem haben wir nicht mehr, ist für die Kunden gut, ist für uns gut. Das ist quasi ein Produkt, auf das wir total stolz sind. Ein anderes ist, dass wir Webmail anbieten und da bieten wir verschiedene Offerings an, also auch Reselling von bestehenden Produkten von größeren Anbietern. Und wir haben mit Open-Xchange ein Offering, wo wir quasi einen Exchange-Klon anbieten, der auch mit AI betrieben wird und AI-Funktionen eben im Backend hat. Und dann kann man so Sachen machen wie wenn ich eine E-Mail kriege, ist es immer umständlich, die ganze Konversation sich irgendwie durchzulesen und wenn du genug E-Mails kriegst, ist da auch viel E-Mail dabei, wo viel Text ist, der für dich nicht relevant ist. Und dieses Open Exchange oder unser AI-Modul z.B. fasst dir dann einfach den Text zusammen, aus der gesamten Konversation. Dann hast du drei Zeilen, von denen du die grobe Zusammenfassung lesen kannst und auf der Basis entscheiden kannst, will ich überhaupt die ganze Konversation lesen? Oder eine andere Funktionalität, die wir da damit drin haben, ist du kannst drei Stichpunkte schreiben, klickst dann auf den Button und der formuliert dir aus deinen drei Stichpunkten einen schönen Text. Und wenn du den Text dann hast, kannst du auch noch angeben, “formulier freundlicher” oder “formulier ein bisschen einen Befehlston” und auch das macht dir dann die KI. Und ein Thema, was wir daneben noch haben, ist Nextcloud. Das ist eine Lösung, wo man seine Daten hochladen und speichern kann und auch da bieten wir KI-Funktionalität an, sodass man neue Inhalte generieren kann oder eben die Dokumente, die in diesem System drin sind, dann zusammenfassen kann. Da sind wir noch nicht komplett fertig. Das sind alles noch Sachen, wo wir gerade in der Entwicklung sind, aber das ist auch etwas, was kommen wird. Also ich will damit einfach sagen, wir haben Produkte in verschiedenen Stadien und wir versuchen KI eigentlich in jedes unserer Produkte irgendwie einzubauen, weil wir fest daran glauben, KI ist die Zukunft und es bietet überall irgendwelche Benefits.
00:12:57: Thilo Haertel: Wie entscheidet ihr dann, welches KI-Tool von Nutzen für die Kundin und Kunden ist und wie geht ihr dann vor?
00:13:05: Stefan Schosser: Ob es dem Kunden was bringt oder nicht, ist nicht trivial. Also investieren wir einiges an Zeit. Was wir im ersten Schritt machen, ist, wenn wir eine Idee haben, versuchen wir einen Prototypen zu entwickeln. Und dann holen wir uns tatsächlich Leute hier ins Haus und machen mit denen Usertests, und sagen, okay, das hier ist die Lösung. So haben wir uns das vorgestellt. Nutzt das mal, gucken dann, ist es intuitiv, was wir machen. Dann diskutieren wir mit dem potenziellen Kunden auch, wird ihn das, was wir uns da gedacht haben, was nutzen, wird es nichts nutzen und schmeißen dann gegebenenfalls auch ganze Produkte wieder über den Haufen. Das ist also quasi das Benutzerende, wo wir uns genauer angucken, was der Mehrwert ist. Was wir auch machen ist, wir probieren Sachen einfach aus. Ja, also wir implementieren Sachen und gucken, funktionieren die Ideen, die wir hatten, so gut mit KI, dass auch ein Kunde mehr Wert rausholen kann. Und auch da stellen wir dann oft fest, wie bei den User Tests auch, dass das, was wir uns vorgestellt haben, noch gar nicht so gut funktioniert. Also, wir haben Fälle, wo in der Theorie ein ganz super cooler Use Case zu machen ist und wenn man es dann umsetzt, man feststellt, das reicht technisch gar nicht aus. Zum Beispiel gibt es gute Modelle, denen ich eine textuelle Beschreibung geben kann und die dann ein Bild generieren kann. Diese Bilder sind super für Mood-Sachen oder auch mal in kleinem Format, vielleicht irgendwo auf einer Webseite, aber da gibt's auch viele Bilder und viele Use Cases, wo es eben nicht funktioniert. Ja, entweder, weil die Anforderung zu hoch ist oder so hoch ist, dass die Qualität des Bildes einfach nicht passt, weil das Bild nicht realistisch genug aussieht oder weil in dem Bild das, was man sich vorgestellt hat, einfach nicht dargestellt wird. Gleiches gilt für Texterkennungsthemen. Die Large Language Modelle erlauben mir relativ viel Text zu analysieren und auszuwerten, aber es gibt halt eben Aufgaben, die noch nicht so gut funktionieren. Zum Beispiel nutzen wir das auch für ein Customer Care Board bei uns, also wo wir Kundenanfragen mit KI beantworten. Das funktioniert für ganz einfache Fragen sehr gut, aber es funktioniert nicht so wirklich gut, wenn es um ganz komplexe Anfragen geht. Und da auch wieder: wie findet man es raus? Wir haben da tatsächlich einen Prototypen entwickelt, den dann in Production gesetzt und dann einfach tatsächlich unsere Kunden als Tester genutzt. Und haben dann mit allen Kunden beobachtet, wie der Erfolg ist und festgestellt, na ja, die Kunden beschweren sich mehr, als dass es ihre Probleme löst. Dann haben wir es wieder zurückgedreht oder eben versucht, das Ganze weiter zu verbessern.
00:15:14: Thilo Haertel: In dem Blogartikel ist der AI Hype vorbei, hast du geschrieben, dass 80 % der KI-Projekte Schwierigkeiten erleben. Da wäre meine Frage, wie gehen wir da bei IONOS vor, um so realistisch erfolgreiche KI-Initiativen zu identifizieren und dann am Ende auch umzusetzen.
00:15:29: Stefan Schosser: Ich glaube, das gilt generell, dass ein großer Teil dieser KI-Projekte einfach - du formulierst es so nett - die scheitern einfach, da bleibt am Schluss nichts übrig. Das hat verschiedene Gründe. Ja, also ein sehr zentraler Grund ist und das hatten wir jetzt die letzten zwei Jahre sehr intensiv, dass die Erwartungshaltung, was KI machen kann, so phänomenal groß ist, dass keine Lösung die erfüllen kann und auch KI die nicht erfüllen kann. Ja, also das heißt sehr viel, was wir bei IONOS machen und was ich jedem empfehlen würde, ist im ersten Schritt, guckt euch an, wie realistisch ist das, was ihr erreichen wollt mit mit der Technologie, die wir haben, umzusetzen und dann auch wirklich da ehrlich zueinander zu sein. Ja, viel, was ich hier mache, ist Expectation Management. Wir versuchen offen zu kommunizieren, das ist eine coole Idee, aber ich glaube nicht, dass wir da irgendwie den Blumentopf gewinnen. Oder wir gewinnen den Blumentopf, aber wir müssen 5 Jahre daran forschen. Die Zeit haben wir nicht. Also seid ehrlich zu euch und macht nur das, was auch wirklich Potenzial hat, erfolgreich zu sein und passt eure Erwartung an das an, was hinten rauskommen kann. Zweiter Punkt ist ganz wichtig: arbeite in kleinen Schritten. Was cool ist bei diesen KI-Lösungen, man kriegt so eine 80-%-Lösung super schnell hin. Mit minimalem Aufwand kann man immer den Großteil des Problems lösen und das sollte man immer machen. Und wenn man dann aber an der Stelle angekommen ist, ist ganz wichtig zu überlegen: “Ey, lohnt sich der nächste große Schritt noch und wie groß ist der nächste Schritt?" Also immer vor jeder neuen Entwicklung nicht sagen: “Ey, es gibt coole Technologie, ich will die einsetzen”, sondern lieber überlegen, was ist denn der Mehrwert, den es generiert und wie realistisch ist es da? Wie groß ist mein Aufwand, um da anzukommen? Wenn man diesen Trade-off irgendwie einhält und dann wirklich so sequentiell vorgeht, ist auch die Chance relativ gut, dass man am Schluss mit einer Lösung raus kommt, die vielleicht nicht alles löst, was man sich am Anfang ausgedacht hat, aber doch 50 % und die dafür ziemlich gut ist. Und vielleicht der letzte Punkt ist, aus der Erfahrung auch hier im Haus: arbeitet in crossfunktionalen Teams. Gerade ich wieder, der ein bisschen mehr geeky ist, finde dieses ganze KI-Zeug total spannend, ja, und verliere manchmal aus dem Blick, dass es am Schluss einen Endkunden gibt, der das Ganze nutzen soll. Ich lerne das. Ich werde da auch besser, als ich das noch vor 10 Jahren war. Aber wir haben Experten dafür, die sich nur darum kümmern, wie mache ich den Kunden am Schluss glücklich. Nehmt so jemand mit ins Team. Guckt, dass es nicht nur die Entwickler sind, die entscheiden, was KI machen soll, sondern nehmt jemanden, der am Schluss den Kunden im Blick hat, nehmt jemanden mit, der die Entwicklung machen kann und nehmt jemand mit, der im KI-Umfeld unterwegs ist und sagen kann, okay, das ist möglich und das ist nicht möglich. Und immer gucken, dass man möglichst schnell an den Kunden kommt, möglichst schnell Kundenfeedback abholt oder Nutzerfeedback und dann entscheidet, das bringt keinen weiter und dann eben Sachen auch mal sein lassen.
00:18:01: Thilo Haertel: Datensicherheit und Vertraulichkeit haben bei IONOS ja einen sehr hohen Stellenwert. Wie stellt sich IONOS dieser Herausforderung im Hinblick auf das Angebot an KI-Lösungen? Du hast ja schon gesagt, die meisten oder viele kommen aus Amerika und da sind ja gewisse Datensicherheitsaspekte nicht unbedingt gegeben.
00:18:16: Stefan Schosser: Ist tatsächlich ein riesen Thema für uns. Ich glaube, wir haben es einfacher als die Wettbewerber aus verschiedenen Gründen. Also, das eine Thema ist, wir haben unsere eigenen Rechenzentren und die ganze Hardware, auf der wir alles, was wir im KI-Kontext betreiben, entsteht bei uns im eigenen Rechenzentrum. Das heißt, wenn wir ein Modell nutzen, verlassen die Daten Deutschland und Europa nicht. Also im Moment sind die Rechenzentren noch in Deutschland. Wir planen auch langfristig in Europa welche aufzubauen, aber die Daten aus Europa werden Europa nicht verlassen. Damit haben wir schon mal einen Vorteil gegenüber den anderen Anbietern wie Open AI, die zum Teil eben US-native sind und ihre Infrastruktur zunächst mal in den USA aufgebaut haben und vielleicht jetzt noch irgendein Rechenzentrum in Europa haben, aber damals schon eine größere Herausforderung haben als wir. Also wir sind aufgrund unserer DNA einfach Europe-based und deshalb da schon mal ein Stück sicher. Das ist Punkt eins. Punkt zwei ist, dass wir sehr, sehr bewusst und sehr früh in unserer AI-Agenda entschieden haben, wir werden nicht eigene Modelle trainieren. Ja, also wir unterstützen den Kunden dabei, Modelle zu trainieren. Das wird irgendwann kommen oder das tun wir jetzt schon, indem wir GPUs anbieten, aber wir trainieren keine eigenen Modelle. Das heißt, wir haben gar keinen Anreiz, Daten von Kunden, die die auf unsere Modelle schicken, für irgendwelche Trainings zu benutzen, weil wir keine Modelle trainieren. Das unterscheidet uns von den ganzen anderen großen Anbietern. Warum? Weil die großen Anbieter eben eigene Modelle haben und diese eigenen Modelle müssen besser werden und die werden eigentlich nur besser, indem ich mehr Daten füttere und die Daten, die ich da füttere, sind im Endeffekt Kundenkommunikation und Kundendaten. Also, dadurch kriegen wir das Problem auch einigermaßen fix. Und natürlich gilt für unsere Rechenzentren, was für alle Rechenzentren gilt, die bei IONOS eben sind, wir sind zertifiziert in allem, was irgendwie wichtig ist. Thilo, da steckst du wahrscheinlich tiefer drin als ich. Ich lass mir nur immer sagen, wir erfüllen alle Zertifizierungsnormen, die irgendwie notwendig sind.
00:20:06: Thilo Haertel: Da haben wir auch schon Podcasts aufgenommen, die kann ich auch gerne hier in den Shownotes verlinken.
00:20:09: Stefan Schosser: Also heißt, bei Rechenzentren, da passt es ohnehin. Wir trainieren keine eigenen Modelle und der letzte Punkt ist eben, also unsere Daten verlassen Europa und im Normalfall Deutschland nicht.
00:20:19: Thilo Haertel: Jetzt würde ich gerne kurz in die Entwicklersicht übergehen. Wie beeinflusst sowas wie GitHub Copilot die Arbeit von den Entwicklern bei uns und wie akzeptiert ist es oder wo stößt es vielleicht auch an seine Grenzen? Kannst du da vielleicht einen Einblick geben?
00:20:32: Stefan Schosser: Sehr gerne. Jetzt ist natürlich das Traurige, ich bin kein Entwickler, also ich bin so ein Produktfutzi. Ich nutze die Tools nicht selber. Ich kann dir quasi das sagen, was wir in der Analyse herausgefunden haben bei dem Verhalten der Kollegen bei uns im Haus. Und was wir sehen oder was wir relativ früh gemacht haben, ist, wir haben mit GitHub Copilot eine Lösung eingebunden, die den Entwickler unterstützt, indem es Source Code generiert oder Auto-Completion macht, wenn der vor sich hin programmiert. Und wir sehen, das wird von unseren Kunden wie Mitarbeitern genutzt. Ja, also die entwickeln damit. Was wir aber auch sehen, ist das, was da rauskommt, das ist nicht immer das Gelbe vom Ei. Hintergrund ist der, also es wird Code generiert, der insbesondere für Sachen, für Standardaufgaben sehr hilfreich ist. Also z.B. Tests schreiben funktioniert relativ gut. Solche Boiler Plates, also so eine Grobstruktur von Code zu generieren, funktioniert ganz gut. Wenn es dann aber um die Details geht, muss meistens doch noch ein Entwickler ran. Ja, also rein zu spezifizieren, ich möchte jetzt dieses oder jenes Problem gelöst haben, funktioniert noch nicht. Das heißt, das ist ja eigentlich, ich würde sagen, eine Änderung in der Herangehensweise. Ja, also während früher der Entwickler vor sich hin entwickelt hat und wahrscheinlich sich sehr geärgert hat, weil er viel, viel Code geschrieben hat, wo nicht viel intellektueller Aufwand drin steckte, weil es halt irgendwelche Strukturcode war, also Tests. Ich habe früher selbst entwickelt, Tests entwickeln ist Katastrophe. Ja, du schreibst einen Test nach dem anderen. Das ist strukturell immer das gleiche, das ist nicht anspruchsvoll, das macht keinen Spaß. Ja, so Kram kannst du heute mit KI generieren lassen und du konzentrierst dich eben mehr auf das für dich wesentliche und du hast quasi eine Art Sparringspartner, du hast die KI, die den ersten Vorschlag macht und du bist der Experte, der noch mal drüber geht und sagt, okay, so machen wir es nicht. Hier folgt das ganze den Konventionen nicht, hier finde ich hier noch eine Verbesserung und man ändert quasi den Modus. Es ist nicht mehr das reine, ich programmiere vor mich hin, sondern es ist mehr eine Interaktion mit einer technischen Maschine. Vielleicht noch eine kurze Ergänzung. Wir sehen da auch bei unseren Kollegen, dass sich das Verhalten über die Zeit ändert. Ja, also während am Anfang mehr Code übernommen wurde, lässt das langsam nach. Unsere Kollegen werden kritischer und nutzen dafür KI öfter. Ja, also das heißt, sie lassen sich mehr Vorschläge machen, die, die es nutzen, und die Vorschläge, die sie machen, bewerten sie kritischer. Was ich total spannend finde, weil das so ein bisschen zeigt, die Kollegen entwickeln sich mit der KI weiter und nehmen die Rolle des Beobachters oder des Prüfers stärker an. Am Anfang dachten sie, okay, ich erwarte von der KI, dass sie die gleiche Arbeit macht, die ich auch mache und jetzt haben sie quasi gesehen, okay, die ist nicht so gut wie ich, aber ich lasse trotzdem mal einen ersten Entwurf machen und bin aber eher bereit, diesen Entwurf wieder wegzuschmeißen. Also, das heißt, die Nutzer passen sich ein bisschen an das Ganze an und es ändert sich tatsächlich die Arbeitsweise und das sehen wir wahrscheinlich auch in vielen anderen Bereichen und werden wir immer stärker sehen, dass einfache Dinge einfach durch KI erledigt werden, während kompliziertere Dinge immer noch den Menschen vorbehalten bleiben. Ich hoffe noch möglichst lange, bis zu meiner Rente.
00:23:22: Thilo Haertel: Was ist die Vision hinter der AI-Akademie bei IONOS? Wie trägt die Plattform so ein bisschen dazu bei, nachhaltigen Wissensaustausch und KI-Projekte zu fördern?
00:23:31: Stefan Schosser: Als wir mit KI hier im Unternehmen gestartet sind, haben wir sehr schnell festgestellt, die Niveaus, auf denen sich die Leute bewegen, was KI angeht, sind komplett unterschiedlich. Ja, also das heißt, wir haben Kollegen, die gar nichts damit anfangen konnten, die da auch so ein bisschen reserviert waren und sich eher rausgehalten haben und wir hatten gleichzeitig Leute, die das Thema in sich aufgesogen haben, die in ihrer Freizeit gegoogelt haben, was es Neues gibt, die neue Entwicklungen mit beobachtet haben und versucht haben, das proaktiv bei sich in der Arbeitswelt unterzubringen, die das Zeug vom ersten Tag intensiv genutzt haben und wir haben gesagt, ist alles cool. Ja, also wir verstehen sowohl die Leute, die sich ein bisschen verunsichert fühlen, als auch die, die total begeistert sind und wir wollen die Leute aber von Anfang an begleiten. Und da haben wir bei uns verschiedene Sachen gemacht. Das erste, was wir mal angeboten haben, waren zwei Grundlagenschulungen, die eine Einführung in KI bringen, um so ein Grundverständnis zu bekommen, was ist KI, wie funktioniert KI und was sind vielleicht Use Cases, die irgendwie sinnvoll sind und die haben wir für alle Mitarbeiter angeboten. Ich weiß jetzt nicht, was der aktuelle Stand ist, aber zwei Drittel der Mitarbeiter, als ich das letzte Mal geguckt habe, hatten diese Schulungen auch tatsächlich gemacht. Und das ist für uns als ersten Schritt mal wichtig. Man kann jetzt quasi jeden im Unternehmen rauspicken und mit dem kurz über KI sprechen und alle wissen, worum es geht und haben dadurch auch keine Ängste und haben eine konkrete Vorstellung, was man damit machen kann. Das ist quasi so ein bisschen das Minimum-Set an KI-Begleitung, dass wir jedem irgendwie versuchen nahe zu bringen und wir haben festgestellt, wir wollen auch die Leute, die total motiviert sind und relativ weit vorne stehen in dem, was sie tun und was sie wissen, auch eine Plattform bieten. Und dafür haben wir jetzt so ein monatliches AI-Meetup gegründet, wo wir uns mit denen treffen, die ein großes Interesse an KI haben und einfach drüber sprechen, was passiert im Unternehmen gerade, was passiert am Markt und auch was sind Lösungen, wo wir KI eingesetzt haben, über welche Probleme sind wir gestolpert und ja, einfach Learnings teilen und das ist auch unheimlich spannend, weil wir dabei dieses neue Thema relativ weit ins Unternehmen tragen und viele Kollegen vorbeikommen, weil irgendein Thema sie interessiert. Und die sitzen dann in dem Meeting und kommen dann am Schluss und sagen: “Ey, ich habe mir jetzt mal überlegt, ich habe auch drei, vier Probleme. Die könnte ich mit sowas wie dem, was ihr gerade beschrieben habt, auch lösen.” Und wir schaffen es so, KI auch in Bereiche reinzubringen, wo wir selber nie daran gedacht hätten und können so auch das tägliche Doing und die tägliche Arbeit der Kollegen erleichtern. Also zum Beispiel, wir haben eine Marketingabteilung, die sehr, sehr aktiv ist, was KI angeht, die eigene Inhalte generieren mit KI und die ein extrem detailliertes Wissen dazu haben, welche Modelle wofür gut geeignet sind, was funktioniert, was nicht funktioniert. Und diese Information, das teilen die gerne und führt zum Beispiel dazu, dass Produktmanager inzwischen ihre Produktdokumentation mit KI schreiben, weil sie eben überzeugt wurden von den Kollegen, wie cool das Ganze ist und gleichzeitig auch gesagt wurde, was eben nicht funktioniert, sodass man eben nicht die gleichen Fehler macht wie alle, die die vor einem schon mal gemacht haben.
00:26:24: Thilo Haertel: Was würdest du jetzt so kleinen Unternehmen oder so unseren Kunden empfehlen, die gerade erst beginnen KI zu integrieren oder das vielleicht auch noch gar nicht getan haben? Ist es jetzt schon zu spät?
00:26:32: Stefan Schosser: Nein, generell gilt, es ist nie zu spät. Für den ersten Schritt ist es nie zu spät. Ich glaube tatsächlich, im Moment ist eine ganz gute Zeit, um anzufangen, sich auf die KI-Reise zu begeben. Warum? Weil wir doch schon eine ganze Menge an Lösungen haben, von denen wir wissen, dass sie ganz gut funktionieren, da auch schon fertige Produkte haben, die man nutzen kann und gleichzeitig ist auch Infrastruktur da, ist viel Dokumentation da, die eben vor zwei Jahren noch nicht da waren. Also vor zwei Jahren war sehr viel sehr experimentell und wenn man KI damals machen wollte - wie formuliert man das schön? Also, ich bin in der Anfangszeit sehr oft auf die Schnauze geflogen. Warum? Weil ich Sachen ausprobiert habe, die dann nicht funktioniert haben, weil meine Erwartungshaltung eine andere war, als das, was das Tool dann möglich machen konnte oder das generative Modell eben dann konnte. Wir sind da drei, vier Schritte weiter und es gibt sehr viele Diskussionen online, Artikel online, darüber, was funktioniert und was nicht funktioniert und man kann sich quasi auf das konzentrieren, was wirklich funktioniert und kommt dann relativ schnell zum Erfolg. Also meine Empfehlung wäre, guckt euch an, was da draußen ist, guckt, was bei anderen funktioniert hat und guckt, ob ihr das für euch übertragen könnt. Also ein Beispiel, was wir jetzt gerade sehen, was bei uns sehr gut funktioniert, sind diese Large Language Modelle, die auch bei uns gehostet und irgendwie angeboten werden und die alleine bringen dir eigentlich keinen Mehrwert. Ja, die sind nett zum Spielen und viele Leute haben in der Anfangszeit Chat GPT gemacht, weil es einfach schön ist und schön funktioniert. Diese Modelle sind aber immer besser und besser geworden in den letzten zwei Jahren und die sind heute so, dass sie sehr gute Antworten liefern. Ja, aber der Mehrwert ist da nicht da. Was es aber top gibt, ist etwas, das nennt sich dann Retrieval Augmented Generation. Das heißt, man kann den Large Language Models, also diesen Sprachmodellen, beibringen, eigene Daten zu integrieren und die zu berücksichtigen in der Antwort. Und damit ergeben sich dann ganz, ganz viele Use Cases. Also, hören wir von vielen Kunden, die dann sagen, na, das ist total cool, mit meinen Daten plus diesen Modellen lasse ich meine Korrespondenz generieren oder wie in unserem Fall mache die Webseite damit oder ich schreibe Produktdokumentation mit solchen Artikeln. Und die Empfehlung von mir ist einfach: startet mit solchen Sachen wie dieser Retrieval Augmented Generation, die bei anderen Leuten funktioniert haben, nutzt die für euch und investiert vielleicht am Anfang nicht zu viel. Was sich unheimlich anbietet, ist irgendeine gehostete Solution zu nehmen, nicht ein eigenes Modell irgendwie zu beschaffen oder fine zu tunen oder zu trainieren, sondern ein Modell zu nehmen, das irgendwo gehostet wird, das mit kleinem Geld schon mal getestet werden kann, mit einem kleinen Produktanfang. Und das dann wachsen lassen, bis man am Schluss bei einem Produkt ist, das so viel wie möglich löst. Dabei aber immer schrittweise prüfen - und auch da ist eine ganz wichtige Erkenntnis, die wir in den letzten Jahren hatten: Es gibt auch viele Produkte oder Projekte oder Projektideen, die man anfängt und wo man dann feststellt, na ja, es funktioniert aber halt noch nicht so oder nicht in der Qualität, in der es funktionieren sollte. Und dann ist es auch okay, mal etwas wegzuschmeißen und zu sagen: “Okay, das hat halt nicht funktioniert, schmeiß mal weg, wir versuchen es vielleicht in zwei Jahren nochmal. Vielleicht war es aber auch ein Use Case, den wir uns falsch ausgedacht haben.”
00:29:18: Thilo Haertel: Wenn wir jetzt einen Blick in die Zukunft werfen, welche neuen KI-Funktionen und -Technologien siehst du als besonders vielversprechend an?
00:29:24: Stefan Schosser: Wir hatten ja jetzt das letzte Jahr oder die letzten beiden Jahren im Kern die Zeit dieser Large Language Modelle, also die größten Fortschritte wurden gemacht im Bereich dieser Sprachmodelle, dem Generieren von neuen Texten. Ich glaube, das wird sich ein bisschen verschieben. Wir sehen jetzt, dass es erste Modelle gibt, die gleichzeitig Sprache und Bilder verstehen und das interpretieren können. Das wird sich in den nächsten Monaten und Jahren weiter professionalisieren. Also die Qualität wird weiter steigen und es wird wahrscheinlich dann auch weitere Modi erschließen. Also, es wird für Videos auch funktionieren und es funktioniert jetzt eigentlich schon ganz moderat auch für Sprache, sodass man quasi alles das, was ich als Mensch heute aufnehmen kann, gesamthaft eben auch nutzen kann für solche Modelle. Und damit ergeben sich natürlich wieder ganz neue Use Cases. Ja, also das heißt, während ich heute nur auf geschriebenen Text relativ gut reagieren kann, werde ich das in Zukunft wahrscheinlich auf ein Video oder auf eine Beobachtung einer anderen Person mit KI ganz gut machen können. Das wird ein sehr, sehr großer Trend sein in meiner Überzeugung. Und das andere ist, dass dieses Thema Agenten ganz, ganz groß ist und immer größer werden wird. Also das heißt, während KI heute noch oft eine Spielerei ist, wird eine der Entwicklung sein, dass man sich sehr stark in den nächsten Jahren darauf konzentriert, was der Mehrwert ist, was bringt's dem Benutzer KI einzusetzen und eine dieser Richtungen sind Agenten. Das heißt, man überlegt sich, wie man Probleme von Menschen einfach mit einem KI-Bot oder einem Stück Software lösen lässt, ohne dass das wie in der Vergangenheit einfach eine Software Oberfläche war, wo man ganz klar links, rechts, links, rechts klicken musste, sondern man gibt jetzt einfach seine Informationen ab, spricht mit dem Ding und das löst dann. Ich glaube, das sind die zwei großen Trends für die nächsten ein, zwei Jahre, Monate, Wochen.
2941]: Thilo Haertel: Jetzt haben wir ziemlich viel darüber gesprochen, was KI für unsere Kunden oder allgemein nützt. Wie nutzt du denn KI in deinem Arbeitsalltag oder im Alltag?
00:31:07: Stefan Schosser: Wie gesagt, ich entwickle nicht mehr so viel selber. Was ich viel mache, ist Text generieren, Folien generieren, um Produktideen zu bewerten, zu diskutieren und da helfen mir die Modelle zum Beispiel. Ich fange inzwischen nicht mehr an, selbst Recherche zu machen mit Google, sondern ich nutze Sachen wie Open AI und frage die erstmal, was ist da draußen? Ich lass mir das irgendwie zusammenfassen und benutze das dann quasi als zusätzliche Quelle neben Google. Also natürlich mache ich am Schluss noch meine traditionelle Suche, wie ich es immer gemacht habe, aber meistens hilft das schon einen guten Überblick zu kriegen und dann versuche ich das im Gehirn irgendwie zu prozessieren. Und ich neige inzwischen dazu, meine Texte nur noch in Stichworten zu verfassen, und dann das Ganze eben auch wieder einem Modell zu geben, und dann sage ich: “Liebes Modell, mach mir daraus einen fertigen Text und lass den möglichst noch hip und gut klingen”. Das funktioniert dann immer ganz gut. Ich muss dann immer noch revidieren, aber das Ergebnis aus KI generiert mir einen Text plus ich revidiere drüber, ist deutlich besser als der erste Entwurf, den ich schreibe. Ich klinge immer ein bisschen hölzern. Ich schaffe so ganz dynamische, ansprechende Texte zu generieren. Das schaffe ich ohne KI bisher noch nicht.
00:32:14: Thilo Haertel: Vielen Dank für das Gespräch.
00:32:16: Stefan Schosser: Gerne.
00:32:17: Thilo Haertel: Ich hoffe, wir konnten in dieser Folge zeigen, wie wir bei IONOS KI einsetzen und welche Möglichkeiten es auch für Sie gibt. Wenn es Ihnen gefallen hat, freuen wir uns über Anmerkungen oder einen Kommentar unter dieser Episode. Falls Sie Themenvorschläge haben, schicken Sie eine Mail an podcast@ionos.com und natürlich können Sie auch auf den bekannten Podcast-Plattformen eine Bewertung für uns hinterlassen. Vielen Dank fürs Zuhören. Tschüss und bis zum nächsten Mal.