Inside IONOS

Transkript

Zurück zur Episode

Sabrina Walz: Hallo und herzlich willkommen zu einer neuen Folge von Inside IONOS.

Mein Name ist Sabrina Walz.

Andreas Maurer: Und ich bin Andreas Maurer.

Sabrina Walz: Heute geht es wieder mal um das Thema künstliche Intelligenz.

Andreas Maurer: Und zwar mit einem ganz aktuellen Thema in der KI Entwicklung, nämlich das Fine Tuning.

Gemeinsam mit unserem Partner Manufakt AI werfen wir einen Blick hinter die Kulissen.

Was ist Fine Tuning überhaupt?

Warum ist das so unter dem so spannend und wie können Firmen auch ohne größere KI Expertise ihre eigenen Daten einsetzen, um maßgeschneiderte KI Lösungen zu entwickeln.

Sabrina Walz: Wir sprechen heute darüber, was das AI Model Studio möglich macht, wie die Zusammenarbeit zwischen IONOS und Manufakt AI aussieht und welche Rolle KI Technologien in Zukunft für Unternehmen spielen werden.

Andreas Maurer: Und dazu haben wir uns natürlich wieder Gäste eingeladen und das sind einmal Oliver Hessel, Head of AI Platform Development bei IONOS und Maria Bergmann, CEO und Co-founder von Manufakt AI. Hallo zusammen.

Maria Bergmann: Hi.

Oliver Hessel: Hallo.

Sabrina Walz: Was genau macht Manufakt AI, Maria?

Maria Bergmann: Die Manufakt AI haben wir gegründet mit dem Anspruch, KI tatsächlich zugänglich für alle Unternehmen zu machen. Mein Mitgründer und ich, wir befassen uns seit Jahren damit, wie man KI verändern und trainieren kann, so dass sie das tut, was man tatsächlich möchte und das haben wir in Verbindung jetzt auch mit IONOS dann in unserer Factory und dem AI Model Studio zugänglich gemacht - auch für nicht Machine Learning Ingenieure. Bedeutet, wir lieben KI wirklich aus allen Ecken und dementsprechend befassen wir uns den ganzen Tag damit, KI tatsächlich auch weiterzubringen und in die Unternehmen zu bringen.

Andreas Maurer: Wie lange gibt es euch schon?

Maria Bergmann: Ähm, uns gibt's jetzt seit einem Jahr in der Manufakt AI. Mein Mitgründer und ich arbeiten aber schon seit über drei Jahren zusammen an dem Thema. Haben dort sehr viele Kundenprojekte auch gemeinsam gestemmt, haben sehr viel Erfahrung in dem Bereich sammeln dürfen und haben uns dann entschieden, dass wir nicht nur selber die KI verbessern möchten für den jeweiligen Kundenfall, sondern eben auch an der Lösung für die Kunden haben wollen, damit sie das eben selber tun können.

Andreas Maurer: Das Fine Tuning, über das wir heute reden wollen, das basiert ja auf dem AI Model Hub von IONOS und ich glaube, dazu müssen wir noch mal ein bisschen zurückgehen. Erklären: was ist der AI Model Hub überhaupt?

Oliver Hessel: Ja, mit dem AI Model Hub bieten wir unseren Kunden die Möglichkeit, eine Open AI kompatible API zu nutzen, um Inference zu machen, das heißt: ich stelle eine Frage und bekomme eine Antwort - vereinfacht gesagt. Es ist, wie man sich es vorstellt von ChatGPT, nur eben als API, um Anwendungen darauf zu bauen. Zusätzlich haben die Kunden die Möglichkeit, bei uns Retrieval Augmented Generation zu machen, das heißt, sie hinterlegen Daten, auf deren Basis die KI dann entsprechend antworten kann.

Andreas Maurer: Und das Fine Tuning ist ja, glaube ich, eine Art Alternative zu diesem Retrieval Augmented Generation. Aber, um zu verstehen, was das bedeutet, müssen wir vielleicht auch noch mal einen Schritt zurückgehen. Wir reden ja im Wesentlichen über Sprachmodelle oder diese sogenannten Foundation Models. Vielleicht könnt ihr noch mal kurz beschreiben, wie funktionieren diese Modelle überhaupt?

Oliver Hessel: Wie die funktionieren ist im Inneren relativ komplex, wir machen es mal ein bisschen einfacher. Sie sind von der Theorie unseren menschlichen Neuronen nachgebildet, das heißt, es lernt, ich sag mal, es dazu, es lernt und kann dann auf Basis des Erlernten am Ende wieder etwas rausgeben. Das heißt, ich gebe eine unglaublich große Menge an Text rein – also das ganze Internet ist einmal erlernt worden von den Foundation Models – und die Models können das nächste Wort abschätzen. Das heißt, ich gebe ihnen einen Kontext rein, also, ich gebe dem Model einen halben Satz und das Model kann dann berechnen, wie wird der Satz eigentlich fortgesetzt. Das ist so das Basisprinzip eigentlich, und das kann man natürlich erweitern: Ich gebe dem Model einen Satz, den es nicht gelernt hat, und dann versucht es auch, etwas dabei wieder rauszubringen. Ein bisschen gefühlt wie eine menschliche Interaktion. Die Language Models fühlen sich auch sehr menschlich an, sind es aber gar nicht. Es ist am Ende eine große Matrix aus vielen Zahlen, Worte und Sätze werden zerlegt ins Model reingeworfen und dann kommt am Ende als Ergebnis raus: Was ist denn der nächste, der nächste Satz? Also, das ist mal so die LLMs.

Maria Bergmann: Auch Rec und Fine Tuning unterscheiden sich im Wesentlichen dadurch, dass wenn ich Fine Tuning betreibe, ich dem LLM, so wie Oliver es gesagt hat, noch mal etwas Neues beibringe, um ein gewisses Verhalten zu erzwingen. Das heißt, ich nehme das LLM aus dem kreativen Raum raus, aus seinem Vortraining. Meistens ist ja sehr viel Allerweltswissen, sage ich jetzt mal, in den LLMs drinnen – deswegen geben sie uns auch immer das Gefühl, dass sie Menschen ähnlich verstehen. Aber wenn ich das LLM frage: Mein Opa geht zur Punkt Punkt Punkt – und es sagt dann Bank – dann ist dem LLM egal, ob ich das Gebäude meine oder die Sitzbank. Für uns Menschen macht das aber in dem Kontext einen erheblichen Unterschied. Und wenn ich genau solche Sicherheiten benötige, um Prozesse wirklich vollständig zu automatisieren oder mit einer sehr sehr hohen Wahrscheinlichkeit korrekt zu automatisieren, dann würde ich zum Fine Tuning greifen, um dem Modell ein explizites Verhalten in einem sehr abgesteckten Case beizubringen – wie es sich dort immer zu verhalten hat. Der Vorteil davon ist, ich kann im Fine Tuning tatsächlich dafür sorgen, super super hohe Werte im Punkt Genauigkeit zu erzielen, dadurch, dass ich einfach mehr Trainingsbeispiele reingebe. Der Nachteil davon ist natürlich, wenn ich das manuell tätigen müsste, ohne das AI Model Studio, dann hätte ich natürlich das Problem, dass das unfassbar komplex und schwierig ist. Wenn wir Rec betrachten, dann ist es so, dass wir bei Rec eben das Base Model, das LLM selbst an sich nicht abändern. Bedeutet: Wir haben immer dieses Allgemeinwissen des Vortrainings eines LLMs. Der Open Source Markt ist riesig und ich kann mir theoretisch eins aussuchen. Man denkt, je mehr Parameter so ein LLM hat, also je größer es ist, je mehr neuronale Verknüpfung, desto besser ist es auch. Das ist so die Annahme, die häufig gesehen wird. Das ist im Rec Fall teilweise auch zutreffend. Was ich allerdings dort mache ist, ich stelle dem LLM nicht nur eine Frage, ich sage nicht nur "Mein Opa geht zur", sondern ich würde dieser Frage jetzt auch noch Kontext mitgeben, wie zum Beispiel Unterlagen der Kreditgesellschaft oder oder oder, und dann wäre es vielleicht einfacher für das LLM festzustellen, dass anhand dieser Unterlagen wahrscheinlich nicht die Sitzbank gemeint ist, sondern die andere Bank. Und so kann man im übertragenen Sinne sehen, wo sich die beiden unterscheiden. Auch Rec hat seine Vorteile, vor allem überall dort, wo ich schnell einen Wissenskorpus benötige, in dem ich mich bewegen möchte, wie zum Beispiel Kreditinformationen. Ich habe allerdings einen Nachteil: Die Antworten, die ich erhalte, die können variieren, also es neigt sehr häufig dazu, etwas zu kreativ zu sein, wenn ich echte Automatisierungsaufgaben mache. Wir sehen aber, dass Rec vor allem in der Mensch-Maschine-Interaktion unheimliche Vorteile mit sich bringt und Fine Tuning vor allem in der Maschine-zu-Maschine-Interaktion sehr viele Vorteile bringt, weil wir dort sehr genau sein können.

Sabrina Walz: Du hast es jetzt schon erwähnt, Fine Tuning und AI Model Studio – wie geht das zusammen?

Maria Bergmann: Ja, das AI Model Studio basiert technologisch tatsächlich auf unserer Factory, also die Manufakt AI Factory ist ein Software Development Kit, mit der wir Fine Tuning im Prinzip in acht Lines Code ermöglichen. Gemeinsam mit Ionos haben wir uns dann überlegt, dass die Iteration dessen eigentlich sein müsste, dass im AI Model Studio auch Menschen, die einen fachlichen Use Case haben, die nicht unbedingt diese acht Zeilen Code in Python jetzt hinterlegen wollen, die Möglichkeit bekommen sollten, auch so ein Fine Tuning vorzunehmen. Jetzt bringen wir einiges an Know-how in dem Bereich mit, auch mit unserer Lösung und natürlich damit, dass wir Fine Tuning nicht nur auf Text beziehen, sondern auch auf multimodale Aufgaben – bedeutet, auch Text in Kombination mit Bild zum Beispiel – weswegen wir eine sehr breite Masse von potenziellen Use Cases über Fine Tuning abbilden können.

Andreas Maurer: Könnten wir dann auch so einen Podcast hochladen?

Maria Bergmann: Ähm, aktuell noch nicht, ist aber tatsächlich in Planung. Theoretisch könnten wir so einen Podcast hochladen. Ähm, wir müssten dann nur definieren, was die Fragestellung ist. Aber vielleicht wollen wir einfach bewerten, was sind die Kernaussagen des Podcasts, und wir möchten ein LLM schaffen, das das super schnell schafft, oder ein LLM, das vielleicht abschätzen kann, ob unsere Zuhörerinnen und Zuhörer das hier gerade genießen oder nicht, bevor wir es hochladen. Das könnten wir tun, ja.

Andreas Maurer: Ansonsten nutzen wir natürlich bei der Podcast-Produktion mittlerweile auch schon sehr viel KI, sei es für die Shownotes, für die Transkription, die wir dabei haben. Also von daher freuen wir uns da natürlich, wenn noch mehr kommt. Wie ist es jetzt überhaupt zu der Partnerschaft gekommen? Das ist ja vielleicht auch für andere Firmen spannend – ist ja ein Startup-Unternehmen, das mit IONOS jetzt als börsennotierter Konzern zusammenarbeitet, ist ja auch nicht ganz selbstverständlich. Wie sieht sowas in der Praxis aus, Oliver?

Oliver Hessel: Ist eigentlich ganz spannend und noch gar nicht so lange her. Diesen Jahres im Mai ist die Manufaktur auf uns zugekommen, glaube sogar über LinkedIn, und hat gesagt: Hier, wir haben eine Lösung, die glaube ich ganz gut zu eurem Kontext passen würde. Ihr habt den AI Model Hub, Kunden wollen vielleicht auch die Modelle Fine tunen, wollen Modelle selber anpassen. Es passt zu eurer Kundengruppe. Wollen wir da nicht mal was zusammen machen? So hat es gestartet. Dann waren im Mai auch schon die ersten Kennenlerntermine, wo wir uns die Lösung angeguckt haben, wo auch schon eine Idee entstanden ist: Wie kann das für die IONOS Kunden aufbereitet werden, dass es möglichst leicht wird, möglichst einfach wird, auch für Leute, die keinen Data Science Hintergrund haben, wirklich in die Produktion gehen mit angepassten Modellen.

Maria Bergmann: Ich muss vielleicht dazu ergänzen: Wir als Manufakt AI haben im letzten Jahr viel mit hochregulierten Unternehmen gearbeitet. Das betrifft alles, was Financial Services, Banken, Versicherung – weil die tatsächlich Use Cases haben, die man wunderbar mit Fine Tuning unterstützen kann. Und wir haben schon immer auf die IONOS geschielt, aus dem Grund Souveränität: Es ist ein deutscher Cloud-Anbieter, die Kunden vertrauen der IONOS, und gerade im Bereich Hochleistungs-GPUs sehen wir, dass alleine die Beschaffung für Unternehmen häufig relativ schwierig ist. Wir bringen eine Besonderheit mit: Theoretisch können Kunden alles, was wir ermöglichen, auch on premise machen – was für die regulierten Branchen aber häufig echt nur die schmerzhafte Lösung ist, da es ganz schwierig ist, sowas bei einem Hyperscaler zu machen, zum Beispiel. Und aus der Brille kamen wir tatsächlich, inklusive der Beobachtung, wie ihr eure KI-Initiativen im letzten Jahr gepusht habt, und das fanden wir sehr gut. Dann dachten wir, vielleicht passen wir zusammen, haben einfach über LinkedIn den Cold Entry gemacht und das hat super funktioniert, und ja, es war sehr schön, die Zeit im Mai.

Andreas Maurer: Das klingt super, und dazu muss man auch noch mal sagen: Der Model Hub ist ja tatsächlich im Moment nur in deutschen Rechenzentren gehostet. Kann auch sein, dass wir vielleicht irgendwann in andere europäische gehen, aber es ist wirklich eine echte souveräne Lösung.

Oliver Hessel: Ganz genau. Also im Moment steht alles in Berlin. Das heißt, alles geht von der Hauptstadt aus, was IONOS-KI angeht, und wir haben ja noch ein paar mehr Rechenzentren über Europa verteilt. Wir werden da sicherlich noch ein bisschen näher zu unseren Kunden rücken, aber für den Moment ist es Berlin, und die Kunden wissen, wo es herkommt.

Sabrina Walz: Jetzt habt ihr ja beide momentan Fine Tuning als ein aktuelles und sehr brisantes, ein sehr gewolltes Thema identifiziert. Warum ist das so? Warum ist das Fine Tuning gerade aktuell in der KI-Entwicklung so ein großes Thema?

Oliver Hessel: Also auf der einen Seite sind die Modelle die ganze Zeit immer größer und größer geworden, und die kosten natürlich auch immer mehr und mehr Leistung. Also, wenn ein Modell riesig groß ist – 405 Milliarden Parameter – dann dauert es relativ lang, bis eine Antwort kommt. Relativ lang heißt: 10, 20 Sekunden, aber das braucht man gar nicht für jeden Anwendungsfall, und manche Anwendungsfälle lassen sich sehr viel leichter und effizienter abarbeiten, wenn es auf den jeweiligen Use Case zugeschnitten ist. Das heißt, ich kann meinen Use Case, den ich normalerweise mit einem ganz großen Modell abhandeln würde, mit dem Fine-Tune-Modell sehr viel effizienter und schneller abhandeln.

Maria Bergmann: Ja, wir als Manufakt AI sind schon seit ein paar Jahren Verfechter, dass Modellgröße nicht eindeutig immer alles schneller, größer, teurer und noch besser bedeutet. Das hängt immer sehr vom Use Case ab, und wir sehen, dass Modellgröße wirklich dort einen Mehrwert hat, wo ich das Allerweltswissen brauche – also theoretisch in jeder Quizshow oder bei Recherchen am Computer ist das wunderbar... Wenn ich allerdings mit sehr hoher Präzision bestimmen möchte, ob mein Kugellager in der Produktion auf dem Bild meinen unternehmerischen Vorgaben entspricht und durch die Qualitätssicherung gehen darf – ja oder nein – dann sind das für mich die Pixel, die mit anderen Pixeln im Zusammenhang stehen, die dann korrekt entschieden werden müssen. Dieses Wissen, das ist mein unternehmerisches, meine Qualitätssicherungsanforderungen, die das Modell jetzt kennen muss. Solches Wissen kann ich nur über die Methodik des Fine Tunings in meine Systeme übertragen. Der andere Aspekt, den Oliver angesprochen hat – der Kostenaspekt – ist einfach unfassbar: Wenn wir uns jetzt angucken, dass wir in manchen Fine-Tuning-Cases alles rund um den Dokumentenbereich in so kleine Modelle bringen, die unter einer Milliarde Parameter groß sind – das können wir auf jedem iPhone heute betreiben. Im Vergleich zu jetzt 120 oder 405 Milliarden Parameter großen Modellen ist das natürlich ein unheimlicher Effizienz- und Kostengewinn.

Oliver Hessel: Vielleicht noch kurz eingehakt zur Größe mit den Milliarden Parametern kann man sich vielleicht gar nicht so viel vorstellen. Man kann das relativ einfach auf Gigabyte umrechnen. Das heißt, ein Eine-Milliarde-Parameter-Modell braucht 1 Gigabyte RAM-Speicher auf der Grafikkarte und so ein 405-Billionen-Model braucht eben 400 GB. Da hat man schon die Größenordnung, was man an Infrastruktur einkaufen muss, damit man das laufen lassen kann.

Andreas Maurer: Da brauche ich dann schon eine Menge Grafikkarten und auch wahrscheinlich sehr viel Kühlung, um das Ganze zu betreiben. Das wird man in der Regel nicht mehr im eigenen Keller als Unternehmen machen.

Oliver Hessel: Kühlung, Leistung, teure GPUs – also, man muss da schon ein bisschen tiefer in die Tasche greifen, um so eine Infrastruktur hinstellen zu können, und die muss natürlich auch betrieben werden. Das ist nichts, was man jetzt mal schnell ins Firmenrechenzentrum stellt und einfach mitbetreibt. Das ist ein Paradigmenwechsel von einem normalen Data Center zu einem Data Center mit GPUs.

Andreas Maurer: Ihr beschreibt das AI Model Studio ja als sogenannte No-Code-Lösung. Was heißt das jetzt für den Anwender, und für mich bedeutet das ja irgendwie, ich brauche nicht viel Expertise dafür. Wie sieht das in der Praxis aus, wenn ich das nutzen will?

Oliver Hessel: In der Praxis sieht es so aus: Es gibt ein Web-Interface, logst dich ein und hast dann die Möglichkeit, erst mal auszuprobieren. Du hast einen bestimmten Use Case aus deiner Firma im Kopf – ja, du willst z. B., nehmen wir das Kugellager. Du bist ein Unternehmen im Schwarzwald, stellst Kugellager her, möchtest die Qualitätssicherung verbessern. Du möchtest, dass die Maschine selber entscheiden kann, ist es ein gutes oder ein schlechtes Kugellager. Das heißt, das, was der Meister über Jahre hinweg gelernt hat, möchtest du jetzt in die KI bringen, damit sie das selbst entscheiden kann. Dann gibt es ein Modell, das du auswählst – wir haben verschiedene Modelle im Studio zur Auswahl, ein Bildmodell – dem gibst du die Daten und sagst: Erkenne mir mal, wo ein kaputtes Kugellager ist. Dann wird vermutlich zurückkommen, dass es das einfach nicht einschätzen kann. Es werden Antworten generiert, aber sie werden nicht zu dem passen, was du brauchst. Dann gibt es jetzt den weiteren Schritt: Du kannst relativ simpel hingehen und einmal deinen Use Case beschreiben, was du willst, und dazu die Daten hochladen. Dann musst du sagen: Hier habe ich 20 kaputte Kugellager, hier habe ich 20 funktionierende Kugellager. Dann wird das Fine-Tuning gestartet, und dann kannst du es wieder ausprobieren. Relativ einfach, ohne externe Tools. Mit externen Tools geht's natürlich noch mal eine Nummer feiner und genauer, aber ohne externe Tools kann man direkt starten und wenn das Modell dann gefine tuned ist, kannst du es ausprobieren und direkt gucken, ob es funktioniert, ob das Modell mehr Beispiele oder mehr Instruktionen braucht.

Andreas Maurer: Wie sieht das konkret aus? Wie lade ich diese Daten dann hoch? Ist das irgendwie eine Excel-Datei, PDF – wie kann ich mir das vorstellen?

Maria Bergmann: Wir haben theoretisch mehrere Möglichkeiten. Aktuell kann man eine JSON-Datei hochladen, also eine JSON-Lines-Datei. Das lohnt sich vor allem dann, das klingt ja schon etwas technischer, ist es auch. Jeder Maschinenbauer wird es aber wahrscheinlich kennen. Das lohnt sich vor allem, wenn ich multimodale Cases trainieren möchte, wie Oliver es gerade beschrieben hat. Ich habe aber auch die Möglichkeit, einfach PDFs hochzuladen. Wir sehen sehr häufig, dass ich Dokumentationen vielleicht von meinen Lieferchargen für das Kugellager ablegen möchte und automatisch den Inhalt dieser Dokumentationen in mein SAP-System übertragen möchte. Dort könnte ich solche PDFs hochladen und beschreiben, welche Informationen ich aus dem PDF brauche. Das AI Model Studio würde mir dann einen Trainingsdatensatz aus dieser Beschreibung und den hochgeladenen Bildern generieren, dann ins Training gehen und am Ende dann auch anzeigen, wie viel besser das Modell jetzt geworden ist, und dann kann ich auch das Modell dort ausprobieren. Was wir damit bezwecken wollen ist, dass die Hürde eine Erkenntnis zu gewinnen, wie gut das, was ich mir erhoffe, funktioniert, durch diese Methodik des Fine Tunings super schnell erreichbar ist. Normalerweise macht man bei sowas POCs, das dauert häufig mit einem Dienstleister Monate.

Andreas Maurer: Proof of Concept.

Maria Bergmann: Proof of Concept, genau. Das dauert häufig Monate mit einem Dienstleister im Haus. Bei uns kann man das in zwei Stunden abprüfen, ob sein Use Case mit den Daten und dem Wissensstand, den man hat, funktioniert, teilweise sogar in Minuten. Die Alternative ist: Ich habe gar keine Daten oder weiß nicht, ob es sich lohnt, vielleicht Daten aufzubereiten. Dann können wir auch vollständig synthetische Datensätze generieren, wenn jemand seinen Use Case beschreiben kann. Das gilt natürlich nicht für Bilder, wir können nicht einfach synthetisch Kugellager einer bestimmten Firma generieren, das ist aber nicht schlimm, weil der inhaltliche Kontext häufig reicht, um zu validieren, ob fachlich Mehrwerte gewonnen werden können, wenn ich das mit textbasierten Daten mache.

Sabrina Walz: Würdest du sagen, es gibt typische Nutzer oder spezielle Anwendungsfälle, die ganz besonders auf euer AI Model Studio passen?

Maria Bergmann: Ja, auch wenn es vielleicht nicht so sexy klingt, wie alle denken: Wir sehen immer wieder, dass alle davon ausgehen, dass das Thema Dokumente gelöst ist. Das ist leider im europäischen Raum noch nicht der Fall. Deshalb sehen wir aus vielen verschiedenen Branchen häufig Use Cases, bei denen es darum geht, aus Dokumenten Informationen zu extrahieren. Die typischen Nutzer sind sehr divers: Wir haben wirklich von Machine-Learning-Engineers bis hin zu fachlichen Verantwortlichen für ihre jeweiligen Themenblöcke alles mit dabei. Dementsprechend haben wir auch versucht, die Lösung so zu gestalten, dass sie jede dieser Nutzergruppen abholt. Aber wir freuen uns auf das Feedback.

Andreas Maurer: Habt ihr konkrete Kunden schon? Ich meine, das Model Studio ist ja gerade erst gestartet, aber vielleicht aus eurer Erfahrung Beispiele, was da schon konkret mitgemacht wurde?

Maria Bergmann: Ja, wir haben konkrete Kunden aus unterschiedlichen Industrien. Ich hatte es vorhin erwähnt, gerade in der Versicherungsindustrie haben wir viel im klassischen Input Management – so wird es dort genannt. Da sehen wir sehr große Zugewinne durch Fine Tuning. Wir sind aber auch mit produzierendem Gewerbe sehr gut verknüpft. Man kann sich zum Beispiel vorstellen, dass ein Fahrstuhlhersteller früher angefangen hat, Sounds aufzunehmen in den Fahrstühlen, wenn etwas kaputt gegangen ist, um seine Auszubildenden damit zu schulen. Stellt sich heraus, dass dieser Datensatz wunderbar geeignet ist, um auf einer App später festzustellen, welche Spule im Fahrstuhl kaputt ist, wenn man eben diese Sounddaten nutzt, um Fine Tuning zu betreiben. Das sind so Beispiele, wie divers die Welt der KI-Modelle sein kann, wenn man sein eigenes Datengold nutzt.

Andreas Maurer: Wo man als normaler Mensch nie drauf kommen würde.

Sabrina Walz: Absolut. Wenn wir jetzt mal die Partnerschaft und eure Zusammenarbeit genauer anschauen, wie stellen wir uns das vor? Wie läuft das so im Alltag, die Partnerschaft zwischen IONOS und Manufakt AI?

Oliver Hessel: Ich würde sagen, gar nicht ungewöhnlich. Wir treffen uns häufiger, relativ regelmäßig, einmal die Woche, besprechen die Themen auf beiden Seiten, verbessern die Software, die Prozesse auf IONOS-Seite, wir sprechen, was sind die Use Cases, wo muss man noch anpassen, dass es für unsere Kunden noch besser passt. Bei IONOS spielt auch die Infrastruktur eine Rolle: Es läuft ja auf unseren GPUs im Rechenzentrum.

Maria Bergmann: Ich würde sagen, wir sind ein klassisches Projektteam, und man merkt kaum, dass wir zwei Firmen sind. Es ist sehr angenehm. Uns wurde in jedem Bereich die Tür geöffnet, zum Beispiel zur Infrastruktur, dass wir dort schon mal testen konnten. Das ist nämlich nicht trivial, einfach mal so in einem riesigen Rechenzentrum seine Lösung zu deployen und so verfügbar zu machen, dass sie für viele Nutzer stabil hält. Das konnten wir gemeinsam erreichen und da bin ich sehr happy, wie das in den letzten Wochen gelaufen ist.

Sabrina Walz: Das ist sicher auch ein Vorteil, mit IONOS als etabliertem Cloud-Anbieter in Sachen Skalierbarkeit zusammenzuarbeiten.

Maria Bergmann: Für mich steht immer noch im Vordergrund: Es ist ein Marktzugang, den wir als junges Unternehmen sonst hätten nicht haben können. Das Feedback von IONOS und dem IONOS-Kundenstamm ist unfassbar wertvoll für uns, aber an erster Stelle steht tatsächlich dieser Aspekt der Souveränität. Dass wir sagen können: Du kannst diese Lösung einfach ad hoc jetzt im IONOS-Rechenzentrum in Berlin haben, was gerade auch in Bezug auf den EU AI-Act bedeutet, dass deutsche Unternehmen ohne größere Bauchschmerzen ihre Daten nutzen können, um KI zu trainieren – ohne Verlustangst wegen politischer Lage oder Änderungen. Das ist für uns als junges Unternehmen, das Vertrauen schaffen will, ein großer Mehrwert, Teil dieser KI-Reise der IONOS zu sein.

Oliver Hessel: Das ist ja auch ein Mehrwert, den wir unseren Kunden gemeinsam geben können. Unsere Kunden kennen ihre Produkte perfekt, die haben ihre Use Cases, ihre Daten, und können mit ihren Daten auf einer souveränen Plattform einen Mehrwert erzeugen. Die müssen die Daten nicht in die USA hochladen, sondern können alles lokal in Deutschland belassen, mit Produktionsdaten lernen und mit eigenem Wissen. Das ist das Asset bei uns in Deutschland, gerade bei mittelständischen Unternehmen: Die können aus ihrem eigenen Wissen was machen.

Andreas Maurer: Du hast es KI-Reise von IONOS genannt. Oliver, das AI Model Studio ist ja jetzt ein weiterer Baustein in unserer KI-Strategie, die wir schon vor ein paar Jahren begonnen haben. Wo stehen wir da und wie geht's weiter?

Oliver Hessel: Das hat man zum Teil schon in der Presse gehört. Wir skalieren auf verschiedenen Ebenen: Der AI Model Hub entwickelt sich mit neuen Modellen, mit Erweiterungen, die wir noch nicht verraten wollen. Da kommt noch was. Es geht weiter im Bereich Infrastruktur: In Zukunft kann man sich GPUs in der IONOS Cloud direkt in sein VDC ziehen, VMs mit GPU attached, so dass bei großen Use Cases oder großen Modellen wirklich selbst gehostet werden kann. Wir haben eine große Mittelstandskundschaft, kleine und mittelständische Unternehmen, und wir wollen allen ermöglichen, an der Cloud- und KI-Reise teilzunehmen und Potenziale zu nutzen, damit sie das, was man heute automatisieren kann, einfach automatisieren können. Da wird im nächsten Jahr noch einiges kommen – wir geben den Kunden Tools in die Hand, um besser zu werden und sich auf das konzentrieren zu können, wofür man wirklich Menschen braucht, und das Auszulagernde an eine KI abzugeben.

Sabrina Walz: Maria, welche Trends siehst du in der KI-Entwicklung und wie wird Manufakt AI darauf reagieren, um auch in Zukunft innovative Lösungen zu schaffen?

Maria Bergmann: Ja, das ist eine spannende Frage, die sich schnell ändert. Eine Sache bleibt für uns aber beständig: Wir sehen, dass die echte Automatisierung in Unternehmensvertikalen meistens da stattfindet, wo das Unternehmen sein eigenes Wissen nutzt, um seine individuellen Prozesse und Vorhaben anzugehen. Wir sehen medial viel über große proprietäre Anbieter und deren Modelle, aber wir glauben (und das sieht man auch in der Forschung), dass mehr Parameter nicht automatisch ein Einstein-Level bei KI erzeugen. Wir glauben daran, dass kleine, feine, dedizierte Modelle in Zukunft in den eigentlichen Unternehmensprozessen echte Automatisierung bewirken. Da werden wir uns auch in Forschung und Entwicklung weiter versuchen, vorn zu halten – durch neue Datentypen, Ausbau der Multimodalität und neue Technologien. Denn nur, wenn Unternehmen mit ihrem eigenen Wissen auch KIs betreiben, entsteht wirkliche Souveränität in dem Thema und Unternehmens-Ausbildung in neuen Technologien. Daran wollen wir teilhaben.

Andreas Maurer: Jetzt werden sich hoffentlich viele der Zuhörer fragen: Wie kann ich das AI Model Studio denn ausprobieren? Oliver, wo finde ich Infos, und was haben wir da aktuell im Angebot?

Oliver Hessel: Auf unserer Homepage wird es demnächst eine Landingpage geben, so dass man direkt auf das AI Model Studio kommt. Man registriert sich mit seiner E-Mail-Adresse und kann direkt ausprobieren.

Andreas Maurer: Was kostet der Spaß?

Oliver Hessel: Am Anfang wird es kostenlos angeboten. Kunden können testen, schauen, ob es passt. Über das Preismodell müssen wir noch nachdenken, was sinnvoll ist – am Ende steckt eine Menge Infrastruktur dahinter, das kann man nicht dauerhaft kostenlos lassen, aber wir werden einen angemessenen und fairen Preis finden.

Andreas Maurer: Das heißt, jetzt ist auf jeden Fall ein guter Zeitpunkt, das Ganze auszuprobieren.

Sabrina Walz: Gibt es noch etwas, das ihr den Hörern mitgeben wollt, die über das AI Model Studio für ihre Projekte nachdenken?

Oliver Hessel: Wie Maria schon sagte, die Expertise im Unternehmen halten – am Ende trainiert man sich eigene kleine Experten. Neben den menschlichen Experten für Qualitätssicherungsprozesse, Dokumentenprüfung usw. kann ich mir für jeden speziellen Fall einen KI-Experten generieren, der dann daran arbeitet. Das ist der große Unterschied zu wirklich großen Modellen: Ich habe viele kleine Experten, die das, was ich brauche, gut können – ich brauche kein weltweites Wissen, sondern den perfekten Kugellager-Bilder-Experten. Die Maschine muss nicht wissen, wie lang die chinesische Mauer ist, sondern: Welche Pixel sind kaputt.

Maria Bergmann: Ich würde auch sagen: Einfach ausprobieren! Die KI beißt nicht. Und wenn es Fragen gibt – wir von Manufakt AI freuen uns über Feedback. Unser ganzes Team ist ansprechbar, für jede E-Mail und auch kurzfristig für einen Frage-Call. Also keine Scheu.

Sabrina Walz: Dann sagen wir vielen Dank, Maria, vielen Dank, Oliver, für die spannenden Einblicke! Jetzt haben wir, denke ich, alle ein bisschen besser verstanden, um was es beim AI Model Studio und Fine Tuning geht. Liebe Hörer, wenn Sie mehr über das Thema erfahren möchten: Schauen Sie gerne auf unserer Webseite inside.IONOS.de vorbei, alle Infos und Links zu dieser Episode gibt es wie immer in den Shownotes.

Andreas Maurer: Und noch viel mehr Infos rund um KI, aber auch zur Cloud und digitale Souveränität gibt es beim Ionos Summit, unserer großen Konferenz in Berlin, diesmal am 4. November. Informationen unter events.IONOS.com – und da kann man sich auch gleich anmelden.

Sabrina Walz: Wir hoffen, Ihnen hat die Folge gefallen. Abonnieren Sie unseren Podcast, um keine weiteren spannenden Einblicke zu verpassen. Bis zum nächsten Mal bei Inside IONOS.

Andreas Maurer: Tschüss!

Maria Bergmann: Tschüss!

Oliver Hessel: Tschüss. Ciao.