Inside IONOS

Transkript

Zurück zur Episode

00:00:05: [Musik] Ich fand extrem spannend das Thema KI und auch, wie wir vielleicht davon profitieren

00:00:10: können. Heute erhoffe ich mir tatsächlich ein neue Perspektiven zum Thema KI. Also

00:00:17: da will ich wirklich mit offenen Augen und Ohren durch die Welt. Spannende Talks und ein bisschen

00:00:22: Netzwerken. Gucken wer hier ist und was hier so passiert. Spannende Einblicke in die Zukunft des

00:00:26: Cloudcomputings und KI. Also, mein Highlight des heutigen Tages war durchaus die Keynote,

00:00:32: die Vision vom CTO Richtung IONOS und die Ausrichtung für die Zukunft. [Musik]

00:00:40: Hallo und herzlich Willkommen bei Inside IONOS. Das hier ist mal wieder eine besondere Ausgabe

00:00:45: unseres Podcast. Man hört es am Hintergrund. Wir sind heute weder im Homeoffice noch in

00:00:49: unserem Podcast-Studio in Karlsruhe oder Berlin, sondern befinden uns auf dem IONOS Summit 2023.

00:00:56: Der Summit findet diesmal in der Station Berlin statt, das ist ein ehemaliges Bahnhofsgelände

00:01:00: am Gleisdreieck und wir das sind Andreas Maurer, Thomas Ritter und ich bin Karen Gräper. Und das

00:01:08: war gerade keine U-Bahn die vorbeigefahren ist, sondern hier wird gerade schon abgebaut auf dem

00:01:12: Summit-Gelände. Genau, wir haben nämlich gerade die letzten Vorträge hinter uns und zwei spannende

00:01:16: Konferenztage sind zu Ende gegangen. Ja, und wir haben die Zeit genutzt, um mit einigen

00:01:21: der Referenten und Ausstellern zu sprechen. Der Summit stand dieses Mal unter dem Motto

00:01:25: Level-Up. Wem das nichts sagt "Unser Ziel bei IONOS ist es vor allem kleinen

00:01:30: und mittleren Unternehmen dabei zu helfen, das nächste Level auf ihrer Digitalisierungsreise

00:01:34: zu erreichen." Genau, aber dabei hat sich in diesem Jahr vor allen Dingen ein Thema,

00:01:38: das auch in aller Munde ist, wie ein roter Faden durch fast alle Präsentationen Vorträge und Panels

00:01:43: gezogen. KI, also künstliche Intelligenz. Im letzten Jahr hat unser Produktmanagement Chef

00:01:48: Patrick Schaudel ja relativ provokativ gesagt "Wer sein Unternehmen nicht digitalisiert,

00:01:52: der existiert nicht mehr." Und Karen du hast zwei unser Redner gefragt, ob das heute auch

00:01:55: genauso für KI gilt. Ja, dass waren Theo Pham und Tibor Mérey. Das sind beides absolute Experten

00:02:02: auf dem Gebiet von digitalen Trends und auch der Implementierung von neuen Technologien.

00:02:06: Bei KI waren sich tatsächlich beide einig, dass es für Firmen keine Option ist, sich damit nicht zu

00:02:11: beschäftigen. Und zwar geht's erstmal darum sich damit zu beschäftigen, welche Tasks und in welchen

00:02:17: Bereichen der Einsatz im eigenen Unternehmen Sinn macht und dann schrittweise zu starten.

00:02:22: Und das war ein wichtiges Learning für mich. Das kann für jedes Unternehmen einfach auch komplett

00:02:27: anders aussehen. Schlimmer als kein KI-Tool zu nutzen ist, eins einzuführen, was niemand nutzen

00:02:32: will. Der Mensch ist und bleibt ein Tier und ein emotionales Tier. Und um diese Vorbehalte, die du

00:02:40: jetzt erwähnt hast, Karen zu minimieren, beginnt das natürlich mit Learning. Also, Menschen sind,

00:02:48: wenn sie etwas nicht kennen, erst mal skeptisch dem gegenüber gestellt. Da setzten wir auch an

00:02:53: Theo mit seinem Upscaling-Angebot. Aber, was wir auch sehen und den Transformationen, die wir dann

00:02:59: auch durchführen. Das eine ist Learning. Dann machen wir auch im Rahmen von Projekten Academies

00:03:06: etc., aber was wir dann auch immer wieder machen, ist das Thema "learning by doing",

00:03:12: dass man auch bewusst sagt ich mache das jetzt nicht sequentiell, dass jetzt erstmal die ganzen

00:03:17: Lizenzen kaufen, die ganzen Systeme einführen, wenn dann die Daten alle bereinigt sind dann fange

00:03:20: ich mal irgendwann an mit dem Usecase, sondern dass man viel agiler sagt, ich nehme mir ein

00:03:24: Prozess oder ein Produkt oder ein Kundensegment und dann mache ich auf diesem Perimeter mache ich

00:03:29: Ende zu Ende alles. Da habe ich die Systeme, da habe ich dann auch den Prozess und da binde ich

00:03:34: auch die Leute ein und damit bekommt man die "learning by doing" rein und dann plötzlich

00:03:37: auch die Dynamik die den Change befeuert. Vielleicht Theo, du berätst ja auch Kunden, so was

00:03:43: sind so klassische Vorbehalte den du begegnest, wenn du das einführst? Ich glaube die Vorbehalte

00:03:50: sind meistens dann groß, wenn sich die Leute noch nicht so viel mit dem Thema auseinandergesetzt

00:03:52: haben, weil es dann einfach immer nur diese diffuse Gefahr gibt künstliche Intelligenz

00:03:56: irgendwie alles ein bisschen gruselig und komisch. Sobald die Leute mal sehen, was diese Tools können,

00:04:02: sind die in der Regel sehr begeistert. Die sehen eigentlich sofort diesen nutzen. Das ist auch das

00:04:06: schöne dran, dass sie eben sehr benutzerfreundlich sind. Beispiel ich war letztens bei einer Company,

00:04:11: die halt sehr viele Audioinhalte produziert z. B. auch wie diesen Podcast hier. Im Nachgang wird

00:04:17: jemand aus eurem Team diesen Podcast editieren. Und diese Person wird sich das Ganze anhören,

00:04:21: die weiß ich nicht 10, 20 Minuten und dann müssen Versprecher rausgeschnitten, werden Füllwörter,

00:04:26: wenn ich immer gell oder aber oder sowas sage und auch Sprechpausen. Dieser ganze

00:04:31: Prozess kann gerne mal eine Stunde dauern. Mit künstlicher Intelligenz wird ja alles

00:04:36: Gesprochene, was wir hier sprechen wird eben transkribiert, das heißt jedes Mal, wenn ich jetzt

00:04:39: ein Füllwort benutze, dann steht da im Transkript gell oder sozusagen oder sowas. In dem Transkript

00:04:47: gibt's eben eine Funktion, die heißt Magic-Edit. Da wird im Prinzip das Transkript angeguckt und

00:04:51: dann steht da okay es wird irgendwie zehn Mal gell oder na ja gesagt; jetzt drückst du einmal auf den

00:04:55: Knopf und dann wird es alles rausgeschnitten. Also da wird die entsprechende Audiostelle

00:04:58: rausgeschnitten oder auch im Video. Das heißt, die Arbeit, die normalerweise irgendwie zwei Stunden

00:05:03: dauert dauert jetzt 10 Sekunden. Das heißt, du wirst einfach viel viel produktiver dadurch.

00:05:07: Jetzt kommt, aber das spannende ich kann jetzt zwei Personen jetzt von diesem Tool berichten.

00:05:13: Die eine Person bekommt leuchtende Augen und sagt genial darauf habe ich nur gewartet. Jetzt kann

00:05:18: ich eigentlich mal kreative Dinge machen und muss nicht dieses langweilige Zeug machen. Die

00:05:22: andere Person bekommt die Panik und sagt Moment mal, dass ist mein Job. Ich mache den ganzen Tag

00:05:25: nichts anderes, außer diese Versprecher und Füllwörter raus zu editieren. Ich glaub es

00:05:28: hängt ganz stark davon ab, wie viel du dir auch selbst zutraust. Das du irgendwie sagst "hey ich

00:05:34: sehe das nicht als Bedrohung, sondern als eine Art Erleichterung." Und in diesem Zusammenhang spreche

00:05:39: immer gerne über AI als Augmented Intelligence, also nicht was künstliches, was uns ersetzen soll,

00:05:45: sondern ein Tool, das uns eben dabei hilft unsere menschliche Intelligenz eben weiter zu hebeln und

00:05:50: eben weiter zu skalieren. Das heißt eigentlich als Quintessenz es geht gar nicht darum, dass KI

00:05:59: Menschen überflüssig macht, sondern es ist eher ein Lernprojekt, dass man Menschen vermitteln

00:06:05: muss, dass KI einen unterstützt und Freiraum schafft für andere Projekte? Na ja, ich glaube

00:06:10: man muss schon ehrlich sein. Es wird ganz klar Tätigkeiten ersetzt werden. Ich glaube das ist

00:06:15: völlig klar. Das hat es immer wieder gegeben in der Menschheitsgeschichte. Nur ist glaub ich

00:06:21: der Unterschied, dass man jetzt als Kutscher, der früher Pferdewägen gefahren ist, nicht Taxifahrer

00:06:26: werden konnte innerhalb von von einem Jahr, sondern dass halt das zukünftig Auto durch eine

00:06:31: KI gesteuert wird. Also die Umwerfungen werden viel größer und auch die Lücke in einem neuen

00:06:37: Beruf kann sich vergrößern. Also, ich glaube, es gibt für viele hochqualifizierte Expertiseträger

00:06:42: oder in Berufen, die momentan durch Empathie Leben mit dem ganzen Pflegebereich. Da wird es

00:06:48: noch ein paar Inseln der Glückseligen geben, aber wir müssen uns schon darauf einstellen,

00:06:52: dass mit diesen exponentiellen Entwicklungen, weil das ja wirklich exponentiell ist,

00:06:56: was du jetzt geschildert hast. Stichwort Co-Pilot. Plötzlich halbe Milliarde Menschen

00:06:59: werden verstärkt. Das führt noch mal zu größeren Umwerfungen. Ich betrachte diese ganzen KI-Tools

00:07:07: immer gerne als Praktikanten. Das heißt, welche Aufgaben kann ich an Praktikanten auslagern. Die

00:07:12: kann jetzt auch KI übernehmen. Ich glaube, jeder von uns muss sich eben hinterfragen, von den

00:07:19: 8 oder 10 Stunden, die ich jeden Tag arbeite, wie viel davon könnte ein Praktikant eben übernehmen.

00:07:24: Wenn ein Großteil davon der Praktikant machen kann, dann kann es auch die KI. Aber das heißt,

00:07:29: ich muss mich auf die Tätigkeiten, die nur ich machen kann, konzentrieren. Nehmen wir mal an

00:07:32: ich bin jetzt im Bereich Sales unterwegs. Dann stifte ich Mehrwert, indem ich Kontakte knüpfe,

00:07:38: mit Kunden spreche, die überzeuge, versuch zu verstehen, was die genau brauchen. Und

00:07:42: da liegt mein Mehrwert. Mein Mehrwert liegt nicht darin, Proposals zu beschreiben oder

00:07:46: irgendwie Fragebögen zu beantworten, Reisen zu buchen, Reisekostenabrechnung und ähnliches zu

00:07:51: machen. Wenn ich dann sagen kann "okay, das nimmt heute leider 70% meiner Zeit ein.",

00:07:56: dann möchte ich das gerne an meinen Praktikanten, an meine KI eben auslagern und dann sagen "hey,

00:08:03: ich muss mehr Zeit damit verbringen mit, dem was mich wertvoll macht.", aber auch meine Skills

00:08:08: weiterbilden. Vielleicht bin ich heute gar nicht so gut im Verhandeln. Vielleicht bin ich heute

00:08:11: gar nicht so charismatisch. Vielleicht bin ich gar nicht so gut im Networking. Dann muss ich

00:08:15: einfach in meinem eigenen Skillset investieren. Und das wird eben das spannende sein für uns alle,

00:08:19: egal ob wir heute 18 Jahre alt sind oder 60 Jahre alt sind. Wir müssen in unser Skillset

00:08:24: investieren. Das sind tendenziell die analytische Skills, die ein Computer machen kann oder sind

00:08:30: diese menschlichen Skills, diese Soft Skills und ich glaube, da verschiebt sich wieder relativ viel

00:08:34: Richtung Soft Skills, weil dass eben noch das ist, was den Menschen heute einzigartig macht. Außerdem

00:08:39: ist es so, dass wenn man jemanden auf der Straße nach dem Thema künstliche Intelligenz fragt würde

00:08:44: den meisten wahrscheinlich als erstes ChatGPT einfallen. Das ist im Moment das Vorzeigebeispiel

00:08:51: für die sogenannte generative KI, also Systeme, die selbst neue Inhalte erzeugen. Aber das System

00:08:57: von der amerikanischen Firma OpenAI steht ja nicht alleine oder Andreas?! Ganz genau,

00:09:01: OpenAI gehört inzwischen zu Microsoft. Und der größte Gegenspieler, der bekannt ist

00:09:05: ist Google. Auch Facebook und Amazon arbeiten an eigenen sogenannten Large-Language-Models,

00:09:10: bei Google sind das Bard oder Duet als bekannte Beispiele, aber auch in Deutschland

00:09:13: in Europa muss man sich nicht verstecken. Rainer Sträter, unser Head of Technology

00:09:17: Office bei IONOS, hat in einem Vortrag über OpenGPT-X gesprochen. Ein Projekt,

00:09:21: dass das der europäischen Gaia-X-Initiative entstanden ist. Ich habe Rainer gefragt,

00:09:26: ob OpenGPT denn einfach nur ChatGPT in grün ist. Naja, im Grunde genommen schon ein Stück weit.

00:09:33: Wir haben natürlich alle seit dem wir OpenAI und ChatGPT verwenden immer ein kleinen leichten faden

00:09:39: Beigeschmack. Ist das, was wir als antworten bekommen wirklich verwendbar. Also rechtlich

00:09:44: gesehen haben wir ein paar Herausforderungen. Stichwort "Intellectual Property" ist nicht an

00:09:47: jeder Stelle geklärt. Da ist noch viel viel Unsicherheit drin. Und für uns in Europa,

00:09:52: wir haben natürlich ein eigenes Wertesystem — Souveränität, Transparenz, natürlich wollen

00:09:57: wir auch das Wertschöpfung in Europa bleibt, wir wollen einfach auch verstehen, wie bestimmte Dinge

00:10:02: funktionieren, aus welchen Grundlagen sie gebaut worden sind. Und ich glaube alle diese Werte,

00:10:06: die wir haben müssen wir schauen, dass wir die Technologien, die wir jetzt verwenden

00:10:10: auch basierend auf diesen Werten entwickeln. Und deswegen ist es am Ende des Tages ein

00:10:14: europäisches Sprachmodell, ein Sprachmodell nach europäischen Werten. Wir verstehen also,

00:10:19: woher die Daten kommen, welche Daten verwendet worden sind, welche Intellectual Property, also,

00:10:25: welche Rechte verletzt werden, wenn man solche Daten falsch verwendet. Und da ist es für uns

00:10:29: wichtig, Modelle zu haben, die unsere Kunden verwenden können in der Gewissheit, dass sie

00:10:34: erstens in einem europäischen Rechenzentrum verwendet werden, dort laufen, dass wir nicht

00:10:38: die Daten des Kunden verwenden, auch nicht die, die während der Anfrage transferiert werden.

00:10:42: Wir können sicherstellen, dass das, was das Tool generiert lizenzrechtlich okay ist, sauber ist,

00:10:48: verwendet werden darf. All diese Dinge, die wir von unseren Kunden wahrnehmen, als Herausforderung

00:10:54: auch für uns selber intern bei der Verwendung von Sprachmodellen immer als Herausforderung

00:10:57: empfinden, die im Grunde zu adressieren, die zu lösen und das im Grunde europäisch zu machen. Was

00:11:02: ist denn so das Besondere oder was ist der Kern von OpenGPT-X? Also, ich glaube, es sind zwei

00:11:08: Dinge. Das eine ist natürlich europäische Werte. Das heißt, wir verstehen welchen Daten diese

00:11:13: Modelle trainiert worden sind. ChatGPT-4, das Vierer Modell ist nicht mehr offengelegt, welche

00:11:18: Daten die Grundlage sind. Wir wollen das gerne verstehen. Wir wollen verstehen, woraus sind diese

00:11:23: Modelle entstanden, um dann auch Rückschlüsse ziehen zu können, um Antworten dieser Modelle

00:11:26: besser interpretieren zu können. Das zweite ist natürlich OpenGPT-X möchte nicht nur ein neues

00:11:32: Sprachmodell generieren, sondern es geht darum, dieses Ökosystem auch in Europa wieder aufzubauen,

00:11:38: wo dieses Modell eigentlich nur ein Puzzelstein, aber auch die Basis ist für ganz viele weitere

00:11:43: AI-Dienste, die wir dann für den Mittelstand, für die Kunden draußen anbieten können. Insbesondere

00:11:49: natürlich im ersten Schritt, wenn ich so ein Large-Language-Model habe, was überhaupt noch

00:11:52: nicht gefinetuned ist, auf meinen spezifischen Use-Case, dieses Modell zu nehmen als Basis für

00:11:56: meinen Use-Case den ich habe. Wenn ich also ein Sprachmodell brauche, damit die Kommunikation im

00:12:02: Auto ein bisschen fluffiger läuft und ich nicht fünfmal mein Satz wiederholen muss, bis das

00:12:06: Auto verstanden hat, was ich will, dann wäre es schön, dieses Sprachmodell zu nehmen und mit den

00:12:10: typischen Frage-Antworten, die im Auto entstehen, zu trainieren und zu finetunen, sodass es dann in

00:12:14: dem Kontext vernünftig läuft. Du hast gesagt wir wissen nicht mehr, woher die Trainingsdaten für

00:12:19: ChatGPT-4 kommen! Woher kommen die Trainingsdaten für OpenGPT-X? Das ist offenelegt. Die

00:12:24: Datenquellen sind bekannt. Es sind natürlich viele Daten, die nicht zugänglich sind. Wir haben in

00:12:31: dem im öffentlichen Bereich in der EU unfassbare große Datenmengen mit extrem hoher Qualität, die

00:12:37: für viele andere Modelle schon verwendet worden sind, die sehr qualitätsgesichert sind, aber

00:12:41: natürlich haben wir Daten, wie Wikipedia-Daten, die sehr gerne und sehr oft genommen werden,

00:12:47: wir haben Konversationsdaten und natürlich gibt's dann auch noch unternehmen die diese Modelle dann

00:12:51: weiterentwickeln können durch z. B. ihre internen Daten, ihren internen SharePoint oder Google Drive

00:12:56: oder Dropbox, was auch immer. Dort Daten nehmen können, die da anreichern können, sie können Ihre

00:13:00: E-Mailkommunikation nehmen und damit das Modell weiter trrainieren anreichen, aber die Basis sind

00:13:05: Daten die im Grunde öffentlich frei zugängig sind. Das Projekt läuft schon, glaube ich weit über

00:13:09: ein Jahr, ist eines der Gaia-X-Förderprojekte OpenGPT-X es gibt sicherlich jetzt schon die

00:13:13: ersten Use-Cases, also, was konkret wird der mit dem Programm gemacht oder ausprobiert? Ganz genau,

00:13:18: wir haben so ungefähr die Hälfte, ein bisschen mehr als die Hälfte, des Projektes hinter uns.

00:13:21: Am Anfang des Projektes geht es natürlich sehr viel darum rauszufinden, wie verhält

00:13:25: sich das Training von solchen Modellen, wie viel Infrastruktur brauche ich, welche Zeit brauch

00:13:29: ich, welche Daten brauche ich, wie kann ich dieses Training als solches optimieren, dass ich nachher,

00:13:32: wenn ich wirklich dann anfange, das große Modell zu rechnen, das schon in ein optimierten Art und

00:13:37: Weise mache und da nicht unendlich lange für brauche. Wenn wir auf die Use-Cases kommen,

00:13:42: da haben wir im Grunde genommen uns drei Bereiche prototypisch rausgesucht. Der erste Bereich ist

00:13:47: im Medienbereich und das kam auch deswegen, weil der WDR zu uns gekommen ist und gesagt hat "Hey,

00:13:52: wir haben mit diese Mediathek, wir haben hier sehr sehr hochwertige Film-Audio-Video-Schnitte,

00:13:59: die wir alle im Grunde genommen nur bedingt heute durchsuchen können, weil uns zum einen

00:14:05: die Transkription fehlt, zum anderen fehlt uns aber die intelligenten Metatext. Wir würden gerne,

00:14:09: dass man einfach zur Mediathek hingehen und sagen kann "Ich will alle Filme mit

00:14:13: orangen Mäusen suchen." Und bekommt dann die ganzen Serien der Sendung mit der Maus und was

00:14:16: sonst noch mit orangen Mäusen existiert. Da haben wir in der Versicherungsbranche einfach

00:14:20: eine Optimierungsanfrage. Wir haben insgesamt pro Jahr ungefähr 23 Milliarden Schadensfälle

00:14:26: mit 53 Milliarden Euro Schaden. Die Hälfte davon kommt aus dem Kraftfahrzeugbereich.

00:14:31: Die durchschnittliche Abwicklungszeit von so einem Schadensfall sind 28 Tage das ist schon

00:14:35: ziemlich lang und wenn man das mal hochrechnet, ist natürlich ein unfassbarer wirtschaftlicher

00:14:39: Aufwand, das zu tun. Es ist ja ein hochstrukturierter Prozess ich bekomme Formulare,

00:14:43: die muss ich verstehen, da man nicht jeden Tag mit Formularen zu tun hat hat man auch sehr viele

00:14:47: Fragen, was muss ich da jetzt genau eintragen und was passiert eigentlich, wenn ich folgendes

00:14:50: dort eintrage. Ich glaube diese Assistenzen, diese Dialogassistenten beim Ausfüllen dieser Formulare,

00:14:55: die halte ich für erstmal eine ganz große Hilfe für den, der das Formular ausfüllt und im weiteren

00:14:59: Verarbeitung dann zu checken Plausibilität und ist es vollständig. All diese klassischen arbeiten,

00:15:05: die im Grunde genommen sehr viel Zeit kosten, die am Ende des Tages hochstrukturiert durch AI

00:15:10: teilweise übernommen werden können jedenfalls Lösung vorgeschlagen werden können. Ich nehme

00:15:13: mal ein Beispiel, wie das ganze am Ende aussehen könnte. Nachdem Kraftfahrzeugunfall

00:15:17: im Grunde genommen sein Handy zu nehmen, die Versicherungsapp zu öffnen, ein Foto zu machen von

00:15:21: dem Unfall und sofort die Transaktion des Geldes aufs Konto zu bekommen. Das wäre für mich so, dann

00:15:29: das, wo es hinauslaufen könnte, mit ein paar Hürden dazwischen drin. Letzter Use-Case war,

00:15:34: den ich gerade schon beschrieben hatte im Auto, ich meine, es ist schon manchmal echt mühsam,

00:15:38: fünf Mal sich zu wiederholen, bis das Auto genau verstanden hat, was ich eigentlich

00:15:41: von ihm will. Manchmal tippt man es dann auch einfach ein oder macht's manuell ich glaube,

00:15:44: dass diese Dialogsysteme im Auto durchaus noch Luft nach oben haben und auch viel zum Komfort

00:15:50: beitragen können, auch zur Sicherheit beitragen können, ich muss meine Hände

00:15:53: nicht irgendwie vom Steuer nehmen, ich kann mit dem Auto einfach direkt kommunizieren

00:15:58: wir kennen das bei den Sprachassistensystemen zu Hause, die auch immer besser geworden sind. Auch

00:16:02: da glaube ich, gibt's viel Potenzial, dass sie es mit Sprachassistenten passiert, die europäisch

00:16:07: sind, die jeder selber im auch selbst betreiben kann, also Dialogsysteme Sprachdialogsysteme ist

00:16:13: sicherlich ein weites Feld, bis ins Customer-Care rein. Das Open in OpenGPT-X bezieht sich vor allem

00:16:20: auf die Standards oder was ist sonst noch offen an dem Projekt? Das Ziel am Ende des Tages ist

00:16:25: wirklich ein offenes Sprachmodell für Europa zu haben und das ein offenes Ökosystem, also das,

00:16:29: was wir bauen wird alles offen sein, open sein, Open Source und lizenzfrei, so dass diese Modelle

00:16:35: Verwendung finden und verwendet werden können. In Förderprojekten ist das natürlich ein großes

00:16:38: Stück auch Voraussetzung dort und auch das Konsortium hat sich gebildet genau

00:16:42: mit der Idee und der Grundlage, diese Modelle nachher möglichst in Skalierung zu bringen,

00:16:47: einen Standard für Europa zu setzen und Standard funktioniert natürlich immer besonders gut,

00:16:50: wenn sie jetzt keine Kosthürden impliziert. Ich glaube, eins hat sich ja mittlerweile

00:16:55: rumgesprochen künstliche Intelligenz braucht Rechenpower. Für das Training von generativer KI,

00:17:00: also den sogenannten Large-Language-Models braucht man heute riesige Serverfarmen. Dafür

00:17:05: werden oft sogenannte Supercomputer eingesetzt, also extrem leistungsfähige Systeme und künftig

00:17:11: werden hier Quantencomputer eine immer wichtigere Rolle spielen. Ich habe deswegen Jalal El-Youssef

00:17:17: vom Münchner Unternehmen QMware gefragt, was genau Quantencomputing eigentlich ist und was die

00:17:21: Systeme von herkömmlichen Rechner unterscheidet. Also Quantencomputing ist eine Art des Computings,

00:17:26: das auf den Prinzipien der Mechanik basiert. Im Gegensatz zu klassischen Computern, die Bits zur

00:17:32: Darstellung von Informationen verwenden verwenden Quantencomputer sogenannte Cubits. Cubits können

00:17:40: gleichzeitig mehrere Zustände haben oder bzw. in mehreren Zuständen existieren,

00:17:45: was es Quantencomputern halt ermöglicht, bestimmte Berechnungen exponentiell schneller durchführen

00:17:51: zu können als herkömmliche Computer. Und jetzt sind wir hier auf einem Event, auf dem es sehr

00:17:57: viel um das Thema künstlich Intelligenz und Machine Learning geht, wo ist denn da

00:18:00: die Connection zwischen Quantencomputing und der Künstlichen Intelligenz? Da gibt

00:18:05: es mehrere sage ich mal Ansätze jetzt dafür. Auf der einen Seite ist es so, dass KI benötigt viele

00:18:11: Computerressourcen. Man muss sich vorstellen, ein Unternehmen, das sich mit KI oder Artificial

00:18:16: Intelligence, wie auch immer sich beschäftigt, immer auf viele GPUs eigentlich aufgebaut ist,

00:18:23: das heißt, ein Unternehmen braucht wahrscheinlich sowas wie OpenAI 5000

00:18:28: oder 10000 Grafikkarten, die Sie nutzen können, um eben die AI treiben zu können. Das heißt,

00:18:33: die die Rechenlast, die da entsteht, ist eine relativ hohe. Mit Quantencomputing erhofft man,

00:18:39: durch die exponentielle Rechenleistung der Quantenprozessoren hier im Anlernen der KI

00:18:46: bessere Ergebnisse zu erbringen. Jetzt arbeitet QMware mit IONOS in einem Projekt zusammen, das

00:18:52: nennt Sequence, um was geht es denn da genau? Wir wollen gemeinsam die erste deutsche Quantencloud

00:18:59: entwickeln und zwar für die deutsche Industrie mit Fokus auf kleineren und mittleren Betrieben. Wir

00:19:05: wollen Ihnen die Möglichkeit schaffen zum Thema Quantencomputing hier den Einstieg einfach zu

00:19:09: schaffen. Was sind da so ganz konkrete Use-Cases, die dahinter stehen? Use-Cases sind diverse aus

00:19:17: der Industrie, da gibt es das Projekt Plank von der Firma Anacor hier sind mehr als 30 Quanten

00:19:24: Use-Cases bzw. Algorithmen bereits entwickelt worden, die von diversen Unternehmen dann,

00:19:30: wenn das Projekt abgeschlossen wird auch nutzen können. Wie weit ist das Projekt fortgeschritten?

00:19:35: Im Moment sind wir soweit, dass wir die Hardware jetzt angebunden haben. Wir binden gerade den

00:19:44: IBM Quantenprozessor, der in Ehnigen steht und die Plattform ist sage ich mal so zu

00:19:51: 50% schon entwickelt worden Demnächst schätze ich mal, Ende des Jahres wird auch dann Plank hier

00:19:59: angeschlossen werden. Wann wäre denn das Projekt erfolgreich, was würdest du sagen? Also ab dem

00:20:04: Zeitpunkt wo man Use-Cases auf unterschiedlichen Quantentopologien ausführen kann und das ganze

00:20:14: Ding dann auch live ist. Wenn es um Hardware und vor allem die Prozessoren für Künstliche

00:20:18: Intelligenz und Machine Leanring geht, dann fällt vor allem heute ein Name NVIDIA. Der Aktienkurs

00:20:23: von NVIDIA ist im letzten halben Jahr alleine um mehr als 60% gestiegen und eigentlich war

00:20:28: NVIDIA als Hersteller von Grafikkarten z. B. für Gamer bekannt und ich habe deswegen den Helfern,

00:20:34: die bei NVIDIA den Bereich generative AI for Enterprise in der DACH-Region leitet gefragt, wie

00:20:39: das Unternehmen zum Thema KI gekommen ist. Also tatsächlich ist das unser Ursprung. NVIDIA hat

00:20:45: vor 25 Jahren angefangen mit der Entwicklung von sogenannten GPUs, also Graphic Processing Units,

00:20:53: die da für grafische Anwendung gedacht waren. Wir haben irgendwann vor 15 Jahren festgestellt,

00:21:01: dass diese Processing Units, die hoch parallelisiert sind auch sehr gut für

00:21:07: Machine Learning geeignet sind. Danach hat sich das Richtung KI weiterentwickelt. Wir

00:21:15: haben sogar angefangen, spezielle Karten nur für KI Anwendung zu auf den Markt zu bringen,

00:21:22: das sind diese ganze 100ter Generation also V 100 A 100 H 100 jetzt und wir haben auch jetzt

00:21:28: ein entsprechendes Software-Stack entwickeln, was die Beschleunigung dieser Karte noch besser macht,

00:21:35: also das Stichwort Synergie zwischen Hardware und Software und haben schon massiv in diesem Bereich

00:21:41: investiert und schon sehr sehr früh erkannt, dass KI eine spezielle Infrastruktur benötigen wird und

00:21:47: das ist ein großer Markt wird. Es gibt für Firmen schon eine Reihe von Hürden bei der Einführung

00:21:53: von KI, die ihr natürlich auch versucht zu überwinden oder dabei zu helfen diese zu

00:21:57: überwinden. Was sind so die die größten Hürden bei der Einführung? Es gibt prinzipiell drei Hürden,

00:22:02: also vor allem die erste Hürde sind die Daten selber. Man braucht für für jede KI-Anwendung

00:22:09: Daten und nicht irgendwelche Daten, aber so hochqualitative Daten, kuratierten Daten und

00:22:14: Daten, die auch verfügbar sind und die verfügbar nach unseren europäischen Datenschutzbestimmung

00:22:23: sind und das ist erstmal der erste Schritt. Also es gibt keine KI ohne Daten, denn das zweite ist

00:22:30: der Zugang zu dieser KI-Expertise. In Deutschland ist das extrem schwer, da dieses Talent zu finden.

00:22:38: Entwickler, die Learning-Know-how, KI-Know-how haben sind eigentlich selten und auch teure

00:22:47: Ressourcen; also das ist auch für viele Unternehmen eine Schwierigkeit und und das

00:22:50: dritte und das, was uns auch bei NVIDIA am meisten beschäftig, ist der Zugang zur KI-Infrastruktur.

00:22:58: Es ist meistens eine hohe Investition, die für vielen Unternehmen schwer zu rechtfertigen ist.

00:23:04: Manchmal für Startups gehts darum, Investoren zu überzeugen, aber auch bei großen Unternehmen,

00:23:09: aber auch ich arbeite viel mit DAX Unternehmen, die müssen auch ihr Management davon überzeugen,

00:23:14: ein paar Millionen in die KI-Infrastruktur zu investieren, ohne, dass man unbedingt von Anfang

00:23:19: an den Return on Investment beweisen kann. Es ist schon Forschung und Entwicklung ein bisschen.

00:23:27: Im Rahmen des Sequences-Projektes über das du eben schon gesprochen hast Thomas nutzen

00:23:30: wir in unseren Rechenzentren, die sogenannte DGX Plattform von NVIDIA. Also DGX ist ist im Grunde

00:23:36: genommen ein ganzes System, also wie ein Server, aber wirklich ein extrem leistungsfähiger Server,

00:23:43: der das ganze Know-how von NVIDIA im Bereich KI-Training verbündelt. Das ist

00:23:48: das Ergebnis unserer Zusammenarbeit mit vielen KI-Startups, aber auch mit den größten weltweiten

00:23:58: Konzernen, die KI-Entwicklung betreiben, sei es Google, OpenAI, Facebook allen;

00:24:05: unsere Kunden aus dem Silicon Valley. Und wir haben alle, also diese Networking Komponenten,

00:24:12: was ich vorher also erwähnt habe, die Networking Komponente diese Software Plattform die die H100

00:24:20: GPUs, die da wirklich für highperformance Computing und KI-Training gedacht sind. Das

00:24:25: ist alles in einem in einem Appliance, was wir DGX nennen zusammen verbunden bringt, also den ganzen

00:24:31: Software-Stack mit, also man braucht sich da keine Gedanken da zum Software-Stack machen. Das sind

00:24:37: auch unsere ganzen SDKs, Libraries, Frameworks, Support inklusive, also man darf nicht vergessen

00:24:47: diese KI-Welt ist eine Open Source Welt, dass ist manchmal eine Schwierigkeit auch, wenn man

00:24:52: in die Produktion geht für manche Unternehmen und auch noch den Zugang zu den KI-Experten

00:24:58: von NVIDIA. Das ist das Angebot, was sich hinter DGX versteckt. Also wir sind wirklich mehr als

00:25:03: ein Service, sondern wie gesagt, das ist Software-Stack und der der Zugang zu unserer KI-Expertise.

00:25:09: Das fand ich in deinem Vortrag ganz spannend. Natürlich NVIDIA ist ein Hardwarehersteller,

00:25:13: aber du hast gesagt, tatsächlich auch gerade bei den jüngsten Verbesserungen, die es da gab,

00:25:17: hat auch die Software dieser Software-Stack, der größtenteils Open Source ist eine große

00:25:20: Rolle gespielt! Ja, also die Software teilt massiv zur Beschleunigung von KI-Workloads.

00:25:28: Das hat NVIDIA sehr früh erkannt. Ich denke, diese neue Generation von Supercomputers gehen anders

00:25:35: voran und untersuchen diese Optimierung zwischen Hardware und Software. Irgendwann war auch der

00:25:40: Fortschritt im Hardwarebereich limitiert, also man kann natürlich immer größer, schneller, bauen und

00:25:49: und immer größere Rechenzentren, immer größeren Supercomputers. Die Priorität von NVIDIA war es,

00:25:55: an der Effizienz zu arbeiten, also wie kann man so viel Computerkapabilität wie möglich auf einen

00:26:00: einzelnen Komponent übertragen. Und das gelang, indem die Software verbessert wird, indem auch

00:26:07: alle Applikationen, die die KI-Entwickler Nutzen für GPUs optimiert werden und dadurch weniger

00:26:13: GPUs verbrauchen und das hat uns auch jetzt ein sehr sehr großen Wettbewerbsvorteil gebracht,

00:26:20: weil dadurch sind auch die NVIDIA Karten sehr energieeffizient und im Endeffekt haben die

00:26:25: einen besseren Total Cost of Ownership, weil man weniger davon braucht. Und am Ende laufen

00:26:30: die meisten KI-Anwendungen heute nicht bei den Endanwendern, sondern meistens ja in der Cloud,

00:26:34: also bei den großen Providern, wie z. B. auch IONOS. Natürlich interessiert uns, wie sehr

00:26:39: das Thema Cloud inzwischen in der Wirtschaft angekommen ist. Und dazu haben die Forscher von

00:26:44: IDC wieder ganz interessante Daten veröffentlicht. Der Vortrag von Matthias Zacher hatte den Titel

00:26:49: "Cloud in Deutschland 2023 What's Next?" Aber ich habe ihn erst einmal gefragt "Matthias,

00:26:57: whats now?!" Und da muss man sich erst mal ein paar nicht so positive Meinungen den Kollegen

00:27:02: in den Unternehmen mitteilen. Zum einen sehen wir natürlich viel zu hohe Kosten,

00:27:06: die die IT umtreibt, geringe Automatisierung, mangelnde Integration und fehlende Transparenz.

00:27:12: Also eine Ausgangslage, die auf mehr hoffen lässt und, die die Cloud auch ermöglicht. Ist die Cloud

00:27:18: mittlerweile auch bei allen Unternehmen hier angekommen in Deutschland? Ja, natürlich redet

00:27:23: jeder über die Cloud gar keine Frage, aber der zweite Punkt ist, wo ist sie wirklich umgesetzt?!

00:27:28: Und unsere Studien zeigen, dass ungefähr 80% der Unternehmen in irgendeiner Form

00:27:33: Cloudlösungen nutzen. Die Intensität, wie tief das im Unternehmen angekommen ist ist natürlich

00:27:38: völlig unterschiedlich. Was sind denn so die ganz typischen Anwendungsfälle für Cloudlösungen hier

00:27:44: in Deutschland? Das ist eine ganz schwierige bzw. umfangreiche Frage. Es gibt mindestens so

00:27:49: viele Anwendungsfälle wie Unternehmen, aber ganz grundsätzlich kann man sicher sagen,

00:27:53: auf Infrastrukturebene geht es natürlich nach wie vor um die Virtualisierung, Flexibilisierung

00:27:58: der Infrastruktur, Skalierung. Das sind an sich wichtige Punkte und andererseits auf der

00:28:03: Anwendungsebene, ja ist das ganz große Schlagwort Cloud-native. Das ist ein ganz zentraler Punkt,

00:28:08: weil natürlich in den Anwendungen letztendlich der Businessnutzen für die Unternehmen

00:28:12: steht. Da schließt sich dann entsprechend die Schnittstellen zwischen den Businessabteilungen

00:28:17: und den IT-Abteilungen. Du hattest jetzt erwähnt das Thema Cloud-native, wie kann man sich denn als

00:28:21: Unternehmen darauf vorbereiten, quasi Cloud-native zu sein, also was sind so die Voraussetzungen? Was

00:28:25: muss man mitbringen? Ja, man braucht erstmal eine Entwicklungsplattform, die bestimmte

00:28:30: Funktionalitäten bereitstellt. Da geht es um Flexibilität, um die Aufspaltung der entsprechend

00:28:36: Applikation, das Schlagwort Container, viel auch heute auf der Veranstaltung mal wieder ist

00:28:40: ganz zentral, Microservices das ist vielleicht eher von der technischen Seite zu sehen. Dann

00:28:45: muss ich natürlich viele organisatorische Dinge umsetzen, die es mir ermöglichen,

00:28:49: diese Dinge dann entsprechend in dem Cloud-native Stadium zu entwickeln und ganz wichtig, ich muss

00:28:55: einfach meine Leute mitnehmen. Ich brauche die passenden Entwickler, ich brauche natürlich die

00:28:59: Kollegen in den DevOps-Abteilungen und ich brauche natürlich auch die Kollegen aus dem Business,

00:29:03: die mir ermöglichen, dass ich das, was Sie benötigen, auch entsprechend umsetzen kann. Also

00:29:08: müssen da alle mit ins Boot. Hauptsächlich ist die IT gefordert, sprich die Anwendungsentwickler,

00:29:14: weil diese Dinge dann streng bauen und auch immer weiterentwickeln und ganz wichtig sind permanenter

00:29:19: Prozess im Gegensatz zu klassischen Anwendungen, die vielleicht in monolithen entwickelt worden

00:29:25: sind oder als Wasserfallmodell relativ statisch. Und genau das wollen wir ja mit Cloud-native

00:29:30: vermeiden. Wir wollen einfach Applikationen immer aktuell halten und die Business Anforderungen so

00:29:36: schnell wie möglich umsetzen. Und das beste Beispiel sind sicher die Apps,

00:29:39: die jeder von uns regelmäßig auf dem Mobiltelefon aktualisiert. Wo sehen denn jetzt die Anwender

00:29:45: den allergrößten Nutzen beim Einsatz der Cloud hier in Deutschland? Auch da gibt

00:29:49: es unterschiedliche Aspekte, die eine Rolle spielen, aber einer ist die Flexibilisierung,

00:29:54: dass man wirklich durch die IT, die Anwendung viel besser unterstützen kann. Das ist sicher denke ich

00:29:59: das das Wichtigste. Und natürlich gerade in der Situation jetzt im September 23 ist nach wie vor

00:30:07: das Thema der Kosten. Wirtschaftlich ist es für viel Unternehmen nicht ganz einfach und da schaut

00:30:12: man immer, wie man die Kosten runter prügeln kann. Manchmal wirklich mit Gewalt, das ist gar nicht so

00:30:16: ideal die Kosten runter zubringen, sondern langfristig zu schauen, wie ich meine Kosten

00:30:22: flexibilisieren kann. Und da kann natürlich die IT sehr viel beisteuern in bspw. Cloudnutzungsmodell.

00:30:29: Du hast vorher gesagt, dass 80 % der Unternehmen Cloud in Deutschland schon einsetzen. Das heißt

00:30:35: andersrum gesehen 20 % machen das nicht. Wo sind denn die größten Hindernisse beim

00:30:40: Einsatz von Cloudlösungen? Ganz entscheidend ist, dass häufig das Fachwissen fehlt. Man muss sagen,

00:30:48: dass viele kleine und mittlere Unternehmen die Cloud nicht nutzen. Bei den großen Unternehmen ist

00:30:54: natürlich einfach Gesetz bzw. Standard. Die haben entsprechend spezialisierte IT-Abteilungen, aber

00:30:58: ein kleines Unternehmen, wo zwei, drei, vier Leute die gesamte IT meistern, ist natürlich schwierig,

00:31:05: sich zu informieren, was sind aktuelle Trends, wie wirken die auch langfristig. Deswegen die ganzen

00:31:11: Problematiken der Weiterbildung, der Schulung und der Fachkenntnis sind ganz zentral an der Stelle.

00:31:16: Das ist eigentlich Punkt Nummer eins, der sich auch in unseren Studien widerspiegelt. Zweiter

00:31:21: Punkt ist natürlich, wie bringe ich meine Cloud mit der restlichen IT zusammen? Auch das ist

00:31:28: für viele Unternehmen relativ schwierig, da ideale Szenarien zu finden, weil sie damit auch ein Stück

00:31:33: weit Neuland begehen. Da muss man schauen, wie man das entsprechend umsetzen kann. Dritter Punkt ist

00:31:39: nach wie vor Security. Das ist ganz interessant, aber ich denke generell ist schon so ein Status

00:31:45: erreicht, dass die meisten Unternehmen sagen "die Cloud ist einfach sicherer als die eigene

00:31:50: IT." Aber nach wie vor gibt's viele Fragen, die entsprechend beantwortet werden müssen,

00:31:54: um wirklich dann aufzuzeigen, dass die Cloud einfach ein sicherer Lösungsansatz ist an der

00:31:59: Stelle. Aber würdest du denn sagen, dass aus deiner Erfahrung heraus Cloud im Prinzip für

00:32:04: jedes Unternehmen eine hohe Relevanz haben sollte? Also auch für die 20%, die jetzt noch fehlen? Ja,

00:32:10: unbedingt. Weil natürlich es extrem viele Cloud Angebote gibt. Wir reden, wenn wir über die Cloud

00:32:16: reden sowohl über Public Cloud Service, Software-as-a-Service z. B., aber auch Private Cloud

00:32:22: Lösungsansätze und da ist letztendlich für jedes Unternehmen ein sinnvoller Lösungsansatz dabei.

00:32:28: Das ist manchmal nur für die Fachabteilung z. B. im Marketing und so weiter. Das ist eigentlich

00:32:33: schon Standard in vielen Unternehmen, da entsprechende Lösung zu verwenden, aber natürlich

00:32:38: auch in anderen Bereichen ist es sinnvoll auch auf Cloudlösung zu setzen. Also jedes Unternehmen

00:32:42: sollte einfach Geschäftsprozesse anschauen, die man besser machen möchte und da ist die Frage

00:32:48: "ist die Cloud ein möglicher Lösungsansatz?" und in vielen Fällen wird es das einfach sein.

00:32:54: Zum ersten Mal beim IONOS Summit dabei war unser neuer CTO Markus Noga. Andreas, du hast ihn glaube

00:33:00: ich nach seinen Eindrücken gefragt? Genau, hören wir doch mal rein. Großartig, die Energie im Saal,

00:33:07: die vielen Kundenpartner und IONOS Kollegen, die gemeinsam nicht nur Zeit bei Vorträgen verbringen,

00:33:13: sondern auch in kleinen Gruppen in Medias Day gehen hatte mir enorm viel Energie vermittelt.

00:33:18: Was war denn dein persönliches Highlight? Also, wenn ich eins auswählen müsste, dann ist es die

00:33:24: Partner Roundtable Session von heute Mittag, bei der wir mit einem Dutzend Partnervertretern im

00:33:29: Raum die Herausforderungen des Baus von Software auf europäischen Plattformen und des Public Sektor

00:33:34: Geschäfts in der Tiefe diskutieren und gleich konkrete Aktionen festlegen konnten. Stichwort

00:33:40: Highlights. Du hast über die CloudTech Trends23 gesprochen. Was sind denn dort die Highlights,

00:33:47: sowohl in der Industrie, als auch für IONOS. Wenn du nur drei Sachen mitnehmen möchtest Andreas,

00:33:52: dann sind es künstliche Intelligenz, die souveräne Cloud und nachhaltige Infrastruktur.

00:33:57: Das Thema künstliche Intelligenz hat sich ja fast durch jeden Vortrag durchgezogen.

00:34:01: Was bewegt dich da im Moment am meisten? Mich persönlich begeistert, wie weit die künstliche

00:34:08: Intelligenz in so wenig Jahren gekommen ist und wie viel neue Anwendungsfälle wir ganz einfach

00:34:13: durch Prompt Engineering erschließen können. Dafür brauche ich keinen Entwickler mehr, dafür brauche

00:34:17: ich auch kein großes Data-Science-Team mehr, weil die Modelle so gut vor trainiert sind muss ich

00:34:22: einfach nur Anweisungen in natürlicher Sprache formulieren und kann damit einen Effekt fürs

00:34:26: Business erzielen. Das und die leistungsfähigen Open-Source-Modelle, die wir jetzt auf der IONOS

00:34:32: Cloud in Beta verfügbar haben erschließen dieses Potenzial jedem Anwender und jeder Anwenderin.

00:34:36: Und zum Schluss noch eine persönliche Frage. Ich habe gerade gesagt, du bist ein gutes gutes

00:34:39: halbes Jahr bei uns. Warst vorher bei ganz unterschiedlichen Unternehmen SAP, SUSE....

00:34:44: Wie war dein erstes halbes Jahr bei IONOS? Ein Wirbelwind von Aktivitäten. Die IONOS ist für mich

00:34:51: mit Standort Karlsruhe in vielerlei Hinsicht ein Nachhausekommen, weil ich in der schönen

00:34:55: Stadt meine Studien- und Promotionszeit verbracht habe. Ich freue mich mit so vielen hochkarätigen

00:35:02: Kolleginnen und Kollegen zusammenarbeiten zu können und die Zukunft der europäischen Cloud

00:35:06: zu gestalten. Das geht nur bei IONOS und wenn ihr euch interessiert für eine Karriere oder nächste

00:35:12: Schritte in der europäischen Cloud, dann schaut auf unsere Jobseite vorbei. Ja, dass war der IONOS

00:35:17: Summit 23 für Markus, wie war's für euch? Ich habe noch mit einem Neurowissenschaftler darüber

00:35:25: gesprochen, der auch einen super spannenden Vortrag gehalten hat. Und zwar ging es darum, ob

00:35:30: wir als Menschen schlauer bleiben als Roboter in Zukunft. Und da hat er ein ganz interessantes Bild

00:35:36: gezeichnet auch was denn künstliche Intelligenz eigentlich auch mit dem Denken macht. Da lohnt es

00:35:42: sich auch auf jeden Fall mal darüber nachzudenken. Also ich fand folgendes total spannend. Erstens,

00:35:49: dass wieder so viele Leute zu uns kamen. Hier in der Station ist ja deutlich größer als letztes

00:35:53: Mal, wo wir in Karlsruhe waren. Ganz interessant, ich wurde oft angesprochen, dass viele Personen

00:35:58: hier weiße Turnschuhe tragen. Scheint wohl das neue Business Outfit zu sein. Vielleicht haben

00:36:02: alle KI gefragt was man denn zu so einem Summit anzieht. Vermutlich ja. Ich habe gerade mal unter

00:36:07: den Tisch geschaut. Wir sind auch alle dabei, obwohl ich gestern braune Schuhe anhatte. Ja gut,

00:36:12: manchmal irrt sich auch die KI. Vielleicht war der prompt falsch. Genau. Ich fand es auch sehr

00:36:18: spannend. Thema KI, klar keine Frage war das absolute Highlight. Worauf ich mich die ganze

00:36:23: Zeit gefreut habe, ich habe es auch auf Social Media geteilt, dass Rainer Sträter mit dem wir

00:36:26: eben gesprochen haben, uns schon vor Wochen von einem Quantenchip erzählt hat, den er mitbringen

00:36:32: wird. Und den durfte ich mir tatsächlich vor zwei Stunden dann mal live anschauen. Habe auch paar

00:36:36: Fotos gemacht und ich habe Rainer gefragt, wann wir das Ding denn sehen werden und er meinte beim

00:36:41: nächsten Summit wahrscheinlich noch nicht im Betrieb, aber Rainer denkt, dass wird keine 5

00:36:45: Jahre mehr dauern bis Quantencomputing wirklich in der breiten Masse angekommen ist. Also von daher

00:36:51: es lohnt sich bei den nächsten Summits wieder dabei zu sein. Klingt auf jeden Fall spannend

00:36:55: da weiter ein Auge drauf zu haben. Und nach KI wahrscheinlich das nächste große Ding. In der Tat.

00:37:00: Also, wie sie gemerkt haben haben wir viele spannende Gespräche in Berlin gehört und

00:37:04: selbst auch geführt. Und zwar so viele, dass die eigentlich alle gar nicht in diesen Podcast

00:37:08: reingepasst haben. Deshalb können Sie sich in den kommenden Wochen auf zahlreiche Specials freuen,

00:37:13: in denen wir alle Interviews in voller Länge veröffentlichen. Aber natürlich geht es auch

00:37:18: bald wieder mit den regulären Folgen von Inside IONOS weiter. Also bleiben Sie uns

00:37:22: erhalten und wenn es Ihnen gefallen hat hinterlassen Sie gerne einen Like oder

00:37:25: einen Kommentar. Bis zum nächsten mal. Alles Gute und Tschüss! Tschüss! [Musik] Ciao!