00:00:05: [Musik] Ich fand extrem spannend das Thema KI und auch, wie wir vielleicht davon profitieren
00:00:10: können. Heute erhoffe ich mir tatsächlich ein neue Perspektiven zum Thema KI. Also
00:00:17: da will ich wirklich mit offenen Augen und Ohren durch die Welt. Spannende Talks und ein bisschen
00:00:22: Netzwerken. Gucken wer hier ist und was hier so passiert. Spannende Einblicke in die Zukunft des
00:00:26: Cloudcomputings und KI. Also, mein Highlight des heutigen Tages war durchaus die Keynote,
00:00:32: die Vision vom CTO Richtung IONOS und die Ausrichtung für die Zukunft. [Musik]
00:00:40: Hallo und herzlich Willkommen bei Inside IONOS. Das hier ist mal wieder eine besondere Ausgabe
00:00:45: unseres Podcast. Man hört es am Hintergrund. Wir sind heute weder im Homeoffice noch in
00:00:49: unserem Podcast-Studio in Karlsruhe oder Berlin, sondern befinden uns auf dem IONOS Summit 2023.
00:00:56: Der Summit findet diesmal in der Station Berlin statt, das ist ein ehemaliges Bahnhofsgelände
00:01:00: am Gleisdreieck und wir das sind Andreas Maurer, Thomas Ritter und ich bin Karen Gräper. Und das
00:01:08: war gerade keine U-Bahn die vorbeigefahren ist, sondern hier wird gerade schon abgebaut auf dem
00:01:12: Summit-Gelände. Genau, wir haben nämlich gerade die letzten Vorträge hinter uns und zwei spannende
00:01:16: Konferenztage sind zu Ende gegangen. Ja, und wir haben die Zeit genutzt, um mit einigen
00:01:21: der Referenten und Ausstellern zu sprechen. Der Summit stand dieses Mal unter dem Motto
00:01:25: Level-Up. Wem das nichts sagt "Unser Ziel bei IONOS ist es vor allem kleinen
00:01:30: und mittleren Unternehmen dabei zu helfen, das nächste Level auf ihrer Digitalisierungsreise
00:01:34: zu erreichen." Genau, aber dabei hat sich in diesem Jahr vor allen Dingen ein Thema,
00:01:38: das auch in aller Munde ist, wie ein roter Faden durch fast alle Präsentationen Vorträge und Panels
00:01:43: gezogen. KI, also künstliche Intelligenz. Im letzten Jahr hat unser Produktmanagement Chef
00:01:48: Patrick Schaudel ja relativ provokativ gesagt "Wer sein Unternehmen nicht digitalisiert,
00:01:52: der existiert nicht mehr." Und Karen du hast zwei unser Redner gefragt, ob das heute auch
00:01:55: genauso für KI gilt. Ja, dass waren Theo Pham und Tibor Mérey. Das sind beides absolute Experten
00:02:02: auf dem Gebiet von digitalen Trends und auch der Implementierung von neuen Technologien.
00:02:06: Bei KI waren sich tatsächlich beide einig, dass es für Firmen keine Option ist, sich damit nicht zu
00:02:11: beschäftigen. Und zwar geht's erstmal darum sich damit zu beschäftigen, welche Tasks und in welchen
00:02:17: Bereichen der Einsatz im eigenen Unternehmen Sinn macht und dann schrittweise zu starten.
00:02:22: Und das war ein wichtiges Learning für mich. Das kann für jedes Unternehmen einfach auch komplett
00:02:27: anders aussehen. Schlimmer als kein KI-Tool zu nutzen ist, eins einzuführen, was niemand nutzen
00:02:32: will. Der Mensch ist und bleibt ein Tier und ein emotionales Tier. Und um diese Vorbehalte, die du
00:02:40: jetzt erwähnt hast, Karen zu minimieren, beginnt das natürlich mit Learning. Also, Menschen sind,
00:02:48: wenn sie etwas nicht kennen, erst mal skeptisch dem gegenüber gestellt. Da setzten wir auch an
00:02:53: Theo mit seinem Upscaling-Angebot. Aber, was wir auch sehen und den Transformationen, die wir dann
00:02:59: auch durchführen. Das eine ist Learning. Dann machen wir auch im Rahmen von Projekten Academies
00:03:06: etc., aber was wir dann auch immer wieder machen, ist das Thema "learning by doing",
00:03:12: dass man auch bewusst sagt ich mache das jetzt nicht sequentiell, dass jetzt erstmal die ganzen
00:03:17: Lizenzen kaufen, die ganzen Systeme einführen, wenn dann die Daten alle bereinigt sind dann fange
00:03:20: ich mal irgendwann an mit dem Usecase, sondern dass man viel agiler sagt, ich nehme mir ein
00:03:24: Prozess oder ein Produkt oder ein Kundensegment und dann mache ich auf diesem Perimeter mache ich
00:03:29: Ende zu Ende alles. Da habe ich die Systeme, da habe ich dann auch den Prozess und da binde ich
00:03:34: auch die Leute ein und damit bekommt man die "learning by doing" rein und dann plötzlich
00:03:37: auch die Dynamik die den Change befeuert. Vielleicht Theo, du berätst ja auch Kunden, so was
00:03:43: sind so klassische Vorbehalte den du begegnest, wenn du das einführst? Ich glaube die Vorbehalte
00:03:50: sind meistens dann groß, wenn sich die Leute noch nicht so viel mit dem Thema auseinandergesetzt
00:03:52: haben, weil es dann einfach immer nur diese diffuse Gefahr gibt künstliche Intelligenz
00:03:56: irgendwie alles ein bisschen gruselig und komisch. Sobald die Leute mal sehen, was diese Tools können,
00:04:02: sind die in der Regel sehr begeistert. Die sehen eigentlich sofort diesen nutzen. Das ist auch das
00:04:06: schöne dran, dass sie eben sehr benutzerfreundlich sind. Beispiel ich war letztens bei einer Company,
00:04:11: die halt sehr viele Audioinhalte produziert z. B. auch wie diesen Podcast hier. Im Nachgang wird
00:04:17: jemand aus eurem Team diesen Podcast editieren. Und diese Person wird sich das Ganze anhören,
00:04:21: die weiß ich nicht 10, 20 Minuten und dann müssen Versprecher rausgeschnitten, werden Füllwörter,
00:04:26: wenn ich immer gell oder aber oder sowas sage und auch Sprechpausen. Dieser ganze
00:04:31: Prozess kann gerne mal eine Stunde dauern. Mit künstlicher Intelligenz wird ja alles
00:04:36: Gesprochene, was wir hier sprechen wird eben transkribiert, das heißt jedes Mal, wenn ich jetzt
00:04:39: ein Füllwort benutze, dann steht da im Transkript gell oder sozusagen oder sowas. In dem Transkript
00:04:47: gibt's eben eine Funktion, die heißt Magic-Edit. Da wird im Prinzip das Transkript angeguckt und
00:04:51: dann steht da okay es wird irgendwie zehn Mal gell oder na ja gesagt; jetzt drückst du einmal auf den
00:04:55: Knopf und dann wird es alles rausgeschnitten. Also da wird die entsprechende Audiostelle
00:04:58: rausgeschnitten oder auch im Video. Das heißt, die Arbeit, die normalerweise irgendwie zwei Stunden
00:05:03: dauert dauert jetzt 10 Sekunden. Das heißt, du wirst einfach viel viel produktiver dadurch.
00:05:07: Jetzt kommt, aber das spannende ich kann jetzt zwei Personen jetzt von diesem Tool berichten.
00:05:13: Die eine Person bekommt leuchtende Augen und sagt genial darauf habe ich nur gewartet. Jetzt kann
00:05:18: ich eigentlich mal kreative Dinge machen und muss nicht dieses langweilige Zeug machen. Die
00:05:22: andere Person bekommt die Panik und sagt Moment mal, dass ist mein Job. Ich mache den ganzen Tag
00:05:25: nichts anderes, außer diese Versprecher und Füllwörter raus zu editieren. Ich glaub es
00:05:28: hängt ganz stark davon ab, wie viel du dir auch selbst zutraust. Das du irgendwie sagst "hey ich
00:05:34: sehe das nicht als Bedrohung, sondern als eine Art Erleichterung." Und in diesem Zusammenhang spreche
00:05:39: immer gerne über AI als Augmented Intelligence, also nicht was künstliches, was uns ersetzen soll,
00:05:45: sondern ein Tool, das uns eben dabei hilft unsere menschliche Intelligenz eben weiter zu hebeln und
00:05:50: eben weiter zu skalieren. Das heißt eigentlich als Quintessenz es geht gar nicht darum, dass KI
00:05:59: Menschen überflüssig macht, sondern es ist eher ein Lernprojekt, dass man Menschen vermitteln
00:06:05: muss, dass KI einen unterstützt und Freiraum schafft für andere Projekte? Na ja, ich glaube
00:06:10: man muss schon ehrlich sein. Es wird ganz klar Tätigkeiten ersetzt werden. Ich glaube das ist
00:06:15: völlig klar. Das hat es immer wieder gegeben in der Menschheitsgeschichte. Nur ist glaub ich
00:06:21: der Unterschied, dass man jetzt als Kutscher, der früher Pferdewägen gefahren ist, nicht Taxifahrer
00:06:26: werden konnte innerhalb von von einem Jahr, sondern dass halt das zukünftig Auto durch eine
00:06:31: KI gesteuert wird. Also die Umwerfungen werden viel größer und auch die Lücke in einem neuen
00:06:37: Beruf kann sich vergrößern. Also, ich glaube, es gibt für viele hochqualifizierte Expertiseträger
00:06:42: oder in Berufen, die momentan durch Empathie Leben mit dem ganzen Pflegebereich. Da wird es
00:06:48: noch ein paar Inseln der Glückseligen geben, aber wir müssen uns schon darauf einstellen,
00:06:52: dass mit diesen exponentiellen Entwicklungen, weil das ja wirklich exponentiell ist,
00:06:56: was du jetzt geschildert hast. Stichwort Co-Pilot. Plötzlich halbe Milliarde Menschen
00:06:59: werden verstärkt. Das führt noch mal zu größeren Umwerfungen. Ich betrachte diese ganzen KI-Tools
00:07:07: immer gerne als Praktikanten. Das heißt, welche Aufgaben kann ich an Praktikanten auslagern. Die
00:07:12: kann jetzt auch KI übernehmen. Ich glaube, jeder von uns muss sich eben hinterfragen, von den
00:07:19: 8 oder 10 Stunden, die ich jeden Tag arbeite, wie viel davon könnte ein Praktikant eben übernehmen.
00:07:24: Wenn ein Großteil davon der Praktikant machen kann, dann kann es auch die KI. Aber das heißt,
00:07:29: ich muss mich auf die Tätigkeiten, die nur ich machen kann, konzentrieren. Nehmen wir mal an
00:07:32: ich bin jetzt im Bereich Sales unterwegs. Dann stifte ich Mehrwert, indem ich Kontakte knüpfe,
00:07:38: mit Kunden spreche, die überzeuge, versuch zu verstehen, was die genau brauchen. Und
00:07:42: da liegt mein Mehrwert. Mein Mehrwert liegt nicht darin, Proposals zu beschreiben oder
00:07:46: irgendwie Fragebögen zu beantworten, Reisen zu buchen, Reisekostenabrechnung und ähnliches zu
00:07:51: machen. Wenn ich dann sagen kann "okay, das nimmt heute leider 70% meiner Zeit ein.",
00:07:56: dann möchte ich das gerne an meinen Praktikanten, an meine KI eben auslagern und dann sagen "hey,
00:08:03: ich muss mehr Zeit damit verbringen mit, dem was mich wertvoll macht.", aber auch meine Skills
00:08:08: weiterbilden. Vielleicht bin ich heute gar nicht so gut im Verhandeln. Vielleicht bin ich heute
00:08:11: gar nicht so charismatisch. Vielleicht bin ich gar nicht so gut im Networking. Dann muss ich
00:08:15: einfach in meinem eigenen Skillset investieren. Und das wird eben das spannende sein für uns alle,
00:08:19: egal ob wir heute 18 Jahre alt sind oder 60 Jahre alt sind. Wir müssen in unser Skillset
00:08:24: investieren. Das sind tendenziell die analytische Skills, die ein Computer machen kann oder sind
00:08:30: diese menschlichen Skills, diese Soft Skills und ich glaube, da verschiebt sich wieder relativ viel
00:08:34: Richtung Soft Skills, weil dass eben noch das ist, was den Menschen heute einzigartig macht. Außerdem
00:08:39: ist es so, dass wenn man jemanden auf der Straße nach dem Thema künstliche Intelligenz fragt würde
00:08:44: den meisten wahrscheinlich als erstes ChatGPT einfallen. Das ist im Moment das Vorzeigebeispiel
00:08:51: für die sogenannte generative KI, also Systeme, die selbst neue Inhalte erzeugen. Aber das System
00:08:57: von der amerikanischen Firma OpenAI steht ja nicht alleine oder Andreas?! Ganz genau,
00:09:01: OpenAI gehört inzwischen zu Microsoft. Und der größte Gegenspieler, der bekannt ist
00:09:05: ist Google. Auch Facebook und Amazon arbeiten an eigenen sogenannten Large-Language-Models,
00:09:10: bei Google sind das Bard oder Duet als bekannte Beispiele, aber auch in Deutschland
00:09:13: in Europa muss man sich nicht verstecken. Rainer Sträter, unser Head of Technology
00:09:17: Office bei IONOS, hat in einem Vortrag über OpenGPT-X gesprochen. Ein Projekt,
00:09:21: dass das der europäischen Gaia-X-Initiative entstanden ist. Ich habe Rainer gefragt,
00:09:26: ob OpenGPT denn einfach nur ChatGPT in grün ist. Naja, im Grunde genommen schon ein Stück weit.
00:09:33: Wir haben natürlich alle seit dem wir OpenAI und ChatGPT verwenden immer ein kleinen leichten faden
00:09:39: Beigeschmack. Ist das, was wir als antworten bekommen wirklich verwendbar. Also rechtlich
00:09:44: gesehen haben wir ein paar Herausforderungen. Stichwort "Intellectual Property" ist nicht an
00:09:47: jeder Stelle geklärt. Da ist noch viel viel Unsicherheit drin. Und für uns in Europa,
00:09:52: wir haben natürlich ein eigenes Wertesystem — Souveränität, Transparenz, natürlich wollen
00:09:57: wir auch das Wertschöpfung in Europa bleibt, wir wollen einfach auch verstehen, wie bestimmte Dinge
00:10:02: funktionieren, aus welchen Grundlagen sie gebaut worden sind. Und ich glaube alle diese Werte,
00:10:06: die wir haben müssen wir schauen, dass wir die Technologien, die wir jetzt verwenden
00:10:10: auch basierend auf diesen Werten entwickeln. Und deswegen ist es am Ende des Tages ein
00:10:14: europäisches Sprachmodell, ein Sprachmodell nach europäischen Werten. Wir verstehen also,
00:10:19: woher die Daten kommen, welche Daten verwendet worden sind, welche Intellectual Property, also,
00:10:25: welche Rechte verletzt werden, wenn man solche Daten falsch verwendet. Und da ist es für uns
00:10:29: wichtig, Modelle zu haben, die unsere Kunden verwenden können in der Gewissheit, dass sie
00:10:34: erstens in einem europäischen Rechenzentrum verwendet werden, dort laufen, dass wir nicht
00:10:38: die Daten des Kunden verwenden, auch nicht die, die während der Anfrage transferiert werden.
00:10:42: Wir können sicherstellen, dass das, was das Tool generiert lizenzrechtlich okay ist, sauber ist,
00:10:48: verwendet werden darf. All diese Dinge, die wir von unseren Kunden wahrnehmen, als Herausforderung
00:10:54: auch für uns selber intern bei der Verwendung von Sprachmodellen immer als Herausforderung
00:10:57: empfinden, die im Grunde zu adressieren, die zu lösen und das im Grunde europäisch zu machen. Was
00:11:02: ist denn so das Besondere oder was ist der Kern von OpenGPT-X? Also, ich glaube, es sind zwei
00:11:08: Dinge. Das eine ist natürlich europäische Werte. Das heißt, wir verstehen welchen Daten diese
00:11:13: Modelle trainiert worden sind. ChatGPT-4, das Vierer Modell ist nicht mehr offengelegt, welche
00:11:18: Daten die Grundlage sind. Wir wollen das gerne verstehen. Wir wollen verstehen, woraus sind diese
00:11:23: Modelle entstanden, um dann auch Rückschlüsse ziehen zu können, um Antworten dieser Modelle
00:11:26: besser interpretieren zu können. Das zweite ist natürlich OpenGPT-X möchte nicht nur ein neues
00:11:32: Sprachmodell generieren, sondern es geht darum, dieses Ökosystem auch in Europa wieder aufzubauen,
00:11:38: wo dieses Modell eigentlich nur ein Puzzelstein, aber auch die Basis ist für ganz viele weitere
00:11:43: AI-Dienste, die wir dann für den Mittelstand, für die Kunden draußen anbieten können. Insbesondere
00:11:49: natürlich im ersten Schritt, wenn ich so ein Large-Language-Model habe, was überhaupt noch
00:11:52: nicht gefinetuned ist, auf meinen spezifischen Use-Case, dieses Modell zu nehmen als Basis für
00:11:56: meinen Use-Case den ich habe. Wenn ich also ein Sprachmodell brauche, damit die Kommunikation im
00:12:02: Auto ein bisschen fluffiger läuft und ich nicht fünfmal mein Satz wiederholen muss, bis das
00:12:06: Auto verstanden hat, was ich will, dann wäre es schön, dieses Sprachmodell zu nehmen und mit den
00:12:10: typischen Frage-Antworten, die im Auto entstehen, zu trainieren und zu finetunen, sodass es dann in
00:12:14: dem Kontext vernünftig läuft. Du hast gesagt wir wissen nicht mehr, woher die Trainingsdaten für
00:12:19: ChatGPT-4 kommen! Woher kommen die Trainingsdaten für OpenGPT-X? Das ist offenelegt. Die
00:12:24: Datenquellen sind bekannt. Es sind natürlich viele Daten, die nicht zugänglich sind. Wir haben in
00:12:31: dem im öffentlichen Bereich in der EU unfassbare große Datenmengen mit extrem hoher Qualität, die
00:12:37: für viele andere Modelle schon verwendet worden sind, die sehr qualitätsgesichert sind, aber
00:12:41: natürlich haben wir Daten, wie Wikipedia-Daten, die sehr gerne und sehr oft genommen werden,
00:12:47: wir haben Konversationsdaten und natürlich gibt's dann auch noch unternehmen die diese Modelle dann
00:12:51: weiterentwickeln können durch z. B. ihre internen Daten, ihren internen SharePoint oder Google Drive
00:12:56: oder Dropbox, was auch immer. Dort Daten nehmen können, die da anreichern können, sie können Ihre
00:13:00: E-Mailkommunikation nehmen und damit das Modell weiter trrainieren anreichen, aber die Basis sind
00:13:05: Daten die im Grunde öffentlich frei zugängig sind. Das Projekt läuft schon, glaube ich weit über
00:13:09: ein Jahr, ist eines der Gaia-X-Förderprojekte OpenGPT-X es gibt sicherlich jetzt schon die
00:13:13: ersten Use-Cases, also, was konkret wird der mit dem Programm gemacht oder ausprobiert? Ganz genau,
00:13:18: wir haben so ungefähr die Hälfte, ein bisschen mehr als die Hälfte, des Projektes hinter uns.
00:13:21: Am Anfang des Projektes geht es natürlich sehr viel darum rauszufinden, wie verhält
00:13:25: sich das Training von solchen Modellen, wie viel Infrastruktur brauche ich, welche Zeit brauch
00:13:29: ich, welche Daten brauche ich, wie kann ich dieses Training als solches optimieren, dass ich nachher,
00:13:32: wenn ich wirklich dann anfange, das große Modell zu rechnen, das schon in ein optimierten Art und
00:13:37: Weise mache und da nicht unendlich lange für brauche. Wenn wir auf die Use-Cases kommen,
00:13:42: da haben wir im Grunde genommen uns drei Bereiche prototypisch rausgesucht. Der erste Bereich ist
00:13:47: im Medienbereich und das kam auch deswegen, weil der WDR zu uns gekommen ist und gesagt hat "Hey,
00:13:52: wir haben mit diese Mediathek, wir haben hier sehr sehr hochwertige Film-Audio-Video-Schnitte,
00:13:59: die wir alle im Grunde genommen nur bedingt heute durchsuchen können, weil uns zum einen
00:14:05: die Transkription fehlt, zum anderen fehlt uns aber die intelligenten Metatext. Wir würden gerne,
00:14:09: dass man einfach zur Mediathek hingehen und sagen kann "Ich will alle Filme mit
00:14:13: orangen Mäusen suchen." Und bekommt dann die ganzen Serien der Sendung mit der Maus und was
00:14:16: sonst noch mit orangen Mäusen existiert. Da haben wir in der Versicherungsbranche einfach
00:14:20: eine Optimierungsanfrage. Wir haben insgesamt pro Jahr ungefähr 23 Milliarden Schadensfälle
00:14:26: mit 53 Milliarden Euro Schaden. Die Hälfte davon kommt aus dem Kraftfahrzeugbereich.
00:14:31: Die durchschnittliche Abwicklungszeit von so einem Schadensfall sind 28 Tage das ist schon
00:14:35: ziemlich lang und wenn man das mal hochrechnet, ist natürlich ein unfassbarer wirtschaftlicher
00:14:39: Aufwand, das zu tun. Es ist ja ein hochstrukturierter Prozess ich bekomme Formulare,
00:14:43: die muss ich verstehen, da man nicht jeden Tag mit Formularen zu tun hat hat man auch sehr viele
00:14:47: Fragen, was muss ich da jetzt genau eintragen und was passiert eigentlich, wenn ich folgendes
00:14:50: dort eintrage. Ich glaube diese Assistenzen, diese Dialogassistenten beim Ausfüllen dieser Formulare,
00:14:55: die halte ich für erstmal eine ganz große Hilfe für den, der das Formular ausfüllt und im weiteren
00:14:59: Verarbeitung dann zu checken Plausibilität und ist es vollständig. All diese klassischen arbeiten,
00:15:05: die im Grunde genommen sehr viel Zeit kosten, die am Ende des Tages hochstrukturiert durch AI
00:15:10: teilweise übernommen werden können jedenfalls Lösung vorgeschlagen werden können. Ich nehme
00:15:13: mal ein Beispiel, wie das ganze am Ende aussehen könnte. Nachdem Kraftfahrzeugunfall
00:15:17: im Grunde genommen sein Handy zu nehmen, die Versicherungsapp zu öffnen, ein Foto zu machen von
00:15:21: dem Unfall und sofort die Transaktion des Geldes aufs Konto zu bekommen. Das wäre für mich so, dann
00:15:29: das, wo es hinauslaufen könnte, mit ein paar Hürden dazwischen drin. Letzter Use-Case war,
00:15:34: den ich gerade schon beschrieben hatte im Auto, ich meine, es ist schon manchmal echt mühsam,
00:15:38: fünf Mal sich zu wiederholen, bis das Auto genau verstanden hat, was ich eigentlich
00:15:41: von ihm will. Manchmal tippt man es dann auch einfach ein oder macht's manuell ich glaube,
00:15:44: dass diese Dialogsysteme im Auto durchaus noch Luft nach oben haben und auch viel zum Komfort
00:15:50: beitragen können, auch zur Sicherheit beitragen können, ich muss meine Hände
00:15:53: nicht irgendwie vom Steuer nehmen, ich kann mit dem Auto einfach direkt kommunizieren
00:15:58: wir kennen das bei den Sprachassistensystemen zu Hause, die auch immer besser geworden sind. Auch
00:16:02: da glaube ich, gibt's viel Potenzial, dass sie es mit Sprachassistenten passiert, die europäisch
00:16:07: sind, die jeder selber im auch selbst betreiben kann, also Dialogsysteme Sprachdialogsysteme ist
00:16:13: sicherlich ein weites Feld, bis ins Customer-Care rein. Das Open in OpenGPT-X bezieht sich vor allem
00:16:20: auf die Standards oder was ist sonst noch offen an dem Projekt? Das Ziel am Ende des Tages ist
00:16:25: wirklich ein offenes Sprachmodell für Europa zu haben und das ein offenes Ökosystem, also das,
00:16:29: was wir bauen wird alles offen sein, open sein, Open Source und lizenzfrei, so dass diese Modelle
00:16:35: Verwendung finden und verwendet werden können. In Förderprojekten ist das natürlich ein großes
00:16:38: Stück auch Voraussetzung dort und auch das Konsortium hat sich gebildet genau
00:16:42: mit der Idee und der Grundlage, diese Modelle nachher möglichst in Skalierung zu bringen,
00:16:47: einen Standard für Europa zu setzen und Standard funktioniert natürlich immer besonders gut,
00:16:50: wenn sie jetzt keine Kosthürden impliziert. Ich glaube, eins hat sich ja mittlerweile
00:16:55: rumgesprochen künstliche Intelligenz braucht Rechenpower. Für das Training von generativer KI,
00:17:00: also den sogenannten Large-Language-Models braucht man heute riesige Serverfarmen. Dafür
00:17:05: werden oft sogenannte Supercomputer eingesetzt, also extrem leistungsfähige Systeme und künftig
00:17:11: werden hier Quantencomputer eine immer wichtigere Rolle spielen. Ich habe deswegen Jalal El-Youssef
00:17:17: vom Münchner Unternehmen QMware gefragt, was genau Quantencomputing eigentlich ist und was die
00:17:21: Systeme von herkömmlichen Rechner unterscheidet. Also Quantencomputing ist eine Art des Computings,
00:17:26: das auf den Prinzipien der Mechanik basiert. Im Gegensatz zu klassischen Computern, die Bits zur
00:17:32: Darstellung von Informationen verwenden verwenden Quantencomputer sogenannte Cubits. Cubits können
00:17:40: gleichzeitig mehrere Zustände haben oder bzw. in mehreren Zuständen existieren,
00:17:45: was es Quantencomputern halt ermöglicht, bestimmte Berechnungen exponentiell schneller durchführen
00:17:51: zu können als herkömmliche Computer. Und jetzt sind wir hier auf einem Event, auf dem es sehr
00:17:57: viel um das Thema künstlich Intelligenz und Machine Learning geht, wo ist denn da
00:18:00: die Connection zwischen Quantencomputing und der Künstlichen Intelligenz? Da gibt
00:18:05: es mehrere sage ich mal Ansätze jetzt dafür. Auf der einen Seite ist es so, dass KI benötigt viele
00:18:11: Computerressourcen. Man muss sich vorstellen, ein Unternehmen, das sich mit KI oder Artificial
00:18:16: Intelligence, wie auch immer sich beschäftigt, immer auf viele GPUs eigentlich aufgebaut ist,
00:18:23: das heißt, ein Unternehmen braucht wahrscheinlich sowas wie OpenAI 5000
00:18:28: oder 10000 Grafikkarten, die Sie nutzen können, um eben die AI treiben zu können. Das heißt,
00:18:33: die die Rechenlast, die da entsteht, ist eine relativ hohe. Mit Quantencomputing erhofft man,
00:18:39: durch die exponentielle Rechenleistung der Quantenprozessoren hier im Anlernen der KI
00:18:46: bessere Ergebnisse zu erbringen. Jetzt arbeitet QMware mit IONOS in einem Projekt zusammen, das
00:18:52: nennt Sequence, um was geht es denn da genau? Wir wollen gemeinsam die erste deutsche Quantencloud
00:18:59: entwickeln und zwar für die deutsche Industrie mit Fokus auf kleineren und mittleren Betrieben. Wir
00:19:05: wollen Ihnen die Möglichkeit schaffen zum Thema Quantencomputing hier den Einstieg einfach zu
00:19:09: schaffen. Was sind da so ganz konkrete Use-Cases, die dahinter stehen? Use-Cases sind diverse aus
00:19:17: der Industrie, da gibt es das Projekt Plank von der Firma Anacor hier sind mehr als 30 Quanten
00:19:24: Use-Cases bzw. Algorithmen bereits entwickelt worden, die von diversen Unternehmen dann,
00:19:30: wenn das Projekt abgeschlossen wird auch nutzen können. Wie weit ist das Projekt fortgeschritten?
00:19:35: Im Moment sind wir soweit, dass wir die Hardware jetzt angebunden haben. Wir binden gerade den
00:19:44: IBM Quantenprozessor, der in Ehnigen steht und die Plattform ist sage ich mal so zu
00:19:51: 50% schon entwickelt worden Demnächst schätze ich mal, Ende des Jahres wird auch dann Plank hier
00:19:59: angeschlossen werden. Wann wäre denn das Projekt erfolgreich, was würdest du sagen? Also ab dem
00:20:04: Zeitpunkt wo man Use-Cases auf unterschiedlichen Quantentopologien ausführen kann und das ganze
00:20:14: Ding dann auch live ist. Wenn es um Hardware und vor allem die Prozessoren für Künstliche
00:20:18: Intelligenz und Machine Leanring geht, dann fällt vor allem heute ein Name NVIDIA. Der Aktienkurs
00:20:23: von NVIDIA ist im letzten halben Jahr alleine um mehr als 60% gestiegen und eigentlich war
00:20:28: NVIDIA als Hersteller von Grafikkarten z. B. für Gamer bekannt und ich habe deswegen den Helfern,
00:20:34: die bei NVIDIA den Bereich generative AI for Enterprise in der DACH-Region leitet gefragt, wie
00:20:39: das Unternehmen zum Thema KI gekommen ist. Also tatsächlich ist das unser Ursprung. NVIDIA hat
00:20:45: vor 25 Jahren angefangen mit der Entwicklung von sogenannten GPUs, also Graphic Processing Units,
00:20:53: die da für grafische Anwendung gedacht waren. Wir haben irgendwann vor 15 Jahren festgestellt,
00:21:01: dass diese Processing Units, die hoch parallelisiert sind auch sehr gut für
00:21:07: Machine Learning geeignet sind. Danach hat sich das Richtung KI weiterentwickelt. Wir
00:21:15: haben sogar angefangen, spezielle Karten nur für KI Anwendung zu auf den Markt zu bringen,
00:21:22: das sind diese ganze 100ter Generation also V 100 A 100 H 100 jetzt und wir haben auch jetzt
00:21:28: ein entsprechendes Software-Stack entwickeln, was die Beschleunigung dieser Karte noch besser macht,
00:21:35: also das Stichwort Synergie zwischen Hardware und Software und haben schon massiv in diesem Bereich
00:21:41: investiert und schon sehr sehr früh erkannt, dass KI eine spezielle Infrastruktur benötigen wird und
00:21:47: das ist ein großer Markt wird. Es gibt für Firmen schon eine Reihe von Hürden bei der Einführung
00:21:53: von KI, die ihr natürlich auch versucht zu überwinden oder dabei zu helfen diese zu
00:21:57: überwinden. Was sind so die die größten Hürden bei der Einführung? Es gibt prinzipiell drei Hürden,
00:22:02: also vor allem die erste Hürde sind die Daten selber. Man braucht für für jede KI-Anwendung
00:22:09: Daten und nicht irgendwelche Daten, aber so hochqualitative Daten, kuratierten Daten und
00:22:14: Daten, die auch verfügbar sind und die verfügbar nach unseren europäischen Datenschutzbestimmung
00:22:23: sind und das ist erstmal der erste Schritt. Also es gibt keine KI ohne Daten, denn das zweite ist
00:22:30: der Zugang zu dieser KI-Expertise. In Deutschland ist das extrem schwer, da dieses Talent zu finden.
00:22:38: Entwickler, die Learning-Know-how, KI-Know-how haben sind eigentlich selten und auch teure
00:22:47: Ressourcen; also das ist auch für viele Unternehmen eine Schwierigkeit und und das
00:22:50: dritte und das, was uns auch bei NVIDIA am meisten beschäftig, ist der Zugang zur KI-Infrastruktur.
00:22:58: Es ist meistens eine hohe Investition, die für vielen Unternehmen schwer zu rechtfertigen ist.
00:23:04: Manchmal für Startups gehts darum, Investoren zu überzeugen, aber auch bei großen Unternehmen,
00:23:09: aber auch ich arbeite viel mit DAX Unternehmen, die müssen auch ihr Management davon überzeugen,
00:23:14: ein paar Millionen in die KI-Infrastruktur zu investieren, ohne, dass man unbedingt von Anfang
00:23:19: an den Return on Investment beweisen kann. Es ist schon Forschung und Entwicklung ein bisschen.
00:23:27: Im Rahmen des Sequences-Projektes über das du eben schon gesprochen hast Thomas nutzen
00:23:30: wir in unseren Rechenzentren, die sogenannte DGX Plattform von NVIDIA. Also DGX ist ist im Grunde
00:23:36: genommen ein ganzes System, also wie ein Server, aber wirklich ein extrem leistungsfähiger Server,
00:23:43: der das ganze Know-how von NVIDIA im Bereich KI-Training verbündelt. Das ist
00:23:48: das Ergebnis unserer Zusammenarbeit mit vielen KI-Startups, aber auch mit den größten weltweiten
00:23:58: Konzernen, die KI-Entwicklung betreiben, sei es Google, OpenAI, Facebook allen;
00:24:05: unsere Kunden aus dem Silicon Valley. Und wir haben alle, also diese Networking Komponenten,
00:24:12: was ich vorher also erwähnt habe, die Networking Komponente diese Software Plattform die die H100
00:24:20: GPUs, die da wirklich für highperformance Computing und KI-Training gedacht sind. Das
00:24:25: ist alles in einem in einem Appliance, was wir DGX nennen zusammen verbunden bringt, also den ganzen
00:24:31: Software-Stack mit, also man braucht sich da keine Gedanken da zum Software-Stack machen. Das sind
00:24:37: auch unsere ganzen SDKs, Libraries, Frameworks, Support inklusive, also man darf nicht vergessen
00:24:47: diese KI-Welt ist eine Open Source Welt, dass ist manchmal eine Schwierigkeit auch, wenn man
00:24:52: in die Produktion geht für manche Unternehmen und auch noch den Zugang zu den KI-Experten
00:24:58: von NVIDIA. Das ist das Angebot, was sich hinter DGX versteckt. Also wir sind wirklich mehr als
00:25:03: ein Service, sondern wie gesagt, das ist Software-Stack und der der Zugang zu unserer KI-Expertise.
00:25:09: Das fand ich in deinem Vortrag ganz spannend. Natürlich NVIDIA ist ein Hardwarehersteller,
00:25:13: aber du hast gesagt, tatsächlich auch gerade bei den jüngsten Verbesserungen, die es da gab,
00:25:17: hat auch die Software dieser Software-Stack, der größtenteils Open Source ist eine große
00:25:20: Rolle gespielt! Ja, also die Software teilt massiv zur Beschleunigung von KI-Workloads.
00:25:28: Das hat NVIDIA sehr früh erkannt. Ich denke, diese neue Generation von Supercomputers gehen anders
00:25:35: voran und untersuchen diese Optimierung zwischen Hardware und Software. Irgendwann war auch der
00:25:40: Fortschritt im Hardwarebereich limitiert, also man kann natürlich immer größer, schneller, bauen und
00:25:49: und immer größere Rechenzentren, immer größeren Supercomputers. Die Priorität von NVIDIA war es,
00:25:55: an der Effizienz zu arbeiten, also wie kann man so viel Computerkapabilität wie möglich auf einen
00:26:00: einzelnen Komponent übertragen. Und das gelang, indem die Software verbessert wird, indem auch
00:26:07: alle Applikationen, die die KI-Entwickler Nutzen für GPUs optimiert werden und dadurch weniger
00:26:13: GPUs verbrauchen und das hat uns auch jetzt ein sehr sehr großen Wettbewerbsvorteil gebracht,
00:26:20: weil dadurch sind auch die NVIDIA Karten sehr energieeffizient und im Endeffekt haben die
00:26:25: einen besseren Total Cost of Ownership, weil man weniger davon braucht. Und am Ende laufen
00:26:30: die meisten KI-Anwendungen heute nicht bei den Endanwendern, sondern meistens ja in der Cloud,
00:26:34: also bei den großen Providern, wie z. B. auch IONOS. Natürlich interessiert uns, wie sehr
00:26:39: das Thema Cloud inzwischen in der Wirtschaft angekommen ist. Und dazu haben die Forscher von
00:26:44: IDC wieder ganz interessante Daten veröffentlicht. Der Vortrag von Matthias Zacher hatte den Titel
00:26:49: "Cloud in Deutschland 2023 What's Next?" Aber ich habe ihn erst einmal gefragt "Matthias,
00:26:57: whats now?!" Und da muss man sich erst mal ein paar nicht so positive Meinungen den Kollegen
00:27:02: in den Unternehmen mitteilen. Zum einen sehen wir natürlich viel zu hohe Kosten,
00:27:06: die die IT umtreibt, geringe Automatisierung, mangelnde Integration und fehlende Transparenz.
00:27:12: Also eine Ausgangslage, die auf mehr hoffen lässt und, die die Cloud auch ermöglicht. Ist die Cloud
00:27:18: mittlerweile auch bei allen Unternehmen hier angekommen in Deutschland? Ja, natürlich redet
00:27:23: jeder über die Cloud gar keine Frage, aber der zweite Punkt ist, wo ist sie wirklich umgesetzt?!
00:27:28: Und unsere Studien zeigen, dass ungefähr 80% der Unternehmen in irgendeiner Form
00:27:33: Cloudlösungen nutzen. Die Intensität, wie tief das im Unternehmen angekommen ist ist natürlich
00:27:38: völlig unterschiedlich. Was sind denn so die ganz typischen Anwendungsfälle für Cloudlösungen hier
00:27:44: in Deutschland? Das ist eine ganz schwierige bzw. umfangreiche Frage. Es gibt mindestens so
00:27:49: viele Anwendungsfälle wie Unternehmen, aber ganz grundsätzlich kann man sicher sagen,
00:27:53: auf Infrastrukturebene geht es natürlich nach wie vor um die Virtualisierung, Flexibilisierung
00:27:58: der Infrastruktur, Skalierung. Das sind an sich wichtige Punkte und andererseits auf der
00:28:03: Anwendungsebene, ja ist das ganz große Schlagwort Cloud-native. Das ist ein ganz zentraler Punkt,
00:28:08: weil natürlich in den Anwendungen letztendlich der Businessnutzen für die Unternehmen
00:28:12: steht. Da schließt sich dann entsprechend die Schnittstellen zwischen den Businessabteilungen
00:28:17: und den IT-Abteilungen. Du hattest jetzt erwähnt das Thema Cloud-native, wie kann man sich denn als
00:28:21: Unternehmen darauf vorbereiten, quasi Cloud-native zu sein, also was sind so die Voraussetzungen? Was
00:28:25: muss man mitbringen? Ja, man braucht erstmal eine Entwicklungsplattform, die bestimmte
00:28:30: Funktionalitäten bereitstellt. Da geht es um Flexibilität, um die Aufspaltung der entsprechend
00:28:36: Applikation, das Schlagwort Container, viel auch heute auf der Veranstaltung mal wieder ist
00:28:40: ganz zentral, Microservices das ist vielleicht eher von der technischen Seite zu sehen. Dann
00:28:45: muss ich natürlich viele organisatorische Dinge umsetzen, die es mir ermöglichen,
00:28:49: diese Dinge dann entsprechend in dem Cloud-native Stadium zu entwickeln und ganz wichtig, ich muss
00:28:55: einfach meine Leute mitnehmen. Ich brauche die passenden Entwickler, ich brauche natürlich die
00:28:59: Kollegen in den DevOps-Abteilungen und ich brauche natürlich auch die Kollegen aus dem Business,
00:29:03: die mir ermöglichen, dass ich das, was Sie benötigen, auch entsprechend umsetzen kann. Also
00:29:08: müssen da alle mit ins Boot. Hauptsächlich ist die IT gefordert, sprich die Anwendungsentwickler,
00:29:14: weil diese Dinge dann streng bauen und auch immer weiterentwickeln und ganz wichtig sind permanenter
00:29:19: Prozess im Gegensatz zu klassischen Anwendungen, die vielleicht in monolithen entwickelt worden
00:29:25: sind oder als Wasserfallmodell relativ statisch. Und genau das wollen wir ja mit Cloud-native
00:29:30: vermeiden. Wir wollen einfach Applikationen immer aktuell halten und die Business Anforderungen so
00:29:36: schnell wie möglich umsetzen. Und das beste Beispiel sind sicher die Apps,
00:29:39: die jeder von uns regelmäßig auf dem Mobiltelefon aktualisiert. Wo sehen denn jetzt die Anwender
00:29:45: den allergrößten Nutzen beim Einsatz der Cloud hier in Deutschland? Auch da gibt
00:29:49: es unterschiedliche Aspekte, die eine Rolle spielen, aber einer ist die Flexibilisierung,
00:29:54: dass man wirklich durch die IT, die Anwendung viel besser unterstützen kann. Das ist sicher denke ich
00:29:59: das das Wichtigste. Und natürlich gerade in der Situation jetzt im September 23 ist nach wie vor
00:30:07: das Thema der Kosten. Wirtschaftlich ist es für viel Unternehmen nicht ganz einfach und da schaut
00:30:12: man immer, wie man die Kosten runter prügeln kann. Manchmal wirklich mit Gewalt, das ist gar nicht so
00:30:16: ideal die Kosten runter zubringen, sondern langfristig zu schauen, wie ich meine Kosten
00:30:22: flexibilisieren kann. Und da kann natürlich die IT sehr viel beisteuern in bspw. Cloudnutzungsmodell.
00:30:29: Du hast vorher gesagt, dass 80 % der Unternehmen Cloud in Deutschland schon einsetzen. Das heißt
00:30:35: andersrum gesehen 20 % machen das nicht. Wo sind denn die größten Hindernisse beim
00:30:40: Einsatz von Cloudlösungen? Ganz entscheidend ist, dass häufig das Fachwissen fehlt. Man muss sagen,
00:30:48: dass viele kleine und mittlere Unternehmen die Cloud nicht nutzen. Bei den großen Unternehmen ist
00:30:54: natürlich einfach Gesetz bzw. Standard. Die haben entsprechend spezialisierte IT-Abteilungen, aber
00:30:58: ein kleines Unternehmen, wo zwei, drei, vier Leute die gesamte IT meistern, ist natürlich schwierig,
00:31:05: sich zu informieren, was sind aktuelle Trends, wie wirken die auch langfristig. Deswegen die ganzen
00:31:11: Problematiken der Weiterbildung, der Schulung und der Fachkenntnis sind ganz zentral an der Stelle.
00:31:16: Das ist eigentlich Punkt Nummer eins, der sich auch in unseren Studien widerspiegelt. Zweiter
00:31:21: Punkt ist natürlich, wie bringe ich meine Cloud mit der restlichen IT zusammen? Auch das ist
00:31:28: für viele Unternehmen relativ schwierig, da ideale Szenarien zu finden, weil sie damit auch ein Stück
00:31:33: weit Neuland begehen. Da muss man schauen, wie man das entsprechend umsetzen kann. Dritter Punkt ist
00:31:39: nach wie vor Security. Das ist ganz interessant, aber ich denke generell ist schon so ein Status
00:31:45: erreicht, dass die meisten Unternehmen sagen "die Cloud ist einfach sicherer als die eigene
00:31:50: IT." Aber nach wie vor gibt's viele Fragen, die entsprechend beantwortet werden müssen,
00:31:54: um wirklich dann aufzuzeigen, dass die Cloud einfach ein sicherer Lösungsansatz ist an der
00:31:59: Stelle. Aber würdest du denn sagen, dass aus deiner Erfahrung heraus Cloud im Prinzip für
00:32:04: jedes Unternehmen eine hohe Relevanz haben sollte? Also auch für die 20%, die jetzt noch fehlen? Ja,
00:32:10: unbedingt. Weil natürlich es extrem viele Cloud Angebote gibt. Wir reden, wenn wir über die Cloud
00:32:16: reden sowohl über Public Cloud Service, Software-as-a-Service z. B., aber auch Private Cloud
00:32:22: Lösungsansätze und da ist letztendlich für jedes Unternehmen ein sinnvoller Lösungsansatz dabei.
00:32:28: Das ist manchmal nur für die Fachabteilung z. B. im Marketing und so weiter. Das ist eigentlich
00:32:33: schon Standard in vielen Unternehmen, da entsprechende Lösung zu verwenden, aber natürlich
00:32:38: auch in anderen Bereichen ist es sinnvoll auch auf Cloudlösung zu setzen. Also jedes Unternehmen
00:32:42: sollte einfach Geschäftsprozesse anschauen, die man besser machen möchte und da ist die Frage
00:32:48: "ist die Cloud ein möglicher Lösungsansatz?" und in vielen Fällen wird es das einfach sein.
00:32:54: Zum ersten Mal beim IONOS Summit dabei war unser neuer CTO Markus Noga. Andreas, du hast ihn glaube
00:33:00: ich nach seinen Eindrücken gefragt? Genau, hören wir doch mal rein. Großartig, die Energie im Saal,
00:33:07: die vielen Kundenpartner und IONOS Kollegen, die gemeinsam nicht nur Zeit bei Vorträgen verbringen,
00:33:13: sondern auch in kleinen Gruppen in Medias Day gehen hatte mir enorm viel Energie vermittelt.
00:33:18: Was war denn dein persönliches Highlight? Also, wenn ich eins auswählen müsste, dann ist es die
00:33:24: Partner Roundtable Session von heute Mittag, bei der wir mit einem Dutzend Partnervertretern im
00:33:29: Raum die Herausforderungen des Baus von Software auf europäischen Plattformen und des Public Sektor
00:33:34: Geschäfts in der Tiefe diskutieren und gleich konkrete Aktionen festlegen konnten. Stichwort
00:33:40: Highlights. Du hast über die CloudTech Trends23 gesprochen. Was sind denn dort die Highlights,
00:33:47: sowohl in der Industrie, als auch für IONOS. Wenn du nur drei Sachen mitnehmen möchtest Andreas,
00:33:52: dann sind es künstliche Intelligenz, die souveräne Cloud und nachhaltige Infrastruktur.
00:33:57: Das Thema künstliche Intelligenz hat sich ja fast durch jeden Vortrag durchgezogen.
00:34:01: Was bewegt dich da im Moment am meisten? Mich persönlich begeistert, wie weit die künstliche
00:34:08: Intelligenz in so wenig Jahren gekommen ist und wie viel neue Anwendungsfälle wir ganz einfach
00:34:13: durch Prompt Engineering erschließen können. Dafür brauche ich keinen Entwickler mehr, dafür brauche
00:34:17: ich auch kein großes Data-Science-Team mehr, weil die Modelle so gut vor trainiert sind muss ich
00:34:22: einfach nur Anweisungen in natürlicher Sprache formulieren und kann damit einen Effekt fürs
00:34:26: Business erzielen. Das und die leistungsfähigen Open-Source-Modelle, die wir jetzt auf der IONOS
00:34:32: Cloud in Beta verfügbar haben erschließen dieses Potenzial jedem Anwender und jeder Anwenderin.
00:34:36: Und zum Schluss noch eine persönliche Frage. Ich habe gerade gesagt, du bist ein gutes gutes
00:34:39: halbes Jahr bei uns. Warst vorher bei ganz unterschiedlichen Unternehmen SAP, SUSE....
00:34:44: Wie war dein erstes halbes Jahr bei IONOS? Ein Wirbelwind von Aktivitäten. Die IONOS ist für mich
00:34:51: mit Standort Karlsruhe in vielerlei Hinsicht ein Nachhausekommen, weil ich in der schönen
00:34:55: Stadt meine Studien- und Promotionszeit verbracht habe. Ich freue mich mit so vielen hochkarätigen
00:35:02: Kolleginnen und Kollegen zusammenarbeiten zu können und die Zukunft der europäischen Cloud
00:35:06: zu gestalten. Das geht nur bei IONOS und wenn ihr euch interessiert für eine Karriere oder nächste
00:35:12: Schritte in der europäischen Cloud, dann schaut auf unsere Jobseite vorbei. Ja, dass war der IONOS
00:35:17: Summit 23 für Markus, wie war's für euch? Ich habe noch mit einem Neurowissenschaftler darüber
00:35:25: gesprochen, der auch einen super spannenden Vortrag gehalten hat. Und zwar ging es darum, ob
00:35:30: wir als Menschen schlauer bleiben als Roboter in Zukunft. Und da hat er ein ganz interessantes Bild
00:35:36: gezeichnet auch was denn künstliche Intelligenz eigentlich auch mit dem Denken macht. Da lohnt es
00:35:42: sich auch auf jeden Fall mal darüber nachzudenken. Also ich fand folgendes total spannend. Erstens,
00:35:49: dass wieder so viele Leute zu uns kamen. Hier in der Station ist ja deutlich größer als letztes
00:35:53: Mal, wo wir in Karlsruhe waren. Ganz interessant, ich wurde oft angesprochen, dass viele Personen
00:35:58: hier weiße Turnschuhe tragen. Scheint wohl das neue Business Outfit zu sein. Vielleicht haben
00:36:02: alle KI gefragt was man denn zu so einem Summit anzieht. Vermutlich ja. Ich habe gerade mal unter
00:36:07: den Tisch geschaut. Wir sind auch alle dabei, obwohl ich gestern braune Schuhe anhatte. Ja gut,
00:36:12: manchmal irrt sich auch die KI. Vielleicht war der prompt falsch. Genau. Ich fand es auch sehr
00:36:18: spannend. Thema KI, klar keine Frage war das absolute Highlight. Worauf ich mich die ganze
00:36:23: Zeit gefreut habe, ich habe es auch auf Social Media geteilt, dass Rainer Sträter mit dem wir
00:36:26: eben gesprochen haben, uns schon vor Wochen von einem Quantenchip erzählt hat, den er mitbringen
00:36:32: wird. Und den durfte ich mir tatsächlich vor zwei Stunden dann mal live anschauen. Habe auch paar
00:36:36: Fotos gemacht und ich habe Rainer gefragt, wann wir das Ding denn sehen werden und er meinte beim
00:36:41: nächsten Summit wahrscheinlich noch nicht im Betrieb, aber Rainer denkt, dass wird keine 5
00:36:45: Jahre mehr dauern bis Quantencomputing wirklich in der breiten Masse angekommen ist. Also von daher
00:36:51: es lohnt sich bei den nächsten Summits wieder dabei zu sein. Klingt auf jeden Fall spannend
00:36:55: da weiter ein Auge drauf zu haben. Und nach KI wahrscheinlich das nächste große Ding. In der Tat.
00:37:00: Also, wie sie gemerkt haben haben wir viele spannende Gespräche in Berlin gehört und
00:37:04: selbst auch geführt. Und zwar so viele, dass die eigentlich alle gar nicht in diesen Podcast
00:37:08: reingepasst haben. Deshalb können Sie sich in den kommenden Wochen auf zahlreiche Specials freuen,
00:37:13: in denen wir alle Interviews in voller Länge veröffentlichen. Aber natürlich geht es auch
00:37:18: bald wieder mit den regulären Folgen von Inside IONOS weiter. Also bleiben Sie uns
00:37:22: erhalten und wenn es Ihnen gefallen hat hinterlassen Sie gerne einen Like oder
00:37:25: einen Kommentar. Bis zum nächsten mal. Alles Gute und Tschüss! Tschüss! [Musik] Ciao!