Inside IONOS

Transkript

Zurück zur Episode

Andreas Maurer: Hallo und herzlich willkommen, live vom IONOS Summit 2025 in Berlin. Mein Name ist Andreas Maurer

Karen Gräper: Und ich bin Karen Gräper.

Andreas Maurer: Und bei uns zu Gast ist jetzt Leif-Nissen Lundbæk, der CEO von Noxtua, einem Unternehmen, das er 2017 unter dem Namen Xayn gegründet hat. Mit Noxtua entwickelt Leif Europas erste souveräne Rechts-KI, die sich zum Ziel gesetzt hat, Juristinnen und Juristen bei ihrer täglichen Arbeit zu unterstützen und das mit europäischen Werten wie Datenschutzcliance und digitaler Unabhängigkeit. Leif, du hast Noxtua 2017 aus einem Forschungsprojekt an der Uni Oxford gegründet. Wie kam es da überhaupt zu?

Leif-Nissen Lundbæk: Ja, genau. Also erstmal vielen Dank, dass ich hier sein darf und genau letztenendes haben wir vor allem uns damit beschäftigt, wie man KI sehr compliant generieren kann bzw. trainieren kann und auch eben hosten kann natürlich. Und da haben wir natürlich gesehen, einerseits müssen die Modelle da liegen, wo die Daten sind, ne? Ganz klar. Und wir haben dann im Prinzip halt ein ganzes Framework entwickelt, um das Ganze eben auch möglichst energieeffizient durchzuführen und eben auch direkt für deutsche Unternehmen oder für europäische Unternehmen eben auch bereitzustellen und mussten uns da natürlich auch dann eben sehr frühzeitig ähm Computepartner suchen, was wir dann auch eben gemacht haben. Das Ganze eben, wie gesagt, ist aus dem Compliance Bereich entstanden, ist dann aber eben sehr schnell dann auch in den letzten Jahren insbesondere in den Legalbereich reingegangen, weil Legal ist natürlich einer der Bereiche, wo Compliance am wichtigsten ist.

Andreas Maurer: Und wie kam es zu dem Namenswechsel von Xayn zu Noxtua? Hat das auch irgendeine strategische Bewandnis?

Leif-Nissen Lundbæk: Das liegt daran, dass wir vor einigen Jahren unsere Modellreihe Noxtua genannt haben. Und irgendwann war dann in den ganzen Kanzleien Rechtsabteilungen, Justiz und so weiter der Name Noxtua wesentlich geläufiger als der Name Zayn, und deswegen haben wir dann eben auch das ganze Unternehmen umbenannt in Noxtua.

Karen Gräper: Ich würde noch mal einen Schritt zurückgehen wollen und fragen, was genau kann man sich unter einer Rechts-KI vorstellen?

Leif-Nissen Lundbæk: Ja, also eine Rechts-KI kann natürlich alles mögliche sein. In unserem Kontext ist es vor allen Dingen so, dass es letztenendes eigentlich fast schon wie so eine Art Chat GPT für Juristen ist. Was natürlich aber eben alle möglichen Grundvoraussetzungen erfüllen muss. Einerseits muss es natürlich rechtlich sicher sein. Das bedeutet, dass es eben auch Berufsgeheimnisträger konform ist nach Paragraph 203 StGB. Sehr, sehr wichtig. Das bedeutet, dass wir eben auch wirklich lokal alles prozessieren müssen und eben auch sicherstellen müssen, dass eben keine Daten auch beispielsweise unter US Cloud Act in die USA abwandern können, weshalb uns natürlich eben Partner wie IONOS beispielsweise auch gesucht haben. Das zweite ist, dass es vor allen Dingen eben auch natürlich rechtliche Antworten geben muss und dass er eben auch mit dem europäischen oder insbesondere dem deutschen Rechtssystem umgehen kann. Und das bedeutet, dass wir eben vor allen Dingen Daten brauchen und deswegen haben wir diese Partnerschaft mit äh in Deutschland beispielsweise dem Verlag C.H. Beck gestartet und eben Beck-Noxtua entwickelt, was letztenendes eine Rechts-KI für den deutschen Markt ist und eben direkt beispielsweise Kommentaralliteratur, Urteile und so weiter zitieren kann und diese eben auch transparent als Grundlage für die weitere Verarbeitung beispielsweise beim Drafting von Verträgen oder eben auch in der Vertragsprüfung nutzen kann.

Andreas Maurer: Das wäre jetzt tatsächlich auch meine nächste Frage gewesen. Ich vermute mal, bei euch in der Firma werden überwiegend Softwareentwickler, Informatiker und KI-Spezialisten sein. Das heißt, das Rechts-Knowhow holt ihr euch über Partner wie Beck ins Haus.

Leif-Nissen Lundbæk: Exakt. Letztenendes ist es gar nicht so, dass wir nur Entwickler sind oder Mathematiker sind, sondern wir haben eben auch eine relativ große Legal-Tech-Abteilung. Das bedeutet also wirklich Legal Engineers, die Juristen sind, einige davon sogar Juristen und Informatiker gleichzeitig und dann natürlich zusätzlich brauchen wir den ganzen Content, das heißt wirklich die ganze Kommentarliteratur, die ganze Rechtsliteratur und die wird eben natürlich bezogen dann aus Partnern wie eben beispielsweise den Verlagen, insbesondere oder eben auch noch weitere Kanzleien, denn beispielsweise haben wir auch eine Partnerschaft mit den Kanzleien CMS und Dentons, die eben auch beispielsweise Rechts-Knowhow aus der beruflichen Praxis mit als Trainingsmaterial beiliefern.

Karen Gräper: Und die typischen Nutzer sind dann Juristen in allen möglichen Arbeitsfeldern.

Leif-Nissen Lundbæk: Genau. Wir haben drei unterschiedliche Typen. Das sind im Prinzip Juristen in Kanzleien, dann eben Juristen in Rechtsabteilungen bzw. auch teilweise peripher juristische Tätigkeiten, also beispielsweise Personaler, ne, Compliance Abteilungen, äh Procurement häufig auch und eben die dritte Säule eben die Justiz und die Verwaltung auch im weitesten Sinn.

Andreas Maurer: Hinter Noxtua, Beck-Noxtua und all euren Systemen steckt ja ein Large Language Model. Bei euch glaube ich nennt sich das Legal Large Language Model, also noch noch ein L mehr. Was unterscheidet so ein Legal Large Language Model von den klassischen LMs, wie ich sie von ChatGPT und co. Kenne?

Leif-Nissen Lundbæk: Letztenendes müssen wir bestimmte Anforderungen erfüllen in der Ausgabe des Sprachmodells. Das heißt, wir müssen eben auch das korrekte Zitieren äh erlernen. Wir haben eine in Deutschland eine ganz andere Art und Weise, wie wir zitieren und wie wir Rechtstexte formulieren als beispielsweise in USA. Die meisten Sprachmodelle sind ja vor allen Dingen mit ähm amerikanischen Content trainiert und haben dann vielleicht kleine Prozentpunkte von deutschen Content drin und insbesondere natürlich keine deutschen Rechtstexte, die vor allem in unserem Rechtssystem in Deutschland auch nicht frei verfügbar sind. Ähm wir haben beispielsweise eher ein nicht, sage ich mal so sehr ein auf Urteilsbasis basierendes Rechtssystem wie in den USA, ne? Also, wo es eben Caselaw ist, sondern wir haben eben ein Rechtssystem, was sehr stark auch von ja Professionals getrieben ist, wo es eben auch beispielsweise Kommentarliteratur gibt, die letztenendes äh die Gesetze, neue Urteile und so weiter interpretieren. Diese werden dann beispielsweise in Rechtsverlagen publiziert. Der größte Rechtsverlag in Deutschland ist der Verlag C.H. Beck und dieser Content ist eben insbesondere nötig, um dieses Sprachmodell zu trainieren, um letztenendes dem Sprachmodell beizubringen, wie man am besten wirklich eine Ausgabe schreibt, wie man richtig zitiert, wie man transparent eben auch zeigt, woher man im Prinzip oder wie man auf ein bestimmtes Ergebnis gekommen ist und nicht einfach nur letztenendes alles der Statistik des Modells überlassen, ne, sondern wirklich immer mit echt Texten echter Literatur arbeiten.

Karen Gräper: Ich habe gelesen, dass über 55 Millionen Dokumente aus der Beck Online Datenbank da reingeflossen sind. Korrigiere mich, wenn das nicht richtig ist. Da frage ich mich, wie verändert denn diese riesige Datenmenge die Leistung und Genauigkeit der KI?

Leif-Nissen Lundbæk: Letztenendes ist das Training eines Modells sind immer, sage ich mal, unterschiedliche Tasks, ne? Also, das heißt, das eine ist natürlich, ich sag mal, in Anführungsstrichen das Wissen. Man muss dazu sagen, Sprachmodelle wissen nicht wirklich, ne, sondern aber trotzdem hat das natürlich eine gewisse Relevanz. Das heißt, wenn ein Modell bereits Kommentalliteratur kennengelernt hat und die deutsche Arbeitsweise beispielsweise kennengelernt hat, dann kann es damit besser umgehen. Das zweite ist, was macht man aus diesen Texten? Das heißt, wir generieren eben auch beispielsweise sogenannte Traces, wo wir im Prinzip tatsächlich die Zusammenarbeit mit dem Modell und der Literatur, die zitiert wird, eben auch bemessen, bewerten, ne? Also, da geht man beispielsweise auf ein weiteres Sprachmodell ein, was dann letztenendes das Ganze bewertet on Scale, basierend auf bestimmten Metriken und dadurch kann man ganz ganz viel Daten letztenendes generieren, Interaktionsdaten generieren, weil wir haben bei uns ja die Besonderheit, dass wir die echten Interaktionen nicht sehen, ne? Das heißt, wir wissen nicht, was unsere User machen. Das heißt, wir müssen es im Prinzip emulieren letztenendes oder bzw. simulieren und dann generieren wir eben diese Traces basierend auf dem echten Content. Und ja, da ist genau das wieder wichtig, ne? Also ist einerseits das Lernen mit Kommentaralliteratur umzugehen, ähm Vertragsprüfung durchzuführen, Verträge zu schreiben und eben das Richtige zitieren.

Karen Gräper: Das sind dann auch so die Kernfunktionen in der konkreten Praxis, also die Beispiele, die du gerade auch schon bisschen angerissen hattest.

Leif-Nissen Lundbæk: Genau. Also grundsätzlich äh trennen wir das zwischen drei große Anwendungsbereiche. Das eine ist Research, das heißt also ich habe eine rechtliche Frage und ich möchte eine Antwort haben und Belege dazu, wobei es eben eine sehr komplexe Task ist. Das zweite ist die Vertragsprüfung und das dritte ist eben das Drafting. Ich möchte einen Vertrag neu schreiben oder einen Vertrag anpassen. In der Praxis ist es aber so, äh, dass Research bei uns quasi die Basis ist. Das heißt, wir machen Vertragsprüfung auf Basis von Research und Literatur und wir machen Drafting auf Basis von Research. Das heißt, Research bei uns eben der Umgang mit der Literatur ist immer das Fundament und Vertragsprüfung und Drafting sind quasi die, wenn man so will, Spezialgebiete da drauf und häufig ist es so, dass man alles drei macht. Das heißt, man überprüft einen Vertrag und verfasst beispielsweise neue Klauseln, schreibt diese Klauseln mit minimal invasiven Änderungen im Prinzip halt um, ne? Auch im Prinzip eine Praxis, die im rechtlichen Bereich sehr wichtig ist, nicht im Prinzip einen gesamten Text neu zu schreiben, sondern mit so wenig wie möglich Anpassungen eben in gewisser Weise eine Klausel anzupassen, eine Klausel zu verschärfen, zu drehen, wie auch immer. Und häufig macht man im Prinzip alles drei und das ist dann im Prinzip am Ende ein ganzer Prozess und man kann dann bei Beck-Noxtua beispielsweise, ich sag mal solche großen Akten durchforsten, da, sage ich mal bestimmte Fragestellungen prüfen, Verträge basierend darauf im Prinzip dann eben prüfen, umformulieren und so weiter. Man kann das eben aber auch beispielsweise solche ganzen sogenannten Workflows eben auch bauen, wo ich sage, okay, ich mache jetzt erst das, danach das, dann das und Beck-Noxtua ist mittlerweile extrem agentisch. Das heißt, ich muss nicht im Hintergrund vorgeben, dass ich sage, okay, so und so hast du deine Aufgabe zu lösen, sondern Ich sage nur, okay, das ist die Zielstellung ähm oder folgende verschiedene Zielstellungen habe ich und hier hast du im Prinzip die Literatur, löse es, ne? Und das Modell muss dann im Prinzip lernen, damit umzugehen und selbstständig im Prinzip diese Task zu lösen, ohne dass ich im Hintergrund einen exakten Workflow vorgegeben habe.

Andreas Maurer: Du hast eben schon gesagt, wie wichtig das Thema digitale Souveränität, das Thema Sicherheit für euch sind und für die Rechtsbranche gelten natürlich noch mal viel strengere Regeln als allgemein in der KI. Wie stellt ihr die Sicherheit jetzt mit eurem System genau sicher?

Leif-Nissen Lundbæk: Das sind ich sag mal drei unterschiedliche Herangehensweisen, die wir kombinieren. Das eine ist, dass wir zu 100 % mit deutschen Partnern bzw. europäischen Partnern arbeiten. Das heißt, wir haben in Deutschland ja insbesondere mit der deutschen Telekom der OTC, wo letztenendes die Anwendung liegt und eben IONOS, wo wir die beiden GPU Cluster aufgebaut haben, eben zu 100 % eben diese Partner, das heißt, wir haben keinerlei Hyperscaler bei uns mit drin bzw. keinerlei amerikanische Unternehmen, auch wenn sie jetzt Azure ein Cluster in Deutschland haben, das hilft wenig äh dabei. Das sehen wir, sage ich mal, von daher, eher kritisch. Deswegen haben wir das nicht gemacht. Das ist das eine. Das zweite ist, dass wir alle Interaktionen verschlüsseln äh und nicht speichern. Also das heißt bzw. auch niemals unverschlüsselt speichern und wir niemals an irgendwelche Interaktionen rankommen. Und das Ganze haben wir auf dieser Ebene dann eben auch natürlich ähm mit verschiedenen Partnern durch Pentests, durch Architekturbewertungen und so weiter eben auch ähm testen lassen, dass wir das garantieren können, dass wir diese Daten nicht sehen. Und das Dritte ist ähm, dass wir eben durch eine, sage ich mal, große Anzahl von Zertifizierungen und ähm vertraglichen Zusicherungen im Prinzip durchgegangen sind. Das heißt, wir verfolgen momentan haben wir zehn Compliance Frameworks, die wir haben. Das heißt, wir haben eine BSI C5 Zertifizierung, SOC 2, Tisax, fünf verschiedene ISO Zertifizierungen, darunter auch eben die ersten in Deutschland, die die 4201 für AI Risk Management durchgeführt haben. Und genau, das heißt, das muss man alles verfolgen. Plus natürlich, dass wir den AI Act sehr, sehr streng eben auch natürlich befolgen, gerade auch eben ähm die ganzen Highrisk Anforderungen, weil in der Justiz sind wir teilweise im Bereich Highrisk und dass wir eben auch unsere Partner und uns selbst eben auch nach Paragraph 203 StGB und 43e BRAO des Berufsgeheimnisträgerschutzes eben unterlegen. Und deswegen haben wir ja eben auch beispielsweise mit der Telekom und eben auch mit der IONOS diese Berufsgabenisträger vertragliche Bindung.

Andreas Maurer: Eure Legal AI Factory basiert ja auf den allermodernsten Servern von Nvidia. Das muss ich jetzt ablesen, DGX B300 mit Blackwell Architektur. Was für eine Leistungssteigerung hat das noch mal gebracht im Vergleich?

Leif-Nissen Lundbæk: Ja, also ich meine, die Maschinen sind ca. doppelt so teuer und sind je nachdem, also deswegen kann man nicht eine, also man kann nicht für alles einfach unterm Strich eine Zahl nennen. Aber ich sag mal so, für unsere relevanten Bereiche ist es dann durchaus eine Performance Steigerung von je nachdem 5 bis 15 fach. Das bedeutet, dass sie tatsächlich pro Transaktion um etliches günstiger sind. Allerdings ist das gar nicht so sehr unser hauptsächlicher Faktor, sondern wir sehen sie eher ein als ein Enabler, ne? Das heißt, es enabled vor allem neuartige Funktionen, beispielsweise immer agentischer zu werden. Agentischer bedeutet in dem Fall, dass das Modell immer mehr Schritte selbständig ausführt und zwar ähm sage ich mal in dem Sinne viel viel mehr Token auch prozessiert und das bedeutet natürlich den User darf man nicht warten lassen, sondern der User möchte trotzdem in Echtzeit in dem Sinne seine Tasks durchgeführt haben und es kann sein, dass das Modell in einer einzigen Aufgabe mal eben 500.000 oder eine Million Token prozessiert, äh teilweise sogar noch mehr einfach nur aus sich selbst heraus und das ganze muss, ich sag mal ultra schnell prozessiert werden. Von daher ist es so, dass wir mittlerweile eigentlich dann alles auf die B300 setzen und das heißt, dass wir jetzt gerade mit IONOS dabei sind quasi alles auf die B300 zu migrieren und ähm wir eigentlich gar nicht mehr auf H200 wie vorher setzen.

Karen Gräper: Du hattest ja auch gerade schon angesprochen das Thema Zertifizierung und auch die Skepsis gegenüber US-amerikanischen Anbietern bzw. der Gefahr des Zugriffes auf gewisse Daten. Könnt ihr euch denn trotzdem und wenn ja unter welchen Voraussetzungen Engagement außerhalb von Europa vorstellen?

Leif-Nissen Lundbæk: Ist bei uns eigentlich gar nicht so sehr relevant, ehrlich gesagt, sondern unser Ziel ist ganz klar im Prinzip Europa zu konsolidieren, das heißt wirklich die gesamten Rechtsraum abdecken zu können. Deswegen arbeiten wir mit verschiedensten Partnern zusammen. Natürlich für uns die wichtigsten Partner sind die Verlage und das Ziel ist ganz klar im Prinzip eine europäische Rechts-KI im Prinzip zu haben, statt im Prinzip halt diesen ganzen unterschiedlichen Rechtsräume, die natürlich weiterhin bestehen bleiben. Aber dass man im Prinzip sagt, okay, ich brauche jetzt hier in jedem Land ein anderes Tool, das kann natürlich nicht im Prinzip die Lösung sein. Von daher ist für uns gar nicht so sehr relevant, jetzt plötzlich im Prinzip zu sagen, wir machen jetzt irgendwas in weiß ich nicht China oder so. Das ist sehr, sehr schwierig, ne? Also von daher glaube ich wird es eher eine Konsolidierung geben innerhalb der großen Rechtsräume, ne? Es wird also es gibt auch schon im Prinzip eine chinesische Rechts-KI. Es gibt ein großes Projekt im Bereich von Japan. In den USA gibt es im Prinzip ein sehr, sehr starkes Rennen zwischen Thomson Reuters, Harvey Lexis und von daher, also da ist natürlich auch Kanada mit drin und dann auch Südamerika gibt es, sage ich mal, verschiedenste Themen. Von daher, denke ich, gibt es wahrscheinlich eher solch eine Konsolidierung und nicht zwangsweise unser Engagement, was jetzt, wo wir sagen, wir müssen jetzt auch noch in die USA rein, sondern wir denken, dass wir eben zentral sehr, sehr stark den europäischen Bereich covern müssen.

Andreas Maurer: Zum Abschluss dann vielleicht die Frage, die mittlerweile oft gestellt wird, wenn es um künstliche Intelligenz geht: Wird KI auch die Juristen mehr oder minder überflüssig machen? Haben wir irgendwann vielleicht den Richter KI oder wird sich doch nur das Berufsbild transformieren?

Leif-Nissen Lundbæk: Also das Berufsbild wird sich sehr, sehr stark transformieren und wir sehen natürlich jetzt schon, dass die KI immer mehr Aufgaben auch gerade im juristischen Bereich natürlich übernehmen kann und wir haben auch gleichzeitig natürlich einen sehr, sehr starken Trend von tatsächlich einem Fachkräftemangel auch im juristischen Bereich. Wir haben äh immer mehr ältere Menschen, die natürlich dann irgendwann auch in Rente gehen. Von daher hören wir häufig auch von Rechtsabteilungen und natürlich auch in der Justiz, dass es dort eben auch ein Fachkräftemangel gibt und sie sagen, okay, sie werden, sage ich mal, in 10 Jahren beispielsweise dann vielleicht hier und dort mal 20, 30 % weniger Leute finden überhaupt, ne? Und gleichzeitig haben wir immer mehr Regulierung, immer mehr, immer schärfere Regulierung auch. Das heißt, also ich sehe gar nicht so sehr eigentlich, okay, KI wird jetzt da die Menschen komplett ersetzen, sondern es gibt da natürlich ja auch ähm rechtliche Gründe tatsächlich dafür, dass ähm bestimmte Dinge immer von einem Menschen dann auch noch mal endgültig entschieden werden müssen, insbesondere natürlich bei Richtern und eben auch natürlich ähm auch bei Kanzleien, ne? Von daher glaube ich nicht, dass es jetzt in den nächsten 5 Jahren oder sowas komplett Menschen ersetzen wird, aber ich kann natürlich nicht sagen, wie sich das, sage sich mal komplett langfristig verhalten wird und wir werden auch im Bereich von richterlichen Entscheidungen und sowas, gerade wenn es jetzt so, sage ich mal, um so Massenverfahren geht, da sehen wir natürlich jetzt schon auch immer mehr KI, ne? Also gerade sowas wie Fluggastrechte oder sowas, ne? Das sind Dinge, da wird's irgendwann auch immer mehr Automatisierung geben und geben müssen.

Karen Gräper: Also gibt es dann wahrscheinlich so eine Art Hybrides Team, also Menschen, die natürlich weiterhin da sind, aber dann KI-Kollegen und -Kolleginnen haben werden.

Leif-Nissen Lundbæk: Auf jeden Fall. Ja,

Andreas Maurer: Vielen Dank für das Gespräch live.

Leif-Nissen Lundbæk: Ja, vielen lieben Dank.