Inside IONOS

Transkript

Zurück zur Episode

00:00:00: [Musik]

00:00:07: Hallo und herzlich willkommen, zu dieser  KI-Sonderfolge Inside IONOS. Heute mal  

00:00:12: gemeinsam mit meinem Podcast-Kolleginnen  Karen Gräper und Andreas Maurer. Mein Name  

00:00:17: ist Thilo Härtel. Wir begrüßen Sie, um mit  unserem Gast Mark Neufurth, Lead Strategist  

00:00:22: bei IONOS, über das komplexe Thema Künstliche  Intelligenz und Recht zu sprechen. Hallo Mark,  

00:00:27: was müssen Unternehmen rechtlich beachten, wenn  sie KI in ihrem Berufsalltag einsetzen wollen? 

00:00:32: Ja, hallo Thilo. Zunächst bin ich sehr froh,  dass ich heute hier sein darf. Ich muss für  

00:00:36: alle Zuhörer zunächst mal vorweg sagen, dass so  eine umfassende Rechtsberatung nur durch einen  

00:00:41: zugelassenen Volljuristen erfolgen darf und auch  einfache Rechtsberatungen, eine Registrierung in  

00:00:46: einem sogenannten Rechtsdienstleistungsregister  bedürfen. Deshalb kann ich nur allgemeine  

00:00:49: Denkanstöße geben. Ich bitte um Ihr Verständnis.  Um noch auf deine Frage zurückzukommen, Thilo,  

00:00:55: zunächst haben wir ja eine spannende Zeit hinter  uns. Letzte Woche endete nach einer dreitägigen  

00:01:01: Marathonsitzung der sogenannte fünfte EU-Trilog.  Die Organe der EU haben in diesem Trilog,  

00:01:08: einer Art Diskussionsrunde, um einen Kompromiss zu  finden, einen solchen Kompromiss zur Regelung von  

00:01:14: Künstlicher Intelligenz gesucht und gefunden.  Das heißt, es gibt den sogenannten EU AI Act,  

00:01:20: der hat jetzt Form angenommen und wird in den  nächsten Wochen ausformuliert und 20 Tage nach  

00:01:27: der Ausformulierung in Kraft treten. Und dann  wird es eine zweijährige Übergangsfrist geben,  

00:01:32: in dem dann die EU-Mitgliedstaaten angeregt  werden, diesen AI Act umzusetzen in nationales  

00:01:38: Recht. Ansonsten gilt er unmittelbar. Das dazu.  Wir sind gerade mitten in spannenden Zeiten.  

00:01:43: Was hat das für Auswirkungen auf Unternehmen? Zunächst mal, er umfasst alle Rechtssubjekte der  

00:01:50: EU, sowohl Privatpersonen als auch Unternehmen.  Und das nicht nur anbieterseitig, sondern,  

00:01:55: wenn sie AI verwenden, beziehungsweise Künstliche  Intelligenz verwenden. Und insofern ist das ein  

00:02:00: umfassendes Gesetz, wie wir es entsprechend  kennen. Das heißt, wir müssen die Frage noch  

00:02:04: ein bisschen weiter spezifizieren, Thilo,  damit ich im Einzelnen darauf eingehen kann. 

00:02:08: Was ich meine, ist, wie unterscheidet  sich die Nutzung im betrieblichen  

00:02:12: Kontext von der im privaten Bereich?  Es ist für beide Instanzen zulässig. 

00:02:16: Ja, ich als Privatnutzer darf KI anwenden. Das ist  erstmal unbeschränkt für mich möglich. In erster  

00:02:24: Linie sind von der Gesetzgebung die Anbieter  von KI, wenn man das ganz allgemein fassen kann,  

00:02:30: betroffen. Das heißt, die müssen KI in  einem rechtskonformen Rahmen innerhalb  

00:02:33: der EU anbieten. Und ich als Nutzer habe die  üblichen vertraglichen Grundlagen zur Nutzung,  

00:02:40: beispielsweise Nutzerbestimmungen,  häufig genannt Terms and Conditions,  

00:02:42: AGB, oder individuelle Verträge, die ich mit  den Anbietern von KI schließe. Wenn ich ein  

00:02:49: akutes Beispiel nehme, nehme ich Chat-GPT, das  wir seit einem Jahr haben , das hat KI in jeden  

00:02:53: Haushalt gebracht. Wenn ich Chat-GPT nutze, dann  habe ich die sogenannten Terms and Conditions,  

00:02:59: die AGB des Betreibers Open AI, zu akzeptieren.  Und auf Basis dessen nutze ich KI. Und für die  

00:03:05: Einhaltung des AI Act ist Open AI zuständig,  wenn sie KI hier in der Europäischen Union  

00:03:11: anbieten wollen. Das heißt, da muss ich  drauf vertrauen, als privater Nutzer,  

00:03:15: dass halt Open AI für die Einhaltung des  Gesetzes sorgt. Mache ich das Ganze selber,  

00:03:21: nehme ich mir selber ein Open-Source-Modell  auf Basis von KI und entwickle meinen eigenen  

00:03:25: Server und fange an, meinen Nachbarn  zu überwachen und dann auszuwerten,  

00:03:31: muss ich mich an den AI Act halten, denn ich werde  ich zum Anbieter von KI, und muss schauen, dass  

00:03:37: ich nach Recht und Gesetz handle. Das hängt davon  ab, inwieweit ich als privater Nutzer auftrete  

00:03:42: oder als, nennen wir es mal, gewerblicher  Nutzer. Stichwort betriebliche Nutzung. 

00:03:45: Du hast jetzt Open AI als ein Beispiel genannt.  Die populärsten KI-Dienste kommen aus den USA,  

00:03:52: Open AI, Google mit Bart und Duett oder LLaMA  von Facebook. Da habe ich ja, Stichwort DSGVO,  

00:03:58: besondere Verantwortung, auf die ich achten muss. In dem Trilog wurde der AI Act so  

00:04:03: zurechtgeschnitten, dass er in erster Linie  europäischen Anbietern von KI-Modellen

00:04:08: einen Vorsprung gibt. So kann man das glaube ich  interpretieren. Da gibt's ja in Deutschland ALEPH  

00:04:12: ALPHA und in Frankreich Mistral als Anbieter  sogenannter Grundlagenmodelle. Die haben einen  

00:04:17: Vorsprung, weil das Gesetz so gestrickt sein wird,  dass in erster Linie US-amerikanische Anbieter von  

00:04:22: dem AI Act erfasst werden. In der vollen Breite  sind Betreiber wie Open AI erstmal besonders  

00:04:28: betroffen. Und wenn es jetzt um DSGVO geht, da  kommt noch mal ein anderes Rechtsgebiet hinzu,  

00:04:32: nämlich das Recht der persönlichen Daten, der  Schutz der persönlichen Daten. Hier haben wir  

00:04:35: seit dem Sommer 2023 zum Glück eine bessere  Regelung. Das heißt, es ist mittlerweile so,  

00:04:41: dass wenn sich US-amerikanische Unternehmen, egal  ob sie KI-Dienste anbieten oder andere Dienste  

00:04:46: anbieten, wenn sie mit Daten umgehen und sich  sozusagen einem Abkommen zwischen den USA und  

00:04:51: der EU unterwerfen, was im Sommer diesen Jahres  getroffen wurde, dann sind diese Daten zunächst  

00:04:56: mal rechtskonform, selbst wenn sie in den USA  verarbeitet werden. Dann ist der DSGVO Genüge  

00:05:01: getan. Und das kann man machen. Es setzt voraus,  dass Open AI diese Regelung, die zwischen der EU  

00:05:07: und den USA getroffen wurde, unterwirft. Das  heißt, sie müssen sich registrieren lassen,  

00:05:11: müssen nachvollziehbar sein, dann erklären die  sich, dass sie genau diese Regeln akzeptieren.  

00:05:16: Dann sind sie in der Lage, Daten von EU-Bürgern  in ihren Systemen zu verarbeiten. Nichtsdestotrotz  

00:05:22: ist diese Regelung, die den Datenschutz in den USA  gewährleisten würde, vorausgesetzt es würde erneut  

00:05:30: auf der Kippe stehen. Wir haben schon zweimal  Urteile des Europäischen Gerichtshofes gehabt,  

00:05:35: die gesagt haben: „Ja, trotz aller Abkommen  zwischen der EU und den USA ist es trotzdem immer  

00:05:40: noch nicht der Datenschutzgrundverordnung Genüge  getan.“ Das heißt, wir werden in den nächsten zwei  

00:05:44: Jahren noch mal ein neues Urteil erleben. Und  dann müssen wir wieder neu in die Startlöcher  

00:05:48: zurück. Aber das gilt für KI-Betreiber wie für  andere datennutzende Unternehmen. Die rechtliche  

00:05:53: Grundsituation ist dieselbe, in Bezug auf Open  AI. Im Moment haben sie aber Rechtsschutz,  

00:05:58: wenn sie diesem Abkommen beitreten. Wenn wir beim AI Act bleiben: Da gab's,  

00:06:03: du hast es gesagt, wochenlange, wenn ich  monatelange Verhandlungen, und ich glaube,  

00:06:07: ein Streitpunkt war, was genau man in diesen AI  Act einschließt. Und da gibt's die Unterscheidung  

00:06:12: zwischen den großen Sprachmodellen oder  Foundation Models auf Englisch und AI Inference,  

00:06:17: also der praktischen Anwendungen von  solchen Sprachmodellen. Was ist denn  

00:06:20: bei den Verhandlungen am Ende bei rausgekommen? Zunächst muss man unterscheiden, was Foundation  

00:06:24: Models sind und was Anwendungen sind. Gehen  wir erneut vom Beispiel Chat-GPT aus. Chat-GPT  

00:06:29: ist eine Anwendung, die auf einem Foundation  Model oder Grundlagenmodell namens GPT-4  

00:06:35: aufsetzt. Der Betreiber dahinter ist Open  AI, ein US-amerikanisches Unternehmen.  

00:06:40: Bei diesen Foundation Models hat der AI  Act folgende Unterscheidung getroffen:  

00:06:45: Wenn diese Foundation Models mit einem gewissen  Mindestaufwand an Rechenleistung erstellt werden,  

00:06:51: eine gewisse Mindestgröße aufweisen, dann haben  sie schwerwiegendere Rechtsverpflichtungen,  

00:06:56: beispielsweise in Absicherung, in  Offenlegungspflichten. Wie die Modelle trainiert  

00:07:01: werden, mit welchen Daten, mit welchen Methoden  sie trainiert werden. Das ist eine Regelung,  

00:07:07: die ganz klar darauf abzielt, europäischen  Anbietern von Foundation Models eben diesen  

00:07:12: erwähnten Vorsprung zu geben, dass sie nicht von  vorne rein an die Wand gedrückt werden von großen  

00:07:17: amerikanischen Modellen. Das heißt, hier gibt's  ganz klar weniger Auflagen für die europäischen  

00:07:22: Foundation Models, weil sie bisher eine gewisse  Mindestgröße nicht überschreiten. Was hier  

00:07:27: bemerkenswert ist, ist, dass Open-Source-Modelle,  Foundation Models auf Basis von Open Source,  

00:07:33: mit eingebauter Offenlegung, von vielen Regelungen  ausgenommen sind. Das heißt, hier geht man davon  

00:07:40: aus, dass das Open-Source-Prinzip,  was eine gewisse Transparenz benötigt,  

00:07:45: schon dafür Sorge trägt, dass mehr Sicherheit in  der Anwendung geschieht, weil man Peer-Reviewed  

00:07:52: hat und Menschen drauf schauen können und  entsprechend rechtlich regulierend drauf  

00:07:55: schauen können auf diese Open-Source-Modelle.  Hier sieht man, eine gewisse Größenordnung muss  

00:08:01: überschritten sein, dann gelten striktere  Regeln. Bis zu einer gewissen Mindestgröße,  

00:08:06: wenn man so möchte, gelten lockerere Regeln.  Und das ist im Einzelfall ganz entscheidend,  

00:08:10: weil der Papierstapel der Regulierung viel  dünner wird für kleinere Modellbetreiber. 

00:08:16: Wie kann man trotz der lockereren Regeln beim  Teil der Modelle aber dafür Sorge tragen,  

00:08:22: dass man nur KI-Lösungen einsetzt,  die den Datenschutz einhalten? 

00:08:26: Gehen wir davon aus. Ich habe erwähnt,  dass diese Regelung darauf abzielt,  

00:08:30: europäische Unternehmen als Betreiber von  Foundation Models zu fördern. Die sind  

00:08:35: zunächst in der EU. Das heißt, sie unterliegen den europäischen Regelungen, und somit der DSGVO.  

00:08:43: Sie können sich nicht einfach davonstehlen.  Zum Zweiten ist es so, dass sie gewisse  

00:08:47: Offenlegungspflichten haben. Sie können nicht tun  und lassen, was sie wollen. Zunächst soll dann

00:08:52: eine sogenannte Aufsichtsbehörde geschaffen  werden, die den Betreibern hiesiger Modelle  

00:08:57: auf den Zahn fühlt, dort Fragen stellen kann,  ein erweitertes Fragerecht hat unter der NDA,  

00:09:03: das heißt ins Innere hineinschauen können,  um zu prüfen, dass alles im geordneten  

00:09:10: Rahmen läuft. Bei Verstößen gelten dann  zum einen die Sanktionen, die mit dem  

00:09:15: AI Act geschaffen werden, und dann noch zusätzlich die Sanktionen, die in der DSGVO für Verstöße  

00:09:22: letztendlich gegen die Datenschutzgrundverordnung  mit aufgeführt sind. Das heißt, das kann im  

00:09:26: Einzelfall für den Betreiber eines Foundation  Mels dann richtig teuer werden. Und das ist,  

00:09:31: ein Disziplinierungsinstrument, was  dafür sorgen wird, dass der Datenschutz  

00:09:34: zumindestens von Modellbetreibern aus der  EU heraus sehr ernst genommen werden wird. 

00:09:39: Wechseln wir jetzt mal auf die Anwenderseite.  Wie sieht eine mögliche Haftung aus, wenn etwas  

00:09:44: Rechtswidriges oder eine Schuld nachzuweisen ist,  die aber auf den Fehler einer KI zurückzuführen  

00:09:49: ist? Wer kann dafür haftbar gemacht werden? Jetzt muss man stark differenzieren. In der  

00:09:55: Regel ist es wie bei allen strafrechtlichen  Tatständen. Man muss zunächst mal eine  

00:10:00: Tatbestandsmäßigkeit haben. Da braucht man eine  objektive Zurechnung der Tatbestandsmäßigkeit zu  

00:10:05: den letztendlich entstandenen, wenn man so möchte,  Schaden. Dann muss es rechtswidrig und zusätzlich

00:10:09: schuldhaft sein. Im Einzelfall den Nachweis zu  führen, insbesondere der objektiven Zurechnung,  

00:10:15: das wird schwierig. War jetzt wirklich ein Fehler  im Modell oder eine absichtlich eingebaute Falle  

00:10:22: im Modell ursächlich dafür, dass irgendwo ein  Schaden entstanden ist, sei ein Rechtsverstoß  

00:10:27: entstanden ist? Diesen Nachweis zu führen, wird  in der Praxis schwierig werden, denn selbst bei  

00:10:31: Offenlegungspflichten muss man schauen, gibt's  zwischen dem mathematischen Algorithmus und seinen  

00:10:37: Auswirkungen und der entstandenen Rechtsverletzung einen Zusammenhang, der so kausal ist und

00:10:43: in dem Moment objektiv zurechenbar war? Und  nicht nur: es könnte einen Zusammenhang geben.

00:10:48: Da werden die Juristen in den nächsten  Jahren verdammt schön dran zu knabbern haben,  

00:10:51: aus meiner Sicht. Dann muss  man wiederum differenzieren,  

00:10:55: wo geschieht der Rechtsverstoß? Ist es  beispielsweise ein Datenschutz Rechtsverstoß,  

00:10:59: wie man schon erwähnt haben, oder geht's hier um  Verletzung von Urheberrechten oder Patentrechten  

00:11:04: beispielsweise? Oder wird ein Geschäftsgeheimnis  offenbart, was nicht offenbart werden sollte,  

00:11:09: weil es geschützt war? Da muss man  differenzieren. Die Frage müsste man

00:11:13: runterbrechen auf die einzelnen Gebiete. Was mir beim Thema Haftung so spontan  

00:11:17: in den Sinn kommt, ist die berühmte  Halluzination, die man bei KI-Modellen sieht.

00:11:22: Spricht die KI, antwortet auf eine  Frage mit vermeintlichen Fakten,  

00:11:27: die aber frei erfunden sind. Es gab Beispiele,  dass in Literaturlisten komplette Zitationen  

00:11:31: erfunden sind, dass irgendwelche Werke genannt  werden, die es nicht gibt. Ich weiß nicht,  

00:11:35: ob es eine einfache Antwort gibt, wie es da  mit der Haftung aussieht, aber ich glaube,  

00:11:39: grundsätzlich als Tipp kann man den Nutzern  mitgeben, wenn solche faktischen Aussagen kommen,  

00:11:43: dass man die auf jeden Fall überprüfen sollte. Wir werden ganz schnell, wenn es nicht schon  

00:11:48: drin steht, in den Terms and Conditions, den AGBs  der Betreiber von Modellen oder von Anwendungen,  

00:11:55: Haftungsausschlüsse sehen. Da werden wir  drin stehen: „Antworten aus diesem Modell,  

00:11:58: Beispielsweise, können Halluzinationen  beinhalten. Wir ermahnen alle Nutzer,  

00:12:03: dass Sie bitte ganz sorgfältig prüfen,  ob die Antwort wirklich stimmt.“ 

00:12:06: Irgend einen Disclaimer wird da drin stehen. Und  der wird den insbesondere gegenüber anwendenden,  

00:12:11: nennen wir sie mal Vollkaufleuten nach  deutschem Recht, gemeint sind gewerblich  

00:12:14: tätige Personen mit einem gewissen  Organisationsgrad, gelten. Gegenüber  

00:12:19: Privatnutzern, also natürlichen Personen,  wahrscheinlich nur eingeschränkt. Das ist so,  

00:12:24: je nach Erfahrung im Geschäftsverkehr und  nach juristischer Erfahrung kann ein Anwender  

00:12:29: stärker geschützt oder weniger stark  geschützt werden. Wenn IONOS beispielsweise

00:12:32: KI-Modelle anwendet oder Applikationen  nutzt auf Basis von KI-Modellen,  

00:12:37: dann muss es sicherstellen, dass, wenn eine  Halluzination erfolgt dies vorher geprüft hat. 

00:12:42: Es hat genügend Fachpersonal, es hat rechtliche  Kunde und es ist erfahren im Geschäftsverkehr.  

00:12:47: Da gelten weniger Sorgfaltspflichten, als wenn  ich als Privatperson dasselbe nutze. Das muss  

00:12:52: man differenzieren. Zum Zweiten muss man schauen,  jeder Anwender hat eine Sorgfaltspflicht. Wenn ich  

00:12:59: Doktorand bin an der Universität und lass meine  Literaturliste von einem KI-Modell, aus einer  

00:13:04: Applikation auf Basis eines Modelles erstellen  und da stehen nachher halluzinierte Quellen drin,  

00:13:10: dann trage ich die Verantwortung, wenn der  Professor mir sagt: „Ja, das gibt's ja gar nicht.“

00:13:16: Da muss ich schauen, dass ich nach dem  Vier-Augen-Prinzip vorgehe. Das ist immer gut,  

00:13:20: dass ich querlese, dass ich mal gegenlese, was  passiert. Das Vier-Augen-Prinzip und drüber  

00:13:25: reflektieren, was man da tut, nämlich, dass man  seine Arbeit in die Hände einer Maschine gibt.  

00:13:30: Das ist auf jeden Fall notwendig. Da werden die  Gerichte bei der Zeit hinweg so einen Maß finden,  

00:13:35: austarieren, wie stark die Sorgfaltspflichten  der Anwender sind im Vergleich zu den  

00:13:40: Sorgfaltspflichten der Anbieter von KI. Wenn ich ein kleines Unternehmen bin,  

00:13:45: was keine Rechtsabteilung hat oder  unerfahren mit der Nutzung von KI bin, ist 

00:13:53: die Gefahr, dass die sich nicht an das Thema  heranwagen. Andererseits, ist es dann so,  

00:13:58: dass wenn ich z.B. einen Website-Baukasten  von IONOS benutze, wo KI-Funktionalitäten  

00:14:03: integriert sind, dass dort sichergestellt ist,  dass die Endnutzer rechtlich abgesichert sind? 

00:14:09: Ja, Karen, da sprichst du ein sehr interessantes  Thema an. Wenn ich mich nicht mit den rechtlichen  

00:14:15: Verpflichtungen beschäftigen möchte, insbesondere,  wo das in den nächsten Jahren noch Graubereich  

00:14:19: sein wird, bis es höchstinstanzliche Urteile  gibt, die das Ganze in einen Rahmen bringen. AI  

00:14:24: Act erlassen und umsetzen in nationales Recht ist  das eine, aber eine Rechtsfortbildung vor Gericht,  

00:14:28: das was anderes. Bis dann der Bundesgerichtshof  das ausentschieden hat. Viele Anwender,  

00:14:33: sowohl private als kleine Unternehmen, möchten  sich dem Risiko nicht aussetzen. Die werden  

00:14:38: zurückscheuen. Das ist jetzt der Knackpunkt.  Es muss Anbieter von Applikationen geben,  

00:14:44: die das Vertrauen der Nutzer, der  Anwender, genießen. Und dann sogenannte  

00:14:48: Trusted AI Services anbieten. Das kann dann  beispielsweise ein Internetprovider wie IONOS  

00:14:53: sein. IONOS tut das indem das Produkt MyWebsite

00:15:00: ausbaut, indem es mit Hilfe von KI Inhalte  für den Kunden erstellen lässt. Und hier  

00:15:07: kann dann IONOS als Kurator zwischen Modell und  Modell-Applikationsanbieter und Endnutzer Gutes  

00:15:14: leisten. Denn wir haben mit der Zeit die Kenntnis,  die Methodenkenntnis, die Methodenkompetenz zu  

00:15:20: filtern, was können wir an Endkunden heranlassen  und was nicht. Einem Provider wie IONOS kommt  

00:15:26: die Rolle als Intermediationsrolle zu. Er ist  der "Man In The Middle " zwischen der bösen KI,  

00:15:32: jetzt in Anführungsstrichen, und dem Endanwender,  der einigermaßen darauf vertrauen muss. Und dann  

00:15:36: kann man das rechtlich so ausgestalten, dass IONOS  dazu gezwungen wird, sehr sorgfältig vorzugehen,  

00:15:42: weil wir unseren Kunden jetzt nicht einem Risiko  aussetzen wollen. Das muss man dann vertraglich im  

00:15:48: Endkundenvertragsverhältnis zwischen IONOS und dem  Nutzenden dann regeln. Und dann wird das sich mit  

00:15:53: der Zeit einspielen, dass wir als IONOS dafür  Sorge tragen, dass nur kurierte Anwendungen den  

00:15:59: Kunden kommen, wie bei MyWebsite schon geschehen.  Ich denke, das ist ein gutes Beispiel dazu. 

00:16:04: Wo ich mich dennoch unwohl fühlen würde,  selbst beim Trusted Partner, ist ja das Thema,  

00:16:10: die KI mit Geschäftsgeheimnissen, Patenten etc. zu  trainieren, um die Genauigkeit der Ergebnisse zu  

00:16:18: verbessern. Würdest du davon abraten oder gibt  es so was wie eine Art Sandbox-System dafür? 

00:16:24: Ja, zunächst muss man für die Zuhörer  unterscheiden, das die Datenschutz-Verordnung  

00:16:29: nur den Umgang mit höchstpersönlichen Daten von  Menschen abdeckt. Jetzt haben wir viele Daten,  

00:16:35: die im gewerblichen Kontext von Interesse sind.  Das sind Geschäftsgeheimnisse, sogar Patente, wenn  

00:16:41: man es qualifizieren möchte, und sonstige Daten,  die beispielsweise ein Unternehmen im Auftrag von  

00:16:46: Dritten halt weiter verwendet. Und da muss man  höchst sorgfältig vorgehen. Gehen wir von den  

00:16:51: Geschäftsgeheimnissen aus. Geschäftsgeheimnisse,  da gibt werden durch ein eigenes Gesetz geregelt,  

00:16:55: das Geschäftsgeheimnisschutzgesetz.  Und da ist eine zentrale Maßgabe,  

00:17:00: dass sie geschützt sein müssen. Das heißt,  sie dürfen nicht frei zugänglich sein. Das  

00:17:04: sind in der Regel Unternehmensdaten, nicht? Sie  liegen ja in der Regel auf Unternehmensservern,  

00:17:08: in Unternehmensnetzwerken, werden nach außen des  Firewalls und andere Sicherungssysteme geschützt.  

00:17:12: Soweit so gut. Wenn ich jetzt aber hergehe,  das wird's spannend, ich nehme ein gängiges,  

00:17:16: schon vorhandenes AI-Tool und gebe dort  fleißig mein Unternehmensdaten ein,  

00:17:21: dann gebe ich sie freiwillig aus der Hand und  hebe den Schutz auf. Die Verwertung durch den  

00:17:27: Anbieter des Modells stellt keinen Verstoß mehr  gegen Geschäftsgeheimnisschutzgesetz da. Ich  

00:17:31: bin sozusagen selber schuld. In der Praxis  zeigte sich, dass es sich von Vorteil ist,  

00:17:40: bezahlte Dienste zu nutzen, keine kostenfreien.  Bei den bezahlten Diensten, z.B. Chat-GPT Plus,  

00:17:45: gegenüber Chat-GPT in der Basisversion, bietet die  Möglichkeit, dass ich Opt-Out mache. Das heißt,  

00:17:50: dem Open AI als Betreiber von Chat-GPT  sage: „Hier, bitte meine Daten nicht für  

00:17:56: das Trainieren deines Modells verwenden, vor  allen Dingen nicht zwischenspeichern.“ Das ist  

00:17:59: eminent wichtig. Es hat sich herausgestellt, wenn  man das einmal macht, muss das nicht unbedingt,  

00:18:04: das wird im Browser hinterlegt, wird aber  nächste Woche da sein, vor allem bei Updates des  

00:18:09: Browsers und Ähnlichem. Man muss man regelmäßig  nachchecken, ob da immer noch der Haken gesetzt  

00:18:14: ist, dass man die Nutzung unterbinden möchte. Es  kommt auf die Sorgfalt des Nutzers an. Und da muss  

00:18:19: man mit der Zeit auch Vertrauen entwickeln. Denn  man kann davon ausgehen, Open AI wird die Daten  

00:18:23: von vielen Quellen verarbeiten. Die haben nicht  ein Interesse daran, wirklich jeden Datensatz  

00:18:28: auszulesen und für sich zu verwenden. Aber  es kann passieren. Das ist das, das ist nicht  

00:18:33: ausgeschlossen. Wenn ich jetzt beispielsweise  ein Geschäftsgeheimnis in meinem täglichen  

00:18:37: Arbeitsleben eingebe und möchte da was machen,  insbesondere wenn ich mir selber ein Modell  

00:18:42: herbei trainiere, dann kann es sein, dass  diese Art von Daten, die ich eingegeben habe,  

00:18:47: auf einmal woanders vorkommen. Und wie der Teufel  das will, kommen sie genau bei unserem Mitbewerber  

00:18:52: raus. Dann haben wir als IONOS und ich als  Mitarbeiter von IONOS ein Problem. Und der,  

00:18:58: der Mitbewerber, der wird schmunzeln, wenn  er das dann so sieht. Aber er weiß nicht,  

00:19:03: ob das wirklich stimmt. Es kann sein, dass es  sozusagen Camouflage ist und wir absichtlich  

00:19:07: falsche Informationen streuen. Gehen wir mal  davon aus. Aber diese Gefahr ist gegeben, weil

00:19:11: die maschinelle Intelligenz, die verarbeiten das.  Und das ist genau der Knackpunkt, wie sie das im  

00:19:17: Algorithmus verarbeitet. Den Algorithmus muss  man kennen. Selbst dann gibt's ja x Millionen  

00:19:21: Probabilitäten, was rauskommt als Ergebnis. Sowas  kann man nicht steuern. Es empfiehlt sich zwei  

00:19:26: Dinge: Zum einen, wenn ich kommerzielle Modelle  verwende, wie Chat-GPT, eine nicht Basisversion,  

00:19:31: sondern eine Premiumversion zu nehmen. Darauf  zu schauen, dass ich die Opt-Out-Funktion nutze,  

00:19:35: um auszuschließen, dass Daten, die ich eingebe,  verwendet werden zum Trainieren der Modelle.  

00:19:40: Dann kommen sie nicht in Ergebnissen für  andere raus, sondern nur in Ergebnissen,  

00:19:44: die ich sehe. Das zweite Ding ist, Open  Source bietet hier eine Möglichkeit. Wenn  

00:19:48: ich mit Open-Source-Modellen hantiere, kann  ich die selber so für mich einrichten, dass  

00:19:52: ich das verhindere. IONOS macht hier einen coolen  Move, wenn ich das mal so einfach sagen darf. Wir  

00:19:58: aggregieren verschiedene AI Open-Source-Modelle  und hosten sie auf unserer Plattform. Momentan  

00:20:05: läuft das in der Beta-Version bei uns, dass  wir versuchen, als Fazilitator anzugehen,  

00:20:09: dass wir Open-Source-Modelle breiter  bereitstellen können für Anwender und sie

00:20:13: in einer vertrauenswürdigen Infrastruktur hosten.  Und diese Anwender können die nach eigenem Nutzen  

00:20:18: für sich individualisieren. Bestes Beispiel: Wir  nehmen irgendein gängiges Open-Source-Modell,  

00:20:23: da gibt's mittlerweile schön viele im  Markt, und es wird bei IONOS gehostet  

00:20:27: werden. Und ein Endanwender, in der Regel ein  Unternehmen, nehmen wir ein Softwareunternehmen,  

00:20:33: adaptiert das und baut das auf eigene Zwecke  um und trainiert dann seine Softwareanwendungen  

00:20:38: mit Hilfe des Modells. Und dann kann es  sicherstellen, dass die Daten nicht woanders  

00:20:42: hingehen. Diesen Aufwand muss man machen. Mit  der Zeit wird es weitere Schutzmaßnahmen geben,  

00:20:48: weil das ein großes Risiko ist für jeden  gewerblichen Anwender. Niemand möchte  

00:20:52: seine Patentinformationen in der anderen Welt  sehen. Bestes Beispiel Deutschland: wir besitzen

00:20:57: so viele Patentrechte im Maschinenbau. Und das  ist ein gefährliches Ding. Auf der anderen Seite,  

00:21:04: gibt's IoT, Internet of Things. Und da werden  Maschinendaten geschrieben von Maschinen,  

00:21:09: die draußen sind. Bestes Beispiel: Große  Reinigungsmaschine eines süddeutschen  

00:21:12: Herstellers, die läuft in Fernost. Die  sendet ständig Daten zur Heimatbasis  

00:21:17: zur Fernwartung und zur Fehlererkennung und  Fehlervorbeugung. Und diese Daten, die gibt's,  

00:21:22: die Zeit schon. Die fließen hin und her, die sind  häufig verschlüsselt. Man kann nie ausschließen,  

00:21:29: dass die Daten nicht irgendwo anders verwendet  werden. Das grundsätzliche Spannungsverhältnis,  

00:21:32: dass Daten falsch verwendet werden, hatten  wir schon vor KI. Das wird jetzt nur noch mal  

00:21:36: bisschen amplifiziert dadurch, weil KI im großen  Maße Daten verarbeitet. Was man noch machen kann,  

00:21:42: wenn ich beispielsweise selber Webangebote  betreibe und möchte nicht, dass diese Webangebote  

00:21:47: von KI-Modellen verarbeitet werden, dann muss ich  ähnlich wie bei Google in der Robots-Textdatei,  

00:21:52: also maschinenlesbaren HTML-Datei, entsprechend  dafür Sorge tragen, einen Eintrag zu machen,  

00:21:58: dass bitte Maschinen hier nicht crawlen und  meine Informationen verarbeiten. Und dann,  

00:22:04: muss man vertrauen, dass die Maschinen  sich dran halten. Sie könnten theoretisch  

00:22:07: übergehen, wäre dann aber ein Rechtsverstoß. Du hast ja jetzt viele Beispiele gegeben,  

00:22:12: worauf ein Anwender, Nutzer achten soll bei  der KI. Wenn ich aber jetzt darauf schaue,  

00:22:17: dass wir über Firmen reden, da gibt's meistens  nicht nur einen Anwender. Dann habe ich die Frage,  

00:22:22: wie sieht das Binnenverhältnis zwischen  den einzelnen Mitarbeitern und der Firma  

00:22:25: als juristische Person aus? Wie kann ich mich  jetzt als Unternehmen überhaupt absichern,  

00:22:29: damit meine Mitarbeiter kein Schindluder treiben? Wichtig ist es, wenn ich, man muss ja  

00:22:33: unterscheiden. In den neuen Arbeitsvertrag kann  ich entsprechende Klausel einbringen. Ich habe  

00:22:37: Bestandsmitarbeiter. Es empfiehlt sich eine  sogenannte KI-Richtlinie zu entwerfen und die  

00:22:42: verbindlich für jeden Mitarbeiter im Betrieb, egal  ob es neue oder alte Mitarbeiter sind, verbindlich  

00:22:47: zu machen. Das heißt, ihnen klar zu machen: „Hier,  es gibt jetzt diese KI-Richtlinie. Nehmt ihr zur  

00:22:51: Kenntnis, und ihr haltet euch da dran.“ Wenn  die Mitarbeiter dann sich nicht dran halten,  

00:22:55: dann begehen sie gegenüber dem Arbeitgeber eine  Rechtspflichtverletzung und können entsprechend  

00:22:59: haftbar gemacht werden, riskieren ihren  Arbeitsplatz. Es gibt ein Druckmittel dagegen,  

00:23:04: als Ergänzung des Arbeitsvertrages gilt.  So einen Druck macht niemanden gut,  

00:23:09: nicht einmal Mitarbeiter. Neben der KI-Richtlinie  als rechtliche Absicherung empfiehlt sich Training  

00:23:14: und Erziehung. Das heißt wir müssen schauen,  dass wir Mitarbeiter dafür sensibilisieren,  

00:23:20: was sie da tun, dass wir sie trainieren, sie zu  ermutigen , sich selber schlau zu machen im Umgang  

00:23:25: mit KI. Und dass sie sozusagen ein positives  Gefühl dafür entwickeln, was sie tun können.  

00:23:30: Im besten Fall eine Loyalität zum Arbeitgeber  haben und genau das eben nicht wollen. Und ich  

00:23:35: würde immer als organisatorische Maßnahme dann ein  Vier-Augen-Prinzip einführen. Das heißt, bevor ich  

00:23:40: Dinge verwende, die ich mit Hilfe der KI erzeugt  habe, zumindest dann, wenn ich unsicher bin,  

00:23:44: immer mit dem Kollegen zu besprechen oder mit  dem Vorgesetzten zu besprechen, zumindest bei  

00:23:48: den Zweifelsfällen, die ich habe. „Kann ich das  verwenden? Sollte ich das hier tun?“ Immer mal  

00:23:52: reflektieren darüber. Da ist weniger manchmal  mehr, als einfach unbewusst mit KI umzugehen.  

00:23:58: Jenseits rechtlicher Absicherung, wenn das mal so,  ich sag mal, psychologisch, arbeitspsychologische  

00:24:02: Momente, wie man KI sorgfältiger anwenden kann. Um noch mal auf eine praktische Frage einzugehen,  

00:24:09: die wir glaube ich am Rande besprochen haben: Wir  haben ja das Thema Urheberrecht. Die KI hat von  

00:24:15: vielen Texten oder Bildern gelernt, wie sie eine  neue Grafik erstellt, wie sie neue Texte erstellt.  

00:24:21: Worauf muss ich achten und welche Risiken  habe ich oder welche Risiken habe ich nicht,  

00:24:26: wenn es um neugestaltete Inhalte geht? Beim ersten Durchlesen sorgt der AI Act  

00:24:30: für einiges an Rechtssicherheit. Es ist ja erst  am Freitag verabschiedet worden, der Entwurf,  

00:24:36: und noch nicht ausformuliert. Zunächst werden  KI-Erzeugnisse ein Wasserzeichen tragen müssen.  

00:24:41: Das heißt, man kann schauen, ist es von der KI  erzeugt worden. Das ist das eine. Zum zweiten  

00:24:46: wird's so sein, was schon sich im Sommer dieses  Jahres herausgebildet hat, wenn eine KI versucht,  

00:24:52: einen gewissen urheberrechtlich geschützten Stil  zu imitieren, dann ist das schon untersagt. Die  

00:24:57: meisten, da gibt's bereits bestehende Gesetze, die  das untersagen würden. Das ist dann eine Frage der  

00:25:02: Beweisbarkeit. Wurde Van Gogh imitiert oder wurden  Teile von Van Gogh und Rubens imitiert? Das wird  

00:25:11: in dem Einzelnen schwierig werden. Aber jetzt  mit den Dokumentationspflichten für die großen  

00:25:15: Modellbetreiber wird es schwieriger, dem zu  entkommen. Weil sie dokumentieren müssen,  

00:25:18: wie die Modelle sozusagen Inhalte verarbeiten.  Bei den kleineren, wir hatten das am Anfang mit  

00:25:24: dieser Differenzierung zwischen kleineren,  größeren Foundation-Modellbetreibern, wird's  

00:25:27: nicht arg sein. Die werden gegenüber der  Aufsichtsbehörde nachweisen müssen, wie sie  

00:25:33: Inhalte verwerten. Und wenn man dann sehen kann,  dass der Algorithmus gezielt oder gar planhaft,  

00:25:37: das heißt mit einem gewissen Vorsatz, Sachen  verarbeitet und imitiert, die geschützt sind,  

00:25:42: dann wird es zu einem Rechtsstreit kommen.  Die Unternehmen, die diese Modelle anbieten,  

00:25:46: wenn dazu gezwungen werden, das zu ändern und  zu modifizieren. Im Einzelfall für einen Nutzer  

00:25:51: das nachzuweisen, wird schwierig werden. Und da  hatten gewisse Aktivisten und ein größerer Teil  

00:25:57: des EU Parlaments wollten dort für Sorge tragen,  dass es größere Offenbarungspflichten gibt,  

00:26:01: damit Urheberrechtsinhaber größere Auskunftsrechte  gegenüber dem Modellbetreibern haben. Das wurde  

00:26:07: aber dann so in dem Kompromiss, meines Erachtens,  nicht umgesetzt. Da müssen wir noch die finale  

00:26:11: Auswertung der Juristen abwarten, wie der EU  AI Act da gestrickt ist. Sieht aber so aus,  

00:26:16: als wenn man nicht jetzt beispielsweise  als Fotograf eines mittelgroßen Fotostudios  

00:26:21: in Karlsruhe beispielsweise jetzt an Open AI  herantreten könnte und einen Auskunftsanspruch  

00:26:26: hätte. Das wird sich nicht durchsetzen lassen.  Und hier, da muss man wirklich wieder sagen,  

00:26:31: gucken mit wem man kontrahiert. Es ist viel  leichter, sich im Endeffekt vor Gericht zu  

00:26:36: streiten im Urheberrechtsstreitigkeitsfall,  wenn beide europäischer oder gar deutscher  

00:26:41: Rechtssprechung unterworfen sind. Weil es viel  einfacher ist, nach Mannheim zum Amtsgericht zu  

00:26:45: gehen und einen Einspruch anzuklagen als nach  Boston Massachusetts, zu gehen beispielsweise,  

00:26:51: um dort einen Anspruch einzuklagen. Ähm, das  wird nicht jeder tun, weil es zum einen großes  

00:26:56: Prozesskostenrisiko gibt und zum zweiten man  nicht unbedingt einen Juristen hat, der sich  

00:27:00: mit Massachusetts Law auskennt oder mit generell  US-amerikanischem Recht. Dagegen schon mit BGB und  

00:27:07: Urheberrechtsgesetz. Darauf wird geachtet, dass  man mit solchen Vertragsparteien kontrahiert,  

00:27:15: die im eigenen Rechtskreis sind. Werfe jetzt  nur wieder IONOS ein, darf aber gerne ein  

00:27:19: französisches Unternehmen sein oder ein anderes  europäisches Unternehmen. Ich möchte das nicht so  

00:27:22: kategorisch fassen. Ja, und dann wird sich mit  der Zeit Rechtsfortbildung geschehen. Es wird  

00:27:26: wahrscheinlich am Ende, das ist meine persönliche  Spekulation, ich betone, dass ich spekuliere,  

00:27:30: es wird wahrscheinlich am Ende da eine Art  GEMA geben, wo man pauschal letztendlich misst,  

00:27:34: ob AI , wie jetzt ein Spotify oder  der Südwestrundfunk Musik verwendet,  

00:27:41: AI Inhalte verwendet und dann auszahlt an  die entsprechenden Urheberrechtsinhaber.  

00:27:48: Ich gehe davon aus, dass es über kurz  oder lang ein solches Modell geben wird,  

00:27:51: so ein Fair-Use-Prinzip. Weil das ansonsten  in der Flut von Rechtsstreitigkeiten mündet,  

00:27:56: egal wie viel Dokumentationspflichten es  gibt. Wenn mit die Dokumentationspflichten

00:28:01: umgesetzt werden, dann wird nämlich der  Anwender, also der Urheberrechtsinhaber,  

00:28:04: nehmen wir wieder das mittelgroße KLS-Fotostudio,  vor 500 Seiten Dokumentation sitzen und muss die  

00:28:10: durcharbeiten. Und die sind dann in mathematisch  juristischem Deutsch verfasst, wahrscheinlich nur  

00:28:15: in Englisch. Und dann wird's schwierig, das  praktisch durchzusetzen. Ich geh davon aus,  

00:28:19: dass es zu so einer Art GEMA kommen wird, die was  vermittelt, also einen Interessenausgleich sucht. 

00:28:25: Du hast jetzt als Beispiel das Bild genannt,  weil man sich das sehr gut vorstellen  

00:28:29: kann. Aber wäre es genauso bei Patenten,  Copyright-Verletzungen, bei wissenschaftlichen  

00:28:35: Texten? Ich stelle mir es tatsächlich am  schwierigsten bei Texten vor, ein Stil  

00:28:39: oder das geistige Eigentum daran nachzuweisen. Gehen wir mal gehen wir mal von einem Beispiel  

00:28:44: aus, was sich relativ leicht greifen lässt. Ton,  Musik. Musik geschieht in Wellen. Töne werden als  

00:28:50: Wellen übertragen. Wellenlängen und Wellenabstände  kann man messen. Da wird man schnell sehen können,  

00:28:56: ist es hier ein Plagiat, ja, nein, vielleicht. Das  kann man recht gut messen. Bei Bildern wird schon  

00:29:06: schwierig. Weil, wie will man fangch mit Ruben  mit Ruben vergleichen? Das wird schwierig werden,  

00:29:09: das mathematisch zu fassen. Bei Text ist  es so, dass man Plagiat-Tools verwendet,  

00:29:15: die für größere Strecken Übereinstimmungen  sehen. Ab einem gewissen Schwellwert erkennen  

00:29:19: die Gerichte an, dass es sich um Plagiate handelt.  Das wird in Zukunft, weitergebildet werden. Da  

00:29:24: kann man gewisse Systematiken erkennen. Was man  wahrscheinlich sehen wird, wenn Wasserzeichen bei  

00:29:29: Bild, die von KI erzeugt werden, dann werde diese  Wasserzeichen so sein, dass Maschinen erkennen  

00:29:36: können, ob andere Maschinen, AI-Inhalte generiert  haben. Das heißt, dass Google beispielsweise bei  

00:29:41: der Suche merkt: „Oh, dieser Inhalt, der ist aber  nicht von dem Menschen gemacht worden, sondern  

00:29:45: von einer Maschine.“ Weil, Algorithmen kann man  wiederum erkennen. Am besten, algorithmenfähige  

00:29:50: Systeme können andere Algorithmen erkennen. Das  meine ich damit. Man wird sehen können, dass  

00:29:54: Google beispielsweise auf der Endanwenderseite  nicht vor den Kopf stoßen kann. Da wird dann  

00:29:59: sagen: „Okay, hier gibt's ein Plagiat.“ Genau  wie es jetzt schon duplicated Content gibt,  

00:30:02: so wird Google das meinetwegen erkennen. Das  wird sich da rein. Bei Patenten wird's schwierig  

00:30:07: werden. Aber da haben wir das Ganze schon. Wir  haben die klassische Industriespionage. Auf  

00:30:11: einmal taucht eine fast baugleiche Maschine  auf. Dann gibt's diese Streitigkeiten schon  

00:30:16: immer. Und dann wird man gucken müssen,  in die Zeichnungen für die Maschine rein:  

00:30:19: „Wurde das jetzt hier abgekupfert oder nicht?“  Und irgendwann muss dann ein Gericht entscheiden:  

00:30:23: „Ja, ja, liegt ein Plagiat vor.“ Es wird in  jedem Fall, und das als Konklusion des Ganzen,  

00:30:28: es wird viel Rechtsfortbildung geschehen müssen.  Die Gerichte müssen sich da anpassen. Und es wird  

00:30:35: jede Menge Streitigkeiten geben, bis man  da eine gesicherte Rechtsgrundlage hat.  

00:30:38: Und zu einem gewissen Grad werden sich alle,  sowohl Privatpersonen als auch Unternehmen,  

00:30:43: von ihren Geheimnissen in Anführungsstrichen ein  bisschen verabschieden müssen. Die Welt wird ein  

00:30:47: bisschen transparenter werden mit AI auf der einen  Seite, intransparenter, weil da Maschinen mit  

00:30:51: Algorithmen Sachen verarbeiten. Auf der zweiten  Sache werden Dinge transparenter werden, weil  

00:30:57: man nicht alle Löcher stopfen kann und nicht alle  Mitarbeiter genügend trainieren kann. Diese Art  

00:31:01: von Offenheit wird es in Zukunft geben. Ein Trost  für alle Anwender ist der: Es wird so viele Daten  

00:31:07: geben, dass man sie gar nicht wiederum alle  lesen kann. Wenn meine Daten verloren gehen,  

00:31:12: meine Patentzeichnung verloren gehen, am  Ende gehen sie im Grundrauschen unter. Weil  

00:31:15: die AI so viel Daten produziert, dass es keiner  verarbeiten kann. Wenn man so möchte, man geht  

00:31:21: in der Masse unter. Wenn man hier in Berlin auf  von Alexanderplatz tritt zur Weihnachtsmarktzeit,  

00:31:26: dann wird der Einzelne nicht mehr gefunden  werden. Der geht einfach unter der Masse.  

00:31:29: So wird das mit vielen Daten sein. Und dann, vor  allen Dingen, weiß man nicht: „Ist es jetzt etwas,  

00:31:34: ist es ein echtes Patent? Oder war einer clever  genug und hat der Künstlichen Intelligenz falsche  

00:31:40: Patente untergeworfen, um sie zu verwirren?“ Das  kann man böserweise tun. Das wird sich zeigen. Ich  

00:31:47: will nicht fabulieren, aber da muss man in zwei  Jahren diesen Podcast wiederholen. Und dann kann  

00:31:52: man schon etwas genauer diese Sachen fassen. Viele spannende neue Fragen. Vielleicht zum  

00:31:57: Schluss noch mal eine persönliche Einschätzung  von dir. Wie gesagt, der AI Act ist jetzt noch  

00:32:01: frisch in der verabschiedeten Version. Aber  was denkst du, hat der sein Ziel erreicht,  

00:32:07: die europäischen Unternehmen zu schützen?  Oder, das war ja eine Befürchtung,  

00:32:10: die am Anfang geäußert wurde, bekommen doch  die internationalen Anbieter, die eben nicht  

00:32:14: direkt europäischem Recht unterliegen, durch so  ein Gesetz, das restriktiv ist, einen Vorteil? 

00:32:19: Ja, das wird eine spannende Sache. Wenn ich  eine private Einschätzung abgeben darf und

00:32:21: betone, dass es sich hier um eine private  Einschätzung handelt: Die EU-Institutionen,  

00:32:27: Organe, haben sich auf die Schulter geklopft,  haben gesagt: „Wir haben was erreicht.“ Ja,  

00:32:30: sie haben insofern das erste einigermaßen  funktionierende Rechtsmodell geschaffen  

00:32:35: zur Regelung einer Sache, die wir vor einem  Jahr noch gar nicht so ernst genommen haben,  

00:32:38: außerhalb der Fachwelt. Aber das ist ein  Kompromiss vom Kompromiss vom Kompromiss.  

00:32:42: Es ist ungefähr so wie die momentane  Ampelregierung, die darum kämpfen,  

00:32:46: eine gemeinsame Linie zu finden.  Die gemeinsame Linie zu finden,  

00:32:49: den Rechtstext genau auszuarbeiten, wird die  erste Herausforderung sein. Die zweite wird sein,  

00:32:53: was machen die einzelnen Mitgliedsstaaten? Sie  müssen das ja in nationales Recht übertragen.  

00:32:57: Wo lassen sie Schlupflöcher finden? Oder wenn sie  keine Schlupflöcher lassen, wie machen sie es mit  

00:33:01: der Aufsichtspflicht? Wenn die Aufsichtsbehörde  beispielsweise zentral in Brüssel angesetzt wird,  

00:33:06: kann sie denn bis Portugal wirken? Oder bis  Rumänien? Und wenn sie in Rumänien angesetzt  

00:33:11: wird oder in Irland, stattet ich sie umfangreich  mit personellen Ressourcen aus und materiellen  

00:33:16: Ressourcen? Oder gebe ich ihnen ein Hinterzimmer  und zwei Vollzeitstellen? Und das war's. Diese  

00:33:21: Art von Unterlaufen des AI Acts kann passieren.  Das Zweite, was passieren kann, niemand hält  

00:33:27: einen europäischen Nutzer davon ab, per VPN  sich mit außereuropäischen KI-Modellen in  

00:33:33: Verbindung zu setzen. Falls chinesische  oder amerikanische Anbieter sagen: „Nee,  

00:33:38: wir wollen unsere KI-Leistungen, beispielsweise  Google Gemini, jetzt nicht in der EU ausrollen,  

00:33:43: weil uns dort die Anwendung zu restriktiv  ist.“ Dann bieten wir es im Rest der Welt  

00:33:47: an. Und europäische Nutzer werfen ihr VPN an und  nutzen halt die Dienste außerhalb der EU. Dann  

00:33:52: haben wir so eine Art Zwei-Klassengesellschaft.  Undenkbar ist das nicht. Wenn Betreiber großer  

00:33:57: Modelle mit harten Bandagen spielen, dann können  sie das machen. Und wenn wir jetzt noch mal die  

00:34:01: US-Präsidentschaftswahlen ins Spiel bringen, es  gibt ein kleines Fragezeichen, was passieren wird,  

00:34:06: wenn die nächste Präsidentenwahl anders ausgeht,  als sich viele erhoffen. Und dann wird sich dann  

00:34:11: zeigen, inwieweit dort wirtschaftspolitisch  mit harten Bandagen gekämpft wird und ob der  

00:34:15: AI Act dann wirklich so durchsetzbar ist. Das  wird man dann so sehen können. Die Zukunft  

00:34:19: bleibt auf jeden Fall spannend. Mit AI wird sie  noch spannender. Vielen Dank für das Gespräch. 

00:34:24: Vielen Dank. [Musik]