00:00:00: [Musik]
00:00:07: Hallo und herzlich willkommen, zu dieser KI-Sonderfolge Inside IONOS. Heute mal
00:00:12: gemeinsam mit meinem Podcast-Kolleginnen Karen Gräper und Andreas Maurer. Mein Name
00:00:17: ist Thilo Härtel. Wir begrüßen Sie, um mit unserem Gast Mark Neufurth, Lead Strategist
00:00:22: bei IONOS, über das komplexe Thema Künstliche Intelligenz und Recht zu sprechen. Hallo Mark,
00:00:27: was müssen Unternehmen rechtlich beachten, wenn sie KI in ihrem Berufsalltag einsetzen wollen?
00:00:32: Ja, hallo Thilo. Zunächst bin ich sehr froh, dass ich heute hier sein darf. Ich muss für
00:00:36: alle Zuhörer zunächst mal vorweg sagen, dass so eine umfassende Rechtsberatung nur durch einen
00:00:41: zugelassenen Volljuristen erfolgen darf und auch einfache Rechtsberatungen, eine Registrierung in
00:00:46: einem sogenannten Rechtsdienstleistungsregister bedürfen. Deshalb kann ich nur allgemeine
00:00:49: Denkanstöße geben. Ich bitte um Ihr Verständnis. Um noch auf deine Frage zurückzukommen, Thilo,
00:00:55: zunächst haben wir ja eine spannende Zeit hinter uns. Letzte Woche endete nach einer dreitägigen
00:01:01: Marathonsitzung der sogenannte fünfte EU-Trilog. Die Organe der EU haben in diesem Trilog,
00:01:08: einer Art Diskussionsrunde, um einen Kompromiss zu finden, einen solchen Kompromiss zur Regelung von
00:01:14: Künstlicher Intelligenz gesucht und gefunden. Das heißt, es gibt den sogenannten EU AI Act,
00:01:20: der hat jetzt Form angenommen und wird in den nächsten Wochen ausformuliert und 20 Tage nach
00:01:27: der Ausformulierung in Kraft treten. Und dann wird es eine zweijährige Übergangsfrist geben,
00:01:32: in dem dann die EU-Mitgliedstaaten angeregt werden, diesen AI Act umzusetzen in nationales
00:01:38: Recht. Ansonsten gilt er unmittelbar. Das dazu. Wir sind gerade mitten in spannenden Zeiten.
00:01:43: Was hat das für Auswirkungen auf Unternehmen? Zunächst mal, er umfasst alle Rechtssubjekte der
00:01:50: EU, sowohl Privatpersonen als auch Unternehmen. Und das nicht nur anbieterseitig, sondern,
00:01:55: wenn sie AI verwenden, beziehungsweise Künstliche Intelligenz verwenden. Und insofern ist das ein
00:02:00: umfassendes Gesetz, wie wir es entsprechend kennen. Das heißt, wir müssen die Frage noch
00:02:04: ein bisschen weiter spezifizieren, Thilo, damit ich im Einzelnen darauf eingehen kann.
00:02:08: Was ich meine, ist, wie unterscheidet sich die Nutzung im betrieblichen
00:02:12: Kontext von der im privaten Bereich? Es ist für beide Instanzen zulässig.
00:02:16: Ja, ich als Privatnutzer darf KI anwenden. Das ist erstmal unbeschränkt für mich möglich. In erster
00:02:24: Linie sind von der Gesetzgebung die Anbieter von KI, wenn man das ganz allgemein fassen kann,
00:02:30: betroffen. Das heißt, die müssen KI in einem rechtskonformen Rahmen innerhalb
00:02:33: der EU anbieten. Und ich als Nutzer habe die üblichen vertraglichen Grundlagen zur Nutzung,
00:02:40: beispielsweise Nutzerbestimmungen, häufig genannt Terms and Conditions,
00:02:42: AGB, oder individuelle Verträge, die ich mit den Anbietern von KI schließe. Wenn ich ein
00:02:49: akutes Beispiel nehme, nehme ich Chat-GPT, das wir seit einem Jahr haben , das hat KI in jeden
00:02:53: Haushalt gebracht. Wenn ich Chat-GPT nutze, dann habe ich die sogenannten Terms and Conditions,
00:02:59: die AGB des Betreibers Open AI, zu akzeptieren. Und auf Basis dessen nutze ich KI. Und für die
00:03:05: Einhaltung des AI Act ist Open AI zuständig, wenn sie KI hier in der Europäischen Union
00:03:11: anbieten wollen. Das heißt, da muss ich drauf vertrauen, als privater Nutzer,
00:03:15: dass halt Open AI für die Einhaltung des Gesetzes sorgt. Mache ich das Ganze selber,
00:03:21: nehme ich mir selber ein Open-Source-Modell auf Basis von KI und entwickle meinen eigenen
00:03:25: Server und fange an, meinen Nachbarn zu überwachen und dann auszuwerten,
00:03:31: muss ich mich an den AI Act halten, denn ich werde ich zum Anbieter von KI, und muss schauen, dass
00:03:37: ich nach Recht und Gesetz handle. Das hängt davon ab, inwieweit ich als privater Nutzer auftrete
00:03:42: oder als, nennen wir es mal, gewerblicher Nutzer. Stichwort betriebliche Nutzung.
00:03:45: Du hast jetzt Open AI als ein Beispiel genannt. Die populärsten KI-Dienste kommen aus den USA,
00:03:52: Open AI, Google mit Bart und Duett oder LLaMA von Facebook. Da habe ich ja, Stichwort DSGVO,
00:03:58: besondere Verantwortung, auf die ich achten muss. In dem Trilog wurde der AI Act so
00:04:03: zurechtgeschnitten, dass er in erster Linie europäischen Anbietern von KI-Modellen
00:04:08: einen Vorsprung gibt. So kann man das glaube ich interpretieren. Da gibt's ja in Deutschland ALEPH
00:04:12: ALPHA und in Frankreich Mistral als Anbieter sogenannter Grundlagenmodelle. Die haben einen
00:04:17: Vorsprung, weil das Gesetz so gestrickt sein wird, dass in erster Linie US-amerikanische Anbieter von
00:04:22: dem AI Act erfasst werden. In der vollen Breite sind Betreiber wie Open AI erstmal besonders
00:04:28: betroffen. Und wenn es jetzt um DSGVO geht, da kommt noch mal ein anderes Rechtsgebiet hinzu,
00:04:32: nämlich das Recht der persönlichen Daten, der Schutz der persönlichen Daten. Hier haben wir
00:04:35: seit dem Sommer 2023 zum Glück eine bessere Regelung. Das heißt, es ist mittlerweile so,
00:04:41: dass wenn sich US-amerikanische Unternehmen, egal ob sie KI-Dienste anbieten oder andere Dienste
00:04:46: anbieten, wenn sie mit Daten umgehen und sich sozusagen einem Abkommen zwischen den USA und
00:04:51: der EU unterwerfen, was im Sommer diesen Jahres getroffen wurde, dann sind diese Daten zunächst
00:04:56: mal rechtskonform, selbst wenn sie in den USA verarbeitet werden. Dann ist der DSGVO Genüge
00:05:01: getan. Und das kann man machen. Es setzt voraus, dass Open AI diese Regelung, die zwischen der EU
00:05:07: und den USA getroffen wurde, unterwirft. Das heißt, sie müssen sich registrieren lassen,
00:05:11: müssen nachvollziehbar sein, dann erklären die sich, dass sie genau diese Regeln akzeptieren.
00:05:16: Dann sind sie in der Lage, Daten von EU-Bürgern in ihren Systemen zu verarbeiten. Nichtsdestotrotz
00:05:22: ist diese Regelung, die den Datenschutz in den USA gewährleisten würde, vorausgesetzt es würde erneut
00:05:30: auf der Kippe stehen. Wir haben schon zweimal Urteile des Europäischen Gerichtshofes gehabt,
00:05:35: die gesagt haben: „Ja, trotz aller Abkommen zwischen der EU und den USA ist es trotzdem immer
00:05:40: noch nicht der Datenschutzgrundverordnung Genüge getan.“ Das heißt, wir werden in den nächsten zwei
00:05:44: Jahren noch mal ein neues Urteil erleben. Und dann müssen wir wieder neu in die Startlöcher
00:05:48: zurück. Aber das gilt für KI-Betreiber wie für andere datennutzende Unternehmen. Die rechtliche
00:05:53: Grundsituation ist dieselbe, in Bezug auf Open AI. Im Moment haben sie aber Rechtsschutz,
00:05:58: wenn sie diesem Abkommen beitreten. Wenn wir beim AI Act bleiben: Da gab's,
00:06:03: du hast es gesagt, wochenlange, wenn ich monatelange Verhandlungen, und ich glaube,
00:06:07: ein Streitpunkt war, was genau man in diesen AI Act einschließt. Und da gibt's die Unterscheidung
00:06:12: zwischen den großen Sprachmodellen oder Foundation Models auf Englisch und AI Inference,
00:06:17: also der praktischen Anwendungen von solchen Sprachmodellen. Was ist denn
00:06:20: bei den Verhandlungen am Ende bei rausgekommen? Zunächst muss man unterscheiden, was Foundation
00:06:24: Models sind und was Anwendungen sind. Gehen wir erneut vom Beispiel Chat-GPT aus. Chat-GPT
00:06:29: ist eine Anwendung, die auf einem Foundation Model oder Grundlagenmodell namens GPT-4
00:06:35: aufsetzt. Der Betreiber dahinter ist Open AI, ein US-amerikanisches Unternehmen.
00:06:40: Bei diesen Foundation Models hat der AI Act folgende Unterscheidung getroffen:
00:06:45: Wenn diese Foundation Models mit einem gewissen Mindestaufwand an Rechenleistung erstellt werden,
00:06:51: eine gewisse Mindestgröße aufweisen, dann haben sie schwerwiegendere Rechtsverpflichtungen,
00:06:56: beispielsweise in Absicherung, in Offenlegungspflichten. Wie die Modelle trainiert
00:07:01: werden, mit welchen Daten, mit welchen Methoden sie trainiert werden. Das ist eine Regelung,
00:07:07: die ganz klar darauf abzielt, europäischen Anbietern von Foundation Models eben diesen
00:07:12: erwähnten Vorsprung zu geben, dass sie nicht von vorne rein an die Wand gedrückt werden von großen
00:07:17: amerikanischen Modellen. Das heißt, hier gibt's ganz klar weniger Auflagen für die europäischen
00:07:22: Foundation Models, weil sie bisher eine gewisse Mindestgröße nicht überschreiten. Was hier
00:07:27: bemerkenswert ist, ist, dass Open-Source-Modelle, Foundation Models auf Basis von Open Source,
00:07:33: mit eingebauter Offenlegung, von vielen Regelungen ausgenommen sind. Das heißt, hier geht man davon
00:07:40: aus, dass das Open-Source-Prinzip, was eine gewisse Transparenz benötigt,
00:07:45: schon dafür Sorge trägt, dass mehr Sicherheit in der Anwendung geschieht, weil man Peer-Reviewed
00:07:52: hat und Menschen drauf schauen können und entsprechend rechtlich regulierend drauf
00:07:55: schauen können auf diese Open-Source-Modelle. Hier sieht man, eine gewisse Größenordnung muss
00:08:01: überschritten sein, dann gelten striktere Regeln. Bis zu einer gewissen Mindestgröße,
00:08:06: wenn man so möchte, gelten lockerere Regeln. Und das ist im Einzelfall ganz entscheidend,
00:08:10: weil der Papierstapel der Regulierung viel dünner wird für kleinere Modellbetreiber.
00:08:16: Wie kann man trotz der lockereren Regeln beim Teil der Modelle aber dafür Sorge tragen,
00:08:22: dass man nur KI-Lösungen einsetzt, die den Datenschutz einhalten?
00:08:26: Gehen wir davon aus. Ich habe erwähnt, dass diese Regelung darauf abzielt,
00:08:30: europäische Unternehmen als Betreiber von Foundation Models zu fördern. Die sind
00:08:35: zunächst in der EU. Das heißt, sie unterliegen den europäischen Regelungen, und somit der DSGVO.
00:08:43: Sie können sich nicht einfach davonstehlen. Zum Zweiten ist es so, dass sie gewisse
00:08:47: Offenlegungspflichten haben. Sie können nicht tun und lassen, was sie wollen. Zunächst soll dann
00:08:52: eine sogenannte Aufsichtsbehörde geschaffen werden, die den Betreibern hiesiger Modelle
00:08:57: auf den Zahn fühlt, dort Fragen stellen kann, ein erweitertes Fragerecht hat unter der NDA,
00:09:03: das heißt ins Innere hineinschauen können, um zu prüfen, dass alles im geordneten
00:09:10: Rahmen läuft. Bei Verstößen gelten dann zum einen die Sanktionen, die mit dem
00:09:15: AI Act geschaffen werden, und dann noch zusätzlich die Sanktionen, die in der DSGVO für Verstöße
00:09:22: letztendlich gegen die Datenschutzgrundverordnung mit aufgeführt sind. Das heißt, das kann im
00:09:26: Einzelfall für den Betreiber eines Foundation Mels dann richtig teuer werden. Und das ist,
00:09:31: ein Disziplinierungsinstrument, was dafür sorgen wird, dass der Datenschutz
00:09:34: zumindestens von Modellbetreibern aus der EU heraus sehr ernst genommen werden wird.
00:09:39: Wechseln wir jetzt mal auf die Anwenderseite. Wie sieht eine mögliche Haftung aus, wenn etwas
00:09:44: Rechtswidriges oder eine Schuld nachzuweisen ist, die aber auf den Fehler einer KI zurückzuführen
00:09:49: ist? Wer kann dafür haftbar gemacht werden? Jetzt muss man stark differenzieren. In der
00:09:55: Regel ist es wie bei allen strafrechtlichen Tatständen. Man muss zunächst mal eine
00:10:00: Tatbestandsmäßigkeit haben. Da braucht man eine objektive Zurechnung der Tatbestandsmäßigkeit zu
00:10:05: den letztendlich entstandenen, wenn man so möchte, Schaden. Dann muss es rechtswidrig und zusätzlich
00:10:09: schuldhaft sein. Im Einzelfall den Nachweis zu führen, insbesondere der objektiven Zurechnung,
00:10:15: das wird schwierig. War jetzt wirklich ein Fehler im Modell oder eine absichtlich eingebaute Falle
00:10:22: im Modell ursächlich dafür, dass irgendwo ein Schaden entstanden ist, sei ein Rechtsverstoß
00:10:27: entstanden ist? Diesen Nachweis zu führen, wird in der Praxis schwierig werden, denn selbst bei
00:10:31: Offenlegungspflichten muss man schauen, gibt's zwischen dem mathematischen Algorithmus und seinen
00:10:37: Auswirkungen und der entstandenen Rechtsverletzung einen Zusammenhang, der so kausal ist und
00:10:43: in dem Moment objektiv zurechenbar war? Und nicht nur: es könnte einen Zusammenhang geben.
00:10:48: Da werden die Juristen in den nächsten Jahren verdammt schön dran zu knabbern haben,
00:10:51: aus meiner Sicht. Dann muss man wiederum differenzieren,
00:10:55: wo geschieht der Rechtsverstoß? Ist es beispielsweise ein Datenschutz Rechtsverstoß,
00:10:59: wie man schon erwähnt haben, oder geht's hier um Verletzung von Urheberrechten oder Patentrechten
00:11:04: beispielsweise? Oder wird ein Geschäftsgeheimnis offenbart, was nicht offenbart werden sollte,
00:11:09: weil es geschützt war? Da muss man differenzieren. Die Frage müsste man
00:11:13: runterbrechen auf die einzelnen Gebiete. Was mir beim Thema Haftung so spontan
00:11:17: in den Sinn kommt, ist die berühmte Halluzination, die man bei KI-Modellen sieht.
00:11:22: Spricht die KI, antwortet auf eine Frage mit vermeintlichen Fakten,
00:11:27: die aber frei erfunden sind. Es gab Beispiele, dass in Literaturlisten komplette Zitationen
00:11:31: erfunden sind, dass irgendwelche Werke genannt werden, die es nicht gibt. Ich weiß nicht,
00:11:35: ob es eine einfache Antwort gibt, wie es da mit der Haftung aussieht, aber ich glaube,
00:11:39: grundsätzlich als Tipp kann man den Nutzern mitgeben, wenn solche faktischen Aussagen kommen,
00:11:43: dass man die auf jeden Fall überprüfen sollte. Wir werden ganz schnell, wenn es nicht schon
00:11:48: drin steht, in den Terms and Conditions, den AGBs der Betreiber von Modellen oder von Anwendungen,
00:11:55: Haftungsausschlüsse sehen. Da werden wir drin stehen: „Antworten aus diesem Modell,
00:11:58: Beispielsweise, können Halluzinationen beinhalten. Wir ermahnen alle Nutzer,
00:12:03: dass Sie bitte ganz sorgfältig prüfen, ob die Antwort wirklich stimmt.“
00:12:06: Irgend einen Disclaimer wird da drin stehen. Und der wird den insbesondere gegenüber anwendenden,
00:12:11: nennen wir sie mal Vollkaufleuten nach deutschem Recht, gemeint sind gewerblich
00:12:14: tätige Personen mit einem gewissen Organisationsgrad, gelten. Gegenüber
00:12:19: Privatnutzern, also natürlichen Personen, wahrscheinlich nur eingeschränkt. Das ist so,
00:12:24: je nach Erfahrung im Geschäftsverkehr und nach juristischer Erfahrung kann ein Anwender
00:12:29: stärker geschützt oder weniger stark geschützt werden. Wenn IONOS beispielsweise
00:12:32: KI-Modelle anwendet oder Applikationen nutzt auf Basis von KI-Modellen,
00:12:37: dann muss es sicherstellen, dass, wenn eine Halluzination erfolgt dies vorher geprüft hat.
00:12:42: Es hat genügend Fachpersonal, es hat rechtliche Kunde und es ist erfahren im Geschäftsverkehr.
00:12:47: Da gelten weniger Sorgfaltspflichten, als wenn ich als Privatperson dasselbe nutze. Das muss
00:12:52: man differenzieren. Zum Zweiten muss man schauen, jeder Anwender hat eine Sorgfaltspflicht. Wenn ich
00:12:59: Doktorand bin an der Universität und lass meine Literaturliste von einem KI-Modell, aus einer
00:13:04: Applikation auf Basis eines Modelles erstellen und da stehen nachher halluzinierte Quellen drin,
00:13:10: dann trage ich die Verantwortung, wenn der Professor mir sagt: „Ja, das gibt's ja gar nicht.“
00:13:16: Da muss ich schauen, dass ich nach dem Vier-Augen-Prinzip vorgehe. Das ist immer gut,
00:13:20: dass ich querlese, dass ich mal gegenlese, was passiert. Das Vier-Augen-Prinzip und drüber
00:13:25: reflektieren, was man da tut, nämlich, dass man seine Arbeit in die Hände einer Maschine gibt.
00:13:30: Das ist auf jeden Fall notwendig. Da werden die Gerichte bei der Zeit hinweg so einen Maß finden,
00:13:35: austarieren, wie stark die Sorgfaltspflichten der Anwender sind im Vergleich zu den
00:13:40: Sorgfaltspflichten der Anbieter von KI. Wenn ich ein kleines Unternehmen bin,
00:13:45: was keine Rechtsabteilung hat oder unerfahren mit der Nutzung von KI bin, ist
00:13:53: die Gefahr, dass die sich nicht an das Thema heranwagen. Andererseits, ist es dann so,
00:13:58: dass wenn ich z.B. einen Website-Baukasten von IONOS benutze, wo KI-Funktionalitäten
00:14:03: integriert sind, dass dort sichergestellt ist, dass die Endnutzer rechtlich abgesichert sind?
00:14:09: Ja, Karen, da sprichst du ein sehr interessantes Thema an. Wenn ich mich nicht mit den rechtlichen
00:14:15: Verpflichtungen beschäftigen möchte, insbesondere, wo das in den nächsten Jahren noch Graubereich
00:14:19: sein wird, bis es höchstinstanzliche Urteile gibt, die das Ganze in einen Rahmen bringen. AI
00:14:24: Act erlassen und umsetzen in nationales Recht ist das eine, aber eine Rechtsfortbildung vor Gericht,
00:14:28: das was anderes. Bis dann der Bundesgerichtshof das ausentschieden hat. Viele Anwender,
00:14:33: sowohl private als kleine Unternehmen, möchten sich dem Risiko nicht aussetzen. Die werden
00:14:38: zurückscheuen. Das ist jetzt der Knackpunkt. Es muss Anbieter von Applikationen geben,
00:14:44: die das Vertrauen der Nutzer, der Anwender, genießen. Und dann sogenannte
00:14:48: Trusted AI Services anbieten. Das kann dann beispielsweise ein Internetprovider wie IONOS
00:14:53: sein. IONOS tut das indem das Produkt MyWebsite
00:15:00: ausbaut, indem es mit Hilfe von KI Inhalte für den Kunden erstellen lässt. Und hier
00:15:07: kann dann IONOS als Kurator zwischen Modell und Modell-Applikationsanbieter und Endnutzer Gutes
00:15:14: leisten. Denn wir haben mit der Zeit die Kenntnis, die Methodenkenntnis, die Methodenkompetenz zu
00:15:20: filtern, was können wir an Endkunden heranlassen und was nicht. Einem Provider wie IONOS kommt
00:15:26: die Rolle als Intermediationsrolle zu. Er ist der "Man In The Middle " zwischen der bösen KI,
00:15:32: jetzt in Anführungsstrichen, und dem Endanwender, der einigermaßen darauf vertrauen muss. Und dann
00:15:36: kann man das rechtlich so ausgestalten, dass IONOS dazu gezwungen wird, sehr sorgfältig vorzugehen,
00:15:42: weil wir unseren Kunden jetzt nicht einem Risiko aussetzen wollen. Das muss man dann vertraglich im
00:15:48: Endkundenvertragsverhältnis zwischen IONOS und dem Nutzenden dann regeln. Und dann wird das sich mit
00:15:53: der Zeit einspielen, dass wir als IONOS dafür Sorge tragen, dass nur kurierte Anwendungen den
00:15:59: Kunden kommen, wie bei MyWebsite schon geschehen. Ich denke, das ist ein gutes Beispiel dazu.
00:16:04: Wo ich mich dennoch unwohl fühlen würde, selbst beim Trusted Partner, ist ja das Thema,
00:16:10: die KI mit Geschäftsgeheimnissen, Patenten etc. zu trainieren, um die Genauigkeit der Ergebnisse zu
00:16:18: verbessern. Würdest du davon abraten oder gibt es so was wie eine Art Sandbox-System dafür?
00:16:24: Ja, zunächst muss man für die Zuhörer unterscheiden, das die Datenschutz-Verordnung
00:16:29: nur den Umgang mit höchstpersönlichen Daten von Menschen abdeckt. Jetzt haben wir viele Daten,
00:16:35: die im gewerblichen Kontext von Interesse sind. Das sind Geschäftsgeheimnisse, sogar Patente, wenn
00:16:41: man es qualifizieren möchte, und sonstige Daten, die beispielsweise ein Unternehmen im Auftrag von
00:16:46: Dritten halt weiter verwendet. Und da muss man höchst sorgfältig vorgehen. Gehen wir von den
00:16:51: Geschäftsgeheimnissen aus. Geschäftsgeheimnisse, da gibt werden durch ein eigenes Gesetz geregelt,
00:16:55: das Geschäftsgeheimnisschutzgesetz. Und da ist eine zentrale Maßgabe,
00:17:00: dass sie geschützt sein müssen. Das heißt, sie dürfen nicht frei zugänglich sein. Das
00:17:04: sind in der Regel Unternehmensdaten, nicht? Sie liegen ja in der Regel auf Unternehmensservern,
00:17:08: in Unternehmensnetzwerken, werden nach außen des Firewalls und andere Sicherungssysteme geschützt.
00:17:12: Soweit so gut. Wenn ich jetzt aber hergehe, das wird's spannend, ich nehme ein gängiges,
00:17:16: schon vorhandenes AI-Tool und gebe dort fleißig mein Unternehmensdaten ein,
00:17:21: dann gebe ich sie freiwillig aus der Hand und hebe den Schutz auf. Die Verwertung durch den
00:17:27: Anbieter des Modells stellt keinen Verstoß mehr gegen Geschäftsgeheimnisschutzgesetz da. Ich
00:17:31: bin sozusagen selber schuld. In der Praxis zeigte sich, dass es sich von Vorteil ist,
00:17:40: bezahlte Dienste zu nutzen, keine kostenfreien. Bei den bezahlten Diensten, z.B. Chat-GPT Plus,
00:17:45: gegenüber Chat-GPT in der Basisversion, bietet die Möglichkeit, dass ich Opt-Out mache. Das heißt,
00:17:50: dem Open AI als Betreiber von Chat-GPT sage: „Hier, bitte meine Daten nicht für
00:17:56: das Trainieren deines Modells verwenden, vor allen Dingen nicht zwischenspeichern.“ Das ist
00:17:59: eminent wichtig. Es hat sich herausgestellt, wenn man das einmal macht, muss das nicht unbedingt,
00:18:04: das wird im Browser hinterlegt, wird aber nächste Woche da sein, vor allem bei Updates des
00:18:09: Browsers und Ähnlichem. Man muss man regelmäßig nachchecken, ob da immer noch der Haken gesetzt
00:18:14: ist, dass man die Nutzung unterbinden möchte. Es kommt auf die Sorgfalt des Nutzers an. Und da muss
00:18:19: man mit der Zeit auch Vertrauen entwickeln. Denn man kann davon ausgehen, Open AI wird die Daten
00:18:23: von vielen Quellen verarbeiten. Die haben nicht ein Interesse daran, wirklich jeden Datensatz
00:18:28: auszulesen und für sich zu verwenden. Aber es kann passieren. Das ist das, das ist nicht
00:18:33: ausgeschlossen. Wenn ich jetzt beispielsweise ein Geschäftsgeheimnis in meinem täglichen
00:18:37: Arbeitsleben eingebe und möchte da was machen, insbesondere wenn ich mir selber ein Modell
00:18:42: herbei trainiere, dann kann es sein, dass diese Art von Daten, die ich eingegeben habe,
00:18:47: auf einmal woanders vorkommen. Und wie der Teufel das will, kommen sie genau bei unserem Mitbewerber
00:18:52: raus. Dann haben wir als IONOS und ich als Mitarbeiter von IONOS ein Problem. Und der,
00:18:58: der Mitbewerber, der wird schmunzeln, wenn er das dann so sieht. Aber er weiß nicht,
00:19:03: ob das wirklich stimmt. Es kann sein, dass es sozusagen Camouflage ist und wir absichtlich
00:19:07: falsche Informationen streuen. Gehen wir mal davon aus. Aber diese Gefahr ist gegeben, weil
00:19:11: die maschinelle Intelligenz, die verarbeiten das. Und das ist genau der Knackpunkt, wie sie das im
00:19:17: Algorithmus verarbeitet. Den Algorithmus muss man kennen. Selbst dann gibt's ja x Millionen
00:19:21: Probabilitäten, was rauskommt als Ergebnis. Sowas kann man nicht steuern. Es empfiehlt sich zwei
00:19:26: Dinge: Zum einen, wenn ich kommerzielle Modelle verwende, wie Chat-GPT, eine nicht Basisversion,
00:19:31: sondern eine Premiumversion zu nehmen. Darauf zu schauen, dass ich die Opt-Out-Funktion nutze,
00:19:35: um auszuschließen, dass Daten, die ich eingebe, verwendet werden zum Trainieren der Modelle.
00:19:40: Dann kommen sie nicht in Ergebnissen für andere raus, sondern nur in Ergebnissen,
00:19:44: die ich sehe. Das zweite Ding ist, Open Source bietet hier eine Möglichkeit. Wenn
00:19:48: ich mit Open-Source-Modellen hantiere, kann ich die selber so für mich einrichten, dass
00:19:52: ich das verhindere. IONOS macht hier einen coolen Move, wenn ich das mal so einfach sagen darf. Wir
00:19:58: aggregieren verschiedene AI Open-Source-Modelle und hosten sie auf unserer Plattform. Momentan
00:20:05: läuft das in der Beta-Version bei uns, dass wir versuchen, als Fazilitator anzugehen,
00:20:09: dass wir Open-Source-Modelle breiter bereitstellen können für Anwender und sie
00:20:13: in einer vertrauenswürdigen Infrastruktur hosten. Und diese Anwender können die nach eigenem Nutzen
00:20:18: für sich individualisieren. Bestes Beispiel: Wir nehmen irgendein gängiges Open-Source-Modell,
00:20:23: da gibt's mittlerweile schön viele im Markt, und es wird bei IONOS gehostet
00:20:27: werden. Und ein Endanwender, in der Regel ein Unternehmen, nehmen wir ein Softwareunternehmen,
00:20:33: adaptiert das und baut das auf eigene Zwecke um und trainiert dann seine Softwareanwendungen
00:20:38: mit Hilfe des Modells. Und dann kann es sicherstellen, dass die Daten nicht woanders
00:20:42: hingehen. Diesen Aufwand muss man machen. Mit der Zeit wird es weitere Schutzmaßnahmen geben,
00:20:48: weil das ein großes Risiko ist für jeden gewerblichen Anwender. Niemand möchte
00:20:52: seine Patentinformationen in der anderen Welt sehen. Bestes Beispiel Deutschland: wir besitzen
00:20:57: so viele Patentrechte im Maschinenbau. Und das ist ein gefährliches Ding. Auf der anderen Seite,
00:21:04: gibt's IoT, Internet of Things. Und da werden Maschinendaten geschrieben von Maschinen,
00:21:09: die draußen sind. Bestes Beispiel: Große Reinigungsmaschine eines süddeutschen
00:21:12: Herstellers, die läuft in Fernost. Die sendet ständig Daten zur Heimatbasis
00:21:17: zur Fernwartung und zur Fehlererkennung und Fehlervorbeugung. Und diese Daten, die gibt's,
00:21:22: die Zeit schon. Die fließen hin und her, die sind häufig verschlüsselt. Man kann nie ausschließen,
00:21:29: dass die Daten nicht irgendwo anders verwendet werden. Das grundsätzliche Spannungsverhältnis,
00:21:32: dass Daten falsch verwendet werden, hatten wir schon vor KI. Das wird jetzt nur noch mal
00:21:36: bisschen amplifiziert dadurch, weil KI im großen Maße Daten verarbeitet. Was man noch machen kann,
00:21:42: wenn ich beispielsweise selber Webangebote betreibe und möchte nicht, dass diese Webangebote
00:21:47: von KI-Modellen verarbeitet werden, dann muss ich ähnlich wie bei Google in der Robots-Textdatei,
00:21:52: also maschinenlesbaren HTML-Datei, entsprechend dafür Sorge tragen, einen Eintrag zu machen,
00:21:58: dass bitte Maschinen hier nicht crawlen und meine Informationen verarbeiten. Und dann,
00:22:04: muss man vertrauen, dass die Maschinen sich dran halten. Sie könnten theoretisch
00:22:07: übergehen, wäre dann aber ein Rechtsverstoß. Du hast ja jetzt viele Beispiele gegeben,
00:22:12: worauf ein Anwender, Nutzer achten soll bei der KI. Wenn ich aber jetzt darauf schaue,
00:22:17: dass wir über Firmen reden, da gibt's meistens nicht nur einen Anwender. Dann habe ich die Frage,
00:22:22: wie sieht das Binnenverhältnis zwischen den einzelnen Mitarbeitern und der Firma
00:22:25: als juristische Person aus? Wie kann ich mich jetzt als Unternehmen überhaupt absichern,
00:22:29: damit meine Mitarbeiter kein Schindluder treiben? Wichtig ist es, wenn ich, man muss ja
00:22:33: unterscheiden. In den neuen Arbeitsvertrag kann ich entsprechende Klausel einbringen. Ich habe
00:22:37: Bestandsmitarbeiter. Es empfiehlt sich eine sogenannte KI-Richtlinie zu entwerfen und die
00:22:42: verbindlich für jeden Mitarbeiter im Betrieb, egal ob es neue oder alte Mitarbeiter sind, verbindlich
00:22:47: zu machen. Das heißt, ihnen klar zu machen: „Hier, es gibt jetzt diese KI-Richtlinie. Nehmt ihr zur
00:22:51: Kenntnis, und ihr haltet euch da dran.“ Wenn die Mitarbeiter dann sich nicht dran halten,
00:22:55: dann begehen sie gegenüber dem Arbeitgeber eine Rechtspflichtverletzung und können entsprechend
00:22:59: haftbar gemacht werden, riskieren ihren Arbeitsplatz. Es gibt ein Druckmittel dagegen,
00:23:04: als Ergänzung des Arbeitsvertrages gilt. So einen Druck macht niemanden gut,
00:23:09: nicht einmal Mitarbeiter. Neben der KI-Richtlinie als rechtliche Absicherung empfiehlt sich Training
00:23:14: und Erziehung. Das heißt wir müssen schauen, dass wir Mitarbeiter dafür sensibilisieren,
00:23:20: was sie da tun, dass wir sie trainieren, sie zu ermutigen , sich selber schlau zu machen im Umgang
00:23:25: mit KI. Und dass sie sozusagen ein positives Gefühl dafür entwickeln, was sie tun können.
00:23:30: Im besten Fall eine Loyalität zum Arbeitgeber haben und genau das eben nicht wollen. Und ich
00:23:35: würde immer als organisatorische Maßnahme dann ein Vier-Augen-Prinzip einführen. Das heißt, bevor ich
00:23:40: Dinge verwende, die ich mit Hilfe der KI erzeugt habe, zumindest dann, wenn ich unsicher bin,
00:23:44: immer mit dem Kollegen zu besprechen oder mit dem Vorgesetzten zu besprechen, zumindest bei
00:23:48: den Zweifelsfällen, die ich habe. „Kann ich das verwenden? Sollte ich das hier tun?“ Immer mal
00:23:52: reflektieren darüber. Da ist weniger manchmal mehr, als einfach unbewusst mit KI umzugehen.
00:23:58: Jenseits rechtlicher Absicherung, wenn das mal so, ich sag mal, psychologisch, arbeitspsychologische
00:24:02: Momente, wie man KI sorgfältiger anwenden kann. Um noch mal auf eine praktische Frage einzugehen,
00:24:09: die wir glaube ich am Rande besprochen haben: Wir haben ja das Thema Urheberrecht. Die KI hat von
00:24:15: vielen Texten oder Bildern gelernt, wie sie eine neue Grafik erstellt, wie sie neue Texte erstellt.
00:24:21: Worauf muss ich achten und welche Risiken habe ich oder welche Risiken habe ich nicht,
00:24:26: wenn es um neugestaltete Inhalte geht? Beim ersten Durchlesen sorgt der AI Act
00:24:30: für einiges an Rechtssicherheit. Es ist ja erst am Freitag verabschiedet worden, der Entwurf,
00:24:36: und noch nicht ausformuliert. Zunächst werden KI-Erzeugnisse ein Wasserzeichen tragen müssen.
00:24:41: Das heißt, man kann schauen, ist es von der KI erzeugt worden. Das ist das eine. Zum zweiten
00:24:46: wird's so sein, was schon sich im Sommer dieses Jahres herausgebildet hat, wenn eine KI versucht,
00:24:52: einen gewissen urheberrechtlich geschützten Stil zu imitieren, dann ist das schon untersagt. Die
00:24:57: meisten, da gibt's bereits bestehende Gesetze, die das untersagen würden. Das ist dann eine Frage der
00:25:02: Beweisbarkeit. Wurde Van Gogh imitiert oder wurden Teile von Van Gogh und Rubens imitiert? Das wird
00:25:11: in dem Einzelnen schwierig werden. Aber jetzt mit den Dokumentationspflichten für die großen
00:25:15: Modellbetreiber wird es schwieriger, dem zu entkommen. Weil sie dokumentieren müssen,
00:25:18: wie die Modelle sozusagen Inhalte verarbeiten. Bei den kleineren, wir hatten das am Anfang mit
00:25:24: dieser Differenzierung zwischen kleineren, größeren Foundation-Modellbetreibern, wird's
00:25:27: nicht arg sein. Die werden gegenüber der Aufsichtsbehörde nachweisen müssen, wie sie
00:25:33: Inhalte verwerten. Und wenn man dann sehen kann, dass der Algorithmus gezielt oder gar planhaft,
00:25:37: das heißt mit einem gewissen Vorsatz, Sachen verarbeitet und imitiert, die geschützt sind,
00:25:42: dann wird es zu einem Rechtsstreit kommen. Die Unternehmen, die diese Modelle anbieten,
00:25:46: wenn dazu gezwungen werden, das zu ändern und zu modifizieren. Im Einzelfall für einen Nutzer
00:25:51: das nachzuweisen, wird schwierig werden. Und da hatten gewisse Aktivisten und ein größerer Teil
00:25:57: des EU Parlaments wollten dort für Sorge tragen, dass es größere Offenbarungspflichten gibt,
00:26:01: damit Urheberrechtsinhaber größere Auskunftsrechte gegenüber dem Modellbetreibern haben. Das wurde
00:26:07: aber dann so in dem Kompromiss, meines Erachtens, nicht umgesetzt. Da müssen wir noch die finale
00:26:11: Auswertung der Juristen abwarten, wie der EU AI Act da gestrickt ist. Sieht aber so aus,
00:26:16: als wenn man nicht jetzt beispielsweise als Fotograf eines mittelgroßen Fotostudios
00:26:21: in Karlsruhe beispielsweise jetzt an Open AI herantreten könnte und einen Auskunftsanspruch
00:26:26: hätte. Das wird sich nicht durchsetzen lassen. Und hier, da muss man wirklich wieder sagen,
00:26:31: gucken mit wem man kontrahiert. Es ist viel leichter, sich im Endeffekt vor Gericht zu
00:26:36: streiten im Urheberrechtsstreitigkeitsfall, wenn beide europäischer oder gar deutscher
00:26:41: Rechtssprechung unterworfen sind. Weil es viel einfacher ist, nach Mannheim zum Amtsgericht zu
00:26:45: gehen und einen Einspruch anzuklagen als nach Boston Massachusetts, zu gehen beispielsweise,
00:26:51: um dort einen Anspruch einzuklagen. Ähm, das wird nicht jeder tun, weil es zum einen großes
00:26:56: Prozesskostenrisiko gibt und zum zweiten man nicht unbedingt einen Juristen hat, der sich
00:27:00: mit Massachusetts Law auskennt oder mit generell US-amerikanischem Recht. Dagegen schon mit BGB und
00:27:07: Urheberrechtsgesetz. Darauf wird geachtet, dass man mit solchen Vertragsparteien kontrahiert,
00:27:15: die im eigenen Rechtskreis sind. Werfe jetzt nur wieder IONOS ein, darf aber gerne ein
00:27:19: französisches Unternehmen sein oder ein anderes europäisches Unternehmen. Ich möchte das nicht so
00:27:22: kategorisch fassen. Ja, und dann wird sich mit der Zeit Rechtsfortbildung geschehen. Es wird
00:27:26: wahrscheinlich am Ende, das ist meine persönliche Spekulation, ich betone, dass ich spekuliere,
00:27:30: es wird wahrscheinlich am Ende da eine Art GEMA geben, wo man pauschal letztendlich misst,
00:27:34: ob AI , wie jetzt ein Spotify oder der Südwestrundfunk Musik verwendet,
00:27:41: AI Inhalte verwendet und dann auszahlt an die entsprechenden Urheberrechtsinhaber.
00:27:48: Ich gehe davon aus, dass es über kurz oder lang ein solches Modell geben wird,
00:27:51: so ein Fair-Use-Prinzip. Weil das ansonsten in der Flut von Rechtsstreitigkeiten mündet,
00:27:56: egal wie viel Dokumentationspflichten es gibt. Wenn mit die Dokumentationspflichten
00:28:01: umgesetzt werden, dann wird nämlich der Anwender, also der Urheberrechtsinhaber,
00:28:04: nehmen wir wieder das mittelgroße KLS-Fotostudio, vor 500 Seiten Dokumentation sitzen und muss die
00:28:10: durcharbeiten. Und die sind dann in mathematisch juristischem Deutsch verfasst, wahrscheinlich nur
00:28:15: in Englisch. Und dann wird's schwierig, das praktisch durchzusetzen. Ich geh davon aus,
00:28:19: dass es zu so einer Art GEMA kommen wird, die was vermittelt, also einen Interessenausgleich sucht.
00:28:25: Du hast jetzt als Beispiel das Bild genannt, weil man sich das sehr gut vorstellen
00:28:29: kann. Aber wäre es genauso bei Patenten, Copyright-Verletzungen, bei wissenschaftlichen
00:28:35: Texten? Ich stelle mir es tatsächlich am schwierigsten bei Texten vor, ein Stil
00:28:39: oder das geistige Eigentum daran nachzuweisen. Gehen wir mal gehen wir mal von einem Beispiel
00:28:44: aus, was sich relativ leicht greifen lässt. Ton, Musik. Musik geschieht in Wellen. Töne werden als
00:28:50: Wellen übertragen. Wellenlängen und Wellenabstände kann man messen. Da wird man schnell sehen können,
00:28:56: ist es hier ein Plagiat, ja, nein, vielleicht. Das kann man recht gut messen. Bei Bildern wird schon
00:29:06: schwierig. Weil, wie will man fangch mit Ruben mit Ruben vergleichen? Das wird schwierig werden,
00:29:09: das mathematisch zu fassen. Bei Text ist es so, dass man Plagiat-Tools verwendet,
00:29:15: die für größere Strecken Übereinstimmungen sehen. Ab einem gewissen Schwellwert erkennen
00:29:19: die Gerichte an, dass es sich um Plagiate handelt. Das wird in Zukunft, weitergebildet werden. Da
00:29:24: kann man gewisse Systematiken erkennen. Was man wahrscheinlich sehen wird, wenn Wasserzeichen bei
00:29:29: Bild, die von KI erzeugt werden, dann werde diese Wasserzeichen so sein, dass Maschinen erkennen
00:29:36: können, ob andere Maschinen, AI-Inhalte generiert haben. Das heißt, dass Google beispielsweise bei
00:29:41: der Suche merkt: „Oh, dieser Inhalt, der ist aber nicht von dem Menschen gemacht worden, sondern
00:29:45: von einer Maschine.“ Weil, Algorithmen kann man wiederum erkennen. Am besten, algorithmenfähige
00:29:50: Systeme können andere Algorithmen erkennen. Das meine ich damit. Man wird sehen können, dass
00:29:54: Google beispielsweise auf der Endanwenderseite nicht vor den Kopf stoßen kann. Da wird dann
00:29:59: sagen: „Okay, hier gibt's ein Plagiat.“ Genau wie es jetzt schon duplicated Content gibt,
00:30:02: so wird Google das meinetwegen erkennen. Das wird sich da rein. Bei Patenten wird's schwierig
00:30:07: werden. Aber da haben wir das Ganze schon. Wir haben die klassische Industriespionage. Auf
00:30:11: einmal taucht eine fast baugleiche Maschine auf. Dann gibt's diese Streitigkeiten schon
00:30:16: immer. Und dann wird man gucken müssen, in die Zeichnungen für die Maschine rein:
00:30:19: „Wurde das jetzt hier abgekupfert oder nicht?“ Und irgendwann muss dann ein Gericht entscheiden:
00:30:23: „Ja, ja, liegt ein Plagiat vor.“ Es wird in jedem Fall, und das als Konklusion des Ganzen,
00:30:28: es wird viel Rechtsfortbildung geschehen müssen. Die Gerichte müssen sich da anpassen. Und es wird
00:30:35: jede Menge Streitigkeiten geben, bis man da eine gesicherte Rechtsgrundlage hat.
00:30:38: Und zu einem gewissen Grad werden sich alle, sowohl Privatpersonen als auch Unternehmen,
00:30:43: von ihren Geheimnissen in Anführungsstrichen ein bisschen verabschieden müssen. Die Welt wird ein
00:30:47: bisschen transparenter werden mit AI auf der einen Seite, intransparenter, weil da Maschinen mit
00:30:51: Algorithmen Sachen verarbeiten. Auf der zweiten Sache werden Dinge transparenter werden, weil
00:30:57: man nicht alle Löcher stopfen kann und nicht alle Mitarbeiter genügend trainieren kann. Diese Art
00:31:01: von Offenheit wird es in Zukunft geben. Ein Trost für alle Anwender ist der: Es wird so viele Daten
00:31:07: geben, dass man sie gar nicht wiederum alle lesen kann. Wenn meine Daten verloren gehen,
00:31:12: meine Patentzeichnung verloren gehen, am Ende gehen sie im Grundrauschen unter. Weil
00:31:15: die AI so viel Daten produziert, dass es keiner verarbeiten kann. Wenn man so möchte, man geht
00:31:21: in der Masse unter. Wenn man hier in Berlin auf von Alexanderplatz tritt zur Weihnachtsmarktzeit,
00:31:26: dann wird der Einzelne nicht mehr gefunden werden. Der geht einfach unter der Masse.
00:31:29: So wird das mit vielen Daten sein. Und dann, vor allen Dingen, weiß man nicht: „Ist es jetzt etwas,
00:31:34: ist es ein echtes Patent? Oder war einer clever genug und hat der Künstlichen Intelligenz falsche
00:31:40: Patente untergeworfen, um sie zu verwirren?“ Das kann man böserweise tun. Das wird sich zeigen. Ich
00:31:47: will nicht fabulieren, aber da muss man in zwei Jahren diesen Podcast wiederholen. Und dann kann
00:31:52: man schon etwas genauer diese Sachen fassen. Viele spannende neue Fragen. Vielleicht zum
00:31:57: Schluss noch mal eine persönliche Einschätzung von dir. Wie gesagt, der AI Act ist jetzt noch
00:32:01: frisch in der verabschiedeten Version. Aber was denkst du, hat der sein Ziel erreicht,
00:32:07: die europäischen Unternehmen zu schützen? Oder, das war ja eine Befürchtung,
00:32:10: die am Anfang geäußert wurde, bekommen doch die internationalen Anbieter, die eben nicht
00:32:14: direkt europäischem Recht unterliegen, durch so ein Gesetz, das restriktiv ist, einen Vorteil?
00:32:19: Ja, das wird eine spannende Sache. Wenn ich eine private Einschätzung abgeben darf und
00:32:21: betone, dass es sich hier um eine private Einschätzung handelt: Die EU-Institutionen,
00:32:27: Organe, haben sich auf die Schulter geklopft, haben gesagt: „Wir haben was erreicht.“ Ja,
00:32:30: sie haben insofern das erste einigermaßen funktionierende Rechtsmodell geschaffen
00:32:35: zur Regelung einer Sache, die wir vor einem Jahr noch gar nicht so ernst genommen haben,
00:32:38: außerhalb der Fachwelt. Aber das ist ein Kompromiss vom Kompromiss vom Kompromiss.
00:32:42: Es ist ungefähr so wie die momentane Ampelregierung, die darum kämpfen,
00:32:46: eine gemeinsame Linie zu finden. Die gemeinsame Linie zu finden,
00:32:49: den Rechtstext genau auszuarbeiten, wird die erste Herausforderung sein. Die zweite wird sein,
00:32:53: was machen die einzelnen Mitgliedsstaaten? Sie müssen das ja in nationales Recht übertragen.
00:32:57: Wo lassen sie Schlupflöcher finden? Oder wenn sie keine Schlupflöcher lassen, wie machen sie es mit
00:33:01: der Aufsichtspflicht? Wenn die Aufsichtsbehörde beispielsweise zentral in Brüssel angesetzt wird,
00:33:06: kann sie denn bis Portugal wirken? Oder bis Rumänien? Und wenn sie in Rumänien angesetzt
00:33:11: wird oder in Irland, stattet ich sie umfangreich mit personellen Ressourcen aus und materiellen
00:33:16: Ressourcen? Oder gebe ich ihnen ein Hinterzimmer und zwei Vollzeitstellen? Und das war's. Diese
00:33:21: Art von Unterlaufen des AI Acts kann passieren. Das Zweite, was passieren kann, niemand hält
00:33:27: einen europäischen Nutzer davon ab, per VPN sich mit außereuropäischen KI-Modellen in
00:33:33: Verbindung zu setzen. Falls chinesische oder amerikanische Anbieter sagen: „Nee,
00:33:38: wir wollen unsere KI-Leistungen, beispielsweise Google Gemini, jetzt nicht in der EU ausrollen,
00:33:43: weil uns dort die Anwendung zu restriktiv ist.“ Dann bieten wir es im Rest der Welt
00:33:47: an. Und europäische Nutzer werfen ihr VPN an und nutzen halt die Dienste außerhalb der EU. Dann
00:33:52: haben wir so eine Art Zwei-Klassengesellschaft. Undenkbar ist das nicht. Wenn Betreiber großer
00:33:57: Modelle mit harten Bandagen spielen, dann können sie das machen. Und wenn wir jetzt noch mal die
00:34:01: US-Präsidentschaftswahlen ins Spiel bringen, es gibt ein kleines Fragezeichen, was passieren wird,
00:34:06: wenn die nächste Präsidentenwahl anders ausgeht, als sich viele erhoffen. Und dann wird sich dann
00:34:11: zeigen, inwieweit dort wirtschaftspolitisch mit harten Bandagen gekämpft wird und ob der
00:34:15: AI Act dann wirklich so durchsetzbar ist. Das wird man dann so sehen können. Die Zukunft
00:34:19: bleibt auf jeden Fall spannend. Mit AI wird sie noch spannender. Vielen Dank für das Gespräch.
00:34:24: Vielen Dank. [Musik]