Alle News & Events anzeigen
14.04.2025

KI-Flash: Zurechnungsfragen beim Einsatz von KI-Tools

Im heutigen KI-Flash sollen Fragen rund um die Wissenszurechnung beim Einsatz von KI-Tools in der Customer-Experience mit einem besonderen Blick auf die Haftung von Plattformbetreibern erörtert werden. Dabei geht es vor allem um den Maßstab der Wissenszurechnung, die Anforderungen an die Geeignetheit des KI-Tools zur Wissensermittlung und die Frage der Zurechnung bei den unterschiedlichen Einsatzformen von KI-Tools.

 

Aufhänger und zugleich Illustration dieses Problembereichs ist eine jüngst ergangene Entscheidung des Landgerichts München I:

Am 27.01.2025 hat die 33. Zivilkammer des Landgerichts München I eine einstweilige Verfügung gegen TikTok erlassen (Az.: 33 O 28/25). Gegenstand der Verfügung war die Untersagung der Veröffentlichung bzw. öffentlichen Zugänglichmachung eines sog. „Fake-Accounts“. Was auf den ersten Blick nicht besonders erwähnenswert scheint, offenbart bei näherer Betrachtung spannende rechtliche Fragestellungen rund um den Einsatz von KI-Chatbots und KI-Tools und deren „Wissens“-Zurechnung.

In diesem Fall entdeckte der Antragsteller einen von Unbekannten erstellten Fake-Account auf der Plattform. Der Fake-Account hatte einen zum Verwechseln ähnlichen Namen und verwendete das Profilbild des Original-Accounts. Ebenfalls wurden einige Videos des Original-Accounts verwendet. Über den Fake-Account forderten dessen Betreiber in betrügerischer Absicht wahllos Nutzer über Privatnachrichten zur Durchführung von Transaktionen mit Kryptowährungen auf.

Nach einem Versuch der unmittelbaren Kommunikation mit den Betreibern des Fake-Accounts bediente sich der spätere Antragsteller des Meldeformulars der Antragsgegnerin. Nachdem das Formular ausgefüllt und abgeschickt war, erhielt die Antragstellerin die automatisch generierte Nachricht „Überprüfung deiner Meldung – Wir Überprüfen die Meldung und ergreifen entsprechende Maßnahmen, wenn ein Verstoß gegen unsere Community-Richtlinie vorliegt“. Mit einem gewissen zeitlichen Abstand erhielt der Antragsteller später eine Meldung, wonach aus Sicht von TikTok keine Rechtsverletzung vorliege. Auch eine zweite Meldung über das Meldeformular endete auf diese Weise. Nach dieser Weigerung von TIkTok, den Fake-Account zu löschen, ging der Betroffene gerichtlich gegen TIkTok vor.

Im genannten Rechtsstreit argumentierte TikTok, dass TikTok zur Kommunikation und zum Report von Verstößen gegen die Community-Richtlinien gegenüber den Nutzern der Plattform ein KI-Tool einsetze. TikTok selbst habe deshalb keine Kenntnis vom Vorliegen eines Fake-Accounts gehabt, die einen Unterlassungsanspruch gemäß § 1004 I BGB begründe. Grund dafür sei vor allem, dass von dem Beschwerdeführer in dem Meldeformular ein Verstoß gegen die Richtlinien nicht hinreichend substantiiert dargelegt worden sei. Damit seien die Anforderungen an den Notice-and-Takedown-Mechanismus des Digital Services Acts nicht erfüllt.

Das LG München I entschied zugunsten des Antragstellers und erließ die beantragte einstweilige Verfügung, da es einen Verfügungsanspruch aus §§ 1004, 823 I BGB i.V.m. dem allgemeinen Persönlichkeitsrecht und §§ 22, 23 KUG, 19a UrhG als gegeben ansah. Insbesondere, so das Landgericht, konnte sich TikTok nicht auf eine fehlende Kenntnis der Rechtsverletzungen berufen, da sich TikTok an der Prüfung des Vorgangs, die ausweislich der dem Antragsteller mitgeteilten Prüfergebnisse des Meldesystems durchgeführt worden sei, festhalten lassen müsse. Den weiteren Vortrag von TikTok bewertete das Landgericht als widersprüchlich und daher unerheblich.

 

Maßstab der Wissenszurechnung im Rahmen des Notice and Takedowns

Als mittelbarer Störer für die Rechtsverletzung verantwortlich und damit für den geltend gemachten Unterlassungsanspruch passivlegitimiert ist der Plattformbetreiber erst, nachdem er über die anspruchsbegründenden Tatsachen Kenntnis erlangt hat. Zwar besteht der Unterlassungsanspruch (etwa § 12 BGB, §§ 1004 I 2 analog iVm. 823 I BGB iVm. Art. 1 I, II 1 GG iVm. § 12 BGB und § 22 KUG oder aus Art. 6 I VO (EU) 2022/2065) auch unabhängig von der Kenntnis des Plattformbetreibers, jedoch wird er im Regelfall erst mit Erlangung der Kenntnis auch Verantwortlicher und damit richtiger Anspruchsgegner. Auch aus dem Wettbewerbsrecht (§ 8 I UWG) und aus der Verletzung von Schutzrechten wie z.B. Marken, Patenten, Urheberrechten etc. können Unterlassungsansprüche resultieren.

Grund hierfür ist, dass vom Plattformbetreiber unter Berücksichtigung der schier unendlichen Datenmengen, die von den Nutzern auf den Plattformen hochgeladen und geteilt werden, nicht erwartet werden kann, dass er über jeden Inhalt hinreichend informiert ist. Um eine Verantwortlichkeit des Plattformbetreibers für die Haftung auf Beseitigung und Unterlassung zu begründen, bedarf es damit einer hinreichend substantiierten und konkreten Inkenntnissetzung durch den Betroffenen.

Eine Wissenszurechnung von KI-Tools zulasten des Verwenders richtet sich hier wohl nach dem Maßstab des § 166 I BGB – wie auch bei der Beurteilung der Kenntnis bzw. des Kennenmüssens vom Verhalten Dritter. Dies vor allem, da eine mit dem Einsatz von Mitarbeitern bzw. weisungsgebunden Dritten vergleichbare Risikoverteilung vorliegt. Nach dem Rechtsgedanke des § 166 I BGB soll gerade derjenige mehr in die Verantwortung genommen werden, der sich Dritter im rechtsgeschäftlichen Verkehr bedient. Durch den Einsatz von Mitarbeitern kann der Geschäftsherr deutlich umfangreicher im rechtsgeschäftlichen Verkehr agieren. Dafür muss er als Ausgleich aber auch das Risiko von Fehlern oder Wissen der Mitarbeiter tragen. Er hat daher seinen Betrieb intern so zu organisieren, dass Wissen und Weisungen hinreichend zirkulieren. Andernfalls könnte sich der Geschäftsherr durch den Einsatz von Strohmännern aus der rechtlichen Verantwortung ziehen. Nichts anderes kann gelten, wenn KI-Tools (anstelle von Mitarbeitern) eingesetzt werden.

Eine ähnliche Auffassung vertrat auch ein kanadisches Bezirksgericht im Prozess Moffatt v. Air Canada (Az.: 2024 BCCRT 149). Im dortigen Fall klagte ein Kunde gegen die Fluglinie Air Canada, weil der KI-Chatbot auf der Website der Fluglinie ihm eine falsche Auskunft über die Stornierungsmöglichkeiten seines Fluges gab und er im Zuge dessen vergeblich einen Betrag von fast 800 CAD ausgab. Air Canada versuchte sich mit dem Argument verteidigen, der eingesetzte KI-Chatbot sei eine eigene Entität und deswegen für sein eigenes Verhalten verantwortlich. Dieses Argument überzeugte den kanadischen Richter nicht. Aus seiner Sicht mache es keinen Unterschied, ob die Information von einer statischen Website oder einem in die Website integrierten KI-Chatbot stamme. In beiden Fällen sei Air Canada als Betreiber der Website für den Inhalt verantwortlich.

 

Anforderungen an die Geeignetheit eines KI-Tools

Aber welche Anforderungen sind an die Geeignetheit des KI-Tools zu stellen? Wie so oft: Es kommt darauf an. Die Geeignetheit eines KI-Tools ist in jedem Einzelfall am Einsatzgebiet und der Aufgabenverteilung zu messen. 

In der oben genannten Verfügung des Landgerichts wurde diese Frage ausdrücklich offengelassen, da in den Nachrichten des Plattformbetreibers nach der Meldung des möglichen Verstoßes von einer „abgeschlossenen Prüfung“ die Rede ist und die Prüfung keinen Verstoß ergeben habe. Daher konnte sich die Plattform aus Sicht des Gerichts nicht mehr hinter der fehlenden Substantiierung der Beschwerde „verstecken“.

Diese Beurteilung des Gerichts zeigt aber gerade, dass die eingesetzten KI-Tools jedenfalls dann geeignet sind, Beschwerden und ähnliche Mitteilungen anzunehmen, wenn sie dem Nutzer einen echten Mehrwert bieten und nicht bloß vorgefertigte Textvorlagen ohne nähere Prüfung zurückgeben. Konkret heißt das, dass Halluzinationen des KI-Systems, die zu falschen Entscheidungen aufgrund einer unzureichenden Datengrundlage führen, ausgeschlossen werden müssen. Das System muss dahingehend programmiert und trainiert werden, dass im Zweifel eine Nachforderung von Daten zu der Rechtsverletzung erfolgt, anstatt die Nutzeranfrage ohne tiefergehende Prüfung zurückzuweisen. Je weniger falsche und/oder halluzinierte Entscheidungen das KI-System trifft, desto geeigneter ist es für diesen Einsatzzweck.  

Das Erfordernis einer Möglichkeit der Substantiierung für den Nutzer zeigt sich auch in einem Urteil des OLG Frankfurt am Main (Az.: 16 U 195/22). Dort hat das Gericht entschieden, dass eine Haftung des Plattformbetreibers nur dann gegeben sein kann, wenn die Beanstandungen des Betroffenen – gleich ob tatsächlich wahr oder falsch – derart konkret gefasst sind, dass ein Rechtsverstoß auf Grundlage der Behauptungen des Betroffenen unschwer beurteilt werden kann. Dies ist auch im Lichte des Notice-and-Takedown-Systems sinnvoll. 

 

Zusammenfassung

Die Frage der Wissenszurechnung zulasten des Verwenders von KI-Tools ist am Ende „alter Wein in neuen Schläuchen“. Die entwickelten und bestehenden Rechtsgrundsätze zur Haftung beim Einsatz von Mitarbeitern lassen sich unter Berücksichtigung der Besonderheiten von KI auch auf den Einsatz von KI-Tools als „virtuelle Mitarbeiter“ übertragen. Nicht zuletzt aufgrund der technisch bedingten intransparenten Entscheidungsfindung von KI-Systemen trägt der Verwender das Risiko des Einsatzes. Kurz: „Betreiber haften für ihre KI“. Ob der Betreiber dann Regress beim Anbieter des KI-Tools nehmen kann, hängt vor allem davon ab, ob das KI-Tool funktionssicher gestaltet, ausreichend gut programmiert und hinreichen fehlerresistent ist – und welche Haftungsregelungen im Vertrag mit dem Anbieter vereinbart wurden.

    Teilen

  • LinkedIn
  • XING