Seit Ende 2022 sind durch künstliche Intelligenz gestreute Large Language Models (LLM) wie ChatGPT in aller Munde. Die einen sehen sie als bahnbrechende Innovation, die vollkommen ungeahnte Chancen eröffnet. Die anderen warnen vor erheblichen Risiken und unvorhersehbaren Auswirkungen auf die Welt, wie wir sie kennen.
Der Chatbot ChatGPT bedeutete zumindest für den Bereich der sprachbasierten LLM jetzt schon eine kleine Revolution – und hat damit auch Auswirkungen, die Verlagshäuser, Autor*innen und Redakteur*innen bereits jetzt bemerken. Durch die sprachbasierten LLM ergeben sich erhebliche Veränderungen in deren Arbeitsalltag und damit auch viele offene Rechtsfragen, die es zu beantworten gilt.
So ist es für Autor*innen und Redakteur*innen beispielsweise besonders relevant, ob sie LLM bei ihrer täglichen Arbeit nutzen dürfen. Aus der Weiterentwicklung von Programmen wie ChatGPT ergibt sich ein Bedürfnis (arbeits-)vertraglicher Regulierung, damit klar ist, auf welche Art und Weise und mit welchen Hilfsmitteln redaktionelle Inhalte entstehen.
Dabei stellen sich eine Vielzahl an Fragen: Dürfen LLM bei Recherchen helfen? Dürfen Daten und Rechercheergebnisse mithilfe von LLM strukturiert oder zusammengefasst werden? Oder dürfen sogar redaktionelle Inhalte selbst von LLM erstellt werden? Diese und weitere Fragen gilt es vertraglich zu klären, um Rechtssicherheit im Hinblick auf die Arbeitsweise mit LLM zu schaffen.
Auch im Hinblick auf wettbewerbsrechtliche Implikationen kann sich in diesen Fällen die Frage stellen, ob und bei welchen KI-generierten redaktionellen Inhalten Verlage einen Transparenzhinweis auf die Erstellung mittels KI aufnehmen müssen oder nicht.
In urheberrechtlicher Hinsicht ist sowohl für die Verlage als auch für Autor*innen und Redakteur*innen natürlich relevant, ob von KI geschaffene redaktionelle Inhalte schutzfähig sind. Dies lässt sich nach vorläufiger Einschätzung wohl mit einem Nein beantworten. Nur Menschen, also natürliche Personen können Schöpfer eines Werkes im Sinne des Urheberrechts sein. Etwas anders dürfte aber für redaktionelle Inhalte gelten, bei denen die KI nur unterstützend eingesetzt wird. Solange ein LLM beispielsweise lediglich eine Recherche übernimmt oder eine Voranalyse von Daten, können Autor*innen und Redakteur*innen immer noch Schöpfer*innen des durch sie verfassten redaktionellen Inhalte sein.
Bei der Verwendung von LLM in Zusammenhang mit vertraulichen Rechercheergebnissen oder anderen personenbezogenen Daten gilt es allerdings jedenfalls datenschutzrechtliche Anforderungen zu beachten und dies bestenfalls auch durch ein Compliance-System sicherzustellen. Auch Haftungsfragen im Fall von etwaigen Rechtsverstößen müssen berücksichtigt werden – und zwar sowohl gegenüber Dritten als auch gegebenenfalls gegenüber dem Anbieter eines LLM selbst.
Für viele Verlage, Autor*innen und Redakteur*innen stellt sich zudem die berechtigte Frage, wie sie ihre eigenen redaktionellen Inhalte, die online öffentlich verfügbar sind, davor schützen können, selbst von einem LLM weiterverwendet zu werden. Das Urheberrecht sieht hierfür den sogenannten Data-Mining Vorbehalt vor. Dieser Rechtevorbehalt verbietet die automatisierte Analyse von digitalen Werken. Viele Verlage bedienen sich bereits dieses Hilfsmittels, um ihre Inhalte zu schützen. Damit der Vorbehalt rechtswirksam erklärt ist, muss er auf der betreffenden Webseite in maschinenlesbarer Form erklärt werden. Allerdings ist die Kontrolle, ob dieser Vorbehalt auch tatsächlich beachtet wird, kaum zu leisten.
Als Fazit kann somit festgehalten werden – während viele Branchen die weitere Entwicklung im Bereich KI noch gespannt abwarten können, sollten sich Verlage, Autor*innen und Redakteur*innen schon jetzt informieren und rechtlich beraten lassen, um auf die Veränderungen zu reagieren, die LLM mit sich bringen. Nur so kann sichergestellt werden, dass das Zusammenspiel von Kreativität und Technik in dem Rahmen erfolgt, den sich die Schöpfer*innen und Verwerter*innen wünschen.