Alle News & Events anzeigen
04.04.2023

ChatGPT in Italien verboten: Steht Deutschland vor einer ähnlichen Entscheidung?

User des Dienstes ChatGPT erreichte Ende letzter Woche die Nachricht aus Italien, dass die Nutzung der KI des Anbieters OpenAI dort bis auf weiteres gesperrt wurde. Es bleibt abzuwarten, wie andere europäische Länder auf diese Entscheidung reagieren und inwieweit sie die Einschätzung der italienischen Behörde teilen.

In einer Pressemitteilung vom 31. März 2023 kündigte die italienische Datenschutzbehörde GPDP „mit sofortiger Wirkung die vorläufige Einschränkung der Verarbeitung der Daten italienischer Nutzer“ durch das Unternehmen OpenAI an, was zu einer sofortigen Sperrung des Dienstes ChatGPT in Italien und der Einleitung eines Untersuchungsverfahrens führte.

ChatGPT ist die bekannteste Anwendung für relationale KI, die menschliche Unterhaltungen simulieren und verarbeiten kann. Die Anwendung ist bereits in einer Reihe von Ländern gesperrt, darunter China, Iran, Nordkorea und Russland. Italien ist das erste europäische Land, das die Anwendung gesperrt hat.

Die Begründung der GPDP

Die italienische Datenschutzbehörde betont, dass User, deren Daten von OpenAI gesammelt werden, nicht zureichend über die Verarbeitung ihrer Daten informiert werden. Außerdem fehle eine rechtliche Grundlage für die umfängliche Sammlung und Verarbeitung persönlicher Daten zum Training der Algorithmen. Die grundsätzlich mögliche Einwilligung der User als rechtliche Grundlage scheitere momentan an der fehlenden Transparenz. Auch ein Jugendschutzfilter, der Jugendliche unter 13 Jahren vor nicht jugendfreien Inhalten schützen soll, sei nicht hinreichend umgesetzt.

Guido Scorza, eines von vier Vorstandsmitgliedern der italienischen Datenschutzbehörde, begründet in der F.A.Z. die Entscheidung damit, dass die Menschen ChatGPT wie einen persönlichen Berater nutzen würden und dabei teilweise unbewusst etwa medizinische, psychologische oder rechtliche Informationen über sich mitteilen, ohne ausreichend über die Datenverarbeitung informiert zu sein und ohne die Möglichkeit, dieser zuzustimmen oder zu widersprechen. Das endgültige Aus für ChatGPT in Italien sei das jedoch nicht. Man wolle mit OpenAI in einen Dialog treten und das Unternehmen zu Transparenz zwingen, sodass User ausreichend über die Verarbeitung ihrer Daten aufgeklärt werden und auch die Möglichkeit haben, sich dieser zu entziehen.

OpenAI hat keinen Sitz in der EU und daher einen Vertreter im Europäischen Wirtschaftsraum benannt. Dieser muss der italienischen Datenschutzbehörde innerhalb von 20 Tagen mitteilen, welche Maßnahmen zur Einhaltung der Anordnung umgesetzt wurden. Andernfalls könnte eine Geldstrafe von bis zu 20 Millionen Euro oder 4% des weltweiten Jahresumsatzes verhängt werden.

Erst kürzlich hatte Italien gegen den Chatbot „Replika“ eine ähnliche Sperre verhängt. Ende März hatten mehr als 1.000 Personen aus Tech-Branche und Wissenschaft – darunter auch namhafte Unternehmer wie Elon Musk oder Apple-Mitgründer Steve Wozniak – eine sechsmonatige Entwicklungspause für große Sprachmodelle („large language modells“) der KI-Technologie gefordert, um eine gemeinsame Strategie zum weiteren Vorgehen zu entwickeln. Auch ein Einschreiten von Regierungen wird im letzten Schritt gefordert.

Was bedeutet das für andere europäische Länder?

OpenAI hat seinen Sitz in den USA, daher kann jede europäische Datenschutzaufsichtsbehörde grundsätzlich selbstständig gegenüber dem Unternehmen tätig werden. Auch die deutschen Datenschutzaufsichtsbehörden haben Informationen zu den Untersuchungen der italienischen Kolleginnen und Kollegen angefordert. Das Bundesinnenministerium äußerte bereits Interesse am Vorgehen der italienischen Behörden und laut einer Sprecherin des Bundesbeauftragten für Datenschutz sei ein solches Vorgehen auch in Deutschland grundsätzlich möglich. Abschließend entscheiden können das in Deutschland aber nur die jeweiligen Landesdatenschutzbehörden. Der Anfang 2023 aus dem Amt geschiedene Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, sieht in diesem Fall allerdings das berechtigte Interesse der Entwickler regelmäßig das individuelle Schutzbedürfnis Betroffener überwiegen, wie er dem Handelsblatt gegenüber äußerte. Auch in anderen europäischen Ländern hat die Entscheidung der italienischen Behörde Diskussionen ausgelöst, offizielle Äußerungen gibt es zum jetzigen Stand keine.

Klar gegen eine Sperrung von ChatGPT in Deutschland positionierte sich auch das Bundesministerium für Digitales und Verkehr, das Europa als „weltweiten Vorreiter für vertrauensvolle KI“ sieht und für die Suche nach einem gemeinsamen Weg plädiert. Auf EU-Ebene wird bereits seit längerem über eine Regulierung von KI diskutiert, deren Einsatz besondere Risiken für die EU Bürger mit sich bringen würde. Allerdings hat sich der in 2022 vorgestellte Entwurf der KI-Verordnung („AI Act“) allein auf relativ eng begrenzte Einsatzszenarien von KI fokussiert und gerade solche Querschnitttechnologien und KI-Produkte wie ChatGPT weitestgehend aus der Regulierung ausgeklammert. Die Diskussion, wie man auch die „General AI“ unter dem Ansatz der risikobasierten Regulierung einbeziehen kann, hat gerade erst begonnen und wird nun hektisch auf vielen Ebenen geführt. Auch das führt dazu, dass eine Verabschiedung der KI-Verordnung allenfalls bis Ende des Jahres 2023 realistisch ist. Ab dann hätten die Mitgliedstaaten zwei Jahre Zeit, um die Verordnung national umzusetzen. Wenn man die rasante Entwicklung betrachtet, die das Thema KI-Regulierung seit Einführung von ChatGPT im November 2022 genommen hat, drängt sich die Frage auf, ob die Gesetzgebung hier mit der Geschwindigkeit der technologischen Entwicklung mithalten kann. Das Bayerische Staatsministerium für Digitales hat Ende März 2023 eine Studie vorgestellt, die gerade den „risikofixierten“ Regulierungsansatz der KI-Verordnung kritisiert und davor warnt, durch Überregulierung Innovationen in der EU auszubremsen. Die Aufgabe von Regulierung müsse es vielmehr sein, durch Standards, Leitlinien und Formulierung einheitlicher Definitionen bestehende Unsicherheit und Unklarheit für die Unternehmen bei der Entwicklung und dem Einsatz von KI zu beseitigen.

Kurzfristig liegt es zunächst bei den einzelnen Behörden, hier eine richtungsweisende Entscheidung zu treffen – sei es in Übereinstimmung oder selbstständig. Bisher ist kein abgestimmtes Vorgehen z.B. auf Ebene des Europäischen Datenschutzausschusses zur Behandlung von ChatGPT und vergleichbaren „General AI“- Produkten bekannt geworden. In den nächsten zwei Wochen wird sich jedenfalls für Italien herausstellen, ob die Transparenz-Bemühungen von OpenAI ausreichend sind und der Einsatz wieder freigegeben wird. Diese Entscheidung dürfte auch maßgeblichen Einfluss auf die Einschätzung anderer europäischer Behörden haben.  

    Teilen

  • LinkedIn
  • XING