DeepSeek ist der aktuelle Star der leistungsfähigsten KI-Modell - Wie smart oder gefährlich ist seine Nutzung für europäische Unternehmen?
Das KI-Modell von DeepSeek, entwickelt in China, steht im Fokus vieler Diskussionen als eines der aktuell leistungsstärksten KI-Modelle aber anderseits auch aufgrund kulturübergreifender Risiken und Vorteile, die mit seiner Nutzung für Unternehmen in der EU verbunden sind. Für Juristen und IT-Verantwortliche ist es wichtig, die potenziellen Gefahren für den Datenschutz sowie die ethischen Aspekte der Nutzung zu kennen und zu bewerten.
Datenschutzrisiken
Ein Hauptproblem von DeepSeek ist die umfangreiche Datenerhebung und -speicherung, die ohne ausdrückliche Zustimmung der Nutzer erfolgt. Dies verstößt gegen die Prinzipien der Datenminimierung und Zweckbindung, wie sie in der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union festgelegt sind. Darüber hinaus ist die Transparenz von DeepSeek hinsichtlich der Datenverarbeitung unzureichend, was die Erwartungen an Fairness und Verantwortlichkeit bei der Datennutzung durch DeepSeek untergräbt.
Besonders problematisch erscheint die Speicherung von Daten auf Servern in China, die nach den chinesischen Cybersicherheits- und Datensicherheitsgesetzen von der dortigen Regierung eingesehen werden können. Dies betrifft sowohl personenbezogene als auch vertrauliche Geschäftsdaten, die nach EU-Recht geschützt sind. Unternehmen müssen sich dieser Risiken bewusst sein und entsprechende Maßnahmen ergreifen, um die Offenlegung sensibler Daten zu verhindern.
Der Landesbeauftragte für den Datenschutz Niedersachsen (LfD) hat ebenfalls in einer aktuellen Pressemitteilung auf die Risiken bei der Nutzung von DeepSeek hingewiesen. Der LfD Niedersachsen betont, dass DeepSeek nicht für den europäischen Markt konzipiert sei und die Anforderungen der europäischen KI-Verordnung und der DSGVO nicht erfülle. Tatsächlich nimmt DeepSeek für sich in Anspruch, gar nicht den Anforderungen der DSGVO zu unterliegen (obwohl sich das Angebot ganz eindeutig auch an EU Bürger richtet) und sieht z.B. auch keine Notwendigkeit, einen Auftragsverarbeitungsvertrag mit seinen Kunden zu schließen. Das spricht zumindest für ein sehr „entspanntes“ Verhältnis des Anbieters (man könnte auch von Ignoranz sprechen) zur DSGVO als geltendem EU Recht. Dies führt erwartungsgemäß zu erheblichen rechtlichen Bedenken der europäischen Datenschutzaufsichtsbehörde, insbesondere im Hinblick auf die Verarbeitung personenbezogener Daten und den Schutz von Berufs- und Geschäftsgeheimnissen.
Compliance-Risiken
Eine Studie von INSAIT und ETH Zürich hat ebenfalls erhebliche Compliance-Lücken in den DeepSeek-Modellen aufgedeckt. Besonders alarmierend sind die Schwächen in der Cybersicherheit, wie das erhöhte Risiko von "Goal Hijacking" und "Prompt Leakage". Diese Schwachstellen beeinträchtigen die Zuverlässigkeit und Sicherheit von DeepSeek erheblich.
Die Modelle von DeepSeek schneiden auch im Bias-Management schlecht ab. Sie weisen deutlich mehr Vorurteile auf als ihre Basismodelle, was zu unausgewogenen Antworten führt und Fehlinformationen fördert. Dies steht im Widerspruch zu den Grundsätzen der Fairness und Gleichheit nach der EU KI-Verordnung.
Ethische Aspekte
Die ethischen Aspekte der Nutzung von DeepSeek sind eng mit kulturübergreifenden Bias und den möglichen politischen Einflußnahmen verbunden. DeepSeek spiegelt die Normen und Erwartungen der chinesischen Kultur- und Geschäftusancen sowie das chinesische Wirtschaftssystem wider, was die grenzüberschreitende Verwendbarkeit erschweren kann. EU Unternehmen sollten diese mittrainierten chinesischen Normen berücksichtigen, um Missverständnisse und Compliance-Probleme zu vermeiden. DeepSeek antwortet, wie ein staatlich geprüfter, professioneller chinesischer Ansprechpartner auch antworten würde.
Die politische Kontrolle über die Daten und die Zensur bestimmter historischer und politischer Informationen in den DeepSeek-Ergebnissen können die wissenschaftliche Forschung und die geschäftliche Verwendbarkeit der Ergebnisse außerhalb Chinas beeinträchtigen. Es ist wichtig, die eingebauten Annahmen und kulturellen Voreingenommenheiten (Bias) jeder KI-Lösung zu erkennen, um fundierte Entscheidungen treffen zu können. Im Ergebnis gilt dies übrigens nicht so viel anders für alle anderen KI-Modelle, die beim Training die am Trainingsort geltenden Gesetze eingehalten haben und z.B. In Deutschland keine nationalsozialistischen Begriffe oder Symbole verwendet haben. Man wird auch beobachten müssen, wir der aktuelle sprachliche Kampf der US Regierung unter President Trump gegen die als „woke“ identifizierten Begriffslisten das Training und damit die Outputs der US trainierten KI-Modelle wie z.B. Gronk von Elon Must, beeinflußen wird.
Wer sich dieses kulturellen Bias bewusst ist, kann ihn sich auch zu nutze machen, um herauszufinden, wie ein chinesischer Kunde oder Geschäftspartner mit bestimmten Fragen umgehen würde (s. hierzu ausführlicher W. Tanenbaum/M. Orthwein, DeepSeek’s Legal and Cross-Cultural Risks and Benefits, New York Law Journal, March 7, 2025).
Empfehlungen des LfD Niedersachsen
Der LfD Niedersachsen empfiehlt, die Installation und Nutzung von DeepSeek und anderen KI-Systemen aus unsicheren Drittstaaten wie China zu vermeiden. Unternehmen sollten niemals persönliche oder vertrauliche Daten eingeben, sofern keine angemessenen Sicherheitsvorkehrungen vorhanden sind. Es wird außerdem empfohlen, Mitarbeiter aktiv über die Risiken der Nutzung von DeepSeek zu sensibilisieren und KI-Tools zu bevorzugen, die den europäischen Datenschutzanforderungen entsprechen und klare Garantien für die Daten- und IT-Sicherheit bieten.
Fazit
Die Nutzung des KI-Modells von DeepSeek birgt erhebliche Datenschutz- und Compliance-Risiken sowie ethische Herausforderungen. Unternehmen müssen diese Risiken sorgfältig bewerten und entsprechende Maßnahmen ergreifen, um die Einhaltung von Datenschutzvorschriften und ethischen Standards zu gewährleisten. Die Einhaltung der EU KI-Verordnung und der DSGVO sind entscheidend, um Vertrauen, Sicherheit und Fairness beim Einsatz von KI zu gewährleisten.
William Tanenbaum und Dr. Matthias Orthwein haben zu diesem Thema einen Fachbeitrag im New York Law Journal veröffentlicht. Lesen Sie den kompletten (englischen) Beitrag hier.