Dürfen deutsche Behörden ChatGPT nutzen – oder sollen sie die KI verbieten? | Fieldfisher
Skip to main content
Insight

Dürfen deutsche Behörden ChatGPT nutzen – oder sollen sie die KI verbieten?

Locations

Germany


I. Einleitung

ChatGPT – entwickelt durch das Unternehmen Open-AI - hat als eine bahnbrechende Künstliche Intelligenz (KI) in den letzten Monaten für Aufsehen gesorgt. Mit seiner Fähigkeit, menschenähnliche Konversationen zu führen und verschiedene schriftliche Inhalte zu erstellen, eröffnet es zahlreiche Anwendungsmöglichkeiten in nahezu jedem Fachbereich. Doch wie steht es um den Einsatz von ChatGPT im öffentlichen Sektor, insbesondere bei deutschen Behörden? Oder in Kammern und öffentlichen Unternehmen? In diesem Beitrag werden wir die rechtlichen Herausforderungen und Hürden untersuchen, die sich aus der Nutzung von ChatGPT durch deutsche Behörden ergeben könnten, und mögliche Lösungsansätze aufzeigen. Davon zu trennen wäre die Frage, ob öffentliche Stellen ChatGPT einsetzen „sollen“ – wir widmen uns heute dem „Dürfen“.

 

A. Was genau ist ChatGPT?

ChatGPT (Chat Generative Pre-trained Transformer) ist ein KI-Chatbot, der erstmals im November 2022 eingeführt wurde. Es basiert in der Grundidee auf dem GPT-3-Modell und verwendet die Technik des maschinellen Lernens, um menschenähnliche Dialoge in natürlicher Sprache zu erstellen. Die KI kann dabei auf Fragen reagieren und verschiedene schriftliche Inhalte, wie Artikel, Social-Media-Beiträge, Essays, Code und E-Mails verfassen. Inzwischen gibt es eine weiterentwickelte GPT-4-Version.

Entwickelt wurde ChatGPT von OpenAI, einem US-amerikanischen Unternehmen unter der Leitung des CEO Sam Altman. Derzeit befindet sich ChatGPT-3 noch in einer kostenlosen Testphase, die es jedem ermöglicht, die Technologie auszuprobieren. Daneben gibt es aber auch kostenpflichtige Varianten, u.a. für die Nutzung von ChatGPT-4. Verschiedene andere KI-Angebote beruhen ebenfalls auf der von OpenAI entwickelten Technologie und nutzen Schnittstellen, um auf GPT-3 oder GPT-4 zuzugreifen.

 

B. Mögliche Anwendungen von ChatGPT für deutsche Behörden

Dass eine KI grundsätzlich bereichsunabhängig eingesetzt werden kann und stets eine immense Veränderung der uns bisher bekannten Arbeitsabläufe in der Zukunft mitbringen wird, liegt aus Sicht vieler Experten mittlerweile auf der Hand. Doch wie kann ChatGPT innerhalb von deutsche Behörden eingesetzt werden? Im Folgenden soll dies anhand einiger Beispiele verdeutlicht werden. Aber wichtig – ChatGPT ist natürlich nur ein KI-Tool, daneben gibt es viele andere (ethische und rechtskonforme) KI-Anwendungen, die ganz spezifische Bedürfnisse der öffentlichen Hand bedienen können. Dennoch, nachfolgend ein Blick auf mögliche Anwendungen von ChatGPT im öffentlichen Sektor:

1. Kundenanfragen von Bürgerinnen und Bürgern könnten automatisiert erfolgen. ChatGPT könnte dazu verwendet werden, Anfragen von Bürgern effizient und schnell zu beantworten, indem es als virtueller Assistent auf Websites oder in Messaging-Apps fungiert. Durch die enorme Bandbreite an Daten, auf die ChatGPT zurückgreift, wäre eine Einrichtung eines derartigen Chatbots eine erhebliche Neuerung im Verhältnis Bürger – Behörde.

2. ChatGPT könnte bei der Erstellung von Dokumentenunterstützen. Die KI könnte insbesondere bei der Erstellung von Berichten, Gesetzesentwürfen oder anderen behördlichen Dokumenten Routinearbeiten ersetzen, indem sie relevante Informationen zusammenfasst und in einer strukturierten Form präsentiert.

3. Ferner könnte ChatGPT als internes Kommunikationsmittel eingesetzt werden. Dies könnte dazu nutzbar gemacht werden, um den Informationsaustausch zwischen Abteilungen und Mitarbeitern zu erleichtern.

 

C. Rechtliche Risiken & Bedenken von Chat-GPT

Trotz der vielversprechenden Anwendungsmöglichkeiten gibt es jedoch einige rechtliche Bedenken, die gegen den Einsatz von ChatGPT in deutschen Behörden sprechen könnten. Daher kann auf keinen Fall derzeit empfohlen werden, dass deutsche öffentliche Stellen und deren Bediensteten einfach ChatGPT im Rahmen ihrer (amtlichen) Tätigkeiten nutzen. Die rechtlichen Bedenken bzw. ungelösten Fragen sind vielfältig. Dazu gehören etwa:

1. Datenschutz und DSGVO-Konformität: Da ChatGPT auf einer großen Menge von Textdaten trainiert wurde, könnte es personenbezogene Daten verarbeiten, was in erheblichen Datenschutzverletzungen münden kann. Daher müssen Behörden frühzeitig sicherstellen, dass die Nutzung von ChatGPT den Anforderungen der Datenschutz-Grundverordnung (DSGVO) entspricht.

Die DSGVO-Bedenken wiegen derzeit schwer, was auch zu einem Einschreiten der italienischen Datenschutzaufsicht führte. Gerade vor diesem Hintergrund sollten deutsche öffentliche Stellen jedenfalls derzeit sehr kritisch prüfen (lassen), ob sie ChatGPT einsetzen dürfen.

2. Haftung für fehlerhafte oder falsche Informationen: ChatGPT kann manchmal ungenaue oder irreführende Antworten liefern. Wenn eine öffentliche Stelle auf solche Informationen vertraut, könnte dies im Ergebnis zu Fehlentscheidungen und möglicherweise zu Haftungsansprüchen gegen die jeweilige Behörde führen. Behörden müssen im Vorwege daher klare Richtlinien für den Umgang mit ChatGPT-Antworten festlegen und sicherstellen, dass diese überprüft und validiert werden.

3. Diskriminierung und Bias: Es gibt Berichte, dass ChatGPT – jedenfalls bei bestimmten Anwendungsfällen – aufgrund der Trainingsdaten zu diskriminierenden Ergebnissen kommen kann. Dies kann zu unfairen Behandlungen von Bürgern führen. Behörden müssen präventive Vorkehrungen treffen, um Diskriminierung und Bias in den von ChatGPT generierten Antworten zu erkennen und zu vermeiden.

4. Transparenz und Nachvollziehbarkeit: Die Entscheidungen und Empfehlungen von ChatGPT sind nicht immer leicht nachvollziehbar, was in einem behördlichen Umfeld problematisch sein kann, in dem Transparenz und Rechenschaftspflicht von großer Bedeutung sind. Behörden müssen daher sicherstellen, dass die Nutzung von ChatGPT den Anforderungen an Transparenz und Nachvollziehbarkeit entspricht.

5. Urheberrecht und geistiges Eigentum: Bei der Erstellung von Dokumenten oder anderen schriftlichen Inhalten durch ChatGPT können urheberrechtliche oder geistige Eigentumsrechte betroffen sein. Behörden müssen daher verifizieren, dass sie die entsprechenden Rechte zur Nutzung der von ChatGPT erstellten Inhalte besitzen.

 

D. Wie sollte diesen Risiken begegnet werden?

KI ist eine wunderbare Technologie, die auch in deutschen öffentlichen Stellen zum Einsatz kommen sollte und wird. Deutsche öffentliche Stellen sollten sich bereits jetzt mit KI-Anwendungen beschäftigen, denn ChatGPT zeigt eindrucksvoll, wozu KI fähig sein wird – und in Zukunft wird es Anwendungen geben, die viel leistungsfähiger sind als ChatGPT und gleichzeitig rechtssicher und ethisch. Worüber sollten Behörden und öffentliche Stellen hierbei nachdenken?

1. Datenschutz- und DSGVO-Konformität: Vor dem Einsatz von KI in einer öffentlichen Stelle sollte eine datenschutzrechtliche Folgenabschätzung durchgeführt werden, um die Risiken im Zusammenhang mit der Verarbeitung personenbezogener Daten durch die KI zu bewerten und geeignete Sicherheitsmaßnahmen zu treffen. Zudem sollte eine kontinuierliche Überwachung der Datenschutzpraktiken und -prozesse im Zusammenhang eingerichtet werden. Dabei müssen die DSGVO und die zukünftige zu erwartende Regulierung durch die geplante KI-Verordnung der EU bedacht werden.

2. Haftung und Überprüfung von Informationen: Behörden sollten klare Richtlinien und Verfahren einführen, um die von KI (wie ChatGPT, wenn es jedenfalls die grundsätzlichen DSGVO-Bedenken überwunden hat) generierten Informationen zu überprüfen und zu schlussendlich auch zu validieren. Eine Möglichkeit bestünde beispielsweise darin, Fachpersonal einzubeziehen, um die Richtigkeit und Relevanz der von KI wie ChatGPT gelieferten Antworten stichprobenartig zu überprüfen und damit in der Konsequenz die KI punktuell zu verbessern.

3. Bekämpfung von Diskriminierung und Bias: Schulungen und Sensibilisierung der Mitarbeiter für mögliche Bias-Probleme im Zusammenhang mit KI könnten dazu beitragen, dass derartige Probleme frühzeitig erkannt und angegangen werden. Darüber hinaus sollten ebenfalls Algorithmen und Modelle regelmäßig auf jegliche Art von Diskriminierung und Bias überprüft werden, um sicherzustellen, dass KI wie ChatGPT in seinen Ergebnissen fair und unvoreingenommen bleibt.

4. Transparenz und Nachvollziehbarkeit: Technische Lösungen wie die sog. "Explainable AI" (XAI) können dazu beitragen, dass Entscheidungen und Empfehlungen von KI wie ChatGPT besser nachvollziehbar werden. "XAI" sorgt dafür, dass Texte von beispielsweise ChatGPT verständlicher umgewandelt werden können und damit im Ergebnis einen leichteren thematischen Zugang ermöglichen. Zudem sollten Behörden darauf achten, dass sie klare und verständliche Informationen über die Nutzung von ChatGPT und dessen Auswirkungen auf Verwaltungsentscheidungen bereitstellen.

5. Urheberrecht und geistiges Eigentum: Zuletzt sollten öffentliche Stellen die urheberrechtlichen Aspekte der Arbeitsergebnisse der KI genau prüfen und gegebenenfalls Vereinbarungen mit Anbietern von KI-Technologien treffen, um sicherzustellen, dass sie die erforderlichen Rechte zur Nutzung der von der KI erstellten Inhalte besitzen. Zudem sollte stets darauf geachtet werden, dass der Einsatz von KI wie ChatGPT in Übereinstimmung mit den geltenden Urheber- und geistigen Eigentumsrechten erfolgt. Dies kann beispielsweise durch eine externe rechtliche Beratung erfolgen.

 

II. Aktuelle Entwicklungen – Italiens Datenschutzbehörde versagt OpenAI die Verarbeitung von Daten italienischer Nutzer

Die italienische Datenschutzbehörde (DPA) hat jüngst eine Untersuchung gegen ChatGPT von Open AI wegen möglicher Verstöße gegen Datenschutzbestimmungen eingeleitet. Sie beschuldigt das Unternehmen, ohne Erlaubnis persönliche Daten zu sammeln und keine Maßnahmen zu ergreifen, um Minderjährige von unangemessenen Inhalten fernzuhalten. Italien ist das erste westliche Land, das Maßnahmen gegen ChatGPT ergreift, nachdem bereits Länder wie China, Russland, Iran und Nordkorea das Tool blockiert haben. Zu dem Zeitpunkt, als dieser Artikel geschrieben wurde, hatte OpenAI die Nutzung von ChatGPT in Italien vorübergehend gestoppt.

Diese Entscheidung hat natürlich auch Auswirkungen auf andere Länder, insbesondere innerhalb der Europäischen Union. Im Einzelnen bleibt abzuwarten, welche konkreten Folgen – insbesondere durch Deutschland – eingeleitet werden.

In Deutschland ist ein solches Vorgehen wie in Italien grundsätzlich denkbar und möglich, wie ein Sprecher des Bundesbeauftragten für den Datenschutz, Ulrich Kelber, dem Handelsblatt mitteilte. Allerdings fällt dies in den Zuständigkeitsbereich der Landesdatenschutzbehörden, da OpenAI, der Betreiber von ChatGPT, ein in den USA ansässiges Unternehmen ist.

In Deutschland gibt es unterschiedliche Meinungen zum Umgang mit ChatGPT. Das Bundesministerium für Digitalisierung und Verkehr spricht sich klar gegen eine Sperrung von ChatGPT aus. Stattdessen fordert das Ministerium Wege, um Werte wie Demokratie und Transparenz zu gewährleisten. Aktuell geplante EU-Rechtsrahmen könnten Europa zum weltweiten Vorreiter für vertrauensvolle KI machen.

Der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, sieht ebenfalls keinen Grund, KI-Software wie ChatGPT aus Gründen des Datenschutzes auszubremsen. Er argumentiert, dass die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen überwiegen, solange die Daten aus dem Internet bezogen werden.

Das Bundesinnenministerium verfolgt die Entscheidung der italienischen Behörden aufmerksam und betont, dass der Prüfungsmaßstab für ein behördliches Einschreiten die Datenschutz-Grundverordnung (DSGVO) ist, die in ganz Europa unmittelbar gilt.

Zusammenfassend lässt sich sagen, dass es derzeit keine konkreten Pläne gibt, ChatGPT in Deutschland zu verbieten. Allerdings wird die Situation von den zuständigen Datenschutzbeauftragten genau beobachtet werden und es besteht stets die Möglichkeit, dass auch in Deutschland Maßnahmen ergriffen werden, sollten Datenschutzbedenken nicht ausgeräumt werden können. Es bleibt abzuwarten, wie sich die Situation weiterentwickelt und welche Konsequenzen dies für den Einsatz von Künstlicher Intelligenz in Europa haben wird.

 

III. Fazit - Schlussfolgerungen zur Verwendung von ChatGPT in deutschen Behörden

Der Einsatz von KI wie ChatGPT in deutschen Behörden birgt großes Potenzial für Effizienzsteigerungen und Verbesserungen im öffentlichen Sektor – und das in jeglicher Hinsicht und in jeglichem Bereich. Allerdings müssen rechtliche Herausforderungen, wie Datenschutz, Haftung, Diskriminierung, Transparenz und Urheberrecht sorgfältig berücksichtigt und insbesondere präventiv angegangen werden. Durch die Umsetzung geeigneter Lösungsansätze könnten Behörden die überwiegenden Vorteile von ChatGPT nutzen und gleichzeitig die rechtlichen Risiken minimieren.

 

Melden Sie sich für unseren Newsletter an

Klicken Sie hier, um den Newsletter zu abonnieren oder Ihre E-Mail-Einstellungen zu verwalten.

ABONNIEREN