Die Integration von künstlicher Intelligenz in die öffentliche Sicherheit: 10 Schlüsselanwendungen | Fieldfisher
Skip to main content
Insight

Die Integration von künstlicher Intelligenz in die öffentliche Sicherheit: 10 Schlüsselanwendungen

Locations

Germany

Der Einsatz von Künstlicher Intelligenz (KI) in Sicherheitsdiensten des öffentlichen Sektors gewinnt weltweit an Bedeutung. KI-gestützte Systeme verbessern die Sicherheit durch Echtzeitüberwachung, automatisierte Kontrolle und vorausschauende Analysefunktionen, um potenzielle Bedrohungen zu erkennen. In diesem Artikel werden zehn Beispiele untersucht, wie KI zur Verbesserung der Sicherheit im öffentlichen Sektor eingesetzt wird.
 

I. Gesichtserkennungs-Technologie

Gesichtserkennungssoftware könnte an Flughäfen, Grenzübergängen oder anderen sensiblen Bereichen eingesetzt werden, um Personen, die eine Bedrohung darstellen könnten oder vorbestraft sind, schnell zu identifizieren. Diese Technologie könnte dazu beitragen, menschliche Fehler zu reduzieren und zeitaufwändige manuelle Prozesse zu vermeiden, die mit herkömmlichen Identifizierungsmethoden wie Fingerabdrücken oder Netzhautscans verbunden sind.

Jeder Einsatz einer solchen Technologie durch den Staat in Deutschland bedarf allerdings einer gesetzlichen Grundlage. Diese wiederum ist am Grundrecht auf informationelle Selbstbestimmung aus Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 Grundgesetz zu messen. Dies bedeutet, dass sowohl die Erhebung als auch die Verarbeitung der Daten in verhältnismäßiger Art und Weise zu geschehen haben. Insbesondere die anlasslose Erfassung von Gesichtern oder die ausufernde Speicherung der erfassten Daten kann so schnell zu einer Verfassungswidrigkeit der gesetzlichen Grundlage führen.

Derartige gesetzliche Grundlagen für die KI-Gesichtserkennung existieren in Deutschland allerdings bis auf eine Ausnahme (§ 59 SächsPolDVG) noch nicht.

Allerdings hat man sich bereits auf europäischer Ebene der Thematik angenommen: Das EU-Parlament einigte sich am 14. Juni 2023 auf eine Position zur KI-Verordnung (AI Ac). Nach der geplanten Verordnung, welche nun das Trilogverfahren in der EU vor sich hat und voraussichtlich ab 2026 anwendbar sein könnte, wäre eine Echtzeit-Gesichtserkennung oder eine automatisierte Emotionserkennung verboten.


II. Automatisierte Videoüberwachung

Mit fortschrittlichen Algorithmen ausgestattete Kameras können neben Gesichtserkennung auch verdächtige Verhaltensmuster in Echtzeit erkennen und die Behörden bei Bedarf alarmieren, ohne dass eine dauerhafte menschliche Überwachung erforderlich ist. Dies könnte eine effizientere und zielgerichtetere Verteilung polizeilicher Ressourcen ermöglichen.

Automatisierte Videoüberwachung in diesem Sinne wird aktuell in Hamburg und Mannheim eingesetzt. Dabei werden zum Beispiel in Hamburg die Aufnahmen vor der Auswertung anonymisiert und mit Verhaltensmustern abgeglichen. Auch hier ist allerdings auf den grundrechtlichen sowie auf den kommenden europäischen Rechtsrahmen zu achten; "predictive policing" ist nach der geplanten KI-Verordnung nur mit erheblichen Einschränkungen denkbar.


III. Natural language processing (NLP)

Bei dieser Art von KI werden Algorithmen zur Verarbeitung natürlicher Sprache eingesetzt, um Audioaufzeichnungen von Videoüberwachungsanlagen zu analysieren und von Verdächtigen oder Zeugen gesprochene Wörter zu erkennen, die bei Ermittlungen als Beweismittel dienen könnten.

Das damalige Bundesministerium für Wirtschaft und Energie hielt NLP bereits im Oktober 2021 für eine kommende Schlüsseltechnologie für die Industrie. Allerdings bleibt auch hier abzuwarten, wie die kommende EU-Verordnung dieses Thema sieht. Auf Basis der Verordnung würden KI-Systeme je nach Risiko in verbotene Systeme, Hochrisikosysteme und KI-Systeme mit begrenztem Risiko eingeteilt. Je nach konkretem Einsatz von NLP könnte es also sein, dass auch solche Systeme als Hochrisikosysteme besonderen Anforderungen unterfallen. Die Einteilung als Hochrisikosystem richtet sich nach dem Bereich, in dem das KI-System eingesetzt wird. Ein solcher Bereich ist zum Beispiel die Strafverfolgung, aber auch die Verwaltung von Migration, Asyl und Grenzkontrollen.


IV. Biometrische Authentifizierung

Biometrische Authentifizierungstechnologien, wie z. B. Iris-Scanner, ermöglichen es Unternehmen, Identitäten anhand von physischen Merkmalen wie Fingerabdrücken, Netzhaut oder Stimmen sicher zu verifizieren, wodurch Betrug reduziert und gleichzeitig der Komfort im Vergleich zu herkömmlichen Methoden wie Passwörtern oder PINs erhöht wird.

Das Bundesamt für Sicherheit in der Informationstechnik sieht vielfältige Anwendungsmöglichkeiten für KI im Bereich biometrischer Authentifizierung. Insbesondere seien KI-Modelle zunehmend ausreichend performant, um auch Kernfunktionen der biometrischen Authentifizierung übernehmen zu können.

Allerdings müssten auch die Risiken des KI-Einsatzes erkannt und abgewehrt werden. So könnten KI-Modelle durch spezifisch auf KI ausgerichtete Angriffe attackiert werden, zum Beispiel sogenannte "Adversarial Attacks". Dabei werden in das System eingebrachte Daten so modifiziert, dass dieses entweder nicht mehr funktioniert oder sogar den Zwecken des Angreifers dient.

Beispielsweise könnten im Bereich der Stimmerkennung spezielle Rauschmuster eingesetzt werden, die für Menschen unhörbar sind, ein auf Stimmerkennung trainiertes KI-System allerdings empfindlich stören.


V. Autonome Drohnen

Autonome Drohnen, die mit Sensoren ausgestattet sind, können für Aufklärungsmissionen aus der Luft über großen Gebieten eingesetzt werden, die sonst zu lange dauern würden, wenn sie manuell zu Fuß durchgeführt würden. Diese Drohnen liefern auch wertvolle Daten über Umweltbedingungen.

Allerdings birgt die Anwendung von KI bei Drohnen auch die Möglichkeit sogenannter "autonomer Waffensysteme". Diese sind international sehr umstritten, da sie Experten zufolge das Potential zur Destabilisierung der internationalen Beziehungen hätten. In der deutschen Bundeswehr kommen nur teilautonome Systeme zum Einsatz, so zum Beispiel ein autonomes Fahrzeug, welches bei Feindkontakt die Position der gegnerischen Schützen erkennen und Drohnen anfordern soll.

Deutschland hinkt bei der Anwendung von KI im militärischen Kontext aktuell hinterher: Während die USA und Frankreich bereits entsprechende Strategien vorgelegt haben, fehlt eine solche in Deutschland. Einzelne Bundestagsmitglieder allerdings fordern bereits eine Debatte über KI in Waffensystemen im Parlament.


VI. Lösungen für die Cybersicherheit

KI, insbesondere Algorithmen des maschinellen Lernens, werden häufiger als je zuvor in Cybersicherheitslösungen eingesetzt. Diese intelligenten Systeme überwachen Netzwerke rund um die Uhr und erkennen böswillige Aktivitäten, insbesondere jeden Versuch, die Schutzmaßnahmen zu durchbrechen.

Auch hier hat Deutschland allerdings Nachholbedarf: Eine Studie des Center for Financial Studies an der Goethe-Universität in Frankfurt am Main hat 15 "Smart Industries" daraufhin untersucht, wie stark die Marktposition der deutschen Industrie ist. Das Ergebnis: Im Bereich Cybersicherheit weist diese keinen führenden Anbieter auf – eine alarmierend schwache Marktposition.


VII. Zugangskontrollsysteme

KI-gestützte Zugangskontrollsysteme stellen sicher, dass nur befugte Personen Zugang zu gesperrten Bereichen erhalten. Sie tun dies durch Gesichtserkennung und Abgleich mit vorinstallierten Datenbanken, die Benutzerinformationen enthalten, und verhindern so unbefugte Zutrittsversuche.

Auch hier muss allerdings die geplante Verordnung der Europäischen Union und ihre Vorgaben für die Gesichtserkennung abgewartet werden.


VIII. Prädiktive Analytik

Predictive Analytics-Tools nutzen große Datensätze in Kombination mit maschinellen Lernmodellen, um auf der Grundlage vergangener Vorfälle mögliche zukünftige Risiken vorherzusagen. Dies hilft bei der Entwicklung proaktiver Strategien anstelle von reaktiven Strategien, nachdem ein Vorfall bereits stattgefunden hat.

Predictive Analytics ist ein Kernelement von KI-Anwendungen und eine Querschnittstechnologie, der wohl die Zukunft gehört. Auch hier weist die bereits zitierte Studie trotz eines führenden deutschen Anbieters in diesem Bereich allerdings eine alarmierend schwache bis bestenfalls durchschnittliche Marktposition aus.


IX. Automatisierte Fahrzeuginspektion

Bei automatisierten Fahrzeuginspektionen werden neben GPS-Ortungssystemen auch Computer-Vision- und Deep-Learning-Technologien eingesetzt, um sicherzustellen, dass die Fahrzeuge alle relevanten Sicherheits- und Regulierungsstandards erfüllen. Dadurch wird nicht nur die Verkehrssicherheit erhöht, sondern auch der Inspektionsprozess rationalisiert, indem menschliche Fehler reduziert und das gesamte Verfahren beschleunigt wird.

Der TÜV Rheinland hat bereits einen eigenen Scanner, der automatisiert Beschädigungen an Fahrzeugen erfasst. Dabei handelt es sich um ein (KI-typisch) lernendes System, welches sein neuronales Netzwerk mit jeder Inspektion und jedem erkannten Schaden verbessert. So soll es in der Zukunft auch möglich sein, automatisch die Wertminderung eines Fahrzeugs durch einen Schaden oder sogar die Reparaturkosten zu berechnen.


X. KI im Katastrophenschutz

KI kann in Notfallsituationen eine entscheidende Rolle spielen, indem sie Gefahrenpotentiale oder mögliche Folgen vorhersagt und Empfehlungen für optimale Reaktionsstrategien ausspricht. Dies kann den Behörden für öffentliche Sicherheit helfen, präventiv tätig zu werden und im Ernstfall fundiertere Entscheidungen zu treffen.

Was Anwendungen für Prävention angeht, so existiert beim Deutschen Klimarechenzentrum beispielsweise der Klimarechner "Levante", der langfristige Klimaszenarien berechnen und vorhersagen kann, wann und wo mit Extremwetterereignissen zu rechnen ist.

Für Anwendungen im Fall einer bereits eingetretenen Krise kann als Beispiel das Projekt "ResKriVer" dienen, welches von einem Konsortium unter Führung des Fraunhofer-Instituts für offene Kommunikationssysteme getragen wird. Das Projekt arbeitet an einer Plattform, die unter anderem für eine ausfallsichere Kommunikation im Krisenfall sorgen soll.


Fazit

Zusammenfassend lässt sich sagen, dass KI das Potenzial hat, die Sicherheit im öffentlichen Sektor zu revolutionieren, indem sie innovative Lösungen anbietet, die den Behörden helfen können, Bedrohungen einen Schritt voraus zu sein und die allgemeine Sicherheit zu verbessern. Je weiter sich die Technologie entwickelt, desto wichtiger wird es, sich mit den rechtlichen und ethischen Auswirkungen von KI-gesteuerten Sicherheitsmaßnahmen auseinanderzusetzen. Durch ein ausgewogenes Verhältnis zwischen Innovation und Regulierung kann die Gesellschaft sicherstellen, dass KI ein leistungsfähiges Instrument zur Verbesserung der Sicherheit im öffentlichen Sektor bleibt und gleichzeitig die Rechte und die Privatsphäre des Einzelnen schützt. Es steht zu hoffen, dass auch die kommende EU-Verordnung dieser Dichotomie gerecht wird.


Über den Autor    

Dennis Hillemann ist Fachanwalt für Verwaltungsrecht und Partner im Verwaltungsrecht (vor allem Verwaltungsprozessrecht) im Hamburger Büro von Fieldfisher. Er berät Unternehmen und den öffentlichen Sektor, vor allem in komplexen Rechtsfragen des Öffentlichen Rechts und bei Streitigkeiten.

 

Melden Sie sich für unseren Newsletter an

Klicken Sie hier, um den Newsletter zu abonnieren oder Ihre E-Mail-Einstellungen zu verwalten.

ABONNIEREN