KI-bezogene Klagen: Wie der Fall "Stable Diffusion" einen rechtlichen Präzedenzfall schaffen könnte | Fieldfisher
Skip to main content
Insight

KI-bezogene Klagen: Wie der Fall "Stable Diffusion" einen rechtlichen Präzedenzfall schaffen könnte

Locations

Germany

Der bahnbrechende Rechtsfall Stable Diffusion hat die Büchse der Pandora geöffnet und die Frage aufgeworfen, wie KI-Technologie reguliert werden sollte und welcher Präzedenzfall dafür geschaffen werden muss. Dieser Prozess hat die Bühne für eine neue Ära von Rechtsstreitigkeiten im Bereich der KI-bezogenen Ansprüche bereitet - und die Auswirkungen könnten weitreichend und langanhaltend sein. Die Folgen sind klar: Ohne eine angemessene gesetzliche Regelung könnten die Konsequenzen von KI-bezogenen Klagen verheerend sein. So hat Stable Diffusion einen Welleneffekt in der Rechtswelt ausgelöst, der zweifellos noch Jahre lang nachhallen wird.

 

Ein Überblick

Bevor wir uns mit der Klage von Stable Diffusion im Detail befassen, sollten wir zunächst erörtern, was eine KI-bezogene Klage ist, und das Unternehmen Stable Diffusion vorstellen.

 

KI-bezogene Rechtsstreitigkeiten

Als Juristen ist es wichtig, die rechtlichen Fragen im Zusammenhang mit der Nutzung von KI zu verstehen und zu kennen. Bei KI-bezogenen Klagen geht es um angebliche Schäden, die durch den Einsatz von KI verursacht wurden. Diese Klagen können von Diskriminierung aufgrund von voreingenommenen Algorithmen bis hin zu Fahrlässigkeit aufgrund von fehlerhafter KI-Technologie reichen. KI-bezogene Klagen sind in den letzten Jahren immer häufiger geworden, was darauf hindeutet, dass Unternehmen beim Umgang mit KI-Technologie besondere Vorsichtsmaßnahmen ergreifen sollten.

Diskriminierung ist ein weithin anerkanntes rechtliches Problem im Zusammenhang mit KI. So verklagte das US Department of Housing and Urban Development 2019 Facebook, weil der Algorithmus es Werbetreibenden erlaubt haben soll, bestimmte Gruppen auf der Grundlage ihrer Rasse zu filtern. Außerdem wurde COMPAS kritisiert, weil es bei der Ermittlung der Rückfallquote von Angeklagten vor Gericht geschlechtsspezifische und ethnische Verzerrungen reproduziert.

Für Unternehmen ist es wichtig, die rechtlichen Auswirkungen des Einsatzes von KI-Technologie zu kennen und zu verstehen. Unternehmen sollten Maßnahmen ergreifen, um potenzielle KI-Risiken zu verringern, z. B. die routinemäßige Überprüfung von Algorithmen, um sicherzustellen, dass sie keine Voreingenommenheit enthalten, und die konsequente Prüfung von KI-Programmen, um zu gewährleisten, dass sie wie vorgesehen funktionieren. Unternehmen müssen auch die geltenden Datenschutzgesetze wie HIPAA und Bürgerrechtsvorschriften wie den Fair Credit Reporting Act verstehen, die eine Diskriminierung auf der Grundlage bestimmter Merkmale verbieten.

 

Was ist Stable Diffusion?

Stable Diffusion ist ein Deep Learning-Algorithmus für die Umwandlung von Text in Bilder, der 2022 veröffentlicht wurde. Er wird in der Regel zur Erstellung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet, kann aber auch Aufgaben wie Inpainting, Outpainting und die Erstellung von Bild-zu-Bild-Übersetzungen mit einer Textaufforderung übernehmen. Es handelt sich um ein latentes Diffusionsmodell, eine Art tiefes generatives neuronales Netz, das von der CompVis-Gruppe an der LMU München entwickelt wurde. Es funktioniert durch die Verwendung von Rauschen: Es fügt einem Bild Rauschen hinzu, kehrt dann den Prozess um und verbessert die Bildqualität, bis kein Rauschen mehr vorhanden ist, und erzeugt so ein realistisches Bild, das der Textaufforderung entspricht. Das Modell basiert auf einem Variational Autoencoder (VAE), der das Bild vom Pixelraum in einen kleineren latenten Raum komprimiert. Dieser latenten Darstellung wird während einer Vorwärtsdiffusion iterativ Rauschen hinzugefügt. Ein U-Net-Block, der aus einem ResNet-Backbone besteht, entrauscht die Ausgabe der Vorwärtsdiffusion, um die latente Darstellung zu erhalten. Schließlich dechiffriert die Textverstehenskomponente die Textinformationen in numerische Form, wobei Konzepte berücksichtigt werden, die mit einem Aufmerksamkeitsmechanismus gelernt wurden. Das Modell der stabilen Diffusion erzeugt Bilder durch iterative Entrauschung von Zufallsrauschen, bis alle konfigurierten Schritte abgeschlossen sind.

 

Der Rechtsstreit

Die Anwaltskanzlei Joseph Saveri und der Anwalt Matthew Butterick haben im Namen von drei Künstlern eine Klage gegen Stability AI und Midjourney eingereicht, in der sie die Unternehmen beschuldigen, unrechtmäßig auf urheberrechtlich geschützte Bilder zuzugreifen und diese zu verwenden, um ihre Software zu trainieren. Die Klage wurde beim High Court of Justice in London eingereicht und behauptet, dass Stability AI und Midjourney das Internet nach Milliarden von Werken durchforstet haben, die dann zur Erstellung abgeleiteter Werke verwendet wurden, ohne eine Genehmigung einzuholen. Darüber hinaus hat Getty Images ein Schreiben an Stability AI im Vereinigten Königreich geschickt, in dem sie eine Verletzung des Urheberrechts und der Nutzungsbedingungen, einschließlich Web Scraping, geltend machen.

Obwohl sie keine finanzielle Entschädigung oder die Einstellung der KI-Kunsttools fordern, hoffen sie, einen neuen Rechtsstandard zu schaffen, der für Getty Images und seine Mitwirkenden vorteilhafter ist. Die in der Klage erhobenen Vorwürfe müssen noch vor Gericht bewiesen werden, doch zahlreiche Rechtsexperten weisen darauf hin, dass diese Fragen vor Gericht geklärt werden müssen. Dieser Fall ist eine Verschärfung des andauernden Konflikts zwischen KI-Unternehmen und Entwicklern von Inhalten um Anerkennung, Profit und den letztendlichen Kurs der Kreativwirtschaft.

 

Konsequenzen für zukünftige Streitigkeiten

Das Urteil im Fall Stable Diffusion könnte sich auf künftige Rechtsstreitigkeiten im Zusammenhang mit KI auswirken. Es könnte als Beispiel für Fälle dienen, in denen ein Unternehmen die Risiken der Einführung eines neuen KI-Produkts nicht richtig bewertet. Er kann auch Beweise zur Untermauerung von Ansprüchen in Fällen liefern, in denen es um voreingenommene KI-Algorithmen geht und ein Unternehmen für die durch seine Technologie verursachten Schäden zur Verantwortung gezogen wird.

Die Folgen des Einsatzes fehlerhafter KI-Technologie sind weitreichend und potenziell verheerend. Unternehmen tragen die volle Verantwortung für die ordnungsgemäße Prüfung ihrer KI-Produkte, bevor sie auf den Markt kommen, und ihre Vernachlässigung dieser Verantwortung könnte einen schwerwiegenden rechtlichen Präzedenzfall schaffen. Darüber hinaus werfen die ethischen Implikationen des Einsatzes von KI-Technologie auch eine Reihe rechtlicher Fragen auf - Fragen, die es immer geben wird. Anwälte und Start-ups sollten die Compliance ihrer KI-Produkte sehr genau im Auge behalten, denn die Zukunft dieser Technologie ist vielversprechend - und die Möglichkeit für Rechtsstreitigkeiten ist groß.


​Dennis Hillemann ist Fachanwalt für Verwaltungsrecht und Partner in unserem Hamburger Büro. Er hat in jüngster Zeit über den Einsatz von KI im öffentlichen Sektor publiziert und referiert. Darüber hinaus berät er Unternehmen und Behörden in Fragen der Digitalisierung.