Falsche Tatsachen über Unternehmen durch KI im Internet – wer haftet?

PrintMailRate-it

​​​​​​​​​​​​veröffentlicht am 20. Dezember 2024 | Lesedauer ca. 2​ Minuten


Der Einsatz von KI erleichtert unser Arbeitsleben. Schnell können Inhalte erstellt und genutzt werden. Aber was passiert, wenn solche Inhalte falsch sind und ihre Veröffent­lichung Unternehmen in Misskredit bringen?


Darüber hatte das Landgericht Kiel (Az. 6 O 151/23) am 29. Februar 2024 zu entscheiden. Der Entscheidung lag folgender Sacherhalt zugrunde.
 
Die Beklagte betreibt eine  Plattform zur Veröffentlichung von Wirtschaftsinformationen. Die dort veröffent­lichten Informationen über die Klägerin ließ die Beklagte mittels KI generieren. Über die Klägerin veröffentlichte die Beklagte eine Information über deren bevorstehende Löschung wegen Vermögenslosigkeit. 
 
Die Klägerin, ein mittelständisches Familienunternehmen, forderte die Beklagte auf, diese Information zu entfernen und eine Unterlassungserklärung abzugeben, da die Aussage über die Löschung wegen Vermögens­losigkeit falsch war.
 
Das Gericht stellte fest, dass die Beklagte als sogenannte unmittelbare Störerin hafte, da sie die fehlerhafte Information durch ihre KI-Software verbreitet habe. Sie wurde verurteilt, die falsche Behauptung zu unterlassen, dass die Klägerin wegen Vermögenslosigkeit gelöscht werde. Das Gericht betonte, dass die Verbreitung solcher falschen Informationen eine erhebliche Rufschädigung für die Klägerin darstelle, da sie die Klägerin in ihrer wirtschaftlichen Existenz bedrohe.

Wichtig an dieser Entscheidung ist

​Die Beklagte haftet unmittelbar, weil sie die fehlerhafte Information durch ihre KI-Software verbreitet hat. Sie kann sich nicht darauf zurückziehen, dass die KI-Software ohne ihr aktives Zutun den Fehler produziert hat. Das Gericht stellte klar, dass die Beklagte für die von ihrer KI generierten Inhalte verantwortlich ist, auch wenn die Fehler nicht absichtlich verursacht wurden. Diese Haftung ergibt sich aus der Pflicht, die von der KI verbreiteten Informationen sorgfältig zu überwachen und zu korrigieren.
 

Fazit

Der Einsatz von KI ist mit Risiken behaftet. Unternehmen, die KI einsetzen und mit KI erstellte Informationen nutzen, können wie im vorliegenden Fall für fehlerhafte Ergebnisse haftbar gemacht werden. Durch die soge­nannte Störerhaftung sind Unternehmen nicht vor einer Inanspruchnahme gefeit. 
 
Für Unternehmen, die sich mit fehlerhaften Aussagen konfrontiert sehen, ist es unerlässlich, schnell und zielgerichtet zu reagieren, um einen Schaden vom Unternehmen durch eine daraus folgende Rufschädigung abzuwenden. Dabei ist es sollte es  unerheblich sein, ob es sich im KI generierte oder von Menschen formu­lierte Aussagen handelt, zumal oft nicht erkennbar ist, von wem der Inhalt erstellt wurde.

Kontakt

Contact Person Picture

Dr. Susanne Grimm

Rechtsanwältin, Fachanwältin für Gewerblichen Rechtschutz, Leiterin Praxisgruppe IP & Media Deutschland

Associate Partner

+49 711 7819 14 0

Anfrage senden

Profil

Contact Person Picture

Frank Fischer

Rechtsanwalt, Fachanwalt Urheber- und Medienrecht, Leiter Praxisgruppe IP & Media Deutschland

Associate Partner

+49 221 9499 093 07

Anfrage senden

Profil

Mehr lesen?

 
Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu