KI & Social Media: Kennzeichnungspflichten von Influencern und Umgang mit Deepfakes

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​​​​​​​veröffentlicht am 9. Oktober 2024 | Lesedauer ca. 5​ Minuten


Dass beim Influencer-Marketing Kennzeichnungspflichten bestehen, ist höchst­rich­ter­​​lich entschieden. Die Grenzen dabei sind fließend. Der Einsatz von Künstlicher Intelligenz (KI) wirft neue Fragen zu Kennzeichnungspflichten in den sozialen Medien auf. Neben den Vorteilen, die die KI-Nutzung für Influencer bei der Erstellung ihrer Inhalte mit sich bringt, tritt die Gefahr durch die Erstellung von sog. Deepfakes.



Influencer-Marketing: Pflicht zur Kennzeichnung von Werbung​

Im Influencer-Marketing ist die Transparenz gegenüber Verbrauchern von großer Bedeutung. Influencer müssen klar kennzeichnen, wenn sie für die Bewerbung eines Produkts oder einer Dienstleistung bezahlt werden oder kostenlose Produkte erhalten haben. Dies dient dem Schutz der Verbraucher und der Vermeidung von Irre­führung.

In Deutschland regeln das Gesetz gegen den unlauteren Wettbewerb (UWG), das Digitale-Dienste-Gesetz (DDG) und der Medienstaatsvertrag (MStV) die Kennzeichnungspflichten im Influencer-Marketing. Beiträge, die Werbung enthalten, müssen eindeutig als solche erkennbar sein. Übliche Kennzeichnungen sind Begriffe wie „Anzeige“ oder „Werbung“. Die Kennzeichnung sollte gut sichtbar und nicht versteckt (z. B. in einer Hashtag-Wolke) sein, damit die Follower sofort erkennen können, dass es sich um Werbung handelt. Verstöße gegen diese Pflichten können rechtliche Konsequenzen nach sich ziehen, einschließlich Abmahnungen und Buß­­g​eldern.

Das DDG und der MStV normieren zudem eine Impressumspflicht für Anbieter digitaler Dienste und für die​­jenigen, die (regelmäßig) journalistisch-redaktionell gestaltete Inhalte online stellen, die zur Meinungs​­bil­​dung beitragen können. Hierzu gehören auch Social Media-Accounts.

Lil Miquela, Aitana Lopez & Co. : Kennzeichnungspflichten bei der Nutzung von KI auf Social Media​

Auf Social Media wird KI zunehmend genutzt. Das geht so weit, dass es bereits erfolgreiche Social Media Accounts von vollständig durch KI geschaffenen Avataren gibt, die aussehen, wie richtige Menschen.

Eine davon ist die KI-generierte Aitana Lopez, welche eine 25-jährige Frau darstellen soll. Sie wurde von einem spanischen Designer und Gründer einer Modelagentur geschaffen, ist seit dem Jahre 2023 auf Instagram unter dem Namen „fit_aitana“ aktiv und hat mittlerweile rund 330.000 Follower. Die Account-Betreiber bezeichnen sie als „virtual Soul powered by AI“. Noch erfolgreicher mit 2,5 Millionen Followern ist Miquela, ein „21-year-old-Robot living in LA“, die eine junge Halbbrasilianerin darstellen soll und auf Instagram unter dem Namen „lilmiquela“ zu finden ist.

Für solche virtuellen Influencer gelten grundsätzlich die gleichen Kennzeichnungspflichten wie für real existierende Influencer. Es kann keinen Unterschied machen, ob auf Social Media eine reale Person gezeigt wird oder eine virtuelle Person, hinter welcher (Medien-)Unternehmen und Agenturen stehen.

Neben solchen Extremen kann KI aber auch von real existierenden Influencern zu Optimierung oder Ver­schö­nerung ihres Contents genutzt werden. Inwiefern solcher KI-Output zu kennzeichnen ist, hängt vom Einzelfall ab. Kennzeichnungspflichten können sich bereits aus den Nutzungsbedingungen des jeweiligen genutzten KI-Tools ergeben. Kooperationsverträge sind sind daraufhin zu prüfen, ob der Einsatz von KI durch den Influencer überhaupt erlaubt ist. Sofern urheberrechtlich geschützter Content wiedergegeben wird, ergeben sich Kenn­zeich­nungs­pflich­ten aus dem Urheberrechtsgesetz. § 18 Abs. 3 MStV sieht für Anbieter von Telemedien in sozialen Netzwerken die Kennzeichnung von mittels eines Computerprogramms automatisiert erstellten In­hal­ten oder Mitteilungen vor. Schließlich sind auch im AI Act Transparenzpflichten für KI-Systeme normiert, die für Influencer relevant werden können.

Deepfakes: Umgang mit Identitätsklau​

Sogenannte Deepfakes sind Verfahren zur Manipulation von medialen Inhalten. Es handelt sich also um gefälschten, aber real wirkenden Content. Deepfakes können etwa Video-, Bild- oder Audioaufnahmen sein. Nach dem AI Act müssen Deepfake-Inhalte als Inhalte offengelegt werden, die künstlich erzeugt oder mani­puliert wurden.

Ein Beispiel für Deepfakes sind KI-generierte Stimmen, die exakt so klingen, wie die Stimme einer berühmten Persönlichkeit. So hat etwa OpenAI mit ChatGPT 4.0 eine KI-Stimme namens „Sky“ veröffentlicht, die der von Scarlett Johansson sehr ähnlich klang. Auffällig war dies vor allem vor dem Hintergrund, dass OpenAI Johansson zuvor erfolglos darum gebeten hatte, ihre Stimme als Vorlage für eine ChatGPT-Stimme verwenden zu dürfen. Auf Aufforderung der Schauspielerin hat OpenAI die Stimme „Sky“ schließlich wieder aus dem Chatbot entfernt.

Im Internet sind immer mehr KI Anwendungen zu finden, die Stimmen generieren. Solche Fälle wecken die Frage, ob es in Deutschland einen Schutz vor KI-Stimmen-Generatoren gibt.

Spätestens seit dem berühmten „Marlene Dietrich-Urteil“ des Bundesgerichtshofs (BGH) steht fest, dass die Stimme vom sogenannten allgemeinen Persönlichkeitsrecht geschützt ist (BGH I ZR 49/97). Das allgemeine Persönlichkeitsrecht ist ein in Deutschland durch Artikel 1 Absatz 1 und Artikel 2 Absatz 1 Grundgesetz (GG) verfassungsmäßig garantiertes Grundrecht und zugleich zivilrechtlich nach § 823 Bürgerliches Gesetzbuch (BGB) geschützt. Das allgemeine Persönlichkeitsrecht schützt die Menschenwürde und das Recht auf freie Entfaltung der Persönlichkeit. Der Schutz umfasst sowohl ideelle als auch vermögenswerte Interessen. Der BGH hat im „Marlene Dietrich-Urteil“ festgestellt, dass der Stimme „ein beträchtlicher wirtschaftlicher Wert zukommen [kann], der im Allgemeinen auf der Bekanntheit und dem Ansehen der Person in der Öffentlichkeit – meist durch besondere Leistungen etwa auf sportlichem oder künstlerischem Gebiet erworben – beruht.“

Auch KI-generierte Bild- und Videoaufnahmen können das allgemeine Persönlichkeitsrecht verletzen. Denn das sogenannte Recht am eigenen Bild ist ebenfalls eine Ausprägung des allgemeinen Persönlichkeitsrechts. Wei­ter­hin wird es durch das Kunst-Urheberrechtsgesetz (KUG) geschützt, nach welchem Bildnisse nur mit Ein­willi­gung des Abgebildeten verbreitet oder öffentlich zur Schau gestellt werden dürfen. Das Recht am eigenen Bild beruht auf dem Gedanken, dass nur dem Abgebildeten die Verfügung über das eigene Bild zustehen soll. Zu seinen geschützten Interessen gehört auch das vermögenswerte Interesse an der kommerziellen Verwertung seines Bildnisses.

Über das allgemeine Persönlichkeitsrecht kann folglich die unerlaubte Nutzung der eigenen Stimme und des eigenen Bildes mit Hilfe von KI untersagt werden, wenn eine solche Nutzung die persönliche Ehre oder die materiellen Interessen des Betroffenen verletzt. Bei schuldhafter Verletzung des allgemeinen Persönlich­keits­rechts kann zusätzlich Schadensersatz verlangt werden.

Schließlich bietet auch der Abschluss von Lizenzverträgen einen Weg zum Schutz – oder sogar der Vermark­tung – der eigenen Stimme und des eigenen Bildes. So bietet etwa die kanadische Künstlerin Grimes die Nutzung ihrer Stimme gegen eine Beteiligung an den erzielten Einnahmen von jedem erfolgreichen KI-generiertem Lied an, in dem ihre Stimme genutzt wird.

Hinweis: Auch KI-generierte Influencer können Deepfakes erzeugen – und das sogar, wenn sie keine real existierenden Personen nachahmen. Denn oftmals agieren KI-Influencer in einer Nachbildung der realen Welt, um einen möglichst realen Eindruck zu erwecken. Darin liegt dann ein Deepfake, der nach dem AI Act kennzeichnungspflichtig ist. Sofern reale Influencer in virtuellen Welten agieren, gilt dies natürlich auch für sie.

Kontakt

Contact Person Picture

Dr. Laura Münster

Rechtsanwältin

Associate

+49 221 9499 09682

Anfrage senden

Profil

Contact Person Picture

Frank Fischer

Rechtsanwalt, Fachanwalt Urheber- und Medienrecht, Leiter Praxisgruppe IP & Media Deutschland

Associate Partner

+49 221 9499 093 07

Anfrage senden

Profil

Contact Person Picture

Dr. Susanne Grimm

Rechtsanwältin, Fachanwältin für Gewerblichen Rechtschutz, Leiterin Praxisgruppe IP & Media Deutschland

Associate Partner

+49 711 7819 14 0

Anfrage senden

Profil

Unternehmer­briefing

Kein Themen­special verpas­sen mit unserem Newsletter!

Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu