AI Act – Was gilt es zu beachten?

PrintMailRate-it

​​​​​veröffentlicht am 27. März 2025


Viele Krankenhäuser oder Einrichtungen im Gesundheits- und Sozialsektor verwenden bereits KI-Systeme für die Analyse und Kategorisierung von Daten oder für bestimmte Vorhersagen. Jede KI-Anwendung soll zukünftig in Risikokategorien eingeteilt werden, für die jeweils unterschiedliche Anforderungen und Pflichten der Betreiber und Anwender gelten. Bereits seit dem 2. Februar 2025 müssen alle Anwender und Betreiber die KI-Kompetenz im Unternehmen sicherstellen!

Die Fristen des AI Acts rücken immer näher oder wirken teilweise schon, weswegen im Folgenden der Aufbau des AI Acts, die Klassifizierungsstufen von KI-Anwendungen, Pflichten für Anbieter oder Betreiber sowie die bevorstehenden Fristen und Sanktionen beschrieben werden.

Mit dem AI Act bzw. der KI-Verordnung hat die Europäische Union (EU) eine umfassenden Verordnung über Künstliche Intelligenz (KI) veröffentlicht, welche die KI-Anwendung selbst, die Einführung und das Handeln mit KI reguliert.

Der AI Act lässt sich grob in folgende Bereiche untergliedern:
  • ​Zielsetzung
  • Anwendungsbereich
  • Kategorisierung von KI-Systemen
  • Anforderungen an Hochrisiko-KI-Systeme
  • Transparenzpflichten
  • Umsetzung und Überwachung

Der AI Act hat die Förderung von menschenzentrierter und vertrauenswürdiger KI sowie die Sicherstellung eines hohen Schutzniveaus für Gesundheit, Sicherheit und Grundrechte zum Ziel. Der Anwendungsbereich erstreckt sich über alle Marktteilnehmer, die an der Entwicklung, dem Einsatz und der Nutzung von KI-Systemen in der EU beteiligt sind. So sind Anbieter, die in der Europäischen Union KI-Systeme in Verkehr bringen oder in Betrieb nehmen, Betreiber von KI-Systemen oder auch Einführer und Händler von KI-Systemen betroffen. Mit dem risikobasierten Ansatz erfolgt eine Klassifizierung der KI-Systeme bezüglich des potenziellen Risikos, welches die KI-Anwendung bei ihrem Einsatz verursacht. Hier wird zwischen niedrigem (z.B. KI in Computerspielen), mittlerem (z.B. KI für die Videogenerierung) und hohem Risiko (z.B. KI in Medizinprodukten) unterschieden. Zusätzlich werden noch verbotene KI-Anwendungen (z.B. KI für Social Scoring) beschrieben. Es bestehen gewisse Transparenzpflichten für Anbieter und Betreiber von KI-Systemen, welche für die direkte Interaktion mit natürlichen Personen bestimmt sind, synthetische Audio-, Bild-, Video-, oder Textinhalte erzeugen oder manipulieren oder zur Emotionserkennung bzw. zur biometrischen Kategorisierung eingesetzt werden. Je nach Risiko-Einstufung müssen für den Einsatz der KI bestimmte Anforderungen erfüllt werden. Die Anforderungen unterscheiden sich danach, ob man Anbieter oder Betreiber von KI-Systemen mit hohem Risiko ist. Als Anbieter eines KI-Systems müssen mehr Pflichten erfüllt werden als von einem Betreiber eines KI-Systems. Werden die Pflichten oder verbotene Praktiken missachtet, können unterschiedlich stark ausgeprägte Sanktionen verhängt werden, welche im schlimmsten Fall bis zu 35 Mio. Euro betragen können.

Wichtig ist dabei zu beachten, dass es sich hier um eine Verordnung der Europäischen Union handelt. Im Gegensatz zu einer Richtlinie bedarf es hier keiner Umsetzung mehr in das nationale Recht, die Verordnung gilt unmittelbar in den Mitgliedsstaaten der Europäischen Union.

Seit dem 2. Februar 2025 greift bereits das Verbot bestimmter KI-Anwendungen. Zudem müssen seit diesem Zeitpunkt die Anbieter und Betreiber von KI-Systemen die KI-Kompetenz in ihrem Unternehmen oder in ihrer öffentlichen Einrichtung sicherstellen.

​​Es sind Maßnahmen zu ergreifen, um nach besten Kräften zu gewährleisten, dass das Personal und andere Personen, die in deren Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen. In der KI-Verordnung werden den Betreibern viele Freiheiten gelassen, wie sie die KI-Kompetenz in ihren Unternehmen oder Einrichtungen sicherstellen wollen.

Wir empfehlen, dass folgende Aspekte zur Sicherstellung der KI-Kompetenz umgesetzt werden sollten:
  • ​Bestandsaufnahme und Analyse der eingesetzten KI-Systeme
  • Definition von Verantwortlichkeiten (KI-Beauftragter intern oder extern)
  • Erstellung von Richtlinien in Bezug auf KI
  • Erstellung Schulungskonzepten für Mitarbeiterinnen und Mitarbeiter
Abhängig von der Bestandsaufnahme und Analyse der eingesetzten KI-Systeme, können sich die restlichen drei Bereiche unterschiedlich stark ausprägen. 

Ab dem 2. August 2025 gelten beispielsweise die Regelungen für Sanktionen und KI-Modellen mit allgemeinem Verwendungszweck wie Sprachmodelle. Die allgemeine Geltung des AI Acts beginnt vollumfänglich ab dem 2. August 2026 und die Einstufungsvorschriften für Hochrisiko-KI-Systeme gelten ab dem 2. August 2027. Auch wenn bis dahin noch 2,5 Jahre Zeit ist, empfehlen wir bereits jetzt sich mit den Vorgaben und Regelungen auseinanderzusetzen, damit diese bis zur Umsetzungsfrist auch wirklich erfüllt werden können.​





AUTOREN

Kai-Jannis Kopper
Carina Richters


FOLGEN SIE UNS!

Linkedin Banner

Kontakt

Contact Person Picture

Jürgen Schwestka

Diplom-Kaufmann, CISA, Zertifizierter IT-Sicherheitsbeauftragter, Zertifizierter IT-Security-Auditor, IT-Auditor IDW, Zertifizierter Business Continuity Manager

Partner

+49 911 9193 3508

Anfrage senden

Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu