Skip to content
atriga News

EU-KI-Verordnung: Was seit August auf Anbieter und Betreiber von KI-Systemen zukommt

Seit August 2024 ist der EU AI Act in Kraft, das weltweit erste Gesetz zur umfassenden Regulierung von Künstlicher Intelligenz.

Nach der ersten Stufe, mit Verboten besonders risikoreicher Systeme, greifen ab dem 2. August 2025 neue Pflichten, insbesondere für Anbieter großer KI-Modelle mit allgemeinem Verwendungszweck sowie für Unternehmen, die solche Systeme entwickeln oder einsetzen.

Was das in der Praxis bedeutet, erklärt Kristin Pagnia, Juristin und interne Datenschutzbeauftragte der atriga in unserem Gespräch.

Lesen Sie hier im bereits erschienenen ersten Teil unserer Interviewreihe zum EU AI Act, was die Finanzbranche beim Einsatz von GenAI-basierten Chatbots beachten muss.

 

Frau Pagnia, was ist konkret am 2. August 2025 passiert?

An diesem Stichtag ist die zweite Umsetzungsstufe des EU AI Acts, auch gerne als KI-Verordnung bezeichnet, in Kraft getreten. Sie betrifft vor allem zwei Bereiche: Zum einen die sogenannten Governance-Regeln, also Standards für den sicheren, verantwortungsvollen Umgang mit KI. Zum anderen neue Pflichten für Anbieter sogenannter „General Purpose AI“-Modelle, also große Basismodelle, wie man sie etwa von Sprachsystemen kennt. Diese Regelungen betreffen aber nicht nur die Entwickler dieser Modelle, sondern auch alle, die solche Modelle in eigene KI-Systeme einbauen und weiterverarbeiten, sogenannte nachgeschaltete Anbieter.

Viele Unternehmen nutzen KI bereits, oft ohne zu wissen, ob sie als Anbieter gelten. Was sagt der Gesetzestext dazu?

Laut Artikel 3 des EU AI Acts ist Anbieter eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickelt oder ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickeln lässt und es unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringt oder in Betrieb nimmt, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht.

Wichtig: Auch wer ein bestehendes KI-Modell wie etwa ein Large Language Model (LLM) von OpenAI oder Microsoft in eine eigene Anwendung einbindet, wird unter bestimmten Bedingungen selbst zum Anbieter. Für diese Unternehmen gelten dann eigene Verpflichtungen, etwa zur Transparenz oder technischen Dokumentation. Ob man betroffen ist, muss im Einzelfall geprüft werden. Hilfe dazu findet man beim neu geschaffenen KI-Service-Desk der Bundesnetzagentur. Mit diesem Beratungsangebot, aufrufbar unter www.bundesnetzagentur.de/DE/Fachthemen/Digitales/KI/2_Risiko/kompass/start.html, können Unternehmen prüfen, ob und in welchem Umfang die europäische KI-Verordnung für sie gilt.

Kristin Pagnia, Juristin und interne Datenschutzbeauftragte der atriga: „Laut Artikel 3 des EU AI Acts ist Anbieter eine natürliche oder juristische Person, die ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickelt oder ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickeln lässt und es unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringt oder in Betrieb nimmt.“

 

Portrait Kristin Pagnia, atriga GmbH

Und wer ist ein Betreiber im Sinne der Verordnung?

Ein Betreiber ist, wer ein KI-System in eigener Verantwortung geschäftlich nutzt. Beispielsweise in der Kundenkommunikation oder zur Prozessautomatisierung. Ein Anbieter kann gleichzeitig Betreiber sein, wenn er sein System selbst einsetzt. Viele Unternehmen nehmen heute genau diese Doppelrolle ein.

Ein Begriff, der jetzt häufiger fällt, ist „KI-Modell mit allgemeinem Verwendungszweck“ oder auch „GPAI-Modelle (general-purpose AI)“. Was genau ist damit gemeint?

Dabei handelt es sich um sogenannte Foundation Models, also Basismodelle, die für eine Vielzahl unterschiedlicher Aufgaben eingesetzt werden können. Ein Modell mit allgemeinem Verwendungszweck muss drei Kriterien erfüllen: Es muss breite Anwendbarkeit haben, eine Vielzahl komplexer Aufgaben kompetent erledigen können und sich in unterschiedlichste Anwendungen integrieren lassen. Große Sprachmodelle wie ChatGPT von OpenAI oder das vom atriga Voice- und Chatbot ‚FYN‘ genutzte Sprachmodell von Microsoft Azure erfüllen diese Kriterien in der Regel.

Was bedeutet das konkret für Unternehmen, die solche Modelle nutzen oder weiterverarbeiten?

Anbieter dieser Modelle, also die ursprünglichen Entwickler, müssen unter anderem sicherstellen, dass ihre Systeme transparent dokumentiert sind. Dazu gehört eine öffentliche Beschreibung, wie das Modell trainiert wurde, welche Daten verwendet wurden und wie Urheberrechte beachtet wurden. Zusätzlich sind technische Dokumentationen nach Anhang XI der Verordnung verpflichtend. Unternehmen, die diese Modelle in eigene Systeme integrieren, sind darauf angewiesen, dass diese Informationen bereitgestellt werden. Sie müssen ihrerseits dafür sorgen, dass alle Pflichten der KI-Verordnung eingehalten werden.

Gibt es Unterschiede zwischen Modellen mit und ohne systemischem Risiko?

Ja, der Gesetzgeber unterscheidet hier klar. Modelle mit systemischem Risiko – also solchen, die besonders leistungsfähig sind und potenziell großen gesellschaftlichen Einfluss haben – unterliegen strengeren Anforderungen. Dazu zählen unter anderem Meldepflichten, Risikobewertungen und spezielle Transparenzmaßnahmen. Ob ein Modell als systemisch einzustufen ist, hängt von mehreren Kriterien ab, etwa Reichweite, Fähigkeiten und möglicher Einfluss auf demokratische Prozesse oder Grundrechte. Artikel 51 und Artikel 3 Nummer 64 des EU AI Acts geben hierzu Orientierung.

Ein praktisches Beispiel: Ein Unternehmen nutzt ein Chatbot-System, das auf einem großen Sprachmodell basiert. Welche Pflichten ergeben sich daraus?

Zunächst muss sichergestellt sein, dass der Nutzer erkennt, mit einer KI zu kommunizieren. Das ist eine grundlegende Transparenzpflicht. Der atriga Chatbot beispielsweise stellt sich mit den Worten „…ich bin FYN, der virtuelle Assistent der atriga“ vor. Außerdem muss dokumentiert sein, auf welchem Modell das System basiert, wie es eingebunden wurde und welche Schutzmechanismen greifen. Kommt es zu einer wesentlichen Weiterentwicklung oder einer Zweckänderung, wird das Unternehmen selbst zum Anbieter und muss weitere Anforderungen erfüllen, etwa zur technischen Dokumentation oder Risikobewertung.

Neben technischen Pflichten gibt es auch organisatorische Anforderungen. Was bedeutet das für die Mitarbeitenden?

Seit Februar 2025 gilt eine Schulungspflicht. Unternehmen müssen sicherstellen, dass alle, die mit KI-Systemen arbeiten, ausreichend qualifiziert sind. Das betrifft sowohl die technische Seite als auch ethische, rechtliche und sicherheitsrelevante Aspekte. KI-Kompetenz darf keine Blackbox sein, das ist eine ganz zentrale Aussage der Verordnung.

Welche Rolle spielt der Datenschutz bei all dem?

Eine sehr große. Denn KI-Systeme verarbeiten häufig personenbezogene Daten, sei es direkt oder indirekt. Dabei gelten nach wie vor alle Vorgaben der Datenschutzgrundverordnung (DSGVO). Der EU AI Act ergänzt diese Perspektive durch spezifische Anforderungen an Transparenz, Zweckbindung und Fairness. Besonders beim Einsatz großer Sprachmodelle ist darauf zu achten, dass keine urheberrechtlich geschützten oder sensiblen Inhalte unkontrolliert verarbeitet oder reproduziert werden.

Klingt nach viel Aufwand. Wo sollten Unternehmen Ihrer Meinung nach anfangen?

Der erste Schritt ist immer die Bestandsaufnahme: Welche Systeme werden eingesetzt? Welche Modelle werden genutzt? Welche Rolle nimmt das eigene Unternehmen ein: Anbieter, Betreiber oder beides? Dann gilt es, klare Verantwortlichkeiten zu definieren, Dokumentationsprozesse aufzusetzen und die technischen sowie organisatorischen Maßnahmen an die Verordnung anzupassen.

Wichtig ist, nicht in Aktionismus zu verfallen, sondern strukturiert und mit einem fundierten Verständnis der Verordnung zu handeln. Gerade im Zusammenspiel mit Datenschutz, Urheberrecht und IT-Sicherheit wird das eine dauerhafte Aufgabe für Unternehmen sein.

Liebe Frau Pagnia, herzlichen Dank für Ihre fundierten Ausführungen und die wertvollen Hinweise für unsere Leser.

Über die Gesprächspartnerin
Kristin Pagnia ist seit Gründung des Unternehmens im Jahr 2003 bei der atriga GmbH beschäftigt und dort als Juristin, Assistant Head of Legal Services und Datenschutzbeauftragte tätig. Kristin Pagnia studierte an der Johann-Wolfgang-Goethe-Universität in Frankfurt Rechtswissenschaften und beschäftigt sich seit Jahren intensiv mit dem Bereich Datenschutz. Sie ist Mitglied in den Arbeitskreisen Datenschutz des BDIU sowie der GDD. Seit 2019 ist Frau Pagnia zudem „Betrieblicher Datenschutzbeauftragter IHK“.

Der KI-Service Desk der Bundesnetzagentur unterstützt Unternehmen, Behörden und Organisationen bei der Umsetzung der KI-Verordnung in Deutschland:
www.bundesnetzagentur.de/DE/Fachthemen/Digitales/KI/start_ki.html

Kontakt zur Redaktion
An den Anfang scrollen
atriga GmbH
Pittlerstr. 47
63225 Langen
Deutschland
+49 (0)6103 3746-999
+49 (0)6103 3746-100
Kontakt