EU AI Act: Was die Kennzeichnungspflicht ab August 2026 für KI Inhalte bedeutet
Plagiatscanner.de Redaktion | 25. März 2026
Noch knapp fünf Monate, dann wird der Umgang mit KI-generierten Inhalten in Europa grundlegend reguliert. Am 2. August 2026 treten die Transparenz- und Kennzeichnungspflichten des EU AI Act in Kraft — und mit ihnen eine Reihe von Verpflichtungen, die nicht nur die großen Technologiekonzerne betreffen, sondern auch Verlage, Content-Agenturen, Hochschulen und letztlich jeden, der mit KI-generierten Texten, Bildern oder Videos arbeitet. Was genau geregelt wird, welche Strafen drohen und was das für den Bereich Plagiatserkennung und KI-Scan bedeutet, schauen wir uns in diesem Beitrag genau an.
Was Artikel 50 des EU AI Act vorschreibt
Das Herzstück der neuen Regelungen bildet Artikel 50 der europäischen KI-Verordnung. Er verpflichtet Anbieter generativer KI-Systeme — also Unternehmen wie OpenAI (ChatGPT), Google (Gemini), Anthropic (Claude) oder Mistral — dazu, die Ausgaben ihrer Systeme als KI-generiert zu kennzeichnen. Diese Kennzeichnung muss zwei Kriterien erfüllen (Quelle: EU Digital Strategy, Regulatory Framework AI):
- Maschinenlesbar: Die Kennzeichnung muss in einem technischen Format eingebettet sein, das von Software automatisch ausgelesen werden kann. Gemeint sind beispielsweise Wasserzeichen, Metadaten oder kryptographische Signaturen, die in den generierten Inhalt integriert werden.
- Menschlich erkennbar: Zusätzlich zur technischen Kennzeichnung muss für Menschen ersichtlich sein, dass es sich um einen KI-generierten Inhalt handelt. Das kann ein Hinweistext, ein Label oder ein visuelles Merkmal sein.
Besonders streng sind die Vorgaben für Deepfakes — also synthetisch erzeugte oder manipulierte Bild-, Audio- oder Videoinhalte, die reale Personen zeigen. Hier verlangt die Verordnung eine klare und unmissverständliche Offenlegung. Auch Texte, die in öffentlichem Interesse stehen — etwa journalistische oder informative Inhalte —, müssen als KI-generiert gekennzeichnet werden, sofern sie nicht von einer menschlichen Redaktion inhaltlich überprüft und verantwortet wurden (Quelle: Herbert Smith Freehills, März 2026).
Wer ist betroffen?
Die Kennzeichnungspflicht richtet sich in erster Linie an die Anbieter generativer KI-Systeme. Das sind die Unternehmen, die die Modelle entwickeln und bereitstellen. Sie müssen sicherstellen, dass ihre Systeme die technischen Voraussetzungen für die Kennzeichnung erfüllen.
Darüber hinaus sind aber auch die sogenannten „Deployer" betroffen — also Unternehmen und Organisationen, die KI-Systeme einsetzen und deren Ausgaben veröffentlichen oder weiterverwenden. Wenn ein Verlag beispielsweise Artikel mit KI-Unterstützung erstellt und publiziert, muss er sicherstellen, dass die Kennzeichnungspflichten eingehalten werden. Dasselbe gilt für Marketingagenturen, Content-Plattformen und im weitesten Sinne auch für Hochschulen, die KI-generierte Inhalte in Lehrmaterialien einsetzen.
Eine wichtige Ausnahme: Inhalte, die einer redaktionellen Prüfung und Verantwortung unterliegen, können von der Kennzeichnungspflicht befreit sein. Das betrifft etwa Nachrichtenredaktionen, die KI als Hilfsmittel nutzen, den Inhalt aber journalistisch verantworten. Die genauen Grenzen dieser Ausnahme werden im Code of Practice konkretisiert, der voraussichtlich im Mai oder Juni 2026 finalisiert wird (Quelle: Cooley, Dezember 2025).
Die Technik dahinter: C2PA und Content Credentials
Eine der zentralen Fragen bei der Umsetzung der Kennzeichnungspflicht lautet: Wie soll die technische Kennzeichnung konkret funktionieren? Die wahrscheinlichste Antwort heißt C2PA — die „Coalition for Content Provenance and Authenticity".
C2PA ist ein offener technischer Standard, der digitalen Inhalten eine Art Herkunftszertifikat mitgibt. Vergleichbar mit dem Echtheitszertifikat eines Kunstwerks dokumentiert C2PA, wer einen Inhalt erstellt hat, wann er erstellt wurde und mit welchen Werkzeugen. Wenn ein Text von ChatGPT generiert wurde, würde diese Information als kryptographisch gesicherte Metadaten im Dokument eingebettet — unsichtbar für das menschliche Auge, aber jederzeit maschinell auslesbar.
Der Standard befindet sich derzeit auf dem Weg zur ISO-Zertifizierung und wird bereits von gewichtigen Akteuren unterstützt: Adobe hat Content Credentials in seine Creative-Cloud-Produkte integriert, Google kennzeichnet KI-generierte Bilder damit, und die US-amerikanische Library of Congress nutzt C2PA zur Archivierung digitaler Inhalte (Quelle: C2PA Specification 2.2). Auch mehrere europäische Nachrichtenagenturen setzen den Standard bereits ein, um die Herkunft ihrer Medieninhalte nachvollziehbar zu machen.
Für den Bereich der KI-Erkennung an Hochschulen wäre C2PA ein Durchbruch. Anstatt sich auf statistische Wahrscheinlichkeiten zu verlassen — wie es aktuelle KI-Detektoren tun —, könnte man direkt prüfen, ob ein Text von einem KI-System stammt, das seine Ausgaben standardkonform kennzeichnet. Allerdings setzt das voraus, dass tatsächlich alle relevanten KI-Anbieter den Standard implementieren und dass die Kennzeichnung nicht nachträglich entfernt werden kann.
Zusätzliche Pflicht: Kostenlose Erkennungswerkzeuge
Ein Detail, das in der öffentlichen Diskussion oft untergeht, aber für die Praxis enorm relevant ist: Artikel 50 verpflichtet die Anbieter generativer KI dazu, Erkennungsmechanismen kostenlos zur Verfügung zu stellen. Das kann über öffentlich zugängliche APIs oder kostenlose Online-Tools geschehen und muss Konfidenzindikatoren enthalten — also Angaben darüber, mit welcher Sicherheit ein Inhalt als KI-generiert eingestuft wird (Quelle: Herbert Smith Freehills, März 2026).
Das ist ein bemerkenswerter Schritt. Bisher mussten Hochschulen, Verlage und Unternehmen eigene KI-Detektoren lizenzieren oder kaufen, um KI-generierte Inhalte zu erkennen. Ab August 2026 wären die Anbieter der KI-Systeme selbst verpflichtet, Werkzeuge bereitzustellen, die ihre eigenen Ausgaben identifizieren. OpenAI müsste also ein Tool anbieten, das ChatGPT-Texte erkennt. Google müsste dasselbe für Gemini tun. Ob und wie gut diese Werkzeuge in der Praxis funktionieren werden, bleibt abzuwarten — aber die regulatorische Grundlage ist geschaffen.
Die Strafen: Bis zu 15 Millionen Euro
Wer gegen die Kennzeichnungspflichten verstößt, muss mit empfindlichen Geldbußen rechnen. Der EU AI Act sieht für Verstöße gegen Artikel 50 Strafen von bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes vor, je nachdem welcher Betrag höher ist (Quelle: Ecovis, EU AI Act Kennzeichnungspflicht).
Diese Beträge orientieren sich an der Systematik der DSGVO und sollen sicherstellen, dass auch für große Technologiekonzerne ein spürbarer finanzieller Anreiz zur Einhaltung der Regeln besteht. Für ein Unternehmen mit einem Jahresumsatz von 10 Milliarden Euro würde die 3-Prozent-Schwelle bei 300 Millionen Euro liegen.
Andere europäische Länder gehen sogar noch weiter. Spanien hat im März 2025 eines der strengsten KI-Kennzeichnungsgesetze Europas verabschiedet, das Strafen von bis zu 35 Millionen Euro oder 7 Prozent des globalen Umsatzes vorsieht. In den USA trat im Januar 2026 der kalifornische AI Transparency Act (SB 942) in Kraft, der unsichtbare digitale Marker — sogenannte „latent disclosures" — in KI-generierten Bildern vorschreibt.
Was bedeutet das für Hochschulen und akademische Integrität?
Für Hochschulen in Deutschland und Europa eröffnet die Kennzeichnungspflicht sowohl Chancen als auch Herausforderungen.
Die Chance: Wenn KI-Anbieter ihre Ausgaben tatsächlich zuverlässig kennzeichnen, könnten Hochschulen in Zukunft mit deutlich höherer Sicherheit feststellen, ob eine eingereichte Arbeit KI-generierte Anteile enthält. Statt sich auf die probabilistischen Einschätzungen von KI-Detektoren verlassen zu müssen — mit all ihren Schwächen und Genauigkeitsproblemen —, gäbe es eine technische Grundlage für eine verlässliche Überprüfung.
Die Herausforderung: Die Kennzeichnung funktioniert nur, wenn die gesamte Kette intakt ist. Wenn ein Studierender einen KI-generierten Text in ein neues Dokument kopiert und dabei die Metadaten verloren gehen, nützt die Kennzeichnung nichts. Gleiches gilt, wenn der Studierende ein KI-System nutzt, das die Kennzeichnungspflicht (noch) nicht umsetzt — etwa ein Open-Source-Modell, das lokal auf dem eigenen Rechner läuft.
Hochschulen werden ihre KI-Regelungen an den neuen regulatorischen Rahmen anpassen müssen. Das betrifft sowohl die Prüfungsordnungen als auch die technische Infrastruktur. Die Kombination aus regulatorischer Kennzeichnung und klassischer KI-Erkennung wird mittelfristig der zuverlässigste Ansatz sein — und genau in diesem Zusammenspiel liegt die Zukunft von Diensten wie unserem KI Scan.
Der Code of Practice: Noch viele offene Fragen
Viele Details der praktischen Umsetzung werden nicht im Gesetzestext selbst geregelt, sondern im sogenannten Code of Practice — einem Verhaltenskodex, den die EU-Kommission gemeinsam mit Industrievertretern, Wissenschaftlern und Zivilgesellschaft erarbeitet. Der erste Entwurf wurde im Dezember 2025 veröffentlicht (Quelle: Cooley, Dezember 2025). Die finale Fassung wird für Mai oder Juni 2026 erwartet — also nur wenige Wochen vor Inkrafttreten der Pflichten.
Noch offene Fragen betreffen unter anderem:
- Welche konkreten technischen Standards für die Kennzeichnung akzeptiert werden (C2PA ist der wahrscheinlichste Kandidat, aber nicht der einzige)
- Wie mit KI-generierten Inhalten umgegangen wird, die nachträglich von Menschen überarbeitet wurden — ab welchem Grad der Bearbeitung entfällt die Kennzeichnungspflicht?
- Wie Open-Source-Modelle reguliert werden, die von Privatpersonen oder kleinen Unternehmen betrieben werden
- Wie die grenzüberschreitende Durchsetzung funktioniert, wenn der KI-Anbieter seinen Sitz außerhalb der EU hat
Diese Fragen sind nicht trivial, und die Antworten werden erheblichen Einfluss darauf haben, wie wirksam die Kennzeichnungspflicht in der Praxis sein wird.
Urheberrecht und KI: Eine parallele Debatte
Eng verknüpft mit der Kennzeichnungspflicht ist die Frage des Urheberrechts an KI-generierten Inhalten. Im März 2026 lehnte der U.S. Supreme Court es ab, den Fall Thaler zu verhandeln — damit steht fest, dass rein KI-generierte Werke in den USA keinen Urheberrechtsschutz genießen (Quelle: Copyright Alliance, 2026). Nur Werke mit substanziellem menschlichem Beitrag sind schutzfähig.
Für den akademischen Bereich hat das eine interessante Implikation: Wenn eine Studentin einen KI-generierten Text als eigene akademische Leistung einreicht, beansprucht sie gewissermaßen die Urheberschaft an einem Werk, das nach geltendem Recht keinen Urheber hat. Die ethischen und rechtlichen Grenzen zwischen KI-Nutzung als Werkzeug und KI-Nutzung als Ghostwriter sind fließend — und genau deshalb sind sowohl die Kennzeichnungspflicht als auch verlässliche KI-Erkennungstools so wichtig.
Was du jetzt tun solltest
Ob als Studierender, Dozent, Verleger oder Unternehmer — die Kennzeichnungspflicht wird den Umgang mit KI-generierten Inhalten verändern. Hier sind konkrete Handlungsempfehlungen:
- Für Studierende: Mache dich mit den Regeln deiner Hochschule vertraut. Der transparente Umgang mit KI wird in Zukunft nicht nur erwartet, sondern zunehmend auch regulatorisch untermauert. Dokumentiere, welche KI-Tools du wie eingesetzt hast.
- Für Hochschulen: Überprüfe deine bestehenden KI-Richtlinien im Licht des EU AI Act. Stelle sicher, dass deine Prüfungsordnungen klare Regelungen zum Umgang mit KI-generierten Inhalten enthalten. Evaluiere, welche technischen Erkennungstools du einsetzt und ob sie mit den kommenden regulatorischen Standards kompatibel sind.
- Für Unternehmen und Verlage: Wenn du KI-generierte Inhalte veröffentlichst, beginne jetzt mit der Implementierung von Kennzeichnungsmechanismen. Prüfe, ob deine genutzten KI-Systeme C2PA oder vergleichbare Standards unterstützen. Dokumentiere deine Prozesse, um im Falle einer Prüfung nachweisen zu können, dass du die Kennzeichnungspflichten einhältst.
Häufige Fragen zur KI-Kennzeichnungspflicht
Wann tritt die Kennzeichnungspflicht für KI-Inhalte in der EU in Kraft?
Die Transparenz- und Kennzeichnungspflichten nach Artikel 50 des EU AI Act treten am 2. August 2026 in Kraft. Ab diesem Datum müssen Anbieter generativer KI-Systeme sicherstellen, dass ihre Ausgaben als KI-generiert erkennbar und maschinenlesbar gekennzeichnet sind. Der zugehörige Code of Practice, der die praktische Umsetzung konkretisiert, wird voraussichtlich im Mai oder Juni 2026 finalisiert.
Welche Strafen drohen bei Verstoß gegen die KI-Kennzeichnungspflicht?
Bei Verstößen gegen die Kennzeichnungspflichten des EU AI Act drohen Geldbußen von bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes eines Unternehmens, je nachdem welcher Betrag höher ist. Spanien hat mit seinem eigenen KI-Gesetz sogar noch strengere Strafen eingeführt: bis zu 35 Millionen Euro oder 7 Prozent des globalen Umsatzes. Die tatsächliche Höhe der Strafe hängt von der Schwere, der Dauer und dem Ausmaß des Verstoßes ab.
Was bedeutet die KI-Kennzeichnungspflicht für Hochschulen?
Hochschulen sind primär als Nutzer und nicht als Anbieter von KI-Systemen betroffen. Die Kennzeichnungspflicht richtet sich in erster Linie an die Anbieter generativer KI wie OpenAI, Google oder Anthropic. Für Hochschulen wird die Verordnung dennoch relevant: Wenn KI-Anbieter künftig maschinenlesbare Kennzeichnungen in ihre Ausgaben einbetten, können Hochschulen diese Informationen für die akademische Integritätsprüfung nutzen. Zudem müssen Hochschulen ihre eigenen Richtlinien an den neuen regulatorischen Rahmen anpassen und klare Regeln für den KI-Einsatz in Prüfungsleistungen definieren.