Hochrisiko-KI im europäischen Fokus: Die Bemühungen der EU-Kommission für einheitliche KI-Standards bei der Anwendung in riskanten Bereichen
Hochrisiko-KI ist schon seit einiger Zeit eine wichtige regulatorische Baustelle der EU-Kommission. Die rechtlichen Rahmenbedingungen bezüglich der Anwendung wurden in der Vergangenheit bereits mehrere Male angepasst. Der Schutz von Grundrechten, Sicherheit und Transparenz sollen noch weiter erhöht werden und die EU-Staaten müssen den neuen Anforderungen nachkommen. Umsetzungsfristen verschieben sich jedoch, da einige Länder nicht so schnell reagieren können, wie es von der EU eingeplant war.
Im Verlauf dieses Jahres (2025) hat sich sehr deutlich gezeigt, dass die Regulierung im Bereich der KI immer komplizierter umzusetzen ist. Vor allem Hochrisiko-KI stellt die EU vor eine neue Herausforderung. Solche KI-Modelle helfen beim Management von Krisen und unterstützen die Polizei bei der alltäglichen Arbeit. Auch kritische Bereiche der Infrastruktur profitieren von diesen fortschrittlichen Algorithmen.
Hochrisiko-KI ist ein Teil des aktuellen Reformprozesses des EU-KI-Gesetzes und gerät dabei immer mehr in den Mittelpunkt der Diskussion. Die Fristen, welche durch die EU-Kommission für die Umsetzung der neuen gesetzlichen Rahmenbedingungen gesetzt wurden, mussten verschoben werden. Doch es wird auch weiterhin ein klares Ziel verfolgt. Ein verbindlicher, gesetzlicher Rahmen soll für klare Standards überall in Europa sorgen. Gleichzeitig sollen Innovationen jedoch nicht ausgebremst werden.
Zu welchen Verzögerungen es kam und warum der Reformdruck wächst
Da zahlreiche EU-Staaten zusätzliche Prüfphasen einforderten, musste die ursprünglich festgelegte Umsetzungsfrist für Teile des EU-KI-Gesetzes bereits im Frühjahr dieses Jahres verschoben werden. EU-weit standardisierte Vorgaben bleiben jedoch auch weiterhin das Ziel, denn Sicherheitsbehörden und Bürger benötigen dringend mehr Klarheit.
In diesem Zusammenhang greifen viele EU-Bürger vermehrt auf Informationsportale zurück, die technologische Entwicklungen einordnen und Hintergründe beleuchten. Sie informieren sich zur Anwendung von Künstlicher Intelligenz und Schutzmechanismen im Bereich des E-Commerce und weiteren Segmenten, welche sie im alltäglichen Leben nutzen. Das Online Gaming wird immer beliebter und auch das iGaming gewinnt von Jahr zu Jahr mehr Zulauf. Nutzer möchten über all diese Portale mehr lesen und genau nachvollziehen können, wie Betreiber mit neuen Technologien umgehen. Außerdem informieren sie sich zu wichtigen Aspekten des Verbraucherschutzes und Spielerschutzmaßnahmen in Bereichen, welche mit Online Transaktionen zu tun haben.
Die Verzögerung bedeutet für den Gesetzgebungsprozess vor allem zusätzlichen Abstimmungsbedarf. Es steht auch weiterhin zur Debatte, wie detailliert die Bewertungskriterien für Risikokategorien ausfallen sollen. Obendrein wird darüber beraten, ob einzelne Branchen, wie beispielsweise die öffentliche Sicherheit, Sonderregeln erhalten müssen.
Die Herausforderungen des behördlichen Einsatzes von Hochrisiko-KI
Hochrisiko-KI umfasst Anwendungen, die unmittelbar in Grundrechte oder Sicherheit eingreifen können. So beispielsweise Systeme zur biometrischen Identifizierung, Entscheidungsunterstützung in Einsatzleitstellen oder Risikoanalysen für Großveranstaltungen.
Die ENISA (Europäische Agentur für Cybersicherheit) führte im vergangenen Jahr (2024) eine Untersuchung durch. Aus dieser ging hervor, dass Behörden in einigen EU-Mitgliedstaaten mehr als 260 sicherheitsrelevante KI-Anwendungen erfassen konnten. Circa ein Drittel davon wurde als potenziell hoch risikobehaftet eingestuft.
Für staatliche Einsatzkräfte bedeutet das zugleich technologischen Fortschritt und mehr Risiko. Eine Auswertung großer Datenmengen durch KI beschleunigt Lagebilder. Jedoch können Fehler oder unzureichendes Training Fehlalarme oder voreingenommene Bewertungen auslösen. Gerade in dynamischen Lagen können wenige Sekunden KI-Verzögerung oder Fehlinterpretation zu realen Gefahren führen.
Laut zahlreichen Forschungsberichten neigen Systeme, welche mit zu kleinen oder nicht repräsentativen Datensätzen trainiert wurden, in Stresssituationen zu Fehlerraten von bis zu 18 %. Ein gemeinsamer Standard in Europa soll hier Qualitäts- und Prüfmechanismen verbindlich festlegen.
Die Pflicht zur Transparenz als einer der Kernpunkte der Debatten
Viele KI-Modelle liefern zwar präzise Ergebnisse, stellen diese aber nicht nachvollziehbar dar. Für Behörden kann diese Tatsache juristische Konsequenzen mit sich bringen. Wenn wichtige Entscheidungen auf intransparenten KI-Systemen beruhen, lassen sich diese kaum verteidigen. Vor allem dann, wenn die Rechte der Bürger berührt werden.
Aus diesem Grund fordert die EU-Kommission mehr Transparenz für KI-Hochrisikosysteme. Laut offiziellen Angaben des EU-Parlaments sehen circa 78 % der Experten die Nachvollziehbarkeit als wichtigsten Aspekt für die Compliance. Darum müssen Behörden in Zukunft klar angeben, welche Datenquellen genutzt werden. Auch die Überwachung der Modelle und der Trainingsvorgang soll transparent werden.
Für Die Behörden ist dies mit mehr Dokumentation verbunden. Gleichzeitig bietet sich jedoch eine höhere Sicherheit, denn Fehlerquellen können sehr viel schneller erkannt werden. Die Die EU-Staaten müssen allerdings erst noch festlegen, wie streng die Pflicht zur Transparenz ausfallen sollen und mit welchen Sanktionen bei Verstößen zu rechnen ist.
Darum sind robuste KI-Systeme für Online Sicherheit und Infrastruktur maßgeblich
Ein Hochrisiko-KI-System kann sicher funktionieren, wenn die zugrundeliegende Infrastruktur geordnet ist. Schwachstellen in Clouds, den Netzwerken von Leitstellen oder Datenübertragungen können gravierende Risiken mit sich bringen. Die ENISA registrierte im Jahr 2024 einen Anstieg der Cyberkriminalität um circa 13 %. Diese Angriffe richteten sich vor allem an kritische Infrastrukturen.
Aus diesem Grund plant die EU-Kommission verstärkte Prüfpflichten, regelmäßige Penetrationstests und Mindeststandards für Verschlüsselung einzuführen. Behörden müssen künftig nachweisen, dass eingesetzte KI-Systeme gegen Angriffe geschützt sind. Zudem müssen sie Notfallmechanismen aufweisen. Falls Modelle fehlerhaft sind oder kompromittiert werden, lassen sie sich somit kontrollieren.
Für Rettungsdienste sowie Polizei bedeutet das eine Professionalisierung der technischen Sicherheit. Systeme, die Doppelentscheidungen ermöglichen oder bei Störungen automatisch auf manuelle Prozesse zurückschalten, werden verpflichtend. Diese Anforderungen sollen verhindern, dass ein einzelner technischer Defekt eine gesamte Einsatzstruktur lahmlegt.
Das neue EU-KI-Gesetz steht kurz vor der Umsetzung
Die EU arbeitet am global ambitioniertesten Rechtsrahmen für Hochrisiko-KI. Die Umsetzung verlangt Zeit und technische Expertise. Verschobene Fristen zeigen, wie groß die Herausforderung ist.
Für Behörden und Einsatzkräfte steht viel auf dem Spiel. Die kommenden Monate entscheiden darüber, wie alltagstauglich die neuen Regeln werden und ob Europa seinem Anspruch, die Führungsrolle im verantwortungsvollen Umgang mit KI zu übernehmen, gerecht werden kann.
