top of page

EU AI Act: Wesentliche Erkenntnisse aus dem Fraunhofer IKS Training und warum kontinuierliche Fortbildung jetzt entscheidend ist

  • 18. Okt. 2025
  • 2 Min. Lesezeit

Einleitung: Die Bedeutung von Weiterbildung und aktuellem Wissen

In einer Welt, in der technologische Innovationen im Wochentakt unser Arbeitsumfeld verändern, ist kontinuierliche Fortbildung für mich eines der zentralen Prinzipien meines professionellen Selbstverständnisses. Wer auf verantwortungsvolle, zukunftsfähige Digitalisierung setzt, kommt an Themen wie Künstliche Intelligenz und deren Regulierung nicht mehr vorbei. Gerade der EU AI Act bietet – ähnlich wie DORA im Finanzbereich – zahlreiche Chancen, stellt Unternehmen jedoch auch vor komplexe Herausforderungen.

Meine Teilnahme am Training des Fraunhofer IKS zum EU AI Act hat mir einmal mehr gezeigt, wie wertvoll eine fundierte Weiterbildung ist, um regulatorische Rahmenbedingungen nicht nur zu verstehen, sondern auch praktisch und verantwortungsvoll umzusetzen.

Rückblick: Warum braucht es KI-Regulierung?

Bevor wir tiefer einsteigen: Warum ist überhaupt ein so umfassender Rechtsrahmen nötig?

Mehrere prominente Fälle aus Europa zeigen, wie schnell KI-Systeme zu schwerwiegenden Fehlentscheidungen führen können – seien es Diskriminierung beim Zugang zu staatlichen Leistungen wie im niederländischen „Childcare Benefit Scandal“ oder ungerechte Notenvergaben für Schüler*innen durch einen Algorithmus in Großbritannien. Die Folgen reichten damals bis zum Rücktritt einer Regierung und großem gesellschaftlichem Vertrauensverlust. Solche Vorfälle machen deutlich: Der Einsatz von KI braucht Regeln, Transparenz und Verantwortung.

Kurzer Überblick: Globale Entwicklungen

Die Europäische Union ist mit dem AI Act Vorreiter, doch weltweit entstehen neue KI-Rahmenwerke – etwa das NIST AI Risk Management Framework (USA), das kanadische AIDA-Gesetz, der britische pro-innovative Ansatz und nationale Leitlinien in Brasilien, Australien, Japan, Indien, Singapur, China und weiteren Staaten.

Der EU AI Act im Überblick

Ziele des Gesetzes:

  • Förderung einer vertrauenswürdigen, menschzentrierten KI

  • Harmonisierung des EU-Binnenmarkts

  • Schutz der Grundrechte und Freiheiten

Risikobasierter Ansatz:Das Regelwerk unterscheidet KI-Systeme nach dem Grad des Risikos für Einzelne und die Gesellschaft:

  • Verbotene KI-Systeme: z.B. Social Scoring, biometrische Überwachung im öffentlichen Raum

  • Hochriskante KI-Systeme: z.B. Bewerberauswahl, Kreditwürdigkeitsprüfungen, sicherheitskritische Steuerungen

  • Systeme mit begrenztem Risiko: etwa Deepfakes, Chatbots – sie unterliegen Transparenzpflichten

  • Systeme mit minimalem Risiko: wie Spamfilter – hier empfiehlt der Act freiwillige Standards

Pflichten für Hochrisiko-KI-Systeme (Beispiele):

  • Umfassendes Risikomanagement

  • Daten- und Governanceprozesse

  • Technische Dokumentation und Nachvollziehbarkeit

  • Transparenz gegenüber Anwendern

  • Klare menschliche Aufsicht und Eingreifmöglichkeiten

  • Hohe Anforderungen an Genauigkeit und IT-Sicherheit

Ausnahmen betreffen u.a. militärische Anwendungen, Forschung, Privatgebrauch oder bestimmte Open-Source-Anwendungsbereiche.

Strafen und Zeitplan:

Die Übergangspflichten und zeitliche Staffelung sind klar geregelt. Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes. Die Inkraftsetzung erfolgt stufenweise zwischen 2024 und 2027.

AI Literacy: Kompetenz als Pflicht

Ein Kernelement des EU AI Act ist die „AI Literacy“: Organisationen müssen nachweislich für ausreichende KI-Kompetenz bei ihren Mitarbeitenden und Nutzenden sorgen. Es geht nicht nur darum, Technik anzuwenden – sondern sie kritisch, verantwortungsvoll und transparent zu gestalten, Chancen zu erkennen und Risiken zu begegnen.


Mein Fazit: Mit Expertise und Weitsicht vorausgehen

Das Training des Fraunhofer IKS war für mich eine der besten Fortbildungen überhaupt. Die praxisnahen Einblicke in Methoden, Verantwortlichkeiten und Umsetzung des EU AI Act vermitteln konkret, wie Unternehmen und Organisationen die Weichen für vertrauenswürdige KI stellen können.

 
 
 

Kommentare


bottom of page