AI Act der EU: Jetzt hebeln klare Leitplanken KI aus ihrem Blind Spot

Autor
Estelle Ouhassi
Veröffentlicht
27. Mai 2025

Ransomware, Phishing und KI-gestützte Angriffe treffen heute Organisationen jeder Grösse. KI wirkt dabei als Beschleuniger neuer Bedrohungsmuster. Die EU hat darauf reagiert und mit dem EU Artificial Intelligence Act (nachfolgend «AI Act») einen verbindlichen Rahmen geschaffen – dem sich auch die Schweiz annähert. Inmitten von Innovation und Risiko setzt der AI Act einen strategischen Richtungsentscheid. Eine Einordnung, Pflichten, Timeline, die technischen Mindestanforderungen sowie Handlungsempfehlungen finden Sie hier kompakt im Überblick.

Die Cyberbedrohungslage hat sich grundlegend verändert: Ransomware-Angriffe, gezielte Phishing-Kampagnen und Attacken auf Organisationen jeder Grösse und Branche verschärfen sich im Takt zunehmender Digitalisierung. Ob im Alltag, in Business-Anwendungen oder in den Händen von Cyberangreifern: Der zunehmende Einsatz von KI-Technologien wirkt als Beschleuniger neuer Angriffsmuster. 

Der AI Act markiert im Spannungsfeld zwischen technologischer Innovation und zunehmender Bedrohungslage einen strategischen Wendepunkt. Erstmals schafft ein umfassender Rechtsrahmen auf EU-Ebene durch den AI Act klare Leitlinien für den Einsatz von KI-Systemen – mit dem Anspruch, Vertrauen in innovative Technologien zu fördern und Risiken gezielt zu begrenzen.

 

Wofür steht der AI Act und wo wirkt er?

Der AI Act ist seit dem 1. August 2024 in Kraft und reguliert den Einsatz, die Entwicklung und den Vertrieb von KI-Systemen innerhalb der EU und darüber hinaus. Die Regelung gründet auf einem risikobasierten Ansatz und verfolgt folgende Hauptziele:

  • Schutz von Grundrechten und Sicherheit
  • Förderung vertrauenswürdiger Innovation
  • Harmonisierung des Binnenmarkts im Umgang mit KI-Technologien

Im Unterschied zu Datenschutzgesetzen wie der EU-DSGVO/GDPR, die personenbezogene Daten fokussieren, adressiert der AI Act die technologische Funktionsweise und den Einsatzkontext von KI. Dabei greift er direkt in angrenzende Regulierungen ein:

  • GDPR: Datenschutzaspekte bei KI-Einsatz
  • CRA: Cybersecurity-Anforderungen für digitale Produkte
  • NIS2: Resilienzpflichten für Betreiber kritischer Infrastrukturen
  • Digital Services Act (DAS) / Product Liability Directive (PLD): Produkthaftung, digitale Dienste

Der Geltungsbereich des AI Acts reicht über die EU hinaus. Insbesondere, wenn KI-Systeme aus Drittstaaten wie beispielsweise der Schweiz, innerhalb Europas zum Einsatz kommen. Was die Vorgaben für Schweizer Unternehmen bereithalten und welche Handlungsempfehlung für Sie daraus resultieren, erfahren Sie im Abschnitt «AI Act und Schweizer Recht».

Die 4 Risikostufen von KI-Systemen

Im Zentrum des AI Acts steht die Kategorisierung von KI-Systemen nach vier Risikostufen:

  1. Unannehmbares Risiko: KI-Systeme, welche Menschen manipulieren, diskriminieren oder soziale Bewertungen vornehmen, sind strikt verboten.
  2. Hohes Risiko: KI-Systeme mit erheblichen Auswirkungen auf Sicherheit, Gesundheit oder Grundrechte unterliegen strengen Anforderungen an Sicherheit, Nachvollziehbarkeit und menschlichen Kontrollmechanismen.
  3. Begrenztes Risiko: KI-Systeme wie Chatbots oder automatisierte Tools in nicht-kritischen Bereichen erfordern klare Nutzerinformationen und grundlegende Transparenzmassnahmen.
  4. Minimales Risiko: KI-Systeme mit allgemeinem Verwendungszweck – etwa Spamfilter oder einfache Business-Tools – gelten als risikoarm und unterliegen nur in geringem Masse den Vorgaben. Bewährte Verfahren der Informationssicherheit bleiben dennoch empfohlen.

Diese Systematik wirkt sich direkt auf Design, Entwicklung, Marktzugang und Betrieb von KI-Systemen aus. Sicherheitsrelevante Anwendungen stehen besonders im Fokus.

Der AI Act unterscheidet in diesem Zusammenhang zwischen zwei zentralen Kategorien:

  • KI-Systeme: Maschinengestützte Systeme mit mehr oder weniger autonomen Funktionen, die Entscheidungen, Empfehlungen oder Inhalte erzeugen und damit reale oder virtuelle Umgebungen beeinflussen können.
  • GPAI-Modelle (General Purpose AI Models): Breit einsetzbare KI-Modelle, mit grossen Datenmengen und Selbstüberwachung trainiert. Sie erfüllen vielfältige Aufgaben und werden vielseitig integriert – reine Forschungs- oder Prototypenmodelle ausgenommen.

Diese begriffliche Unterscheidung ist für die Risikobewertung essenziell, da GPAI-Modelle in der Regel nicht direkt, sondern erst über ihre Einbindung in konkrete KI-Systeme regulatorisch erfasst werden.

Sicherheitsauflagen für Hochrisiko-KI im Cyberumfeld

Insbesondere KI-Systeme mit der Bewertung «Hohes Risiko», die in sicherheitskritischen Umgebungen eingesetzt werden, haben strenge Auflagen zu erfüllen:

Für Sicherheitsverantwortliche bedeuten diese Auflagen, dass bestehende KI-Systeme hinsichtlich Funktionalität, Transparenz und Risiken einer sorgfältigen Überprüfung zu unterziehen sind. Gleichzeitig gilt es, die eigene Sicherheitsarchitektur strategisch weiterzuentwickeln, um regulatorischen Anforderungen wie auch der Bedrohungslage technisch und organisatorisch angemessen zu begegnen.

Technologien wie XDR, SIEM oder KI-gestützte Angriffserkennung sind dabei unverzichtbar. Denn diese KI-Lösungen leisten einen unverzichtbaren Beitrag zur Früherkennung und Abwehr komplexer Bedrohungen und unterstützen die Umsetzung des AI Acts.

AI Act: Rollen, Anforderungen und Datenschutz-Umsetzung

Der AI Act schafft Orientierung in einem bisher unregulierten Feld, indem er KI-Systeme nach ihrem Risikograd differenziert reguliert. Je stärker ein KI-System potenziell in Grundrechte oder gesellschaftliche Prozesse eingreift, desto strikter greifen die Vorgaben des AI Acts. Dieser Ansatz fördert Innovation, ohne den Schutz von Grundrechten und gesellschaftlicher Verantwortung aufzugeben.

Für Unternehmen mit KI-Systemen im EU-Markt gelten klare Pflichten:

  • Anbietende: Stellen KI-Dienste oder KI-Produkte im EU-Markt bereit und sichern  Konformität, CE-Kennzeichnung und Risikomanagement.
  • Nutzende: Integrieren KI in Betriebsprozesse und sind für deren rechtskonformen Einsatz verantwortlich.
  • Entwickelnde: Konzipieren KI-Systeme, insbesondere in sicherheitskritischen Anwendungsbereichen und müssen regulatorische Vorgaben frühzeitig umsetzen.

Die Konformität mit dem EU AI Act wird durch unabhängige Konformitätsbewertungsstellen (Notified Bodies) überprüft, insbesondere bei Hochrisiko-KI-Systemen. Unternehmen sollten bestehende Compliance-Strukturen wie ein Informationssicherheits-Managementsystem (ISMS) oder ein internes Kontrollsystem (IKS) nutzen, um die Anforderungen systematisch zu erfüllen. Diese Instrumente helfen dabei, Risikomanagement, Dokumentationspflichten und technische Schutzmassnahmen effizient umzusetzen. So kann die Einhaltung regulatorischer Vorgaben frühzeitig verankert und gegenüber Behörden nachgewiesen werden.

Sanktionen vermeiden – Konformität mit dem AI Act sicherstellen

Der AI Act sieht empfindliche Strafen bei Verstössen vor:

  • Bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes
  • Durchsetzung durch nationale Überwachungsbehörden und das künftige EU AI Office

Compliance-Beauftragte müssen jetzt prüfen, welche KI-Systeme im Unternehmen betroffen sind und ob die Vorgaben bereits erfüllt werden. Eine unabhängige AI-Gap-Analyse kann Klarheit verschaffen und die Reife des AI-Einsatzes sowie erforderliche Massnahmen definieren.

AI-Gap-Analyse

AI Act und Schweizer Recht

Auch für Schweizer Unternehmen mit Geschäftsbeziehungen in die EU ist der AI Act ein Signal zum Handeln, eine klare Orientierung und eine Gelegenheit, Sicherheit und Innovation neu zu denken. Ob beim Export von KI-Produkten, der Teilnahme an internationalen Lieferketten oder beim Betrieb kritischer Infrastrukturen: Der AI Act schafft damit gleichsam neue Anforderungen und klare Spielregeln.

Mit seinem Entscheid vom 12. Februar 2025 hat der Bundesrat ein klares Zeichen gesetzt: Die Schweiz will die KI-Konvention des Europarats ratifizieren und passt dafür das nationale Recht an. Parallel dazu sollen sektorale Regulierungsaktivitäten – etwa im Gesundheitswesen oder Verkehr – weitergeführt werden.

Auch ohne EU-Mitgliedschaft ist die Schweiz vom AI Act betroffen, denn:

  • Schweizer Exporteure müssen die Vorgaben erfüllen, wenn KI-Produkte in der EU genutzt werden,
  • Verträge und AGBs müssen überprüft und allfällig angepasst werden,
  • die Einhaltung kann als Qualitätsmerkmal im Wettbewerb positioniert werden.

Ergänzend dazu verfolgt die Schweiz mit dem revidierten Datenschutzgesetz (seit dem 1. September 2023 in Kraft) einen Technologie-neutralen Ansatz, der auch KI-Anwendungen adressiert. Zentrale Aspekte dabei sind:

  • Privacy by Design & Default: Datenschutz muss von Beginn an integraler Bestandteil der KI-Systeme sein.
  • Profiling: Für risikoreiches Profiling ist die ausdrückliche Einwilligung der betroffenen Personen erforderlich.
  • Biometrische Daten: Deren Verarbeitung ist nur mit klarer Rechtfertigung oder expliziter Zustimmung erlaubt – bei Bundesorganen braucht es zusätzlich eine gesetzliche Grundlage.
  • Datenschutz-Folgenabschätzung (DSFA): Bei risikobehafteten KI-Anwendungen unterstützt sie die frühzeitige Identifikation und Steuerung möglicher Risiken.
  • Verantwortlichkeiten: Sowohl Datenverantwortliche als auch Auftragsverarbeiter sind für die Einhaltung der Datenschutzbestimmungen verantwortlich.

Ethische Anforderungen rücken verstärkt in den Fokus und Transparenz, Fairness und Rechenschaft werden rechtlich verankert. Gerade Unternehmen in kritischen Sektoren und/oder im Finanzsektor  sollten rasch handeln. Die FINMA Aufsichtsmitteilung 08/2024 «Governance und Risikomanagement beim Einsatz Künstlicher Intelligenz» zeigt zukünftige regulatorische Anforderungen auf.

Timeline und Übergangsphasen: Was gilt wann?

Seit 1. August 2024 offiziell in Kraft, tritt der AI Act gestaffelt in Wirkung, vollumfänglich ab August 2027. Jetzt ist der richtige Zeitpunkt, um sich systematisch auf die Umsetzung vorzubereiten.

Diese Etappen sind relevant:

  • Ab Februar 2025: Verbot bestimmter KI-Systeme mit unannehmbaren Risiken, etwa manipulative oder diskriminierende Anwendungen («Unannehmbares Risiko»).
  • Ab August 2025: Monetäre und nichtmonetäre Durchsetzungsmassnahmen und Pflichten für Anbieter sogenannter „General Purpose AI“ (GPAI) – also breit einsetzbarer KI-Modelle wie Sprach- oder Bildgeneratoren.
  • Ab August 2026: Anforderungen für Hochrisiko-KI («Hohes Risiko») in sicherheitsrelevanten Sektoren, etwa kritische Infrastrukturen, Personalmanagement, öffentliche Dienste, Bildung oder Strafverfolgung.

Um diesen Übergang aktiv zu gestalten, hat die Europäische Kommission den KI-Pakt ins Leben gerufen – eine freiwillige Initiative, die Entwickler dazu ermutigt, zentrale Verpflichtungen des AI Acts bereits vorzeitig umzusetzen. 

Empfohlene nächste Schritte zum AI-Reifegrad

Zur Standortbestimmung und Vorbereitung auf die AI-Act-Vorgaben empfiehlt sich eine fundierte AI-Gap-Analyse gemäss ISO/IEC 42001:2023. Sie bewertet den Reifegrad des KI-Einsatzes im Unternehmen und identifiziert notwendige Massnahmen.

AI-Gap-AnalyseVerantwortung beweisen und KI-Kompetenz nachweisen

Mit der zunehmenden Regulierung von Künstlicher Intelligenz auf europäischer und internationaler Ebene steigt der Druck auf Unternehmen, ihre interne KI-Kompetenz nachzuweisen – insbesondere im Rahmen von Risikobewertungen, Audits und der Verantwortung für vertrauenswürdige Systeme.

Ein formales Zertifikat kann dabei hilfreich sein, ist aber nicht zwingend erforderlich. Vielmehr lassen sich Kompetenzen auch auf alternativen Wegen belegen, etwa durch:

  • Nachvollziehbare Dokumentation von Entwicklungs- und Entscheidungsprozessen in KI-Projekten
  • Interne Schulungsprogramme, die grundlegendes und spezialisiertes Wissen zu KI, Datenschutz und Ethik vermitteln
  • Verantwortlich benannte KI-Beauftragte oder interdisziplinäre KI-Governance-Teams, die relevante Prozesse überwachen und steuern
  • Einsatz erprobter Tools zur Risiko- und Compliancebewertung (z. B. DSFA, GAIRA-Tool, certAInmity)
  • Teilnahme an Netzwerken oder Fachgremien, welche den Austausch zu Best Practices fördern

Auch ohne formelle Zertifizierung gilt: Eine nachvollziehbare, systematisch dokumentierte Vorgehensweise mit klar zugewiesenen Verantwortlichkeiten schafft Vertrauen – bei Aufsichtsbehörden ebenso wie bei Kundschaft und Partnerinstitutionen.

Weckruf für eine sichere KI und Handlungsempfehlung

Der AI Act ist kein Innovationshemmnis, sondern eine Chance. Die EU-Verordnung verlangt nicht nur regulatorische Konformität, sondern stärkt zugleich das Vertrauen in Technologie und die Transparenz im digitalen Marktgeschehen.

Rechtzeitig handelnde Unternehmen, die jetzt ihre Systeme prüfen und sich entlang etablierter Standards wie ISO/IEC 42001:2023 ausrichten, sichern sich den entscheidenden Vorsprung – in Sachen Sicherheit, Verantwortung und Wettbewerbsfähigkeit. 

Wenn Sie sich fragen, was Sie jetzt konkret tun sollten, dann haben Sie den richtigen Zeitpunkt gewählt, sich Klarheit zu verschaffen. Lassen Sie sich durch eine AI-Gap-Analyse aufzeigen, wie weit Ihr KI-Stack bereits konform ist, wo genau noch Handlungsbedarf besteht und welche Massnahmen Sie priorisiert angehen sollten. Ob zur Vorbereitung auf regulatorische Prüfungen, als strategisches Steuerungsinstrument zur Etablierung eines vertrauenswürdigen KI-Governance-Modells – die AI-Gap-Analyse ermittelt den Reifegrad Ihrer KI-Systeme und schafft die Basis für einen sicheren, ethischen und rechtskonformen Einsatz.

Mehr erfahren


 

Bildlegende: mit KI generiertes Bild

Artikel teilen