InfoGuard AG (Hauptsitz)
Lindenstrasse 10
6340 Baar
Schweiz
InfoGuard AG
Stauffacherstrasse 141
3014 Bern
Schweiz
InfoGuard Com-Sys GmbH
Frankfurter Straße 233
63263 Neu-Isenburg
Deutschland
InfoGuard Deutschland GmbH
Landsberger Straße 302
80687 München
Deutschland
InfoGuard Com-Sys GmbH
Am Gierath 20A
40885 Ratingen
Deutschland
Die Cyberbedrohungslage hat sich grundlegend verändert: Ransomware-Angriffe, gezielte Phishing-Kampagnen und Attacken auf Organisationen jeder Grösse und Branche verschärfen sich im Takt zunehmender Digitalisierung. Ob im Alltag, in Business-Anwendungen oder in den Händen von Cyberangreifern: Der zunehmende Einsatz von KI-Technologien wirkt als Beschleuniger neuer Angriffsmuster.
Der AI Act markiert im Spannungsfeld zwischen technologischer Innovation und zunehmender Bedrohungslage einen strategischen Wendepunkt. Erstmals schafft ein umfassender Rechtsrahmen auf EU-Ebene durch den AI Act klare Leitlinien für den Einsatz von KI-Systemen – mit dem Anspruch, Vertrauen in innovative Technologien zu fördern und Risiken gezielt zu begrenzen.
Der AI Act ist seit dem 1. August 2024 in Kraft und reguliert den Einsatz, die Entwicklung und den Vertrieb von KI-Systemen innerhalb der EU und darüber hinaus. Die Regelung gründet auf einem risikobasierten Ansatz und verfolgt folgende Hauptziele:
Im Unterschied zu Datenschutzgesetzen wie der EU-DSGVO/GDPR, die personenbezogene Daten fokussieren, adressiert der AI Act die technologische Funktionsweise und den Einsatzkontext von KI. Dabei greift er direkt in angrenzende Regulierungen ein:
Der Geltungsbereich des AI Acts reicht über die EU hinaus. Insbesondere, wenn KI-Systeme aus Drittstaaten wie beispielsweise der Schweiz, innerhalb Europas zum Einsatz kommen. Was die Vorgaben für Schweizer Unternehmen bereithalten und welche Handlungsempfehlung für Sie daraus resultieren, erfahren Sie im Abschnitt «AI Act und Schweizer Recht».
Im Zentrum des AI Acts steht die Kategorisierung von KI-Systemen nach vier Risikostufen:
Diese Systematik wirkt sich direkt auf Design, Entwicklung, Marktzugang und Betrieb von KI-Systemen aus. Sicherheitsrelevante Anwendungen stehen besonders im Fokus.
Der AI Act unterscheidet in diesem Zusammenhang zwischen zwei zentralen Kategorien:
Diese begriffliche Unterscheidung ist für die Risikobewertung essenziell, da GPAI-Modelle in der Regel nicht direkt, sondern erst über ihre Einbindung in konkrete KI-Systeme regulatorisch erfasst werden.
Insbesondere KI-Systeme mit der Bewertung «Hohes Risiko», die in sicherheitskritischen Umgebungen eingesetzt werden, haben strenge Auflagen zu erfüllen:
Für Sicherheitsverantwortliche bedeuten diese Auflagen, dass bestehende KI-Systeme hinsichtlich Funktionalität, Transparenz und Risiken einer sorgfältigen Überprüfung zu unterziehen sind. Gleichzeitig gilt es, die eigene Sicherheitsarchitektur strategisch weiterzuentwickeln, um regulatorischen Anforderungen wie auch der Bedrohungslage technisch und organisatorisch angemessen zu begegnen.
Technologien wie XDR, SIEM oder KI-gestützte Angriffserkennung sind dabei unverzichtbar. Denn diese KI-Lösungen leisten einen unverzichtbaren Beitrag zur Früherkennung und Abwehr komplexer Bedrohungen und unterstützen die Umsetzung des AI Acts.
Der AI Act schafft Orientierung in einem bisher unregulierten Feld, indem er KI-Systeme nach ihrem Risikograd differenziert reguliert. Je stärker ein KI-System potenziell in Grundrechte oder gesellschaftliche Prozesse eingreift, desto strikter greifen die Vorgaben des AI Acts. Dieser Ansatz fördert Innovation, ohne den Schutz von Grundrechten und gesellschaftlicher Verantwortung aufzugeben.
Für Unternehmen mit KI-Systemen im EU-Markt gelten klare Pflichten:
Die Konformität mit dem EU AI Act wird durch unabhängige Konformitätsbewertungsstellen (Notified Bodies) überprüft, insbesondere bei Hochrisiko-KI-Systemen. Unternehmen sollten bestehende Compliance-Strukturen wie ein Informationssicherheits-Managementsystem (ISMS) oder ein internes Kontrollsystem (IKS) nutzen, um die Anforderungen systematisch zu erfüllen. Diese Instrumente helfen dabei, Risikomanagement, Dokumentationspflichten und technische Schutzmassnahmen effizient umzusetzen. So kann die Einhaltung regulatorischer Vorgaben frühzeitig verankert und gegenüber Behörden nachgewiesen werden.
Der AI Act sieht empfindliche Strafen bei Verstössen vor:
Compliance-Beauftragte müssen jetzt prüfen, welche KI-Systeme im Unternehmen betroffen sind und ob die Vorgaben bereits erfüllt werden. Eine unabhängige AI-Gap-Analyse kann Klarheit verschaffen und die Reife des AI-Einsatzes sowie erforderliche Massnahmen definieren.
Auch für Schweizer Unternehmen mit Geschäftsbeziehungen in die EU ist der AI Act ein Signal zum Handeln, eine klare Orientierung und eine Gelegenheit, Sicherheit und Innovation neu zu denken. Ob beim Export von KI-Produkten, der Teilnahme an internationalen Lieferketten oder beim Betrieb kritischer Infrastrukturen: Der AI Act schafft damit gleichsam neue Anforderungen und klare Spielregeln.
Mit seinem Entscheid vom 12. Februar 2025 hat der Bundesrat ein klares Zeichen gesetzt: Die Schweiz will die KI-Konvention des Europarats ratifizieren und passt dafür das nationale Recht an. Parallel dazu sollen sektorale Regulierungsaktivitäten – etwa im Gesundheitswesen oder Verkehr – weitergeführt werden.
Auch ohne EU-Mitgliedschaft ist die Schweiz vom AI Act betroffen, denn:
Ergänzend dazu verfolgt die Schweiz mit dem revidierten Datenschutzgesetz (seit dem 1. September 2023 in Kraft) einen Technologie-neutralen Ansatz, der auch KI-Anwendungen adressiert. Zentrale Aspekte dabei sind:
Ethische Anforderungen rücken verstärkt in den Fokus und Transparenz, Fairness und Rechenschaft werden rechtlich verankert. Gerade Unternehmen in kritischen Sektoren und/oder im Finanzsektor sollten rasch handeln. Die FINMA Aufsichtsmitteilung 08/2024 «Governance und Risikomanagement beim Einsatz Künstlicher Intelligenz» zeigt zukünftige regulatorische Anforderungen auf.
Seit 1. August 2024 offiziell in Kraft, tritt der AI Act gestaffelt in Wirkung, vollumfänglich ab August 2027. Jetzt ist der richtige Zeitpunkt, um sich systematisch auf die Umsetzung vorzubereiten.
Diese Etappen sind relevant:
Um diesen Übergang aktiv zu gestalten, hat die Europäische Kommission den KI-Pakt ins Leben gerufen – eine freiwillige Initiative, die Entwickler dazu ermutigt, zentrale Verpflichtungen des AI Acts bereits vorzeitig umzusetzen.
Zur Standortbestimmung und Vorbereitung auf die AI-Act-Vorgaben empfiehlt sich eine fundierte AI-Gap-Analyse gemäss ISO/IEC 42001:2023. Sie bewertet den Reifegrad des KI-Einsatzes im Unternehmen und identifiziert notwendige Massnahmen.
Mit der zunehmenden Regulierung von Künstlicher Intelligenz auf europäischer und internationaler Ebene steigt der Druck auf Unternehmen, ihre interne KI-Kompetenz nachzuweisen – insbesondere im Rahmen von Risikobewertungen, Audits und der Verantwortung für vertrauenswürdige Systeme.
Ein formales Zertifikat kann dabei hilfreich sein, ist aber nicht zwingend erforderlich. Vielmehr lassen sich Kompetenzen auch auf alternativen Wegen belegen, etwa durch:
Auch ohne formelle Zertifizierung gilt: Eine nachvollziehbare, systematisch dokumentierte Vorgehensweise mit klar zugewiesenen Verantwortlichkeiten schafft Vertrauen – bei Aufsichtsbehörden ebenso wie bei Kundschaft und Partnerinstitutionen.
Der AI Act ist kein Innovationshemmnis, sondern eine Chance. Die EU-Verordnung verlangt nicht nur regulatorische Konformität, sondern stärkt zugleich das Vertrauen in Technologie und die Transparenz im digitalen Marktgeschehen.
Rechtzeitig handelnde Unternehmen, die jetzt ihre Systeme prüfen und sich entlang etablierter Standards wie ISO/IEC 42001:2023 ausrichten, sichern sich den entscheidenden Vorsprung – in Sachen Sicherheit, Verantwortung und Wettbewerbsfähigkeit.
Wenn Sie sich fragen, was Sie jetzt konkret tun sollten, dann haben Sie den richtigen Zeitpunkt gewählt, sich Klarheit zu verschaffen. Lassen Sie sich durch eine AI-Gap-Analyse aufzeigen, wie weit Ihr KI-Stack bereits konform ist, wo genau noch Handlungsbedarf besteht und welche Massnahmen Sie priorisiert angehen sollten. Ob zur Vorbereitung auf regulatorische Prüfungen, als strategisches Steuerungsinstrument zur Etablierung eines vertrauenswürdigen KI-Governance-Modells – die AI-Gap-Analyse ermittelt den Reifegrad Ihrer KI-Systeme und schafft die Basis für einen sicheren, ethischen und rechtskonformen Einsatz.
Bildlegende: mit KI generiertes Bild