EU AI Act für Schweizer KMU: Betroffenheit, Pflichten, Timeline

Viele Schweizer Unternehmer lesen «EU AI Act» und denken: «Das ist ein EU-Gesetz. Ich sitze in Zürich, Bern oder Basel. Mich betrifft das nicht.» Diese Einschätzung ist in vielen Fällen schlicht falsch, und sie kann teuer werden.

Der EU AI Act funktioniert nach demselben Prinzip wie die DSGVO: Es geht nicht um den Sitz des Unternehmens, sondern um den Ort der Anwendung. Wer KI-Systeme im EU-Markt anbietet oder wessen KI-Outputs in der EU genutzt werden, fällt unter die Verordnung, unabhängig davon, ob das Unternehmen in Genf oder Hamburg ansässig ist.

Pascal Beck, Gründer Navigant

Pascal Beck

Symbolbild: Dreidimensionale AI-Buchstaben auf blauem Hintergrund

Das Wichtigste in Kürze

  • Der EU AI Act ist seit dem 1. August 2024 in Kraft und gilt auch extraterritorial für Schweizer KMU mit EU-Kundschaft oder EU-Marktpräsenz.

  • Die Verbote und die KI-Kompetenzpflicht gelten bereits seit dem 2. Februar 2025, GPAI-Regeln seit dem 2. August 2025.

  • Ab dem 2. August 2026 greifen Transparenzpflichten und die meisten übrigen Bestimmungen vollständig.

  • Die EU-Kommission hat im November 2025 eine mögliche Verschiebung der Hochrisiko-Pflichten auf Ende 2027 vorgeschlagen (Digital Omnibus), aber dieser Vorschlag ist noch nicht Gesetz.

  • Die Schweiz übernimmt den EU AI Act nicht direkt ins Landesrecht, verzichtet aber nicht auf KI-Regulierung: Eine nationale Vernehmlassungsvorlage ist bis Ende 2026 geplant.

  • Wer jetzt ein KI-Inventar aufbaut, Rollen klärt und eine Richtlinie verabschiedet, ist auf alle Szenarien vorbereitet.

Gilt der EU AI Act überhaupt für Schweizer Unternehmen?

Der EU AI Act gilt grundsätzlich nicht für die Schweiz als Land. Schweizer Unternehmen sind jedoch betroffen, sobald sie im EU-Binnenmarkt tätig sind. Das Bundesamt für Kommunikation hat dies in seiner Auslegeordnung vom Februar 2025 explizit bestätigt: Die Verordnung findet für Schweizer Akteure Anwendung, die im EU-Binnenmarkt im Anwendungsbereich des AI Acts tätig sind.

Konkret bedeutet das: Sie sind betroffen, wenn Sie KI-Systeme in der EU vermarkten oder betreiben, wenn Outputs Ihrer KI-Systeme in der EU genutzt werden, oder wenn Sie als Bevollmächtigter eines KI-Anbieters fungieren. Ein Zürcher Softwareanbieter, der ein KI-gestütztes Rekrutierungstool an deutsche Unternehmen verkauft, ist Anbieter im Sinne des AI Acts. Eine Basler Treuhandfirma, die intern ChatGPT für Kundenkorrespondenz nutzt und dabei EU-Mandanten betreut, ist Betreiber. Beide haben Pflichten zu erfüllen.

Was ändert sich durch die neue Schweizer KI-Regulierung?

Der Bundesrat hat am 12. Februar 2025 entschieden, dass die Schweiz den EU AI Act nicht direkt übernimmt. Stattdessen soll die Europarats-Konvention zu Künstlicher Intelligenz ratifiziert und das bestehende Schweizer Recht punktuell angepasst werden, insbesondere in den Bereichen Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht. Eine Vernehmlassungsvorlage ist bis Ende 2026 geplant.

Für Schweizer KMU bedeutet das eine doppelte Ausgangslage: Wer EU-Kundschaft bedient, muss sich am EU AI Act orientieren. Wer ausschliesslich im Schweizer Markt tätig ist, hat vorerst mehr Zeit, sollte aber den Vernehmlassungsprozess im Blick behalten. Das Schweizer Recht wird sich in einigen Bereichen dem europäischen annähern, wenn auch in eigenem Tempo und eigener Systematik.

Was ist der risikobasierte Ansatz des EU AI Acts?

Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien: verbotene Systeme mit inakzeptablem Risiko, Hochrisiko-Systeme, Systeme mit begrenztem Risiko und Systeme mit minimalem Risiko. Je höher die Einstufung, desto strenger die Pflichten. Für die meisten KMU als Nutzer kommerzieller KI-Tools ist vor allem die Abgrenzung zwischen Hochrisiko und begrenztem Risiko entscheidend, da sie bestimmt, welche konkreten Massnahmen erforderlich sind.

Verbotene Systeme sind seit dem 2. Februar 2025 untersagt. Dazu gehören KI-Systeme für Social Scoring, unterschwellige Manipulation, massenhafte biometrische Überwachung im öffentlichen Raum oder die Ausnutzung von Schwachstellen bestimmter Personengruppen. Diese Verbote dürften die meisten Schweizer KMU nicht direkt betreffen, aber es lohnt sich, im eigenen Tool-Inventar sicherzugehen.

Hochrisiko-Systeme sind Systeme, die in sensiblen Bereichen eingesetzt werden und Einfluss auf wichtige Entscheidungen über Menschen haben. Der Gesetzgeber hat diese in Anhang III definiert:

  • Personalmanagement und Einstellungsentscheide (z.B. automatisiertes CV-Screening)

  • Kreditwürdigkeit und Bonitätsprüfungen

  • Kritische Infrastruktur (Energie, Wasser, Verkehr)

  • Bildung und Berufsausbildung

  • Strafverfolgung, Justiz und Grenzmanagement

  • Grundlegende öffentliche und private Dienstleistungen (z.B. Sozialleistungen, Krankenversicherung)

Wer in diesen Bereichen KI nutzt, hat deutlich umfangreichere Pflichten: Risikomanagement, technische Dokumentation, Datenqualitätssicherung, Protokollierung, menschliche Aufsicht und Post-Market-Monitoring. Wer diese Systeme entwickelt und vertreibt, muss zusätzlich eine Konformitätsbewertung durchführen und sich in der EU-Datenbank registrieren.

Systeme mit begrenztem Risiko unterliegen vor allem Transparenzpflichten. Wer einen Chatbot betreibt, muss Nutzer darüber informieren, dass sie mit einer KI interagieren. Wer KI-generierte Texte, Bilder oder Videos veröffentlicht, muss diese als solche kennzeichnen.

Was gilt wann? Die Timeline im Überblick

Die Fristen sind gestaffelt und sorgen bis heute für Verwirrung. Hier die korrekte Übersicht auf Stand März 2026:

2. Februar 2025 (bereits in Kraft): Verbote für inakzeptable KI-Systeme; Pflicht zur KI-Kompetenz nach Artikel 4 (Unternehmen müssen sicherstellen, dass Mitarbeitende über ausreichende Kenntnisse verfügen, um KI-Systeme verantwortungsvoll zu bedienen)

2. August 2025 (bereits in Kraft): Regeln für General-Purpose AI (GPAI)-Modelle wie ChatGPT, Claude oder Gemini; diese Regeln betreffen in erster Linie die Modellanbieter, haben aber auch Implikationen für Unternehmen, die eigene Systeme auf Basis solcher Modelle entwickeln

2. August 2026: Vollständige Anwendung der meisten übrigen Bestimmungen, darunter Transparenzpflichten nach Artikel 50 (Kennzeichnung von KI-Inhalten, Offenlegung beim Einsatz von Chatbots) sowie Registrierungspflichten für Hochrisiko-Systeme

2. August 2027: Pflichten für Hochrisiko-Systeme, die in regulierte Produkte eingebettet sind (z.B. Medizinprodukte, Maschinen, Fahrzeuge)

Was ändert der Digital Omnibus? (Die aktuelle Entwicklung)

Hier wird es relevant, denn es gibt eine wichtige und aktuelle Entwicklung: Die EU-Kommission hat am 19. November 2025 ein Vereinfachungspaket vorgelegt, den sogenannten Digital Omnibus on AI. Der Kernvorschlag ist eine mögliche Verschiebung der strengsten Hochrisiko-Pflichten (Anhang III) vom 2. August 2026 auf spätestens den 2. Dezember 2027.

Die Begründung ist pragmatisch: Die harmonisierten technischen Normen, die Unternehmen für eine rechtssichere Umsetzung brauchen, werden voraussichtlich erst im dritten oder vierten Quartal 2026 fertig sein. Ohne diese Standards können Unternehmen Pflichten kaum konkret erfüllen.

Das Europäische Parlament hat am 18. März 2026 in seinen Ausschüssen für Binnenmarkt und bürgerliche Freiheiten (IMCO/LIBE) mit grosser Mehrheit für das Vereinfachungspaket gestimmt. Die Plenarabstimmung war für den 26. März 2026 geplant. Danach folgen Trilogverhandlungen mit dem Rat der EU, eine Einigung wird für Sommer 2026 erwartet.

Was das für Ihre Planung bedeutet:

Der Digital Omnibus ist noch nicht verabschiedet. Solange das nicht der Fall ist, bleibt der 2. August 2026 die gesetzlich verbindliche Frist. Sich darauf zu verlassen, dass die Verschiebung noch rechtzeitig kommt, ist mit Risiko verbunden. Zudem: Die Verschiebung betrifft ausschliesslich die Hochrisiko-Pflichten. Transparenzpflichten, GPAI-Regeln, Verbote und die KI-Kompetenzpflicht gelten unabhängig vom Omnibus weiterhin wie geplant.

Auch der Europäische Datenschutzausschuss (EDPB) hat in seiner Stellungnahme zum Omnibus ausdrücklich davor gewarnt, die Diskussion als Signal zu interpretieren, jetzt mit der Vorbereitung zu warten.

Was sind die konkreten Pflichten für KMU als Betreiber?

Die meisten Schweizer KMU stehen im EU AI Act als Betreiber da: Sie nutzen KI-Systeme, die von anderen entwickelt wurden, im eigenen beruflichen Kontext. Das betrifft Unternehmen, die KI-gestützte HR-Plattformen, CRM-Systeme mit eingebetteter KI, Analyse-Tools oder Dokumenten-Management-Lösungen mit KI-Funktionen einsetzen, ohne diese selbst entwickelt zu haben.

Als Betreiber eines Hochrisiko-Systems haben Sie folgende Pflichten (Artikel 26 EU AI Act):

Menschliche Aufsicht: Wichtige Entscheidungen des Systems müssen von einer qualifizierten Person überprüft, angefochten und korrigiert werden können. Diese Aufsicht muss real sein, nicht nur formell dokumentiert.

Protokollaufbewahrung: Automatisch erzeugte Logs des Systems müssen aufbewahrt werden, soweit die rechtlichen Pflichten es verlangen, um Rückverfolgbarkeit im Prüf- oder Streitfall sicherzustellen.

Nutzung gemäss Anbieteranweisungen: Das System darf nicht über seinen vorgesehenen Verwendungszweck hinaus eingesetzt werden.

Meldepflichten: Schwere Vorfälle oder Fehlfunktionen mit ernsthaften Folgen müssen der zuständigen nationalen Behörde gemeldet werden.

Als Betreiber eines Systems mit begrenztem Risiko sind die Anforderungen schlankert: Transparenzhinweise gegenüber Nutzern sowie Kennzeichnung KI-generierter Inhalte.

Wie hoch sind die Sanktionen?

Die Bussgeldrahmen sind gestaffelt und deutlich höher als viele KMU erwarten. Verstösse gegen die Verbote (inakzeptable KI-Systeme) können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes kosten, je nachdem welcher Betrag höher ist. Verstösse gegen Hochrisiko-Pflichten sind mit bis zu 15 Millionen Euro oder 3 Prozent geahndet. Falsche oder unvollständige Angaben können bis zu 7,5 Millionen Euro oder 1 Prozent des Umsatzes kosten.

Für KMU gilt: Es soll jeweils der niedrigere der beiden Beträge angewendet werden. Der Digital Omnibus sieht zudem vor, diese KMU-freundliche Regel auf sogenannte «kleine Midcaps» (unter 750 Mitarbeitende, unter 150 Millionen Euro Umsatz) auszudehnen. Das bedeutet eine konkrete Entlastung, ändert aber nichts an der grundsätzlichen Compliance-Pflicht.

Kontrollen erfolgen aktuell stichprobenartig oder anlassbezogen bei Beschwerden. Für Hochrisiko-Systeme ist die Aufsicht strenger und regelmässiger. Die nationale Marktüberwachung und das europäische AI Office koordinieren die Durchsetzung.

Was sollten Schweizer KMU jetzt konkret tun?

Unabhängig davon, ob Sie Hochrisiko-Systeme einsetzen oder nicht: Die folgenden drei Massnahmen sind für jedes Unternehmen mit KI-Nutzung sinnvoll, und alle drei lassen sich mit überschaubarem Aufwand umsetzen.

1. KI-Inventar erstellen Erfassen Sie systematisch, welche KI-Systeme in Ihrem Unternehmen im Einsatz sind. Das umfasst nicht nur explizit als «KI» vermarktete Produkte, sondern auch eingebettete Funktionen in bestehenden Tools, wie automatisches Scoring in HR-Plattformen, Prognosemodelle in ERP-Systemen oder generative KI-Funktionen in Microsoft 365. Viele Unternehmen sind überrascht, wie lang diese Liste wird.

2. Risikoeinstufung vornehmen Prüfen Sie für jedes identifizierte System, ob es in einen der Hochrisikobereiche des Anhangs III fällt. Wenn ja, beginnt ein umfangreicherer Compliance-Prozess. Wenn nein, reichen in den meisten Fällen Transparenzmassnahmen und eine Richtlinie für die Mitarbeitenden. Die Einstufung muss dokumentiert sein, auch wenn kein Hochrisiko vorliegt.

3. Interne KI-Richtlinie und Schulung Die KI-Kompetenzpflicht nach Artikel 4 gilt bereits. Mitarbeitende, die KI-Systeme nutzen, müssen über ausreichende Kenntnisse verfügen. Eine interne Richtlinie, die regelt, welche Tools erlaubt sind, welche Daten eingespeist werden dürfen und wie Outputs zu prüfen sind, ist die pragmatischste Massnahme, die ein KMU heute umsetzen kann. Sie schafft Klarheit im Alltag und ist gleichzeitig ein Compliance-Nachweis.

Wer diese drei Schritte durchgeführt hat, ist für August 2026 grundsätzlich gut aufgestellt und hat auch dann keine bösen Überraschungen, wenn der Digital Omnibus die Hochrisiko-Frist verschiebt. Denn: Die Transparenzpflichten, die GPAI-Regeln und die Kompetenzpflicht kommen so oder so.

Häufig gestellte Fragen

Gilt der EU AI Act für mein Schweizer KMU, wenn ich keine Niederlassung in der EU habe?

Ja, unter bestimmten Voraussetzungen. Das Marktortprinzip erfasst alle Anbieter und Betreiber, unabhängig von ihrem Sitz. Wenn Sie KI-Systeme in der EU vermarkten oder betreiben, wenn Ihre KI-Outputs in der EU genutzt werden, oder wenn Sie EU-Kundschaft über KI-gestützte Dienste bedienen, fällt Ihre Aktivität in den Anwendungsbereich. Diese Logik entspricht der DSGVO, die vielen Schweizer Unternehmen bereits vertraut ist.

Muss ich als KMU wirklich etwas tun, wenn ich kein Hochrisiko-System einsetze?

Ja. Die KI-Kompetenzpflicht (Artikel 4) gilt für alle Unternehmen, unabhängig vom Risikoniveau. Sie müssen sicherstellen, dass Mitarbeitende, die KI einsetzen, über ausreichende Kenntnisse verfügen. Transparenzpflichten bei Chatbots und KI-generierten Inhalten gelten ab August 2026 ebenfalls für alle. Auch ein einfaches KI-Inventar und eine interne Richtlinie sind ratsam, wenn Sie im EU-Markt tätig sind.

Was bedeutet der Digital Omnibus konkret für die Planung?

Der Omnibus-Vorschlag sieht eine Verschiebung der Hochrisiko-Pflichten (Anhang III) auf spätestens 2. Dezember 2027 vor. Er ist jedoch noch nicht Gesetz, solange die Trilogverhandlungen laufen. August 2026 bleibt die aktuelle Rechtslage. Unser Rat: Nutzen Sie die Übergangszeit aktiv für Inventar, Klassifizierung und Richtlinienentwicklung, unabhängig davon, wann die Hochrisiko-Pflichten final greifen.

Übernimmt die Schweiz den EU AI Act ins nationale Recht?

Nein, nicht direkt. Der Bundesrat hat im Februar 2025 entschieden, stattdessen die Europarats-Konvention zu KI zu ratifizieren und bestehende Gesetze punktuell anzupassen. Eine Vernehmlassungsvorlage ist bis Ende 2026 geplant. Für Unternehmen mit EU-Geschäft ändert das nichts an der extraterritorialen Wirkung des EU AI Acts. Für rein inlandfokussierte KMU bedeutet es: vorerst weniger direkten regulatorischen Druck aus der Schweiz, aber steigende Erwartungen von EU-Kunden und -Partnern.

Wie viel Aufwand brauche ich für die Grundlagen?

Für ein grundlegendes Compliance-Setup, also Inventar, Risikoeinstufung, interne Richtlinie und eine Schulung für die Mitarbeitenden, schätzen wir bei einem KMU unter 100 Mitarbeitenden rund 2 bis 4 Monate. Das lässt sich parallel zum Tagesgeschäft umsetzen. Wer externe Begleitung nutzt, reduziert den internen Aufwand erheblich, da Klassifizierungslogik und Richtlinienvorlagen nicht von Grund auf neu entwickelt werden müssen.

Fazit

Der EU AI Act ist kein Zukunftsprojekt. Er gilt in Teilen bereits heute, und er gilt auch für Schweizer Unternehmen, die im EU-Markt aktiv sind. Das Marktortprinzip ist eindeutig, der Zeitplan ist festgelegt, und die Diskussion um den Digital Omnibus verschiebt bestenfalls einen Teil der Fristen, nicht die Regulierung als solche.

Was Schweizer KMU jetzt brauchen, ist kein aufwändiges Compliance-Projekt, sondern einen pragmatischen Einstieg: wissen, was man einsetzt, einschätzen, welches Risiko damit verbunden ist, und Spielregeln für die Mitarbeitenden definieren. Das schafft Klarheit intern und Vertrauen extern, gegenüber Kunden, Partnern und Behörden.

Navigant begleitet Schweizer KMU auf diesem Weg, von der ersten Bestandsaufnahme bis zur audit-fähigen Governance-Struktur. Buchen Sie ein kostenloses 30-minütiges Erstgespräch unter navigant.ch, um zu klären, wo Ihr Unternehmen heute steht und welche Schritte als nächstes sinnvoll sind.

Jeden Montag:

Was letzte Woche in AI Governance passiert ist und was es für Ihr KMU heisst.

Die wichtigsten AI-Governance-Entwicklungen der Woche, eingeordnet und auf den Punkt gebracht. Damit Sie montags wissen, was sich ändert und was Sie tun müssen.

Ja, ich möchte den Newsletter von Navigant erhalten.
Navigant verarbeitet Ihre E-Mail-Adresse zum Versand des Newsletters (Branchen-News und Infos zu unseren Dienstleistungen). Abmeldung jederzeit über den Link in jeder E-Mail möglich. Datenschutzerklärung
Jeden Montag. Jederzeit kündbar. Kein Spam.

Jeden Montag:

Was letzte Woche in AI Governance passiert ist und was es für Ihr KMU heisst.

Die wichtigsten AI-Governance-Entwicklungen der Woche, eingeordnet und auf den Punkt gebracht. Damit Sie montags wissen, was sich ändert und was Sie tun müssen.

Ja, ich möchte den Newsletter von Navigant erhalten.
Navigant verarbeitet Ihre E-Mail-Adresse zum Versand des Newsletters (Branchen-News und Infos zu unseren Dienstleistungen). Abmeldung jederzeit über den Link in jeder E-Mail möglich. Datenschutzerklärung
Jeden Montag. Jederzeit kündbar. Kein Spam.

Folgen Sie Navigant auf LinkedIn

Regelmässige Einordnungen zu AI Governance, Praxistipps für Schweizer KMU und Kommentare zu aktuellen Entwicklungen rund um KI-Regulierung.