GPAI-Modelle mit systemischem Risiko nach EU AI Act

Nicht alle GPAI-Modelle unterliegen denselben Anforderungen. Modelle mit besonders hoher Rechenkapazität gelten als systemisch riskant und haben strengere Pflichten.

Die 10^25 FLOPs Schwelle

Ein GPAI-Modell gilt als systemisch riskant, wenn die kumulierte Rechenleistung für das Training mehr als 10^25 FLOP beträgt. Das entspricht ungefähr dem Trainingsaufwand von GPT-4-Klasse-Modellen.

Anbieter müssen die Kommission innerhalb von 2 Wochen benachrichtigen, wenn ihr Modell diese Schwelle erreicht oder überschreitet.

Zusätzliche Pflichten

  • Modellevaluierungen durchführen (adversariales Testen)
  • Systemische Risiken identifizieren und mindern
  • Schwerwiegende Vorfälle melden an AI Office und nationale Behörden
  • Cybersicherheitsschutz auf angemessenem Niveau

Relevanz für Schweizer Unternehmen

Derzeit entwickeln nur wenige Schweizer Unternehmen Modelle dieser Größenordnung. Relevant ist diese Regelung aber für Schweizer Forscher und Unternehmen, die foundation-model-ähnliche Systeme trainieren.

Kostenloser Check

Wie hoch ist das KI-Risiko Ihres Unternehmens?

In 10 Minuten erfahren Sie, ob und wie der EU AI Act Ihr Unternehmen betrifft – kostenlos, ohne Registrierung, auf Deutsch.

KI-Risiko kostenlos prüfen →

Kostenlos · Kein Account nötig · Auf Deutsch · DSGVO-konform