GPAI-Modelle mit systemischem Risiko nach EU AI Act
Nicht alle GPAI-Modelle unterliegen denselben Anforderungen. Modelle mit besonders hoher Rechenkapazität gelten als systemisch riskant und haben strengere Pflichten.
Die 10^25 FLOPs Schwelle
Ein GPAI-Modell gilt als systemisch riskant, wenn die kumulierte Rechenleistung für das Training mehr als 10^25 FLOP beträgt. Das entspricht ungefähr dem Trainingsaufwand von GPT-4-Klasse-Modellen.
Anbieter müssen die Kommission innerhalb von 2 Wochen benachrichtigen, wenn ihr Modell diese Schwelle erreicht oder überschreitet.
Zusätzliche Pflichten
- Modellevaluierungen durchführen (adversariales Testen)
- Systemische Risiken identifizieren und mindern
- Schwerwiegende Vorfälle melden an AI Office und nationale Behörden
- Cybersicherheitsschutz auf angemessenem Niveau
Relevanz für Schweizer Unternehmen
Derzeit entwickeln nur wenige Schweizer Unternehmen Modelle dieser Größenordnung. Relevant ist diese Regelung aber für Schweizer Forscher und Unternehmen, die foundation-model-ähnliche Systeme trainieren.
Wie hoch ist das KI-Risiko Ihres Unternehmens?
In 10 Minuten erfahren Sie, ob und wie der EU AI Act Ihr Unternehmen betrifft – kostenlos, ohne Registrierung, auf Deutsch.
KI-Risiko kostenlos prüfen →Kostenlos · Kein Account nötig · Auf Deutsch · DSGVO-konform