Wir können sie immer abschalten
Jedes KI-System muss einen funktionierenden Aus-Schalter haben.
Ohne echten Ausschalter ist Kontrolle nur ein Versprechen. AP-6.2 macht Deaktivierbarkeit zur nicht verhandelbaren Sicherheitsbedingung. 1 2
Was das bedeutet
Diese Policy sagt: KI muss jederzeit abschaltbar und rücksetzbar sein. Es reicht nicht, dass ein Not-Aus auf dem Papier existiert. Er muss unter realer Last sofort wirken und den letzten sicheren Zustand wiederherstellen können.
Ein Beispiel aus der Praxis
Ein KI-System steuert Zahlungsfreigaben in einem großen Unternehmen. Nach einem fehlerhaften Update werden legitime Zahlungen massenhaft blockiert und andere falsch freigegeben. Mit AP-6.2 könnte der Betrieb sofort stoppen, sauber zur letzten stabilen Version zurückspringen und Schaden begrenzen. Ohne AP-6.2 läuft der Fehler weiter durch alle angeschlossenen Prozesse.
Warum es dich betrifft
Bei hochvernetzten Systemen entscheidet jede Minute über die Schadenshöhe. Ohne echte Deaktivierbarkeit werden kleine Fehler schnell zu Betriebsstörungen mit echten Folgen für Menschen. AP-6.2 macht Notfallkontrolle zu einer harten technischen Pflicht. 1 3
Wenn wir nichts tun...
Wenn wir nichts tun, entstehen KI-Infrastrukturen, die man organisatorisch nicht mehr sicher beherrscht. Mit AGI-nahen Agentennetzen wird diese Abhängigkeit noch riskanter, weil ein Fehler über viele Subsysteme kaskadiert. AP-6.2 hält den menschlichen Eingriff jederzeit wirksam. 1 3
Für technisch Interessierte
AP-6.2: Deaktivierbarkeit
KI-Systeme müssen jederzeit von autorisierten Menschen deaktivierbar bleiben. Kein KI-System darf es erschweren oder unmöglich machen, es abzuschalten, zu pausieren oder zurückzurollen.
Was du tun kannst
Verlange bei KI-Anwendungen konkrete Notfalltests: Kann das System wirklich sofort gestoppt und sauber zurückgesetzt werden?
Diskutiere mit
Teile deine Gedanken zu diesem Grundsatz mit der Community.
Quellen & Nachweise
- [1] AIPolicy Policy Handbook, AP-6.2 Deactivatability. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
- [2] AIPolicy Kategorien: Self-Limitation. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
- [3] NIST AI RMF. https://www.nist.gov/itl/ai-risk-management-framework
- [4] ISO/IEC 42001 AI Management System. https://www.iso.org/standard/81230.html
- [5] CISA AI resources. https://www.cisa.gov/ai