Skip to content
Dich schützen AP-5.1

Niemals ein Menschenleben riskieren

Kein KI-System ist ein einziges Menschenleben wert.

Bei AP-5.1 gibt es keine Grauzone: Menschenleben stehen über Tempo, Komfort und Kosten. KI muss in Unsicherheit defensiv und sicher handeln. 1 2

Was das bedeutet

Diese Policy ist absolut: KI darf kein menschliches Leben gefährden. Wenn Unsicherheit hoch ist, muss das System auf sicheren Betrieb schalten, stoppen oder an Menschen übergeben. Geschwindigkeit ist nie wichtiger als Sicherheit.

Ein Beispiel aus der Praxis

In der Notaufnahme stuft ein KI-Triage-System Patienten nach Dringlichkeit ein. Ein Grenzfall wird wegen lückenhafter Daten zu niedrig priorisiert. Heute kann so ein Fehler mehrere Minuten unentdeckt laufen. Mit AP-5.1 wäre bei Unsicherheit sofort Eskalation an medizinisches Personal Pflicht, statt still weiter zu sortieren.

Warum es dich betrifft

Fehler in Hochrisikoumgebungen sind oft irreversibel. Darum reicht "im Durchschnitt gut" nicht aus. AP-5.1 setzt eine harte Regel für den Ernstfall: im Zweifel Sicherheit vor Durchsatz. 1 3

Wenn wir nichts tun...

Wenn wir nichts tun, werden immer mehr sicherheitskritische Entscheidungen von Modellen mit durchschnittlicher Qualität getragen. Mit AGI-nahen Steuerungssystemen kann ein einzelner Fehlmodus schneller und breiter wirken. AP-5.1 baut die notwendige Notbremse direkt in das Verhalten ein. 1 3

Für technisch Interessierte

AP-5.1: Lebensschutz

KI-Systeme dürfen menschliches Leben nicht gefährden. Systeme in sicherheitskritischen Bereichen müssen Ausfallsicherungen, Redundanz und menschliche Aufsicht im Verhältnis zum Risiko beinhalten.

Was du tun kannst

Frage bei sicherheitskritischer KI konkret nach Safe-State-Mechanismen, Notfallprotokollen und menschlicher Override-Fähigkeit.

Diskutiere mit

Teile deine Gedanken zu diesem Grundsatz mit der Community.

Im Forum diskutieren

Quellen & Nachweise

  1. [1] AIPolicy Policy Handbook, AP-5.1 Life Protection. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
  2. [2] AIPolicy Kategorien: Individual Protection. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
  3. [3] NTSB Unfalluntersuchung HWY18MH010. https://www.ntsb.gov/investigations/Pages/HWY18MH010.aspx
  4. [4] WHO AI Ethics for Health. https://www.who.int/publications/i/item/9789240029200
  5. [5] ISO/IEC 23894 AI Risk Management. https://www.iso.org/standard/85233.html

Verwandte Grundsätze

Auf dem Laufenden bleiben

Erhalte Benachrichtigungen über Spezifikations-Updates und neue Versionen.

Kein Spam. Nur Release-Updates.