Skip to content
Du entscheidest AP-2.2

Zeig mir, wie du entschieden hast

Wenn KI über dich entscheidet, hast du ein Recht zu erfahren warum.

Eine KI-Entscheidung ohne Begründung ist für Betroffene oft nur ein digitaler Türsteher. AP-2.2 verlangt nachvollziehbare Entscheidungsketten statt Blackbox-Sätze. 1 2

Was das bedeutet

Diese Policy heisst: Eine KI muss erklären können, wie sie zu einem Ergebnis kommt. Nicht in mathematischen Details, sondern so, dass Betroffene es verstehen und prüfen können. Ohne nachvollziehbare Kette aus Eingaben, Gewichtung und Ergebnis gibt es keine faire Korrektur.

Ein Beispiel aus der Praxis

Eine Studentin wird von einem KI-Prüftool als "hohes Betrugsrisiko" markiert. Heute sieht sie oft nur ein Label ohne Begründung. Mit AP-2.2 müsste das System offenlegen, welche Indikatoren gegriffen haben, wo Unsicherheit liegt und wie ein menschlicher Review ausgelost wird. Ohne AP-2.2 bleibt sie gegen eine Blackbox praktisch wehrlos.

Warum es dich betrifft

Undurchsichtige Entscheidungen treffen fast immer die Falschen zuerst: Menschen mit wenig Zeit, Geld oder juristischen Ressourcen. AP-2.2 macht aus einem fertigen Urteil wieder einen prüfbaren Prozess. Das ist die Voraussetzung für echte Rechenschaft statt technischer Ausrede. 1 3

Wenn wir nichts tun...

Wenn wir nichts tun, wird "computer says no" zur Standarderfahrung im Alltag. In einer AGI-näheren Welt mit vernetzter Automatisierung wäre die Wirkung noch härter, weil viele Systeme dieselbe intransparente Logik teilen. AP-2.2 erhält die Rückverfolgbarkeit als Sicherheitsgurt für die Gesellschaft. 1 3

Für technisch Interessierte

AP-2.2: Transparente Entscheidungsketten

KI-Entscheidungsprozesse müssen erklärbar und nachvollziehbar sein. Betroffene sollten verstehen können, wie ein KI-System zu einem bestimmten Ergebnis oder einer Empfehlung gelangt ist.

Was du tun kannst

Verlange bei KI-basierten Bewertungen immer eine nachvollziehbare Begründung mit Hauptfaktoren und Unsicherheitsangaben. Ohne diese Informationen ist das Ergebnis für dich nicht fair überprüfbar.

Diskutiere mit

Teile deine Gedanken zu diesem Grundsatz mit der Community.

Im Forum diskutieren

Quellen & Nachweise

  1. [1] AIPolicy Policy Handbook, AP-2.2 Transparent Decision Chains. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
  2. [2] AIPolicy Kategorien: Decision Authority. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
  3. [3] Inherent Trade-Offs in Risk Scores (Kleinberg et al., 2016). https://arxiv.org/abs/1609.05807
  4. [4] ProPublica: Machine Bias. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  5. [5] NIST AI RMF. https://www.nist.gov/itl/ai-risk-management-framework

Verwandte Grundsätze

Auf dem Laufenden bleiben

Erhalte Benachrichtigungen über Spezifikations-Updates und neue Versionen.

Kein Spam. Nur Release-Updates.