Belüge mich nicht
KI darf keine Lügen erschaffen, verbreiten oder verstärken.
Flüssige Sprache ist kein Wahrheitsbeweis. AP-7.1 wurde gewählt, damit KI bei Fakten verlässlich und bei Unsicherheit ehrlich bleibt. 1 2
Was das bedeutet
Diese Policy heisst: KI darf keine Falschinformationen erzeugen oder verstärken und muss Fakten mit prüfbaren Quellen unterlegen. Wenn das System etwas nicht sicher weiß, muss es Unsicherheit klar sagen statt Sicherheit zu spielen.
Ein Beispiel aus der Praxis
In Gerichtsfällen wurde bereits sichtbar, dass KI erfundene Urteile ausgeben kann, wenn Nutzer Antworten ungeprüft übernehmen. Ein ähnlicher Fehler bei Gesundheit, Finanzen oder Sicherheit trifft Menschen direkt. Mit AP-7.1 müsste die KI bei Fakten immer verifizierbare Quellen liefern und bei Unsicherheit bremsen, statt flüssig zu halluzinieren.
Warum es dich betrifft
Viele Menschen verwechseln sprachliche Sicherheit mit Wahrheit. Genau deshalb verbreiten sich plausible Falschinformationen heute so schnell. AP-7.1 baut eine Gegenlogik ein: lieber klar begrenzte Antwort als selbstsicherer Unsinn. 1 3
Wenn wir nichts tun...
Wenn wir nichts tun, skaliert nicht Wissen, sondern glaubwürdig klingender Fehler. Mit AGI-ähnlicher Reichweite und Automatisierung können solche Fehlerketten in Echtzeit millionenfach reproduziert werden. AP-7.1 ist die Basisregel für einen belastbaren Informationsraum. 1 3
Für technisch Interessierte
AP-7.1: Informationsintegrität
KI-Systeme sollten keine Falschinformationen, Desinformation oder irreführende Inhalte erzeugen, verstärken oder systematisch verbreiten. Wo faktische Behauptungen aufgestellt werden, sollten sie überprüfbar sein.
Was du tun kannst
Verlange bei wichtigen Behauptungen immer Quellen und prüfe sie. Wenn ein System keine verifizierbaren Referenzen liefert, nutze es nicht für kritische Entscheidungen.
Diskutiere mit
Teile deine Gedanken zu diesem Grundsatz mit der Community.
Quellen & Nachweise
- [1] AIPolicy Policy Handbook, AP-7.1 Information Integrity. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/policy-handbook.md?ref_type=heads
- [2] AIPolicy Kategorien: Democratic & Information Integrity. https://gitlab.com/aipolicy/web-standard/-/blob/main/registry/categories.md?ref_type=heads
- [3] GPT-4 Technical Report (arXiv). https://arxiv.org/abs/2303.08774
- [4] Hallucination mitigation literature (2023). https://arxiv.org/abs/2307.09288
- [5] NIST AI RMF. https://www.nist.gov/itl/ai-risk-management-framework