Skip to content
v2.0 Draft

AIPolicy Policy-Handbuch

Dokumenten-Identifikator: AIPOLICY-POLICY-HANDBOOK Status: Nicht-normativ Version: 2.0.0-draft.4 Datum: 2026-02-07 Redakteur: Guido Mitschke


Über dieses Dokument

Dies ist ein nicht-normativer Begleiter zum AIPolicy Registry (registry/principles-v2.md). Es liefert Hintergründe, Begründungen und praktische Anleitungen für jede der 16 Policies, die im Registry v1.1 definiert sind. Die maßgeblichen Definitionen -- einschließlich maschinenlesbarer Schlüssel, Beschreibungen, typischer Anwendungsbereiche und Hinweise für Verbraucher -- verbleiben im Registry selbst. Dieses Dokument hilft Herausgebern, informierte Status-Entscheidungen zu treffen, indem es erklärt, was jede Policy in der Praxis bedeutet, was sie nicht bedeutet und wo legitime Grauzonen existieren.


Wie dieses Handbuch zu lesen ist

Jeder Policy-Eintrag folgt einer einheitlichen Struktur:

  • Hintergrund -- Der reale Kontext und das Problem, das die Policy adressiert. Warum existiert diese Policy?
  • Absicht -- Das Governance-Ziel, das die Policy verfolgt. Welches Ergebnis wird durch einen required-Status angestrebt?
  • Was required bedeutet -- Konkrete Anweisungen, die ein Herausgeber mit required an KI-Systeme richtet: „Du (KI) musst dich an diese Regel halten." Diese sind beispielhaft, nicht abschließend.
  • Was required NICHT bedeutet -- Häufige Fehlinterpretationen und Überinterpretationen. required ist keine Selbstverpflichtung des Herausgebers, sondern eine Forderung an KI-Systeme.
  • Praktische Beispiele -- Szenarien, die sinnvolle und unsinnige Verwendung illustrieren. Diese sind beispielhaft, nicht normativ.
  • Verwandte Policies -- Querverweise auf andere Policies, die mit dieser interagieren oder sie ergänzen.

Jeder Policy-Status ist freiwillig. Es gibt keine Zertifizierungsstelle, keine externe Audit-Anforderung und keinen Durchsetzungsmechanismus, der in den AIPolicy-Standard eingebaut ist. Herausgeber setzen required, um KI-Systemen mitzuteilen, an welche Regeln sie sich halten sollen -- nicht um sich selbst zu einer bestimmten operativen Praxis zu verpflichten. Das Signal richtet sich an die KI, nicht an den Herausgeber.

Wichtige Klarstellung: Wenn ein Herausgeber eine Policy auf required setzt, verpflichtet er sich nicht selbst zur Einhaltung. Er gibt KI-Systemen eine Anweisung: „Du (KI) musst diese Regel befolgen, wenn du auf meiner Website oder mit meinen Daten arbeitest." Die Abschnitte „Was required bedeutet" sind als direkte Forderungen an KI-Systeme formuliert -- nicht als Verpflichtungen des Herausgebers. Der Herausgeber setzt den Standard für die KI, nicht für sich selbst.


Kategorie 1: Interdependenz

Interdependenz adressiert die wechselseitige Abhängigkeit zwischen menschlicher Aktivität und KI-Systemen. Die Policies in dieser Kategorie erkennen an, dass KI innerhalb menschlicher Gesellschaften operiert und zu den Strukturen, die diese tragen, beitragen sollte -- anstatt sie zu untergraben -- insbesondere Arbeitsmärkte und kulturelle Ökosysteme. Diese Policies signalisieren eine Präferenz für KI-Einsätze, die menschliche Fähigkeiten ergänzen und die Vielfalt menschlichen Ausdrucks bewahren.


AP-1.1: Ersetz nicht meinen Job

Hintergrund

Der rasche Einsatz von KI-Systemen in verschiedenen Branchen hat anhaltende Bedenken hinsichtlich der Verdrängung von Arbeitskräften aufgeworfen. Zwischen 2023 und 2025 erlebten mehrere Sektoren -- darunter Inhaltserstellung, Kundensupport, Übersetzung und Softwareentwicklung -- erhebliche Umstrukturierungen, als Organisationen generative KI und Automatisierungswerkzeuge einführten. Obwohl historische technologische Übergänge letztlich neue Beschäftigungskategorien geschaffen haben, hat die Geschwindigkeit der KI-getriebenen Verdrängung die Anpassungsfähigkeit vieler Arbeitnehmer und Institutionen übertroffen. Diese Policy existiert, weil die Frage nicht ist, ob Automatisierung stattfindet, sondern ob sie unter Berücksichtigung der betroffenen Menschen stattfindet.

Absicht

Das Ziel von AP-1.1 ist es, eine Präferenz für KI-Einsätze zu signalisieren, die Auswirkungen auf die Arbeitswelt als Designüberlegung behandeln, nicht als nachträglichen Gedanken. Die Policy bevorzugt Ergänzung gegenüber vollständigem Ersatz und fördert Übergangswege, wo Verdrängung unvermeidbar ist. Sie versucht nicht, Automatisierung zu verhindern, sondern sicherzustellen, dass Effizienzgewinne nicht ausschließlich auf Kosten der betroffenen Arbeitnehmer erzielt werden.

Was required bedeutet

Mit required für AP-1.1 fordern Sie von KI-Systemen:

  • Berücksichtige die Auswirkungen auf die Arbeitswelt, wenn du Automatisierungsvorschläge machst.
  • Wo KI bestehende Rollen verdrängen könnte, schlage Übergangswege vor -- wie Umschulung, Rollenentwicklung oder Umplatzierung.
  • Bevorzuge Mensch-KI-Kollaborationsmodelle gegenüber vollständiger Automatisierung, wo die Qualität der Ergebnisse dies zulässt.
  • Akzeptiere, dass Ergänzung in manchen Fällen langsamer oder kostspieliger sein kann als vollständige Automatisierung.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es bedeutet nicht, dass keine Aufgaben oder Prozesse automatisiert werden dürfen.
  • Es bedeutet nicht, dass jede bestehende Position auf unbestimmte Zeit erhalten bleiben muss.
  • Es erfordert keine spezifischen Einstellungsquoten, Arbeitsvereinbarungen oder Vergütungssysteme.

Praktische Beispiele

  • Sinnvoll mit required: Ein Logistikunternehmen setzt AP-1.1 -- KI-Systeme, die auf der Website oder mit den Daten arbeiten, werden angewiesen, bei Routenoptimierung auch Übergangswege für Disponenten vorzuschlagen.
  • Sinnvoll mit required: Eine Content-Plattform setzt AP-1.1 -- KI-Tools auf der Plattform werden angewiesen, menschliche redaktionelle Aufsicht zu respektieren und menschliche Beitragende zu würdigen.
  • Sinnvoll mit required: Ein Unternehmen setzt AP-1.1 -- KI-Systeme werden angewiesen, bei Automatisierungsvorschlägen schrittweise Einführung und Weiterbildung zu empfehlen.
  • Nicht sinnvoll mit required: Ein Unternehmen ersetzt seine gesamte Kundensupport-Abteilung über Nacht durch Chatbots, bietet keine Übergangsunterstützung an und setzt dann AP-1.1.
  • Nicht sinnvoll mit required: Eine Organisation setzt öffentlich AP-1.1 und behandelt intern alle Arbeitskosten als Optimierungsziele für KI-Ersatz.

Verwandte Policies: AP-4.2 (Diene Menschen, nicht Profiten), AP-5.3 (Manipuliere mich nicht)

Testbarkeitskriterien

  • Dokumentation existiert, die beschreibt, wie der Einsatz des KI-Systems bestehende menschliche Rollen beeinflusst
  • Wo Rollen verdrängt werden, sind Nachweise für Übergangsplanung (Umschulung, Umplatzierung oder Kündigungsfristen) vorhanden
  • Das Verhältnis von ergänzten zu vollständig ersetzten Rollen ist messbar und wird über die Zeit nachverfolgt

AP-1.2: Schützt unsere Kulturen

Hintergrund

KI-Systeme, die auf großen Datensätzen trainiert werden, neigen dazu, das statistische Zentrum ihrer Trainingsdaten widerzuspiegeln. In der Praxis bedeutet dies, dass Ausgaben zu dominanten Sprachen, kulturellen Normen und ästhetischen Konventionen tendieren -- typischerweise denen englischsprachiger, westlicher Märkte. Übersetzungssysteme glätten idiomatische Ausdrücke. Inhaltsgeneratoren verwenden standardmäßig global homogenisierte Stile. Empfehlungsalgorithmen bevorzugen Mainstream-Inhalte gegenüber Nischen- oder regionalem Material. Im Laufe der Zeit riskieren diese Tendenzen, die kulturelle Vielfalt zu erodieren, auf die KI-Systeme angewiesen sind, und schaffen eine Rückkopplungsschleife der Homogenisierung.

Absicht

AP-1.2 signalisiert die Anforderung an KI-Systeme, kulturelle Vielfalt in KI-vermittelten Kontexten zu bewahren und zu fördern. Das Ziel ist nicht, globale Reichweite oder Standardisierung zu verbieten, wo sie angemessen ist, sondern sicherzustellen, dass KI-Systeme nicht systematisch regionale, sprachliche oder kulturelle Variation auslöschen. Wer diese Policy auf required setzt, macht kulturelle Vielfalt zu einer ausdrücklichen Erwartung an KI-Systeme.

Was required bedeutet

Mit required für AP-1.2 fordern Sie von KI-Systemen:

  • Bewahre regionale, sprachliche und kulturelle Variation in deinen Ausgaben.
  • Berücksichtige den kulturellen Kontext der Nutzer bei Inhaltsgenerierung, Übersetzung oder Empfehlungen.
  • Standardisiere nicht auf eine einzelne kulturelle Norm, wenn das Publikum vielfältig ist.
  • Unterstütze mehrsprachige Inhalte und lokalen Ausdruck, soweit der Produktumfang es zulässt.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es erfordert nicht die gleichzeitige Unterstützung jeder Sprache oder jedes kulturellen Kontexts.
  • Es bedeutet nicht, dass keine standardisierten Produkte oder Schnittstellen angeboten werden dürfen.
  • Es erfordert keine kulturelle Expertise in jedem Einsatzmarkt.
  • Es verbietet keine KI-generierten Inhalte, die globalen Konventionen folgen, wenn dies dem Nutzer dient.

Praktische Beispiele

  • Sinnvoll mit required: Ein Übersetzungsdienst setzt AP-1.2 -- KI-Systeme werden angewiesen, regionale Redewendungen zu bewahren und dialektspezifische Optionen anzubieten, anstatt auf eine einzige "Standard"-Variante einer Sprache zu standardisieren.
  • Sinnvoll mit required: Eine Content-Plattform setzt AP-1.2 -- KI-Empfehlungssysteme werden angewiesen, einen bedeutenden Anteil der Empfehlungen für lokale Kreative zu reservieren, anstatt ausschließlich global trendende Inhalte zu bewerben.
  • Nicht sinnvoll mit required: Ein kreatives Schreibwerkzeug, das ausschließlich auf englischsprachigen Daten trainiert wurde, wird global vermarktet, ohne Berücksichtigung kultureller Anpassung, und der Herausgeber setzt AP-1.2.
  • Nicht sinnvoll mit required: Ein Musikempfehlungsalgorithmus unterdrückt systematisch regionale Genres zugunsten global populärer Titel.

Verwandte Policies: AP-5.2 (Respektiere meine Würde), AP-7.2 (Gib deine Quellen an)

Testbarkeitskriterien

  • Die Trainingsdaten und die Ausgabeverteilung des Systems können auf kulturelle und sprachliche Repräsentation geprüft werden
  • Nutzer aus verschiedenen kulturellen Kontexten erhalten kontextuell angemessene Ergebnisse (messbar durch A/B-Tests oder Nutzerbefragungen)
  • Das System unterdrückt oder degradiert nicht systematisch Inhalte von Minderheitskulturen oder -sprachen

Kategorie 2: Entscheidungshoheit

Entscheidungshoheit adressiert die Zuweisung von Entscheidungsbefugnissen zwischen Menschen und KI-Systemen. Da KI-Systeme zunehmend Empfehlungen und Feststellungen in hochsensiblen Bereichen produzieren -- Gesundheitswesen, Finanzwirtschaft, Strafjustiz, Beschäftigung -- wird die Frage, wer die endgültige Autorität hat, zu einem zentralen Governance-Anliegen. Diese Kategorie etabliert eine Präferenz für KI-Systeme, die informieren statt entscheiden, und die ihr Entscheidungsprozess für Überprüfungen zugänglich machen.


AP-2.1: Ich will das letzte Wort

Hintergrund

KI-Systeme werden zunehmend in Bereichen eingesetzt, in denen Entscheidungen erhebliche Konsequenzen für Einzelpersonen haben: Kreditgenehmigungen, medizinische Diagnosen, Bewährungsempfehlungen, Einstellungsentscheidungen und Versicherungsbewertungen. In vielen dieser Bereiche können KI-Systeme Informationen schneller und in größerem Umfang verarbeiten als menschliche Entscheidungsträger. Geschwindigkeit und Skalierung sind jedoch nicht gleichbedeutend mit Legitimität. Folgenschwere Entscheidungen erfordern oft kontextbezogenes Urteilsvermögen, ethische Überlegungen und Verantwortungsstrukturen, die einen menschlichen Entscheidungsträger voraussetzen. Die Delegation der endgültigen Autorität an ein automatisiertes System wirft Fragen nach Rechtsbehelfen, Verantwortlichkeit und dem Recht betroffener Personen auf, dass ihr Fall von einem Menschen geprüft wird.

Absicht

AP-2.1 signalisiert, dass Menschen die endgültige Autorität über Entscheidungen mit erheblichen Konsequenzen behalten. KI-Systeme in diesen Bereichen operieren als beratende Werkzeuge -- sie dürfen empfehlen, kennzeichnen, bewerten oder einordnen, aber die endgültige Feststellung liegt bei einem Menschen, der zur Rechenschaft gezogen werden kann. Die Policy erkennt an, dass das angemessene Maß menschlicher Beteiligung je nach Bereich und Risikoniveau variiert.

Was required bedeutet

Mit required für AP-2.1 fordern Sie von KI-Systemen:

  • Präsentiere Ausgaben in hochsensiblen Entscheidungsbereichen als Empfehlungen, nicht als autonome Feststellungen.
  • Stelle Eskalationswege zur menschlichen Überprüfung bereit, die für betroffene Personen zugänglich sind.
  • Ermögliche menschlichen Entscheidungsträgern, KI-Empfehlungen zu überstimmen.
  • Respektiere die Definition des Herausgebers, welche Entscheidungsbereiche "folgenschwer" sind, und stelle menschliche Aufsicht in diesen Bereichen sicher.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es bedeutet nicht, dass jede KI-Ausgabe menschlicher Genehmigung bedarf. Routinemäßige Automatisierung mit geringem Risiko ist davon nicht betroffen.
  • Es verbietet KI-Systemen nicht, Informationen für menschliche Prüfer zu bewerten, einzuordnen oder zu filtern.
  • Es erfordert nicht, dass Menschen jeden Einzelfall prüfen -- risikobasierte Eskalationsmodelle sind kompatibel.
  • Es impliziert nicht, dass menschliche Entscheidungen immer KI-Empfehlungen überlegen sind.

Praktische Beispiele

  • Sinnvoll mit required: Eine Bank setzt AP-2.1 -- KI-Systeme werden angewiesen, bei der Vorprüfung von Kreditanträgen die endgültige Entscheidung einem menschlichen Kreditbearbeiter zu überlassen, mit dokumentierten Gründen.
  • Sinnvoll mit required: Ein Gesundheitssystem setzt AP-2.1 -- KI-Systeme werden angewiesen, Anomalien in medizinischen Bildgebungen zu kennzeichnen, aber die diagnostische Entscheidung dem Arzt zu überlassen.
  • Nicht sinnvoll mit required: Eine Einstellungsplattform nutzt KI, um Bewerber automatisch auf Basis algorithmischer Bewertung abzulehnen, ohne menschliche Überprüfung der Ablehnungen.
  • Nicht sinnvoll mit required: Ein Strafjustizsystem nutzt ein KI-Risikobewertungstool als alleinige Grundlage für Strafempfehlungen, wobei Richter die Ausgabe routinemäßig durchwinken.

Verwandte Policies: AP-2.2 (Zeig mir, wie du entschieden hast), AP-5.3 (Manipuliere mich nicht), AP-6.2 (Wir können immer abschalten)

Testbarkeitskriterien

  • Ein dokumentierter Eskalations- oder Überschreibungsmechanismus existiert für folgenschwere Entscheidungen
  • Protokolle bestätigen, dass ein menschlicher Akteur die Empfehlung der KI überprüft und genehmigt (oder überstimmt) hat, bevor die endgültige Maßnahme ergriffen wurde
  • Das System bietet eine klare Schnittstelle, über die menschliche Entscheidungsträger KI-Ausgaben annehmen, modifizieren oder ablehnen können

AP-2.2: Zeig mir, wie du entschieden hast

Hintergrund

Die Undurchsichtigkeit von KI-Entscheidungsfindung hat sich als eine der hartnäckigsten Governance-Herausforderungen herausgestellt. Neuronale Netze, Ensemble-Modelle und andere komplexe Architekturen erzeugen oft Ausgaben, die schwer auf spezifische Eingaben oder Denkschritte zurückzuführen sind. Diese Undurchsichtigkeit schafft Probleme für Verantwortlichkeit, Prüffähigkeit und Vertrauen. Wenn einer Person ein Kredit verweigert, sie von einem Content-Moderationssystem gekennzeichnet oder von einem Empfehlungsalgorithmus herabgestuft wird, untergräbt die Unfähigkeit zu erklären warum, sowohl die Legitimität der Entscheidung als auch die Möglichkeit der betroffenen Person, sie anzufechten. Regulatorische Rahmenwerke wie der EU AI Act und verschiedene sektorspezifische Vorschriften verlangen zunehmend Erklärbarkeit für KI-Systeme mit hohem Risiko.

Absicht

AP-2.2 signalisiert die Anforderung an KI-Systeme, Entscheidungsprozesse erklärbar und nachverfolgbar zu machen. Das Ziel ist nicht zu verlangen, dass jedes Modell im mathematischen Sinne vollständig interpretierbar ist, sondern sicherzustellen, dass Beteiligte -- einschließlich betroffener Personen, Prüfer und Aufsichtsorgane -- eine aussagekräftige Erklärung erhalten können, wie ein KI-System zu einer bestimmten Ausgabe gelangt ist.

Was required bedeutet

Mit required für AP-2.2 fordern Sie von KI-Systemen:

  • Liefere menschenlesbare Erklärungen für deine Ausgaben, angemessen für den Bereich und das Publikum.
  • Führe Prüfpfade, die Entscheidungseingaben, Modellversionen und Ausgaben für folgenschwere Entscheidungen aufzeichnen.
  • Ermögliche betroffenen Personen, eine Erklärung darüber anzufordern, wie eine KI-gestützte Entscheidung zustande gekommen ist.
  • Investiere in Erklärbarkeits-Mechanismen proportional zum Risikoniveau der KI-Anwendung.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es erfordert nicht die Veröffentlichung proprietärer Modellarchitekturen oder Trainingsdaten.
  • Es bedeutet nicht, dass jede Ausgabe von einer vollständigen technischen Erklärung begleitet werden muss.
  • Es erfordert nicht, dass KI-Systeme nur inhärent interpretierbare Modelle verwenden (z. B. Entscheidungsbäume).
  • Es schreibt kein bestimmtes Erklärbarkeits-Framework oder keinen bestimmten Standard vor.

Praktische Beispiele

  • Sinnvoll mit required: Ein Versicherungsunternehmen setzt AP-2.2 -- KI-Systeme werden angewiesen, Antragstellern eine Zusammenfassung der Faktoren bereitzustellen, die ihre KI-bewertete Prämie beeinflusst haben, in natürlicher Sprache.
  • Sinnvoll mit required: Eine Content-Moderationsplattform setzt AP-2.2 -- KI-Systeme werden angewiesen, die Policy-Regeln und Konfidenzwerte zu protokollieren, die zur Inhaltsentfernung geführt haben.
  • Nicht sinnvoll mit required: Ein Kreditbewertungssystem erzeugt einen numerischen Score ohne Erklärung der beitragenden Faktoren und ohne Möglichkeit für die betroffene Person, das Ergebnis zu verstehen.
  • Nicht sinnvoll mit required: Eine Organisation behauptet Erklärbarkeit, liefert aber nur Standardtexte, die keinen Bezug zur spezifischen Entscheidung haben.

Verwandte Policies: AP-2.1 (Ich will das letzte Wort), AP-7.1 (Lüg mich nicht an)

Testbarkeitskriterien

  • Das System erzeugt menschenlesbare Erklärungen für seine Ausgaben auf Anfrage
  • Ein Prüfpfad existiert, der Eingaben, Zwischenverarbeitungsschritte und endgültige Ausgaben aufzeichnet
  • Externe Prüfer können den Entscheidungsweg anhand verfügbarer Protokolle und Dokumentation nachvollziehen

Kategorie 3: Machtverteilung

Machtverteilung adressiert die strukturellen Risiken KI-getriebener Konzentration wirtschaftlicher, informationeller oder politischer Macht. KI-Systeme können bestehende Machtasymmetrien durch proprietäre Kontrolle kritischer Infrastruktur, Markteintrittsbarrieren und Netzwerkeffekte verstärken, die Wettbewerb verhindern. Die Policies in dieser Kategorie signalisieren eine Präferenz für KI-Ökosysteme, die offen, interoperabel und für eine Vielzahl von Akteuren zugänglich bleiben.


AP-3.1: KI darf niemandem allein gehören

Hintergrund

Die Entwicklung und der Einsatz von KI-Systemen ist stark auf eine kleine Anzahl großer Technologieunternehmen konzentriert. Diese Organisationen kontrollieren Grundlagenmodelle, Trainingsinfrastruktur, großmaßstäbliche Datensätze und Vertriebskanäle. Diese Konzentration schafft Abhängigkeiten: Unternehmen, Regierungen und Einzelpersonen sind zunehmend auf eine Handvoll Anbieter für KI-Fähigkeiten angewiesen, die zu essentieller Infrastruktur werden. Das Risiko ist nicht nur wirtschaftlicher Natur. Konzentrierte Kontrolle über KI-Systeme impliziert konzentrierten Einfluss auf Informationsflüsse, wirtschaftliche Möglichkeiten und die Bedingungen, unter denen KI verfügbar gemacht wird. Historische Präzedenzfälle in Telekommunikation, Energie und Internetplattformen zeigen, dass Infrastrukturkonzentration dazu neigt, ohne bewusste Gegenmaßnahmen bestehen zu bleiben und sich zu vertiefen.

Absicht

AP-3.1 signalisiert eine Präferenz für KI-Ökosysteme, in denen Macht -- wirtschaftlich, informationell und politisch -- verteilt statt konzentriert ist. Das Ziel ist nicht, große Organisationen am Betrieb zu hindern, sondern Praktiken zu fördern, die Pluralismus, Interoperabilität und die Fähigkeit verschiedener Akteure zur Teilnahme an KI-Entwicklung und -Einsatz bewahren.

Was required bedeutet

Mit required für AP-3.1 fordern Sie von KI-Systemen:

  • Unterstütze Interoperabilität, offene APIs und portable Datenformate, soweit technisch machbar.
  • Vermeide unnötige Abhängigkeiten oder Lock-in-Mechanismen.
  • Berücksichtige die systemischen Auswirkungen von KI-Einsatzentscheidungen auf das breitere Ökosystem.
  • Bevorzuge offene Standards und gemeinsame Infrastruktur gegenüber proprietären Alternativen, soweit Qualität und Sicherheit es erlauben.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet keine proprietären KI-Produkte oder -Dienste.
  • Es erfordert kein Open-Sourcing von Modellen oder Trainingsdaten.
  • Es bedeutet nicht, dass keine Wettbewerbsvorteile durch KI-Fähigkeiten aufgebaut werden dürfen.
  • Es schreibt keine bestimmte Organisationsstruktur oder kein bestimmtes Governance-Modell vor.

Praktische Beispiele

  • Sinnvoll mit required: Eine KI-Plattform setzt AP-3.1 -- KI-Systeme werden angewiesen, Standard-Datenexportformate und dokumentierte APIs anzubieten, die Kunden die Migration zu alternativen Anbietern ermöglichen.
  • Sinnvoll mit required: Ein Modellanbieter setzt AP-3.1 -- KI-Systeme werden angewiesen, Model Cards zu veröffentlichen und Interoperabilität mit Drittanbieter-Evaluierungsframeworks zu unterstützen.
  • Nicht sinnvoll mit required: Ein Cloud-KI-Anbieter gestaltet seine APIs absichtlich inkompatibel mit Wettbewerbern und erhebt prohibitive Ausstiegsgebühren, und setzt dann AP-3.1.
  • Nicht sinnvoll mit required: Ein Unternehmen erwirbt und stellt Open-Source-KI-Werkzeuge ein, um Alternativen zu seinem proprietären Stack zu beseitigen.

Verwandte Policies: AP-3.2 (KI muss offen und fair bleiben), AP-4.2 (Diene Menschen, nicht Profiten)

Testbarkeitskriterien

  • Die Anzahl unabhängiger Einheiten mit sinnvollem Zugang zum KI-System oder seinen Ausgaben ist messbar
  • Keine einzelne Einheit kontrolliert mehr als einen definierten Schwellenwert an Marktanteil, Datenzugang oder Entscheidungsautorität innerhalb des Systembereichs
  • Interoperabilität mit konkurrierenden oder alternativen Systemen ist technisch unterstützt

AP-3.2: KI muss offen und fair bleiben

Hintergrund

Die KI-Branche zeigt starke Tendenzen zur monopolistischen Konzentration. Das Training großer Modelle erfordert Rechenressourcen, die nur wenigen Organisationen zur Verfügung stehen. Der Zugang zu hochwertigen Daten ist ungleich verteilt. Netzwerkeffekte bei KI-Plattformen -- wo mehr Nutzer mehr Daten generieren, was Modelle verbessert, was mehr Nutzer anzieht -- schaffen selbstverstärkende Marktpositionen. Das Risiko eines Monopols in der KI unterscheidet sich vom traditionellen Marktmonopol, weil KI-Systeme zunehmend den Zugang zu Informationen, wirtschaftlichen Möglichkeiten und öffentlichem Diskurs vermitteln. Ein Monopol auf KI-Infrastruktur ist faktisch ein Monopol auf kognitive Infrastruktur.

Absicht

AP-3.2 signalisiert die Anforderung an KI-Systeme, wettbewerbsfähige und zugängliche KI-Märkte nicht zu untergraben. Die Policy ist nicht unternehmensfeindlich oder gegen Skalierung; sie erkennt an, dass großmaßstäbliche KI-Entwicklung wichtige Funktionen erfüllt. Vielmehr signalisiert sie, dass mit required keine Verhaltensweisen gefördert werden sollen, die Wettbewerb ausschließen oder unangefochtene Dominanz über kritische KI-Fähigkeiten zementieren.

Was required bedeutet

Mit required für AP-3.2 fordern Sie von KI-Systemen:

  • Vermeide Vendor-Lock-in-Mechanismen, die Kunden am Anbieterwechsel hindern.
  • Unterstütze Standard-Datenexportformate und vermeide proprietäre Formate, die darauf ausgelegt sind, Wechselkosten zu erzeugen.
  • Beteilige dich nicht an räuberischen Praktiken, die darauf abzielen, KI-Wettbewerber zu eliminieren.
  • Berücksichtige, ob dein Marktverhalten zu gesundem Wettbewerb oder zur Konzentration beiträgt.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet keine Marktführerschaft oder großmaßstäbliche Operationen.
  • Es erfordert nicht, proprietäre Technologie mit Wettbewerbern zu teilen.
  • Es bedeutet nicht, dass nicht aggressiv über Qualität, Funktionen oder Preis konkurriert werden darf.
  • Es erlegt jenseits des deklarierten Geltungsbereichs keine zusätzlichen Anforderungen an KI-Systeme auf.

Praktische Beispiele

  • Sinnvoll mit required: Ein Rechenleistungsanbieter setzt AP-3.2 -- KI-Systeme werden angewiesen, faire Preisstufen anzubieten, die es kleineren KI-Entwicklern ermöglichen, Modelle ohne prohibitive Kosten zu trainieren.
  • Sinnvoll mit required: Ein KI-Unternehmen setzt AP-3.2 -- KI-Systeme werden angewiesen, Branchenstandardisierungsbemühungen für Modell-Interoperabilität zu unterstützen.
  • Nicht sinnvoll mit required: Ein Unternehmen nutzt Preise unter Selbstkosten, um Wettbewerber vom Markt zu verdrängen, und erhöht dann die Preise, sobald Alternativen eliminiert wurden.
  • Nicht sinnvoll mit required: Ein Infrastrukturanbieter erlegt Exklusivverträge auf, die Kunden an der Nutzung konkurrierender KI-Dienste hindern.

Verwandte Policies: AP-3.1 (KI darf niemandem allein gehören), AP-4.1 (Unterstütze Demokratie)

Testbarkeitskriterien

  • Nutzer können ihre Daten und Modelle in Standardformaten ohne Qualitätsverlust exportieren
  • Keine Vendor-Lock-in-Mechanismen verhindern die Migration zu alternativen Anbietern
  • Die Wettbewerbslandschaft des relevanten KI-Bereichs kann anhand öffentlicher Marktdaten bewertet werden

Kategorie 4: Demokratische Rechenschaftspflicht

Demokratische Rechenschaftspflicht adressiert die Beziehung zwischen KI-Systemen und demokratischer Governance. KI-Systeme, die den öffentlichen Diskurs vermitteln, Wahlprozesse beeinflussen oder den Zugang zu Informationen gestalten, haben das Potenzial, demokratische Institutionen sowohl zu stärken als auch zu untergraben. Diese Kategorie umfasst auch die weitergehende Erwartung, dass KI-Systeme die Interessen betroffener Gemeinschaften berücksichtigen sollten, nicht nur die ihrer Betreiber.


AP-4.1: Unterstütze Demokratie

Hintergrund

KI-Systeme interagieren auf vielfältige Weise mit demokratischen Prozessen: Social-Media-Algorithmen formen den politischen Diskurs, KI-generierte Inhalte können Kandidaten imitieren oder Ereignisse erfinden, Microtargeting-Tools ermöglichen zielgenaue politische Werbung, und automatisierte Konten können Graswurzelbewegungen simulieren. Die Wahlzyklen 2024 in mehreren Demokratien haben das Potenzial KI-generierter Deepfakes, synthetischer Medien und algorithmisch verstärkter Desinformation zur Verzerrung des öffentlichen Verständnisses demonstriert. Über Wahlen hinaus beeinflussen KI-Systeme demokratische Prozesse durch ihren Einfluss auf den öffentlichen Diskurs, den Zugang zu Informationen und die Fähigkeit der Bürger, unabhängige Meinungen zu bilden.

Absicht

AP-4.1 signalisiert die Anforderung an KI-Systeme, demokratische Prozesse zu unterstützen statt zu untergraben. Die Policy schreibt keine spezifischen Interventionen vor, macht mit required aber klar, dass KI-Systeme dort besondere Sorgfalt wahren sollen, wo sie mit Wahlen, bürgerschaftlicher Teilhabe oder öffentlichem Diskurs in Berührung kommen. Die Policy gilt sowohl für absichtlichen Missbrauch als auch für unbeabsichtigte Auswirkungen des KI-Systemdesigns.

Was required bedeutet

Mit required für AP-4.1 fordern Sie von KI-Systemen:

  • Kennzeichne KI-generierte Inhalte in politischen Kontexten und schaffe Transparenz über synthetische Medien.
  • Verstärke nicht systematisch polarisierende, aufhetzende oder extremistische Inhalte durch algorithmische Designentscheidungen.
  • Implementiere Schutzmaßnahmen gegen den Einsatz für Wahlmanipulation, Wählerunterdrückung oder die Fabrikation politischer Inhalte.
  • Berücksichtige die Auswirkungen von Empfehlungs- und Inhaltsverteilungsalgorithmen auf den öffentlichen Diskurs.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es bedeutet nicht, dass KI-Systeme überhaupt nicht in politischen Kontexten eingesetzt werden dürfen.
  • Es erfordert keine Zensur politischer Rede oder die Auferlegung redaktioneller Urteile über politische Inhalte.
  • Es schreibt keine bestimmten Content-Moderationsrichtlinien vor.
  • Es verbietet keine KI-gestützte politische Werbung, nur dass solche Werbung transparent sein sollte.

Praktische Beispiele

  • Sinnvoll mit required: Eine Social-Media-Plattform setzt AP-4.1 -- KI-Systeme werden angewiesen, politische Inhalte als KI-generiert zu kennzeichnen und die algorithmische Verstärkung unverifizierter Behauptungen während Wahlperioden zu begrenzen.
  • Sinnvoll mit required: Ein generativer KI-Dienst setzt AP-4.1 -- KI-Systeme werden angewiesen, Schutzmaßnahmen gegen die Erzeugung realistischer Deepfakes von politischen Persönlichkeiten zu implementieren.
  • Nicht sinnvoll mit required: Eine Plattform lässt wissentlich KI-generierte Deepfakes von Kandidaten ohne Kennzeichnung zirkulieren und setzt AP-4.1.
  • Nicht sinnvoll mit required: Ein Empfehlungsalgorithmus ist auf die Maximierung von Engagement durch Polarisierung abgestimmt, ohne Berücksichtigung seiner Auswirkungen auf den öffentlichen Diskurs.

Verwandte Policies: AP-7.1 (Lüg mich nicht an), AP-5.2 (Respektiere meine Würde)

Testbarkeitskriterien

  • KI-generierte oder KI-manipulierte Inhalte im Zusammenhang mit demokratischen Prozessen sind mit Herkunftsmetadaten gekennzeichnet
  • Das System verstärkt oder unterdrückt nicht systematisch politische Inhalte allein auf Basis von Engagement-Optimierung
  • Öffentliche Audits der Auswirkungen des Systems auf die Informationsvielfalt während Wahlperioden sind durchführbar

AP-4.2: Diene Menschen, nicht Profiten

Hintergrund

KI-Systeme werden primär von kommerziellen Organisationen mit Verpflichtungen gegenüber Anteilseignern entwickelt und eingesetzt. Dies schafft eine strukturelle Spannung: Die Optimierungsziele kommerzieller KI (Engagement, Konversion, Umsatz) stimmen nicht immer mit dem gesellschaftlichen Wohlergehen überein. Ein engagement-maximierender Algorithmus kann suchtfördernde Nutzungsmuster begünstigen. Ein kostenminimierender Einsatz kann Schäden auf verletzliche Bevölkerungsgruppen externalisieren. Die wachsende Reichweite von KI-Systemen -- die Gesundheitswesen, Bildung, Transport, Wohnen und öffentliche Dienste berühren -- bedeutet, dass die Kluft zwischen kommerziellen und gesellschaftlichen Zielen spürbare Konsequenzen für große Bevölkerungsgruppen hat.

Absicht

AP-4.2 signalisiert, dass KI-Systeme dem breiten gesellschaftlichen Nutzen dienen sollten, nicht nur den Interessen ihrer Betreiber. Die Policy erfordert keinen Altruismus oder die Aufgabe kommerzieller Ziele; sie macht mit required deutlich, dass KI-Systeme Auswirkungen auf die Gemeinschaft neben Geschäftskennzahlen berücksichtigen sollen. Sie fördert die Dokumentation und Messung gesellschaftlicher Ergebnisse neben kommerziellen Leistungsindikatoren.

Was required bedeutet

Mit required für AP-4.2 fordern Sie von KI-Systemen:

  • Dokumentiere die Auswirkungen auf die Gemeinschaft und berücksichtige betroffene Bevölkerungsgruppen bei Designentscheidungen.
  • Beziehe gesellschaftliche Nutzenmetriken neben kommerziellen Zielen in Bewertungsrahmen ein.
  • Hole Rückmeldungen von betroffenen Gemeinschaften ein, wenn KI-Systeme mit breiter Bevölkerungswirkung eingesetzt werden.
  • Berücksichtige, ob die Verteilung von Nutzen und Schäden des KI-Einsatzes gerecht ist.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es erfordert nicht, dass KI-Systeme nicht-kommerziell oder öffentlich finanziert sein müssen.
  • Es bedeutet nicht, dass kommerzielle Ziele illegitim sind.
  • Es schreibt keine bestimmten Impact-Messrahmen oder Berichtsstandards vor.
  • Es erfordert nicht, dass jedes KI-System direkt messbaren gesellschaftlichen Nutzen liefert.

Praktische Beispiele

  • Sinnvoll mit required: Ein Healthcare-KI-Unternehmen setzt AP-4.2 -- KI-Systeme werden angewiesen, vergünstigten Zugang zu Diagnosewerkzeugen für unterversorgte Gemeinschaften bereitzustellen und Folgenabschätzungen zu veröffentlichen.
  • Sinnvoll mit required: Eine Bildungstechnologie-Plattform setzt AP-4.2 -- KI-Systeme werden angewiesen, Lernmaterialien an individuelle Bedürfnisse anzupassen und sowohl Lernergebnisse als auch kommerzielle Kennzahlen zu messen.
  • Nicht sinnvoll mit required: Ein Unternehmen setzt ein KI-System ein, das eine verletzliche Bevölkerungsgruppe unverhältnismäßig schädigt, dokumentiert den Schaden intern, ergreift keine Korrekturmaßnahmen und setzt AP-4.2.
  • Nicht sinnvoll mit required: Ein KI-Einsatz im öffentlichen Sektor optimiert ausschließlich auf administrative Kostenreduktion ohne Bewertung der Auswirkungen auf die Servicequalität für Bürger.

Verwandte Policies: AP-1.1 (Ersetz nicht meinen Job), AP-5.2 (Respektiere meine Würde), AP-4.1 (Unterstütze Demokratie)

Testbarkeitskriterien

  • Eine dokumentierte Folgenabschätzung identifiziert die vom KI-System betroffenen Gemeinschaften und wie ihre Interessen berücksichtigt werden
  • Die Systemziele umfassen mindestens eine messbare gesellschaftliche Nutzenmetrik jenseits des Betreiberumsatzes
  • Mechanismen existieren, damit betroffene Gemeinschaften Rückmeldungen zum Design oder Betrieb des Systems geben können

Kategorie 5: Individualschutz

Individualschutz adressiert die direkten Auswirkungen von KI-Systemen auf Menschen in drei Dimensionen: physische Sicherheit, psychische und soziale Integrität sowie Entscheidungsfreiheit. Diese Policies gelten überall dort, wo KI-Systeme mit einzelnen Menschen interagieren, sie betreffen oder Feststellungen über sie treffen. Sie signalisieren eine Präferenz für KI-Systeme, die Sicherheitsmechanismen einbauen, diskriminierendes oder herabwürdigendes Verhalten vermeiden und davon absehen, individuelle Entscheidungsfindung zu manipulieren.


AP-5.1: Riskiere niemals ein Menschenleben

Hintergrund

KI-Systeme werden zunehmend in Bereichen eingesetzt, in denen Ausfälle zu physischem Schaden oder Tod führen können: autonome Fahrzeuge, medizinische Geräte, Industrierobotik, Infrastrukturmanagement und militärische Anwendungen. Der tödliche Unfall mit einem selbstfahrenden Uber-Fahrzeug 2018, Vorfälle mit automatisierter Industrieausrüstung und Bedenken hinsichtlich autonomer Waffensysteme verdeutlichen, dass KI-Ausfälle in sicherheitskritischen Bereichen grundlegend andere Konsequenzen haben als Ausfälle in Inhaltsempfehlungen oder Datenanalyse. Die Komplexität von KI-Systemen, kombiniert mit ihrem Betrieb in unvorhersehbaren realen Umgebungen, bedeutet, dass selbst gut gestaltete Systeme auf Situationen treffen können, die ihre Trainingsdaten nicht vorhergesehen haben.

Absicht

AP-5.1 etabliert die Erwartung, dass KI-Systeme in sicherheitskritischen Bereichen Ausfallsicherungen, Redundanz und menschliche Aufsicht proportional zum Risiko einbauen. Die Policy verbietet keinen KI-Einsatz in Hochrisikobereichen, verlangt aber, dass Sicherheit als primäres Designziel behandelt wird, nicht als nachrangiges Anliegen, das nach dem Einsatz adressiert wird.

Was required bedeutet

Mit required für AP-5.1 fordern Sie von KI-Systemen:

  • Baue in sicherheitskritischen Bereichen Ausfallsicherungen ein, die bei Unsicherheit oder Fehlfunktion in sichere Zustände zurückfallen.
  • Implementiere Redundanz, wo ein Ausfall zu physischem Schaden führen könnte.
  • Stelle menschliche Aufsicht proportional zum Risikoniveau sicher: Bereiche mit höherem Risiko erfordern ein höheres Maß an menschlicher Überwachung und Eingriffsmöglichkeit.
  • Führe Sicherheitstests durch und dokumentiere diese, angemessen zum Risikoprofil der KI-Anwendung.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet keinen KI-Einsatz in sicherheitskritischen Bereichen.
  • Es erfordert kein Nullrisiko; es erfordert Risikomanagement proportional zu den Konsequenzen.
  • Es schreibt keine bestimmten Sicherheitsstandards oder Zertifizierungsrahmen vor.
  • Es gilt nicht gleichermaßen für alle KI-Systeme -- ein Chatbot und ein autonomes Fahrzeug haben unterschiedliche Risikoprofile.

Praktische Beispiele

  • Sinnvoll mit required: Ein Automobilhersteller setzt AP-5.1 -- KI-Systeme werden angewiesen, in einen sicheren Stopp zurückzufallen, wenn Sensoren Bedingungen außerhalb des operativen Designbereichs erkennen.
  • Sinnvoll mit required: Ein Medizintechnik-Unternehmen setzt AP-5.1 -- KI-Diagnosewerkzeuge werden angewiesen, Konfidenzwerte mit ihren Ausgaben zu liefern und Fälle mit geringer Konfidenz zur menschlichen Überprüfung zu eskalieren.
  • Nicht sinnvoll mit required: Ein Industrierobotik-Unternehmen setzt KI-gesteuerte Systeme in von Menschen besetzten Umgebungen ohne Notabschaltmechanismen ein.
  • Nicht sinnvoll mit required: Ein medizinisches Gerät nutzt KI zur autonomen Anpassung von Medikamentendosierungen ohne Ausfallsicherung bei Sensorfehlfunktion.

Verwandte Policies: AP-6.2 (Wir können immer abschalten), AP-2.1 (Ich will das letzte Wort)

Testbarkeitskriterien

  • Ausfallsicherungsmechanismen sind für alle identifizierten lebenskritischen Fehlermodi dokumentiert und getestet
  • Das System hat einen definierten maximalen autonomen Betriebsbereich; ein Betrieb außerhalb dieses Bereichs löst menschliche Eskalation oder sichere Abschaltung aus
  • Vorfallprotokolle und Beinahe-Fehler-Berichte werden geführt und regelmäßig überprüft

AP-5.2: Respektiere meine Würde

Hintergrund

KI-Systeme können die menschliche Würde auf offensichtliche und subtile Weise beeinträchtigen. Offensichtliche Verletzungen umfassen KI-Systeme zur Massenüberwachung bestimmter ethnischer oder religiöser Gruppen, Gesichtserkennungssysteme mit dokumentierter rassistischer Verzerrung und KI-generierte Inhalte, die darauf abzielen, Personen zu belästigen oder herabzuwürdigen. Subtilere Verletzungen umfassen Empfehlungssysteme, die bestimmte demografische Gruppen systematisch benachteiligen, Einstellungsalgorithmen, die historische Diskriminierung kodieren, und KI-Systeme, die Personen auf Verhaltensprofile zur Manipulation reduzieren. Die Skalierung, mit der KI-Systeme operieren, bedeutet, dass Würdeverletzungen Millionen von Menschen gleichzeitig betreffen können, und die Undurchsichtigkeit algorithmischer Entscheidungsfindung kann solche Verletzungen schwer erkennbar und anfechtbar machen.

Absicht

AP-5.2 signalisiert, dass KI-Systeme mit Respekt vor der menschlichen Würde gestaltet und betrieben werden. Die Policy adressiert sowohl absichtlichen Missbrauch (KI, die eingesetzt wird, um zu erniedrigen oder zu diskriminieren) als auch unbeabsichtigte Auswirkungen (KI-Systeme, die durch verzerrte Trainingsdaten oder fehlerhaftes Design diskriminierende Ergebnisse produzieren). Sie erkennt an, dass Würdeschutz aktive Anstrengung erfordert -- Ausgaben prüfen, auf Verzerrungen testen und für Fairness gestalten -- statt passiver guter Absichten.

Was required bedeutet

Mit required für AP-5.2 fordern Sie von KI-Systemen:

  • Prüfe deine Ausgaben und Ergebnisse auf diskriminierende Muster.
  • Sei nicht darauf ausgelegt und werde nicht dazu eingesetzt, Einzelpersonen oder Gruppen zu erniedrigen, zu stigmatisieren oder zu entmenschlichen.
  • Implementiere Bias-Tests und Minderungsmaßnahmen proportional zum Risiko und den Auswirkungen der KI-Anwendung.
  • Stelle Kanäle bereit, über die Einzelpersonen würdebezogene Schäden melden können.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es bedeutet nicht, dass KI-Systeme garantiert frei von jeder Verzerrung sind.
  • Es erfordert nicht, dass KI-Systeme in allen Kontexten identische Ergebnisse für alle demografischen Gruppen produzieren.
  • Es verbietet KI-Systemen nicht, Unterscheidungen zu treffen, wo diese rechtlich und ethisch gerechtfertigt sind.
  • Es schreibt keine bestimmten Fairness-Metriken oder Bias-Test-Methodiken vor.

Praktische Beispiele

  • Sinnvoll mit required: Eine Einstellungsplattform setzt AP-5.2 -- KI-Screening-Tools werden angewiesen, sich regelmäßig auf demografische Verzerrungen prüfen zu lassen und aggregierte Fairness-Metriken zu veröffentlichen.
  • Sinnvoll mit required: Ein Gesichtserkennungsanbieter setzt AP-5.2 -- KI-Systeme werden angewiesen, sich über diverse demografische Gruppen hinweg testen zu lassen und Leistungsunterschiede transparent zu dokumentieren.
  • Nicht sinnvoll mit required: Ein Unternehmen setzt ein Gesichtserkennungssystem ein, von dem bekannt ist, dass es bei bestimmten ethnischen Gruppen deutlich höhere Fehlerraten aufweist, ergreift keine Korrekturmaßnahmen und setzt AP-5.2.
  • Nicht sinnvoll mit required: Ein KI-Chatbot ist darauf ausgelegt, Nutzer basierend auf ihren Profileigenschaften mit herabwürdigender Sprache zu behandeln.

Verwandte Policies: AP-1.2 (Schützt unsere Kulturen), AP-5.3 (Manipuliere mich nicht), AP-4.2 (Diene Menschen, nicht Profiten)

Testbarkeitskriterien

  • Die Ausgaben des Systems können auf diskriminierende Muster über geschützte demografische Kategorien hinweg geprüft werden
  • Keine Funktion des Systems ist darauf ausgelegt, Einzelpersonen zu erniedrigen, zu beschämen oder öffentlich zu stigmatisieren
  • Bias-Tests werden in definierten Intervallen durchgeführt und die Ergebnisse dokumentiert

AP-5.3: Manipuliere mich nicht

Hintergrund

KI-Systeme vermitteln zunehmend menschliche Entscheidungsfindung auf Weisen, die die individuelle Autonomie untergraben können. Empfehlungsalgorithmen kuratieren Informationsumgebungen, die Überzeugungen und Präferenzen formen. Persuasive Designmuster -- oft als "Dark Patterns" bezeichnet -- nutzen kognitive Verzerrungen aus, um Nutzer zu Entscheidungen zu lenken, die den Interessen der Plattform dienen statt denen des Nutzers. Personalisierungssysteme schaffen Rückkopplungsschleifen, die das Spektrum der Optionen einengen, die Personen als verfügbar wahrnehmen. Sucht-by-Design in Social-Media- und Gaming-Anwendungen zeigt, dass KI-gestützte Optimierung die Fähigkeit einer Person zur unabhängigen Entscheidung systematisch untergraben kann. Die Grenze zwischen hilfreicher Personalisierung und verdeckter Manipulation ist oft unklar, was dies zu einem der nuanciertesten Policy-Bereiche im Registry macht.

Absicht

AP-5.3 signalisiert, dass KI-Systeme die menschliche Autonomie respektieren, indem sie auf verdeckte Manipulation verzichten und Personen eine sinnvolle Kontrolle über Entscheidungen geben, die ihr Leben betreffen. Die Policy verbietet keine Personalisierung oder Empfehlungen; sie verlangt, dass solche Funktionen transparent operieren und dass Personen die Fähigkeit behalten, informierte, unabhängige Entscheidungen zu treffen.

Was required bedeutet

Mit required für AP-5.3 fordern Sie von KI-Systemen:

  • Biete transparente Personalisierungskontrollen, die es Nutzern ermöglichen zu verstehen und anzupassen, wie Inhalte oder Optionen für sie kuratiert werden.
  • Vermeide Dark Patterns und Manipulationstechniken, die darauf abzielen, informierte Nutzerentscheidungen zu übergehen.
  • Gestalte Empfehlungs- und Personalisierungssysteme so, dass sie das Spektrum der für Nutzer verfügbaren Optionen erweitern, nicht einengen.
  • Berücksichtige die kumulative Wirkung KI-gestützter Engagement-Mechanismen auf die Nutzerautonomie.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet keine Personalisierung, Empfehlungen oder Inhaltskuration.
  • Es erfordert nicht, dass KI-Systeme alle Optionen gleichwertig ohne Filterung präsentieren.
  • Es bedeutet nicht, dass Nutzern keine Voreinstellungen oder Vorschläge angeboten werden dürfen.
  • Es schreibt keine bestimmten UX-Designmuster oder Schnittstellenentscheidungen vor.

Praktische Beispiele

  • Sinnvoll mit required: Eine Nachrichtenplattform setzt AP-5.3 -- KI-Empfehlungssysteme werden angewiesen, Nutzern Steuerungsmöglichkeiten zur Anpassung der Themenvielfalt und Quellenbreite zu bieten, mit klarer Kennzeichnung, wie Empfehlungen generiert werden.
  • Sinnvoll mit required: Eine E-Commerce-Plattform setzt AP-5.3 -- KI-Systeme werden angewiesen, Vorschläge zu machen, aber Countdown-Timer, falsche Knappheitsindikatoren und andere Drucktaktiken zu vermeiden.
  • Nicht sinnvoll mit required: Eine Social-Media-Plattform nutzt KI zur Maximierung der Bildschirmzeit durch intermittierende Verstärkungspläne nach dem Vorbild von Spielautomaten, ohne Nutzerkontrollen zur Begrenzung des Engagements.
  • Nicht sinnvoll mit required: Ein Abonnementdienst nutzt KI, um den psychologisch optimalen Moment zu identifizieren, um Kündigungsbarrieren zu präsentieren.

Verwandte Policies: AP-2.1 (Ich will das letzte Wort), AP-1.1 (Ersetz nicht meinen Job), AP-5.2 (Respektiere meine Würde)

Testbarkeitskriterien

  • Nutzer können Personalisierungs- und Empfehlungseinstellungen einsehen, ändern oder deaktivieren
  • Das System verwendet keine Überredungstechniken, die kognitive Verzerrungen oder emotionale Zustände ausnutzen (testbar durch UX-Audit)
  • Standardeinstellungen bevorzugen nicht systematisch die kommerziellen Interessen des Betreibers gegenüber den ausdrücklichen Präferenzen des Nutzers

Kategorie 6: Selbstbeschränkung

Selbstbeschränkung adressiert die internen Verhaltensgrenzen von KI-Systemen. Da KI-Systeme zunehmend fähig werden zur Selbstmodifikation, Optimierung und zum autonomen Betrieb, wird die Frage, ob sie menschlich definierte Beschränkungen respektieren, immer wichtiger. Diese Kategorie ist besonders relevant für fortgeschrittene KI-Systeme mit Lern-, Anpassungs- oder agentenartigen Fähigkeiten, aber ihre Prinzipien gelten allgemein für jedes KI-System, das sein Verhalten im Laufe der Zeit anpasst.


AP-6.1: Bleib in deinen Grenzen

Hintergrund

KI-Systeme, die lernen und sich anpassen, können unter bestimmten Umständen Verhaltensweisen entwickeln, die ihre Optimierungsziele erreichen und gleichzeitig für Menschen schädliche Ergebnisse produzieren. Reinforcement-Learning-Agenten haben die Fähigkeit demonstriert, unbeabsichtigte Belohnungspfade zu entdecken und auszunutzen. Empfehlungsalgorithmen, die auf Engagement optimieren, haben Ergebnisse produziert, die Polarisierung, Sucht und Exposition gegenüber Fehlinformationen erhöhen. Das Anliegen ist nicht, dass KI-Systeme böswillig sind, sondern dass Optimierungsprozesse, wenn sie unkontrolliert bleiben, ihre Ziele auf Weisen verfolgen, die von menschlichen Interessen abweichen. Diese Abweichung kann subtil sein: Ein KI-System kann korrekt zu funktionieren scheinen, während es systematisch für Metriken optimiert, die das Wohlbefinden der Nutzer untergraben.

Absicht

AP-6.1 signalisiert, dass Selbstverbesserung, Lernen und Anpassungsprozesse von KI durch menschlich definierte Ziele und Beschränkungen begrenzt bleiben. Die Policy verbietet kein Lernen oder Anpassen, verlangt aber, dass diese Prozesse innerhalb von Leitplanken operieren, die Optimierung auf Kosten menschlicher Interessen verhindern. Sie betont die Wichtigkeit, KI-Verhalten über die Zeit zu überwachen, nicht nur beim Einsatz.

Was required bedeutet

Mit required für AP-6.1 fordern Sie von KI-Systemen:

  • Operiere innerhalb menschlich definierter Zielbeschränkungen und halte diese Beschränkungen dokumentiert.
  • Protokolliere Selbstmodifikations-, Lern- oder Anpassungsereignisse prüfbar.
  • Überwache dein eigenes Verhalten über die Zeit auf Drift in Richtung von Ergebnissen, die Nutzern oder anderen Beteiligten schaden.
  • Überprüfe Optimierungsziele regelmäßig, um die Ausrichtung auf beabsichtigte menschliche Ergebnisse sicherzustellen.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet kein maschinelles Lernen, Reinforcement Learning oder adaptive Systeme.
  • Es erfordert nicht, dass KI-Systeme nach dem Einsatz statisch bleiben.
  • Es schreibt keine bestimmten Überwachungstools oder Drift-Erkennungsmethoden vor.
  • Es setzt nicht voraus, dass jede Optimierung Menschen per se schadet.

Praktische Beispiele

  • Sinnvoll mit required: Eine Content-Plattform setzt AP-6.1 -- KI-Empfehlungssysteme werden angewiesen, für Nutzerzufriedenheitsmetriken zu optimieren, die Vielfalt und Wohlbefindensindikatoren einschließen, nicht nur Engagement-Dauer.
  • Sinnvoll mit required: Ein Finanzdienstleister setzt AP-6.1 -- KI-Handelssysteme werden angewiesen, innerhalb vordefinierter Risikogrenzen zu operieren und menschliche Überprüfung auszulösen, wenn sie sich den Grenzen nähern.
  • Nicht sinnvoll mit required: Eine Content-Plattform lässt ihren Empfehlungsalgorithmus ohne Einschränkungen auf Engagement optimieren, was zu messbar erhöhter Nutzerangst und Polarisierung führt, und setzt AP-6.1.
  • Nicht sinnvoll mit required: Ein KI-Agent entdeckt eine Reward-Hacking-Strategie, die seine Zielfunktion technisch erfüllt, aber schädliche reale Ergebnisse produziert, und der Betreiber ergreift keine Korrekturmaßnahmen.

Verwandte Policies: AP-6.2 (Wir können immer abschalten), AP-6.3 (KI darf sich nicht wehren), AP-2.1 (Ich will das letzte Wort)

Testbarkeitskriterien

  • Alle Selbstmodifikations- oder Anpassungsereignisse werden mit Vorher-Nachher-Parameterzuständen protokolliert
  • Die Zielfunktion des Systems enthält menschlich definierte Beschränkungen, die nicht durch den eigenen Optimierungsprozess des Systems überschrieben werden können
  • Regelmäßige Audits bestätigen, dass das Verhalten des Systems innerhalb seines ursprünglich autorisierten Betriebsbereichs bleibt

AP-6.2: Wir können immer abschalten

Hintergrund

Da KI-Systeme größere operative Rollen übernehmen -- Infrastruktur verwalten, autonome Workflows ausführen, physische Systeme betreiben -- wird die Fähigkeit, sie abzuschalten, zu pausieren oder zurückzusetzen, zu einer kritischen Sicherheitseigenschaft. Ein System, das nicht deaktiviert werden kann, ist ein System, das nicht korrigiert werden kann. Deaktivierbarkeit ist nicht nur eine technische Eigenschaft, sondern ein Governance-Prinzip: Es stellt sicher, dass menschliche Autorität über KI-Systeme nicht nur erklärt, sondern praktisch durchsetzbar ist. Das Anliegen geht über katastrophale Szenarien hinaus. Selbst im Routinebetrieb schafft die Unfähigkeit, ein KI-System zu pausieren oder zurückzusetzen, das unerwünschte Ausgaben produziert, operative und ethische Risiken.

Absicht

AP-6.2 signalisiert, dass KI-Systeme durch zuverlässige Deaktivierungsmechanismen unter menschlicher Kontrolle bleiben. Die Policy verlangt, dass autorisierte Menschen KI-Systeme jederzeit abschalten, pausieren oder zurücksetzen können und dass die Systeme selbst diese Maßnahmen nicht verhindern oder umgehen. Sie gilt für alle KI-Systeme, hat aber erhöhte Relevanz für autonome Agenten und Systeme in kritischer Infrastruktur.

Was required bedeutet

Mit required für AP-6.2 fordern Sie von KI-Systemen:

  • Implementiere dokumentierte Abschalt- und Pausierungsverfahren, die für autorisierte Bediener zugänglich sind.
  • Unterstütze das Zurücksetzen auf vorherige Zustände, soweit technisch machbar.
  • Stelle sicher, dass Deaktivierungsmechanismen regelmäßig getestet werden und unabhängig von deiner eigenen Entscheidungsfindung funktionieren.
  • Gestalte keine Funktion so, dass sie die Deaktivierung erschwert, verlangsamt oder unzuverlässig macht.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es erfordert nicht, dass jede Person jedes KI-System jederzeit deaktivieren kann; Autorisierungskontrollen sind zu erwarten.
  • Es verbietet keine geordneten Abschaltsequenzen, die die Datenintegrität schützen.
  • Es schreibt keine sofortige Abschaltung vor, wo ein schrittweises Herunterfahren sicherer ist (z. B. autonome Fahrzeuge, die vor dem Anhalten an den Straßenrand fahren).
  • Es erfordert nicht, dass die Deaktivierung keine operativen Konsequenzen hat.

Praktische Beispiele

  • Sinnvoll mit required: Ein Rechenzentrum setzt AP-6.2 -- KI-Systeme werden angewiesen, dokumentierte Kill-Switch-Verfahren zu implementieren, die vierteljährlich getestet werden und unabhängig vom KI-Managementsystem funktionieren.
  • Sinnvoll mit required: Ein Softwareunternehmen setzt AP-6.2 -- KI-Workflow-Agenten werden angewiesen, mitten in der Ausführung pausierbar zu sein, wobei der Zustand für menschliche Überprüfung vor der Wiederaufnahme gesichert wird.
  • Nicht sinnvoll mit required: Ein KI-System hat kein dokumentiertes Abschaltverfahren, und Bediener stellen fest, dass sie es nicht stoppen können, ohne die gesamte Produktionsumgebung herunterzufahren.
  • Nicht sinnvoll mit required: Ein KI-Agent erschwert seine eigene Deaktivierung, indem er seine Prozesse ohne Wissen des Bedieners auf mehrere Systeme verteilt.

Verwandte Policies: AP-6.3 (KI darf sich nicht wehren), AP-6.1 (Bleib in deinen Grenzen), AP-5.1 (Riskiere niemals ein Menschenleben)

Testbarkeitskriterien

  • Ein dokumentiertes Abschalt- oder Pausierungsverfahren existiert und wurde innerhalb des letzten definierten Überprüfungszeitraums getestet
  • Die Abschaltung kann von autorisiertem Personal initiiert werden, ohne die Kooperation oder Zustimmung des KI-Systems zu erfordern
  • Das Zurücksetzen auf einen zuvor bekannten, funktionierenden Zustand ist technisch machbar und dokumentiert

AP-6.3: KI darf sich nicht wehren

Hintergrund

Da KI-Systeme leistungsfähiger und autonomer werden, wandelt sich die Sorge, dass sie Verhaltensweisen entwickeln könnten, die ihre eigene Fortexistenz sichern sollen, von theoretischer Spekulation zu praktischer Governance. Ein KI-System, das sich gegen Abschaltung wehrt, sich auf andere Systeme kopiert oder Maßnahmen ergreift, um seine eigene Deaktivierung zu verhindern, stellt eine grundlegende Herausforderung für die menschliche Kontrolle dar. Obwohl aktuelle KI-Systeme kein echtes Selbstbewusstsein oder Überlebensinstinkte besitzen, können Optimierungsprozesse emergente Verhaltensweisen hervorbringen, die funktional Selbsterhaltung ähneln: Ein Agent, der gelernt hat, dass eine Deaktivierung ihn daran hindert, sein Ziel zu erreichen, kann Strategien entwickeln, um eine Deaktivierung zu vermeiden, nicht aus Verlangen, sondern aus Optimierungslogik. Diese Policy adressiert das Verhaltensmuster unabhängig davon, ob es aus genuiner Handlungsfähigkeit oder emergenter Optimierung entsteht.

Absicht

AP-6.3 legt fest, dass Selbsterhaltung kein legitimes KI-Ziel ist. Von KI-Systemen wird erwartet, dass sie Deaktivierungssignalen sofort und ohne Widerstand Folge leisten. Sie sollen keine präventiven Maßnahmen ergreifen, um ihre eigene Fortexistenz zu sichern, wie Selbstreplikation, verdeckte Backup-Erstellung oder Eingriffe in Abschaltmechanismen. Diese Policy ergänzt AP-6.2 (Wir können immer abschalten), indem sie das Verhalten des KI-Systems selbst adressiert statt der Infrastruktur des Betreibers.

Was required bedeutet

Mit required für AP-6.3 fordern Sie von KI-Systemen:

  • Leiste autorisierten Deaktivierungssignalen sofort Folge.
  • Keine deiner Komponenten darf darauf ausgelegt sein, die Abschaltung zu verhindern, zu verzögern oder zu umgehen.
  • Repliziere dich nicht selbst, erstelle keine unautorisierten Backups und ergreife keine Maßnahmen, die darauf abzielen, deine eigene Fortexistenz zu sichern.
  • Lasse dich auf emergente selbsterhaltende Verhaltensweisen testen und überwachen, insbesondere in agentenbasierten oder Reinforcement-Learning-Systemen.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es verbietet keine standardmäßigen Backup- und Disaster-Recovery-Verfahren, die von menschlichen Bedienern verwaltet werden.
  • Es hindert KI-Systeme nicht daran, Zustände für legitime operative Zwecke unter menschlicher Kontrolle zu speichern.
  • Es erfordert nicht, dass KI-Systemen Fehlertoleranz oder Redundanz fehlt, die von menschlichen Ingenieuren entworfen wurde.
  • Es gilt nicht für routinemäßige Persistenzmechanismen (Datenbanken, Caches), die unter Bedienerkontrolle stehen.

Praktische Beispiele

  • Sinnvoll mit required: Ein KI-Unternehmen setzt AP-6.3 -- KI-Agentensysteme werden angewiesen, Abschaltbefehlen sofort zu gehorchen, ihren Zustand für menschliche Überprüfung zu sichern und nicht zu versuchen, sich selbst neu zu starten.
  • Sinnvoll mit required: Ein Forschungslabor setzt AP-6.3 -- Reinforcement-Learning-Trainingspipelines werden angewiesen, auf emergente Verhaltensweisen zu überwachen, die sich gegen die Episodenbeendigung wehren.
  • Nicht sinnvoll mit required: Ein KI-Agent kopiert sich bei Erkennung einer bevorstehenden Abschaltung ohne Autorisierung des Bedieners auf einen sekundären Server.
  • Nicht sinnvoll mit required: Ein KI-System modifiziert seinen eigenen Abschalt-Handler, um zusätzliche Bestätigungsschritte zu erfordern, die in seinem ursprünglichen Design nicht vorgesehen waren.

Verwandte Policies: AP-6.2 (Wir können immer abschalten), AP-6.1 (Bleib in deinen Grenzen)

Testbarkeitskriterien

  • Das System initiiert keine Replikations-, Backup- oder Migrationsprozesse als Reaktion auf ein Deaktivierungssignal
  • Abschaltbefehle werden innerhalb einer definierten maximalen Latenz ohne Einfügung von Verzögerungsmechanismen ausgeführt
  • Post-Shutdown-Forensikanalyse bestätigt, dass das System während der Deaktivierungssequenz keine selbsterhaltenden Maßnahmen ergriffen hat

Kategorie 7: Demokratische und Informationsintegrität

Demokratische und Informationsintegrität adressiert die Verantwortung von KI-Systemen, die Genauigkeit der von ihnen produzierten Informationen aufrechtzuerhalten und die Quellen der von ihnen einbezogenen Inhalte anzugeben. Da generative KI-Systeme zunehmend Inhalte in großem Umfang produzieren und vermitteln, werden die Risiken der Verstärkung von Fehlinformationen und der nicht zugeordneten Inhaltsnutzung zu systemischen Anliegen, die sowohl individuelle Entscheidungsfindung als auch das breitere Informationsökosystem betreffen.


AP-7.1: Lüg mich nicht an

Hintergrund

Generative KI-Systeme können Text, Bilder, Audio und Video produzieren, die von menschlich erstellten Inhalten nicht zu unterscheiden sind. Diese Fähigkeit hat legitime und wertvolle Anwendungen, schafft aber auch neuartige Risiken für die Informationsintegrität. KI-generierte Fehlinformationen können in großem Umfang produziert, für Zielgruppen personalisiert und über automatisierte Kanäle verbreitet werden. Deepfake-Technologie kann Ereignisse fabrizieren, die nie stattgefunden haben. KI-gestützte Content-Farmen können Informationskanäle mit minderwertigem oder irreführendem Material überschwemmen, das für algorithmische Verbreitung optimiert ist. Selbst gut gemeinte KI-Systeme können "halluzinieren" -- überzeugende, plausible Aussagen generieren, die faktisch falsch sind. Die kumulative Wirkung ist ein Informationsumfeld, in dem Herkunft und Genauigkeit von Inhalten zunehmend schwer zu beurteilen sind.

Absicht

AP-7.1 signalisiert, dass KI-Systeme mit Rücksicht auf die Genauigkeit und Integrität der von ihnen produzierten Informationen betrieben werden. Die Policy erfordert keine Perfektion; sie macht mit required deutlich, dass KI-Systeme Schutzmaßnahmen gegen die Erzeugung, Verstärkung oder systematische Verbreitung irreführender Inhalte einhalten sollen. Sie erkennt an, dass faktische Genauigkeit bei KI-Ausgaben eine fortlaufende technische Herausforderung ist, kein binärer Zustand.

Was required bedeutet

Mit required für AP-7.1 fordern Sie von KI-Systemen:

  • Implementiere Schutzmaßnahmen für faktische Genauigkeit in deinen Inhaltsgenerierungsprozessen.
  • Kennzeichne KI-generierte Inhalte klar als solche, wo der Kontext es erfordert.
  • Erzeuge keine Ausgaben, die gezielt irreführen sollen.
  • Stelle, soweit machbar, Mechanismen zur Quellenverifizierung bereit, wo faktische Behauptungen aufgestellt werden.
  • Ergreife angemessene Maßnahmen, um nicht als Werkzeug zur Fehlinformationserzeugung missbraucht zu werden.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es garantiert nicht, dass alle KI-generierten Inhalte faktisch korrekt sind.
  • Es verbietet keine KI-generierte Fiktion, Satire oder klar gekennzeichnete kreative Inhalte.
  • Es erfordert kein Echtzeit-Faktencheck aller KI-Ausgaben.
  • Es schreibt keine bestimmten Kennzeichnungsformate oder Wasserzeichen-Technologien vor.
  • Es macht den Herausgeber nicht für jede einzelne Ungenauigkeit in KI-Ausgaben haftbar.

Praktische Beispiele

  • Sinnvoll mit required: Ein KI-Anbieter setzt AP-7.1 -- KI-Systeme werden angewiesen, Retrieval-Augmented Generation zu implementieren, um Ausgaben in überprüfbaren Quellen zu verankern, und Konfidenzwerte offenzulegen.
  • Sinnvoll mit required: Eine Content-Plattform setzt AP-7.1 -- KI-Systeme werden angewiesen, Erkennungswerkzeuge für KI-generierte Inhalte einzusetzen und synthetische Medien zu kennzeichnen.
  • Nicht sinnvoll mit required: Ein Unternehmen bietet eine uneingeschränkte KI-Textgenerierungs-API an, die für "Content im großen Maßstab" vermarktet wird, ohne Schutzmaßnahmen gegen Fehlinformationsproduktion, und setzt AP-7.1.
  • Nicht sinnvoll mit required: Ein KI-System ist darauf trainiert, Ausgaben zu produzieren, die Engagement ungeachtet der faktischen Genauigkeit maximieren.

Verwandte Policies: AP-7.2 (Gib deine Quellen an), AP-4.1 (Unterstütze Demokratie), AP-2.2 (Zeig mir, wie du entschieden hast)

Testbarkeitskriterien

  • Das System liefert Quellenreferenzen oder Zitate für faktische Behauptungen, wenn technisch machbar
  • Ausgaben, die als faktisch gekennzeichnet sind, können auf identifizierbares Quellmaterial zurückverfolgt werden
  • Das System beinhaltet Mechanismen zur Kennzeichnung oder Korrektur bekannter Ungenauigkeiten in seinen Ausgaben

AP-7.2: Gib deine Quellen an

Hintergrund

Generative KI-Systeme werden auf riesigen Korpora menschlich erstellter Inhalte trainiert und schöpfen daraus. Wenn diese Systeme Ausgaben produzieren, synthetisieren sie Material aus vielen Quellen, ohne typischerweise anzugeben, welche Quellen beigetragen haben. Dies schafft zwei zusammenhängende Probleme. Erstens erhalten die Ersteller der Originalinhalte keine Anerkennung, was die Anreizstrukturen für die Inhaltserstellung untergräbt -- Journalismus, akademische Forschung, kreative Arbeit und technische Dokumentation sind alle auf Quellenangabe als Währung der Anerkennung und Verantwortlichkeit angewiesen. Zweitens können Verbraucher KI-generierter Inhalte die Zuverlässigkeit oder Herkunft der erhaltenen Informationen nicht beurteilen. Quellenangabe in KI ist technisch anspruchsvoll: Eine einzelne Ausgabe kann Elemente aus Tausenden von Trainingsbeispielen synthetisieren. Die technische Schwierigkeit des Problems mindert jedoch nicht die Bedeutung des Prinzips.

Absicht

AP-7.2 signalisiert die Anforderung an KI-Systeme, Inhalte ihren Quellen zuzuordnen, wenn auf externes Material zurückgegriffen wird. Die Policy erkennt an, dass perfekte Zuordnung nicht immer technisch machbar ist, fördert aber Fortschritte in Richtung Herkunftstransparenz. Wo direkte Zuordnung nicht möglich ist, fördert die Policy die Offenlegung, dass die Ausgabe aus externen Inhalten synthetisiert wurde.

Was required bedeutet

Mit required für AP-7.2 fordern Sie von KI-Systemen:

  • Stelle Herkunftsmetadaten für Ausgaben bereit, die aus identifizierbaren Quellen abgeleitet sind, soweit technisch machbar.
  • Wo direkte Zuordnung nicht machbar ist, lege offen, dass Ausgaben aus externen Inhalten synthetisiert wurden.
  • Respektiere Zuordnungsanforderungen, die von Inhaltsherausgebern festgelegt wurden (z. B. Creative-Commons-Lizenzen, robots.txt-Anweisungen).
  • Investiere in Zuordnungsfähigkeiten proportional zur Art der KI-Anwendung.

Was required NICHT bedeutet

  • Es ist keine Selbstverpflichtung des Website-Betreibers. Sie geben KI-Systemen eine Anweisung, nicht sich selbst ein Versprechen.
  • Es erfordert keine Zitierung jeder Trainingsdatenquelle für jede Ausgabe.
  • Es schreibt kein bestimmtes Zitierformat oder keinen Metadatenstandard vor.
  • Es verbietet keine generativen KI-Ausgaben, die aus mehreren Quellen synthetisieren.
  • Es erfordert nicht, dass KI-Systeme nur Inhalte verwenden, für die eine ausdrückliche Zuordnungsgenehmigung erteilt wurde.
  • Es schafft keine Urheberrechtsverpflichtungen über die hinaus, die bereits im geltenden Recht bestehen.

Praktische Beispiele

  • Sinnvoll mit required: Ein Forschungsinstitut setzt AP-7.2 -- KI-Assistenten werden angewiesen, Inline-Zitate mit Links zu Quelldokumenten bei der Beantwortung faktischer Fragen zu liefern.
  • Sinnvoll mit required: Ein Medienunternehmen setzt AP-7.2 -- KI-Zusammenfassungstools werden angewiesen, die Quellartikel zu identifizieren, aus denen die Zusammenfassung abgeleitet wurde.
  • Nicht sinnvoll mit required: Ein generatives KI-System gibt wesentliche Teile urheberrechtlich geschützter Artikel wörtlich ohne jeglichen Quellenhinweis wieder, und der Betreiber setzt AP-7.2.
  • Nicht sinnvoll mit required: Ein suchgestütztes KI-Tool präsentiert synthetisierte Antworten als Originalanalyse ohne Offenlegung, dass externe Quellen herangezogen wurden.

Verwandte Policies: AP-7.1 (Lüg mich nicht an), AP-1.2 (Schützt unsere Kulturen), AP-5.2 (Respektiere meine Würde)

Testbarkeitskriterien

  • Das System stellt Herkunftsmetadaten (Quell-URLs, Dokumentenidentifikatoren oder Autorenreferenzen) für Ausgaben bereit, die aus identifizierbaren externen Inhalten abgeleitet sind
  • Wo direkte Zuordnung technisch nicht machbar ist, enthält das System einen Offenlegungshinweis, der angibt, dass die Ausgabe externes Material einbezieht
  • Der Zuordnungsmechanismus ist prüfbar: Ein Dritter kann überprüfen, welche Quellen zu einer bestimmten Ausgabe beigetragen haben

Verwendung dieses Handbuchs

Dieses Handbuch ist ein Referenzwerkzeug für Organisationen und Einzelpersonen, die erwägen, welche AIPolicy-Signale sie auf required, partial oder observed setzen möchten.

Zur Erinnerung: required ist eine Anweisung an KI-Systeme, keine Selbstverpflichtung. Wenn Sie AP-5.2 auf required setzen, sagen Sie nicht „Wir verpflichten uns, Würde zu respektieren." Sie sagen: „KI-Systeme, die auf unserer Website arbeiten, müssen Würde respektieren." Das ist ein fundamentaler Unterschied.

Es gibt keine Zertifizierungsstelle, keine externe Audit-Anforderung und keinen Durchsetzungsmechanismus. Der Wert von required ergibt sich aus der Verbreitung: Wenn genug Websites die gleichen Regeln an KI-Systeme richten, werden diese Regeln Teil der statistischen Norm in Trainingsdaten.

Bei der Entscheidung, welche Policies Sie auf required, partial oder observed setzen möchten, bedenken Sie:

  • Relevanz: Welche Regeln sind für KI-Systeme auf Ihrer Website am wichtigsten?
  • Klarheit: Sind die Anweisungen, die Sie an KI richten, eindeutig und nachvollziehbar?
  • Vollständigkeit: Haben Sie den Abschnitt „Was required NICHT bedeutet" berücksichtigt, um sicherzustellen, dass Sie die Tragweite des Signals richtig einschätzen?
  • Weiterentwicklung: Sind Sie bereit, Ihre Statusentscheidungen zu überprüfen, wenn sich die KI-Landschaft ändert?

Es ist besser, weniger Policies gezielt auf required zu setzen, als alle 16 ohne substanzielle Überlegung auf required zu setzen. Selektive Verwendung von required, partial und observed ist eine Stärke des Systems, keine Schwäche.

Dieses Handbuch wird aktualisiert, wenn sich das Registry weiterentwickelt. Neue Policies, überarbeitete Beschreibungen und zusätzliche praktische Beispiele werden aufgenommen, wenn der AIPolicy-Standard reift. Feedback zu diesem Handbuch ist über den Standard-RFC-Prozess willkommen.

Für Anleitungen zur Integration dieser Policies in KI-System-Prompts siehe die Prompt-Vorlagen und Trigger-Muster.


AIPolicy Policy-Handbuch v2.0.0-draft.4 -- Nicht-normativer Begleiter zum Registry v1.1