Verwandte Arbeiten und Stand der Technik
Status: Nicht-normativ Letzte Aktualisierung: 2026-02-07
Dieses Dokument ist nicht-normativ. Es gibt einen Überblick über bestehende technische Standards, Governance-Rahmenwerke und KI-Alignment-Ansätze in Bezug auf AIPolicy. Der Zweck ist es, AIPolicy in der breiteren Landschaft zu verorten und seinen eigenständigen Beitrag zu verdeutlichen.
1. Vergleich technischer Standards
Die folgende Tabelle vergleicht AIPolicy mit bestehenden Webstandards und technischen Spezifikationen, die Aspekte der KI-Interaktion mit Webinhalten adressieren.
| Standard | Zweck | Format | Governance-Semantik | Beziehung zu AIPolicy |
|---|---|---|---|---|
| robots.txt | Crawl-Zugriffskontrolle | Klartext, Well-Known-URI (/.well-known/ oder Root) |
Keine; binäres Erlauben/Verbieten | Analoges Bereitstellungsmuster (Well-Known-URI); anderer Zweck. robots.txt kontrolliert den Zugriff; AIPolicy kommuniziert Verhaltenserwartungen. |
| security.txt (RFC 9116) | Kontaktinformationen zur Schwachstellenmeldung | Klartext, /.well-known/security.txt |
Keine | Analoges Bereitstellungsmuster. Beide verwenden /.well-known/ und vom Herausgeber kontrollierte Deklarationen. Völlig anderer Bereich. |
| llms.txt | Inhaltsanleitung für große Sprachmodelle | Klartext, Root-Datei | Minimal; beschreibt Inhaltsstruktur und bevorzugte Handhabung | Komplementär. AIPolicy Level 3 verweist auf llms.txt für inhaltsbezogene Anleitung. AIPolicy adressiert Governance-Policy; llms.txt adressiert Inhaltsbeschreibung. |
| ai.txt (Spawning) | Opt-out für Trainingsdaten | Klartext, /.well-known/ai.txt |
Binäre Zustimmung (Opt-in/Opt-out pro Agent) | AIPolicy bietet granulare, mehrdimensionale Policy-Signale anstelle binärer Zustimmung. ai.txt adressiert Datennutzungsgenehmigung; AIPolicy adressiert Verhaltens-Governance. |
| Schema.org | Strukturiertes Datenvokabular für das Web | JSON-LD, Microdata, RDFa | Allgemeines Vokabular; keine KI-Governance-Semantik | Verwandte Web-Infrastruktur. Der aktuelle AIPolicy-Entwurf hängt für Conformance nicht von Schema.org ab. |
| sitemap.xml | Inhaltsentdeckung und Indexierungshinweise | XML | Keine | Völlig anderer Zweck. Keine funktionale Überschneidung. |
Diskussion
Das Well-Known-URI-Muster (/.well-known/), das durch RFC 8615 etabliert wurde, bietet einen bewährten Mechanismus für siteweite Metadaten. AIPolicy folgt dieser Konvention, indem es /.well-known/aipolicy.json als den kanonischen Discovery-Endpunkt spezifiziert. Der entscheidende Unterschied besteht darin, dass robots.txt, security.txt und ai.txt Zugriffsberechtigungen oder Kontaktinformationen kommunizieren, während AIPolicy substanzielle Governance-Erwartungen kommuniziert -- was ein KI-System wertschätzen soll, nicht lediglich worauf es zugreifen darf.
Der llms.txt-Vorschlag stellt einen Schritt in Richtung reichhaltigerer Kommunikation mit KI-Systemen dar, bleibt aber auf Inhaltsbeschreibung fokussiert und nicht auf Governance-Signale. AIPolicy und llms.txt sind so konzipiert, dass sie koexistieren: Ein Herausgeber kann llms.txt zur Beschreibung der Inhaltsstruktur und AIPolicy zur Deklaration von Governance-Anforderungen und Statuswerten verwenden.
2. KI-Governance-Rahmenwerke
Die folgende Tabelle gibt einen Überblick über wichtige internationale Governance-Rahmenwerke und ihre Beziehung zu AIPolicy.
| Rahmenwerk | Typ | Geltungsbereich | Beziehung zu AIPolicy |
|---|---|---|---|
| EU AI Act (Verordnung (EU) 2024/1689) | Bindende Verordnung | Risikoklassifizierung, Pflichten für Anbieter und Betreiber, verbotene Praktiken | Die Kategorien des AIPolicy-Registry überschneiden sich thematisch mit den Risikobereichen des AI Act. AIPolicy behauptet keine Konformität mit dem AI Act und ist kein Compliance-Werkzeug. Der AI Act arbeitet durch rechtliche Verpflichtung; AIPolicy arbeitet durch freiwillige Signalveröffentlichung. |
| UNESCO-Empfehlung zur Ethik der KI (2021) | Internationale Empfehlung | Werte, Grundsätze und Politikbereiche für ethische KI | Die Kategorien des AIPolicy-Registry wurden durch Themen beeinflusst, die in der UNESCO-Empfehlung vorhanden sind (z.B. menschliche Aufsicht, kulturelle Vielfalt, Transparenz). AIPolicy zertifiziert keine Übereinstimmung mit UNESCO-Grundsätzen. |
| OECD-Empfehlung zu KI (2019) | Internationale Grundsätze | Menschenzentrierte, vertrauenswürdige KI über den gesamten Lebenszyklus | Gemeinsame Betonung von menschlicher Handlungsfähigkeit und Transparenz. AIPolicy operationalisiert verwandte Themen als maschinenlesbare Web-Signale, behauptet aber nicht, OECD-Grundsätze umzusetzen. |
| NIST AI Risk Management Framework (AI RMF 1.0, 2023) | Risikomanagement-Rahmenwerk | Risikoidentifikation, -bewertung und -minderung für KI-Systeme | Komplementär. NIST AI RMF bietet organisatorische Risiko-Governance; AIPolicy bietet eine web-native Signalebene, über die Herausgeber Governance-Präferenzen ausdrücken. |
| Rahmenübereinkommen des Europarats zu KI (2024) | Internationaler Vertrag | Menschenrechte, Demokratie und Rechtsstaatlichkeit in KI-Kontexten | Thematische Überschneidung in Bereichen wie menschliche Aufsicht und demokratische Rechenschaftspflicht. AIPolicy ist technische Infrastruktur, kein Rechtsinstrument. |
Diskussion
AIPolicy ist kein Governance-Rahmenwerk. Es ist ein technischer Mechanismus, durch den Governance-Präferenzen -- die potenziell von jedem der oben genannten Rahmenwerke beeinflusst sein können -- in einem maschinenlesbaren Format ausgedrückt und im Web veröffentlicht werden können. Die Beziehung ist analog zu der zwischen einer Bauordnung (Governance-Rahmenwerk) und einem Baustofflabel (technisches Signal): Das Label kommuniziert Eigenschaften; die Ordnung legt Anforderungen fest.
Die oben aufgeführten Rahmenwerke arbeiten auf der Ebene rechtlicher Verpflichtung, internationaler Normensetzung oder organisatorischen Risikomanagements. AIPolicy arbeitet auf der Ebene der Web-Infrastruktur. Ein Herausgeber kann sich entscheiden, AIPolicy-Signale zu veröffentlichen, die Werte widerspiegeln, die in einem oder mehreren dieser Rahmenwerke vorhanden sind, aber der Akt der Veröffentlichung hat kein rechtliches Gewicht und stellt keine Compliance-Zertifizierung dar.
3. KI-Alignment-Ansätze
Die folgende Tabelle gibt einen Überblick über technische Ansätze zum KI-Alignment und ihre Beziehung zu AIPolicy.
| Ansatz | Typ | Beziehung zu AIPolicy |
|---|---|---|
| Constitutional AI (Anthropic) | Alignment-Methode zur Trainingszeit unter Verwendung geschriebener Grundsätze | Constitutional AI verwendet intern definierte Grundsätze, um das Modellverhalten durch Selbstkritik zu steuern. AIPolicy bietet eine externe, verteilte Quelle von Governance-Signalen, die von Website-Betreibern veröffentlicht werden. Die beiden Ansätze arbeiten auf verschiedenen Ebenen: Constitutional AI ist modellintern; AIPolicy ist ökosystemextern. |
| RLHF (Reinforcement Learning from Human Feedback) | Alignment zur Trainingszeit über kuratierte menschliche Präferenzdaten | AIPolicy-Signale könnten theoretisch in Präferenzdaten oder Trainingskorpora erscheinen. Ob und wie solche Signale das Modellverhalten beeinflussen, bleibt eine offene Forschungsfrage (siehe hypothesis.md). |
| Model Cards (Mitchell et al., 2019) | Post-hoc-Dokumentation von Modelleigenschaften und -einschränkungen | Komplementär. Model Cards beschreiben Modelle; AIPolicy-Deklarationen beschreiben Governance-Präferenzen von Herausgebern. Sie adressieren verschiedene Seiten der Beziehung zwischen KI und Herausgeber. |
| Datasheets for Datasets (Gebru et al., 2021) | Dokumentationsstandard für Trainingsdatensätze | Komplementär. Datasheets dokumentieren Herkunft und Zusammensetzung von Datensätzen; AIPolicy-Deklarationen sind Signale innerhalb von Webinhalten. Sie arbeiten auf verschiedenen Ebenen des Datenlebenszyklus. |
Diskussion
Aktuelle KI-Alignment-Ansätze sind überwiegend modellzentriert: Sie arbeiten innerhalb der Trainingspipeline, kontrolliert von Modellentwicklern. AIPolicy schlägt einen komplementären, herausgeberzentrierten Ansatz vor, bei dem Governance-Signale aus dem breiteren Web-Ökosystem stammen. Dies ist keine Behauptung, dass AIPolicy bestehenden Alignment-Methoden überlegen ist; vielmehr nimmt es eine andere Position in der Alignment-Landschaft ein -- eine, die dezentral, freiwillig und von außerhalb des Modellentwicklungsprozesses beobachtbar ist.
Die Hypothese, dass webpublizierte Governance-Signale das Modellverhalten während des Trainings beeinflussen können, wird in hypothesis.md ausführlich diskutiert. Dies bleibt eine offene Forschungsfrage.
4. Wesentliche Unterschiede
AIPolicy unterscheidet sich in folgenden Punkten von den oben untersuchten Ansätzen:
-
Web-nativ. AIPolicy ist ein Webstandard. Es verwendet etablierte Web-Konventionen wie Well-Known-URIs, JSON-Deklarationen, HTML-Discovery-Links, HTTP-Header und textbasierte Zusatzdateien.
-
Maschinenlesbar. Im Gegensatz zu natürlichsprachlichen Governance-Dokumenten sind AIPolicy-Deklarationen strukturierte Daten mit einem definierten Schema, die automatisierte Verarbeitung, Aggregation und Analyse ermöglichen.
-
Herausgeberkontrolliert. Governance-Signale stammen von Website-Herausgebern, nicht von Modellentwicklern, Regulierungsbehörden oder internationalen Gremien. Dies verteilt die Fähigkeit, Governance-Präferenzen auszudrücken, über das gesamte Web.
-
Aggregierbar. Da Deklarationen einem gemeinsamen Schema folgen, können sie über Herausgeber hinweg aggregiert werden, um statistische Analysen der Adoption von Governance-Signalen zu erstellen -- was Forschung zu kollektivem Governance-Ausdruck ermöglicht.
-
Forschungsorientierte Infrastruktur. AIPolicy ist als Infrastruktur zur Untersuchung konzipiert, wie Governance-Signale sich durch das Web und potenziell in KI-Systeme ausbreiten. Es ist kein Compliance-Werkzeug, kein Zertifizierungsschema und kein Rechtsinstrument.
-
Nicht-vorschreibend. AIPolicy definiert ein Signalformat, kein verpflichtendes Governance-Regelwerk. Herausgeber wählen, welche Policies sie deklarieren und mit welchen Statuswerten. Die Spezifikation selbst erlegt KI-Systementwicklern keine Pflichten auf.
Referenzen
Siehe references.md für die vollständige Referenzliste.