Andreas van Hulst

E-Commerce & Web Developer

Really Simple Licensing (RSL) 1.0: KI-Rechte für deine Website steuern

von Andreas van Hulst

KI-Systeme crawlen, indexieren und verarbeiten Webinhalte in einem Ausmaß, das die robots.txt nie abbilden sollte. Das Problem: robots.txt kennt nur „ja" oder „nein" – keine Nuancen wie „Training erlaubt, aber nur gegen Bezahlung" oder „Indexierung ja, aber keine kommerzielle Nutzung". Genau diese Lücke schließt Really Simple Licensing (RSL) 1.0.

Am 10. Dezember 2025 wurde RSL 1.0 offiziell als Industriestandard veröffentlicht – getragen von über 1.500 Organisationen, darunter AP, The Guardian, USA Today, BuzzFeed, Stack Overflow, Cloudflare, Akamai und Creative Commons. In diesem Artikel erkläre ich, was RSL technisch leistet, wie die XML-Struktur aufgebaut ist und wie Sie den Standard auf Ihrer Website implementieren – inklusive Symfony/Contao-Integration.


Was ist RSL 1.0?

RSL (Really Simple Licensing) ist ein XML-basierter Standard, der Website-Betreibern eine maschinenlesbare Möglichkeit gibt, Nutzungsrechte für ihre Inhalte gegenüber KI-Systemen und Crawlern zu definieren. Statt eines binären „Zugriff erlaubt/verboten" können Sie granular festlegen:

  • Welche Nutzungsarten erlaubt oder verboten sind (Training, Indexierung, RAG, Suche)
  • Für wen die Lizenz gilt (kommerzielle Unternehmen, Bildungseinrichtungen, Privatpersonen)
  • Unter welchen Bedingungen (kostenlos, gegen Attribution, gegen Bezahlung)
  • In welchen Regionen (geo-basierte Einschränkungen)

Das Problem, das RSL löst

Die robots.txt wurde 1994 für Suchmaschinen-Crawler entworfen. Sie kann sagen: „Crawle diese Seite nicht." Was sie nicht kann: „Du darfst die Seite crawlen und in der Suche anzeigen, aber nicht zum KI-Training verwenden." Genau diese Differenzierung brauchen Content-Ersteller heute.

Stellen Sie sich RSL als die Lizenzvereinbarung vor, die zwischen Ihrer Website und jedem KI-System steht – maschinenlesbar, granular und rechtlich fundiert.


RSL vs. robots.txt vs. LLMS.txt: Drei Standards im Vergleich

Da ich in meinem LLMS.txt-Artikel bereits den LLMS.txt-Standard vorgestellt habe, lohnt sich ein Vergleich der drei Ansätze. Sie ergänzen sich – ersetzen sich aber nicht:

robots.txt LLMS.txt RSL 1.0
Zweck Zugriffskontrolle für Crawler Kuratierter Wegweiser für LLMs Maschinenlesbare Lizenzierung
Granularität Pfad-basiert (allow/disallow) Inhaltlich kuratiert (Markdown) Nutzungsart, Nutzertyp, Geo, Zahlung
Format Plain Text Markdown XML
Sagt „Komm hier nicht rein" „Das hier ist wichtig" „So darfst du meine Inhalte nutzen"
Zielgruppe Suchmaschinen-Crawler LLMs und KI-Agenten KI-Crawler, Suchmaschinen, Lizenz-Broker
Rechtliche Bindung Konvention, nicht bindend Keine Lizenzvertrag, rechtlich fundiert
Adoption Universell 844.000+ Websites 1 Milliarde+ Webseiten

Kurz gesagt: robots.txt sagt „Nein", LLMS.txt sagt „Hier ist, was zählt", und RSL sagt „So darfst du es nutzen – und das kostet es".


Die XML-Struktur von RSL 1.0

Das Herzstück von RSL ist eine XML-Datei, die Lizenzbedingungen pro Inhalt oder für die gesamte Website definiert. Die Struktur ist bewusst einfach gehalten.

Grundstruktur

<?xml version="1.0" encoding="UTF-8"?>
<rsl xmlns="https://rslstandard.org/rsl">
  <content url="/">
    <license>
      <permits type="usage">search</permits>
      <permits type="usage">ai-index</permits>
      <prohibits type="usage">ai-train</prohibits>
      <payment type="free" />
    </license>
  </content>
</rsl>

Dieses Beispiel erlaubt Suchindexierung und KI-Indexierung, verbietet aber KI-Training – und das kostenlos. Die Struktur verwendet Unterelemente (<permits>, <prohibits>, <payment>) statt Attribute, was die Erweiterbarkeit und Lesbarkeit sicherstellt.

Die Use-Types im Detail

RSL 1.0 definiert sechs Nutzungsarten, die Sie einzeln erlauben oder verbieten können:

Use-Type Bedeutung Beispiel
all Jegliche automatisierte Verarbeitung Pauschalerlaubnis/-verbot
ai-all Alle KI-Systeme (Training + Input + Index) KI-Nutzung insgesamt steuern
ai-train KI-Training und Fine-Tuning LLM-Training, Modell-Anpassung
ai-input KI-Input: RAG, Grounding, Generierung ChatGPT-Antworten, Perplexity-Zitate
ai-index KI-interne Indizes Vektor-Datenbanken, Embeddings
search Suchindex und Suchergebnisse Google, Bing, DuckDuckGo

Die Hierarchie ist logisch: all umfasst alles, ai-all umfasst ai-train, ai-input und ai-index. So können Sie beispielsweise KI-Training verbieten, aber KI-gestützte Suche erlauben:

<license>
  <permits type="usage">search</permits>
  <permits type="usage">ai-input</permits>
  <permits type="usage">ai-index</permits>
  <prohibits type="usage">ai-train</prohibits>
</license>

User-Types: Wer darf was?

Neben der Nutzungsart können Sie auch nach Nutzertyp differenzieren:

User-Type Bedeutung
commercial Kommerzielle Unternehmen
non-commercial Non-Profit-Organisationen
education Bildungseinrichtungen
government Behörden und staatliche Stellen
personal Privatpersonen
<license>
  <permits type="usage">ai-all</permits>
  <permits type="user">education</permits>
  <permits type="user">non-commercial</permits>
  <prohibits type="user">commercial</prohibits>
  <payment type="free" />
</license>

Dieses Beispiel erlaubt KI-Nutzung für Bildungseinrichtungen und Non-Profits, verbietet sie aber für kommerzielle Unternehmen.

Payment-Modelle

RSL 1.0 unterstützt differenzierte Zahlungsmodelle:

Payment-Type Bedeutung
free Kostenlos
attribution Kostenlos bei Quellenangabe
subscription Abo-Modell
purchase Einmalkauf
crawl Pay-per-Crawl
use Pay-per-Inference
training Einmalige Trainings-Lizenz
contribution Creative-Commons-Kollaboration

Das contribution-Modell ist besonders interessant: Es entstand aus der Zusammenarbeit mit Creative Commons und ermöglicht ein kollaboratives Lizenzmodell, bei dem Nutzende zur Weiterentwicklung des Inhalts beitragen.

<license>
  <permits type="usage">ai-all</permits>
  <payment type="attribution" />
  <legal url="https://creativecommons.org/licenses/by/4.0/" />
</license>

Geo-Einschränkungen

Mit type="geo" können Sie Nutzungsrechte regional einschränken – basierend auf ISO 3166-1 alpha-2 Ländercodes:

<license>
  <permits type="usage">ai-all</permits>
  <permits type="geo">DE</permits>
  <permits type="geo">AT</permits>
  <permits type="geo">CH</permits>
  <prohibits type="geo">US</prohibits>
  <payment type="free" />
</license>

Präzedenzregeln

Wenn sich Regeln widersprechen, gelten klare Vorrangregeln:

  1. Prohibits > Permits – Ein Verbot überstimmt immer eine Erlaubnis
  2. Spezifisch > Allgemein – Eine Regel für /blog/artikel-1 überstimmt die Regel für /
  3. Group-scoped > Global – Gruppenspezifische robots.txt-Regeln überstimmen globale

Praxisbeispiel: RSL für eine E-Commerce-Website

So könnte eine RSL-Datei für eine typische E-Commerce-Website aussehen:

<?xml version="1.0" encoding="UTF-8"?>
<rsl xmlns="https://rslstandard.org/rsl">

  <!-- Blog-Inhalte: KI-Suche erlaubt, Training gegen Attribution -->
  <content url="/blog/">
    <license>
      <permits type="usage">search</permits>
      <permits type="usage">ai-input</permits>
      <permits type="usage">ai-index</permits>
      <prohibits type="usage">ai-train</prohibits>
      <payment type="free" />
    </license>
  </content>

  <!-- Produktdaten: Suche erlaubt, KI nur mit Lizenz -->
  <content url="/produkte/">
    <license>
      <permits type="usage">search</permits>
      <prohibits type="usage">ai-all</prohibits>
      <payment type="subscription" />
    </license>
  </content>

  <!-- Gesamte Website: Basis-Lizenz -->
  <content url="/">
    <license>
      <permits type="usage">search</permits>
      <prohibits type="usage">ai-train</prohibits>
      <payment type="free" />
    </license>
  </content>

</rsl>

Die spezifischeren Regeln für /blog/ und /produkte/ überstimmen die allgemeine Regel für /.


Discovery: Wie finden KI-Crawler Ihre RSL-Datei?

RSL 1.0 definiert mehrere Mechanismen, über die KI-Systeme Ihre Lizenzdatei finden können:

1. robots.txt (empfohlen)

Der einfachste Weg: Fügen Sie einen License:-Eintrag in Ihre robots.txt ein.

User-agent: *
Allow: /

License: https://www.ihre-domain.de/license.xml

2. HTTP-Header

Für dynamische Anwendungen können Sie den Link als HTTP-Header setzen:

Link: <https://www.ihre-domain.de/license.xml>; rel="license"; type="application/rsl+xml"

3. HTML <link>-Tag

Im <head> Ihrer HTML-Seiten:

<link rel="license" type="application/rsl+xml" href="/license.xml">

4. HTML <script>-Tag (Inline)

Für eine Inline-Einbettung direkt im HTML:

<script type="application/rsl+xml">
  <rsl xmlns="https://rslstandard.org/rsl">
    <content url="/">
      <license>
        <permits type="usage">search</permits>
        <prohibits type="usage">ai-train</prohibits>
        <payment type="free" />
      </license>
    </content>
  </rsl>
</script>

5. Weitere Mechanismen

RSL 1.0 unterstützt zusätzlich:

  • RSS-Feeds mit RSL-Namespace
  • Datei-Einbettung in EPUB, XMP und ID3-Tags

Für die meisten Websites reicht der robots.txt-Ansatz in Kombination mit dem HTML <link>-Tag.


Implementierung in Symfony und Contao

Für meine eigene Contao-5.7-Website habe ich die RSL-Integration über zwei Wege umgesetzt: eine statische XML-Datei und einen dynamischen Symfony-Response.

Statische RSL-Datei

Der einfachste Weg: Legen Sie eine license.xml im public/-Verzeichnis ab.

# Datei anlegen
touch public/license.xml

# Testen
curl https://ihre-domain.de/license.xml

Dynamischer Symfony-Controller

Wenn Ihre Lizenzbedingungen je nach Bereich variieren, können Sie einen Controller bauen:

<?php

declare(strict_types=1);

namespace App\Controller;

use Symfony\Component\HttpFoundation\Response;
use Symfony\Component\Routing\Attribute\Route;

final class RslController
{
    #[Route('/license.xml', name: 'rsl_license', methods: ['GET'])]
    public function __invoke(): Response
    {
        $xml = <<<'XML'
        <?xml version="1.0" encoding="UTF-8"?>
        <rsl xmlns="https://rslstandard.org/rsl">
          <content url="/">
            <license>
              <permits type="usage">search</permits>
              <permits type="usage">ai-input</permits>
              <permits type="usage">ai-index</permits>
              <prohibits type="usage">ai-train</prohibits>
              <payment type="free" />
            </license>
          </content>
        </rsl>
        XML;

        return new Response($xml, 200, [
            'Content-Type' => 'application/rsl+xml; charset=UTF-8',
        ]);
    }
}

robots.txt ergänzen

Vergessen Sie nicht, die RSL-Datei in Ihrer robots.txt zu referenzieren:

License: https://www.ihre-domain.de/license.xml

HTML-Link im Layout-Template

In Contao fügen Sie den Link im Layout-Template hinzu:

{# templates/page/layout.html.twig #}
{% extends "@Contao/page/layout.html.twig" %}

{% block head %}
  {{ parent() }}
  <link rel="license" type="application/rsl+xml" href="/license.xml">
{% endblock %}

Die Protokolle hinter RSL

RSL 1.0 definiert neben dem XML-Format auch drei Protokolle für die technische Umsetzung:

Open License Protocol (OLP)

OLP basiert auf OAuth 2.0 und ermöglicht die automatisierte Lizenzakquisition. Ein KI-Crawler kann über OLP programmatisch eine Lizenz erwerben, bevor er Inhalte verarbeitet – inklusive Authentifizierung und Zahlungsabwicklung.

Crawler Authorization Protocol (CAP)

CAP nutzt HTTP-Authentifizierung mit einem eigenen Schema:

Authorization: License <token>

Damit kann ein Crawler nachweisen, dass er eine gültige Lizenz besitzt, bevor er auf geschützte Inhalte zugreift.

Encrypted Media Standard (EMS)

EMS kombiniert Verschlüsselung mit Lizenzierung: Inhalte werden verschlüsselt ausgeliefert und erst nach Lizenzvalidierung entschlüsselt. Das ist besonders relevant für Premium-Inhalte und Paywalled Content.


Industrie-Adoption

Die Unterstützung für RSL 1.0 ist beeindruckend breit:

Medien und Verlage:

  • Associated Press, The Guardian, USA Today, BuzzFeed, Stack Overflow

Infrastruktur:

  • Cloudflare, Akamai (CDN-Level-Unterstützung)

Standards-Organisationen:

  • Creative Commons, IAB Tech Lab

Reichweite:

  • Über 1.500 Organisationen unterstützen den Standard
  • Über 1 Milliarde Webseiten sind bereits erfasst

Die CDN-Integration durch Cloudflare und Akamai ist besonders bedeutsam: Sie ermöglicht es, RSL-Regeln auf Infrastruktur-Ebene durchzusetzen – ohne dass jede Website die Logik selbst implementieren muss.


Kritische Einordnung

Transparenz gehört für mich dazu – deshalb die ehrliche Einschätzung:

Dafür spricht:

  • Breite Industrie-Unterstützung – 1.500+ Organisationen, darunter Schwergewichte wie AP, Cloudflare und Creative Commons
  • Granulare Kontrolle – Differenzierung nach Nutzungsart, Nutzertyp, Region und Zahlungsmodell
  • Rechtliche Fundierung – RSL-Lizenzen sind als Lizenzverträge konzipiert, nicht als unverbindliche Konvention wie robots.txt
  • Creative Commons-Integration – Das contribution-Modell schlägt eine Brücke zum bestehenden CC-Ökosystem

Dagegen spricht:

  • Freiwillige Einhaltung – Wie bei robots.txt gibt es keine technische Erzwingung. Ein KI-Crawler, der RSL ignoriert, muss mit rechtlichen, aber nicht mit technischen Konsequenzen rechnen
  • Komplexität – Die Spezifikation ist deutlich komplexer als robots.txt. Kleinere Websites könnten mit der Konfiguration überfordert sein
  • Noch jung – Obwohl die Adoption beeindruckend ist, muss sich zeigen, ob die großen KI-Anbieter (OpenAI, Google, Anthropic) RSL tatsächlich systematisch auswerten
  • Kein Enforcement-Mechanismus – OLP und CAP existieren als Spezifikation, die praktische Umsetzung steht noch aus

Meine Einschätzung: RSL 1.0 ist der bisher ambitionierteste Versuch, die Lücke zwischen „alles erlaubt" und „alles verboten" zu schließen. Für Content-Ersteller, die ihre Rechte differenziert wahrnehmen wollen, ist RSL ein echtes Werkzeug – nicht nur ein Signal. In meinen Projekten setze ich RSL als Ergänzung zu robots.txt und LLMS.txt ein: robots.txt für die Zugriffskontrolle, LLMS.txt als Wegweiser, RSL für die Lizenzbedingungen. Zusammen bilden sie ein sinnvolles Dreigespann.


FAQ: Häufig gestellte Fragen zu RSL 1.0

RSL ist ein XML-basierter Standard, der Website-Betreibern ermöglicht, maschinenlesbare Lizenzbedingungen für ihre Inhalte zu definieren. Im Gegensatz zu robots.txt, das nur Zugriff erlauben oder verbieten kann, steuert RSL granular, wie Inhalte genutzt werden dürfen – ob für KI-Training, Suchindexierung, RAG-Systeme oder andere Zwecke.

Ja – robots.txt und RSL haben unterschiedliche Aufgaben. robots.txt regelt den Zugriff (darf ein Crawler die Seite besuchen?), RSL regelt die Nutzung (darf ein KI-System die Inhalte zum Training verwenden?). Sie ergänzen sich: robots.txt bleibt die erste Verteidigungslinie, RSL definiert die Nutzungsbedingungen für alles, was durchgelassen wird.

robots.txt kennt nur „erlaubt" und „verboten" pro Pfad und User-Agent. RSL differenziert nach Nutzungsart (Training, Input, Index, Suche), Nutzertyp (kommerziell, Bildung, Non-Profit), Region (Ländercodes) und Zahlungsmodell (kostenlos, Abo, Pay-per-Use). Außerdem ist RSL als Lizenzvertrag konzipiert – nicht als unverbindliche Konvention.

Stand Dezember 2025 haben über 1.500 Organisationen RSL 1.0 unterstützt, darunter Cloudflare und Akamai auf Infrastruktur-Ebene. Die tatsächliche Einhaltung durch die großen KI-Crawler (GPTBot, Google-Extended, ClaudeBot) ist noch nicht flächendeckend verifiziert. Wie bei robots.txt gilt: Die rechtliche Verbindlichkeit wächst mit der Verbreitung.

Ja, und das ist sogar empfehlenswert. LLMS.txt ist ein kuratierter Wegweiser, der KI-Systemen sagt, welche Inhalte besonders relevant sind. RSL definiert, unter welchen Bedingungen diese Inhalte genutzt werden dürfen. Zusammen bilden sie eine sinnvolle Kombination: LLMS.txt für die Auffindbarkeit, RSL für die Lizenzierung.

Am einfachsten über eine statische license.xml im public/-Verzeichnis, die per robots.txt referenziert wird (License: https://ihre-domain.de/license.xml). Für dynamische Szenarien können Sie einen Symfony-Controller bauen, der die XML-Datei generiert. Zusätzlich sollten Sie ein <link rel="license">-Tag im HTML-<head> setzen.

Das contribution-Modell entstand aus der Zusammenarbeit von RSL mit Creative Commons. Es ermöglicht ein kollaboratives Lizenzmodell, bei dem Nutzende zur Weiterentwicklung des Inhalts beitragen – ähnlich dem Open-Source-Prinzip. Es eignet sich besonders für Bildungsinhalte und Community-Projekte.


Fazit

RSL 1.0 ist mehr als ein weiterer Webstandard – es ist der erste ernst zu nehmende Versuch, die Beziehung zwischen Web-Inhalten und KI-Systemen auf eine rechtlich fundierte Grundlage zu stellen. Die Kombination aus granularer Kontrolle, breiter Industrie-Unterstützung und Creative-Commons-Integration macht RSL zu einem Standard, den Content-Ersteller kennen sollten.

Für meine eigene Contao-Website habe ich die Implementierung in unter einer Stunde umgesetzt: eine license.xml im public/-Verzeichnis, einen robots.txt-Eintrag und ein <link>-Tag im Layout-Template. Der Aufwand ist minimal, die Signalwirkung klar.

Mein Rat? Kombinieren Sie die drei Standards: robots.txt für die Zugriffskontrolle, LLMS.txt als kuratierter Wegweiser für KI-Systeme, und RSL für die maschinenlesbaren Lizenzbedingungen. Gemeinsam bilden sie ein solides Fundament für die Frage, die jeden Website-Betreiber beschäftigt: Wer darf meine Inhalte wie nutzen?


Sie möchten Ihre Website für die KI-Ära vorbereiten? Lesen Sie auch meinen LLMS.txt-Leitfaden oder kontaktieren Sie mich für Ihr nächstes Projekt.


Quellen:

Einen Kommentar schreiben

Bitte rechnen Sie 7 plus 8.