Das Problem: Kontext kostet Tokens
Wer große Sprachmodelle wie Claude oder ChatGPT in datengetriebene Workflows einbindet, steht vor einer grundlegenden Herausforderung: Die KI kennt Ihre Datenstruktur nicht. Jeder API-Call muss das vollständige Schema mitliefern – Feldnamen, Typen, Verschachtelungen, Formate, Abhängigkeiten. Bei einem Template mit 40–60 Feldern sind das schnell 2.000–5.000 Tokens nur für den Kontext, bevor die eigentliche Frage überhaupt gestellt wird.
Bei einer Batch-Verarbeitung von 500 Produkten bedeutet das: 1–2,5 Millionen Tokens allein für die wiederholte Schema-Beschreibung. Das kostet Geld, verlangsamt die Verarbeitung und ist fehleranfällig – denn wer pflegt sicher, dass der Prompt exakt zum aktuellen Template passt?
Die Rechnung ist einfach: Wer das Datenmodell bei jedem Request mitschickt, zahlt mehrfach – in Tokens, in Latenz und in Wartungsaufwand. Wer es einmal als Skill hinterlegt, zahlt einmal.
Die Lösung: Ein Klick, ein Skill
publixx analysiert das geladene Template vollständig – jedes Element, jede Datenbindung, jede Visibility-Rule, jede Formatierungsregel – und generiert daraus einen strukturierten AI Skill im Claude-kompatiblen Format. Der Export enthält nicht nur das Datenschema, sondern den semantischen Kontext: Welches Feld steuert welches Element? Welche Felder lösen Regeln aus? Wie sehen reale Beispieldaten aus?
Das Ergebnis: Claude kennt Ihr Datenmodell, bevor Sie die erste Frage stellen. Der Unterschied zwischen „ich erkläre meine Datenstruktur 10 Minuten lang" und „einfach loslegen".
Was der Skill enthält
Der exportierte Skill ist keine flache Feldliste. Er enthält den semantischen Kontext des Templates – die Information, die ein Mensch bräuchte, um die Datenstruktur zu verstehen und korrekt damit zu arbeiten:
| Komponente | Inhalt | Nutzen für die KI |
|---|---|---|
| schema.md | Alle Felder mit Typ, Verschachtelung, Beispielwerten und Verwendungskontext | Die KI weiß, dass preis eine Zahl ist, bild eine URL, und specs.leistung ein verschachteltes Objekt mit value und unit |
| template.md | Alle Template-Elemente mit Position, Größe, Datenbindung, Visibility-Rules, Formatting-Rules | Die KI weiß, welches Feld in welchem Element erscheint, welche Felder Regeln auslösen, und wie das Layout aufgebaut ist |
| examples.md | Reale Beispieldatensätze als JSON | Die KI sieht nicht nur die Theorie, sondern echte Daten – und kann daraus Muster, Formate und Konventionen ableiten |
| SKILL.md | Übersicht, Beschreibung, Verweise auf Referenzdokumente | Progressive Disclosure: Claude lädt nur die Referenzen, die für die aktuelle Frage relevant sind |
Entscheidend ist die Spalte „Verwendet in" im Schema: Für jedes Feld dokumentiert der Export, ob es per Datenbindung an ein Element gebunden ist, ob es eine Visibility-Rule steuert, ob es in einer Formatting-Rule referenziert wird, ob es als PTL-Spalte (Smart Table) verwendet wird, oder ob es in einem Link-Binding oder URL-Template vorkommt. Diese Information existiert in keiner Excel-Tabelle und in keinem PIM-System – sie entsteht erst durch die Analyse des Templates.
Token-Effizienz: Die Rechnung
Der quantifizierbare Effekt des Skill Exports zeigt sich bei API-basierter Nutzung. Wir haben die Token-Verbräuche für ein typisches Produktdatenblatt-Template mit 40 Feldern, 3 Smart Tables und Visibility-Rules kalkuliert:
| Kennzahl | Schema im Prompt | Schema als Skill | Differenz |
|---|---|---|---|
| Tokens pro Request | ~3.500 (3.000 Schema + 500 Daten) | ~500 (nur Daten) | −86% |
| 500 Requests (Batch) | 1.750.000 Tokens | 250.000 Tokens | −1.500.000 |
| Kosten (Claude Sonnet) | ~$5,25 Input | ~$0,75 Input | −85% |
| Schema-Konsistenz | Manuell gepflegt, Drift-Risiko | Aus Template generiert, immer aktuell | Deterministisch |
Bei größeren Templates (60+ Felder, verschachtelte Objekte, umfangreiche PTL-Konfigurationen) steigt die Einsparung überproportional, weil die Schema-Beschreibung exponentiell wächst, während die Nutzdaten pro Request konstant bleiben.
Anwendungsszenarien
Der Skill Export folgt einem konsistenten Muster: Template existiert in publixx → Skill wird exportiert → Claude kennt das Datenmodell → Arbeit beginnt sofort. Die folgenden Szenarien zeigen, wie das in der Praxis aussieht.
| Szenario | Ohne Skill | Mit Skill |
|---|---|---|
| Daten abfragen „Welche Datensätze haben ein Bild aber keinen Preis?" |
Schema erklären: welche Felder existieren, welche Typen, welche Verschachtelung. Bei 60 Feldern dauert die Erklärung länger als die Abfrage. | Claude kennt jedes Feld aus schema.md. Generiert sofort eine PQL-Query: SELECT * WHERE image EXISTS AND price NOT EXISTS |
| Daten aufbereiten Excel → Publixx-JSON für 200 Produkte |
Manuelles Mapping oder stundenlanges Erklären der Zielstruktur: verschachtelte Objekte (specs.leistung.value), Arrays als [{label, value}]. |
Excel hochladen, „Konvertiere in unser Datenblatt-Format" – Claude kennt die Zielstruktur aus dem Skill und liefert valides JSON. |
| Texte generieren Marketing-Texte für 20 Produkte |
Claude schreibt generische Texte. Zu lang, passen nicht ins Layout, manuelle Nacharbeit nötig. | Claude kennt aus template.md die Elementgrößen: 200px Breite bei 11pt ≈ 80–90 Zeichen. Texte passen auf Anhieb. |
| Daten validieren Lieferantendaten gegen Template prüfen |
Niemand weiß, welche Felder das Template tatsächlich nutzt, welche Visibility-Rules steuern, welche optional sind. | Claude unterscheidet: name = gebunden → kritisch. ce_mark = steuert Visibility → wenn leer, wird Bereich ausgeblendet. optional_note = nirgends referenziert → irrelevant. |
| Smart Tables Neue Mitarbeiterin muss Daten liefern |
Jemand muss die PTL-Konfiguration erklären: 12 Spalten, 3 Gruppenüberschriften, Pivot-Konfiguration, berechnete Felder. | Neue Mitarbeiterin fragt Claude: „Was brauche ich für die Tabelle?" – Claude kennt alle PTL-Spalten und generiert Beispiel-JSON. |
| Mehrsprachigkeit Fehlende Sprachvarianten übersetzen |
Ohne Kontext übersetzt Claude auch technische Felder wie Artikelnummer oder Maßeinheiten – mit falschen Ergebnissen. | Claude erkennt aus dem Schema die Sprachfelder (*_de, *_en, *_fr) und übersetzt nur Textfelder, technische Felder bleiben unverändert. |
API-Integration: Drei Architekturmuster
Der Skill Export entfaltet seinen vollen Nutzen in automatisierten Pipelines, in denen Claude per API eingebunden ist. Die folgenden drei Muster decken die häufigsten Enterprise-Szenarien ab:
Batch-Datenaufbereitung
ERP liefert Rohdaten → Claude API konvertiert in Publixx-JSON → publixx rendert Dokumente. Pro Datensatz ein API-Call. Bei 500 Produkten spart der Skill ca. 1,5 Millionen Tokens und stellt sicher, dass Claude bei jedem einzelnen Call dasselbe Schema verwendet – kein Copy-Paste-Drift über verschiedene Prompt-Versionen.
Content-Pipeline
PIM-System liefert technische Daten → Claude API erzeugt Marketing-Texte passend zum Template-Layout → Texte werden als Datenfeld zurückgeschrieben. Der Skill liefert den Layout-Kontext (Textfeld-Breite, Schriftgröße), ohne dass die Pipeline diesen bei jedem Call mitschicken muss.
Datenvalidierung als Microservice
Incoming-Webhook empfängt Lieferantendaten → Claude API prüft gegen Schema → gibt Validierungsbericht zurück. Der Skill definiert, was „vollständig" bedeutet – nicht abstrakt, sondern bezogen auf das konkrete Template: Welche Felder sind per Binding referenziert, welche steuern Visibility-Rules, welche sind irrelevant.
Warum wir früh dran sind
Custom AI Skills sind ein neues Paradigma in der Mensch-KI-Interaktion. Seit der Einführung durch Anthropic im Oktober 2025 entstehen Skills primär auf drei Wegen: manuell geschrieben, aus bestehender Dokumentation konvertiert, oder interaktiv im Dialog erstellt. Alle drei setzen voraus, dass ein Mensch den Skill-Inhalt kuratiert.
publixx geht einen anderen Weg: Das Template selbst generiert seinen eigenen Skill. Kein Mensch muss die Datenstruktur beschreiben, kein Prompt-Engineer muss ein Schema pflegen. Die Analyse ist automatisch, die Ausgabe deterministisch, der Export reproduzierbar. Ändert sich das Template, exportiert man einen neuen Skill – und die gesamte KI-Pipeline arbeitet sofort mit dem aktualisierten Datenmodell.
Wir haben das Thema erkannt, verstanden und umgesetzt. publixx ist – nach aktuellem Kenntnisstand – die erste Template-Automation-Plattform, die Custom AI Skills direkt aus Produktiv-Templates generiert. Nicht als Konzept, sondern als auslieferbares Feature.
Technische Details
| Export-Format | ZIP-Archiv mit SKILL.md + references/ (schema.md, template.md, examples.md) |
| Kompatibilität | Claude Projects, Claude API, Claude Code |
| Analysierte Features | Datenbindungen, Visibility-Rules, Formatting-Rules, PTL-Konfigurationen, Link-Bindings, URL-Templates |
| Erkannte Feldtypen | string, number, boolean, date, url, email, array, object, array<object> |
| Progressive Disclosure | Claude lädt nur die Referenzdokumente, die für die aktuelle Frage relevant sind |
| Voraussetzung | Geladenes Template mit Daten in publixx |
| Bedienung | Ein Klick: Menü → Export → AI Skill Export |
Skill Export testen
Laden Sie ein beliebiges Template mit Daten in publixx und exportieren Sie den AI Skill. Laden Sie die ZIP-Datei als Project Knowledge in ein Claude-Projekt – und stellen Sie Claude eine Frage zu Ihren Daten. Der Unterschied ist sofort spürbar.