Eine API.
Alle Modelle.
DSGVO-konform.

OpenAI-kompatibel als Drop-in Replacement. Mit Anonymisierung per Parameter.

Die anymize Developer Konsole ist deine Schaltzentrale für API-Integrationen: ein API-Key für alle Frontier-Modelle (GPT, Claude, Gemini, Mistral, Perplexity, Kimi) plus unsere eigenen Modelle (Waterfall, Fountain). Unterstützt das OpenAI-Schema – tausch die Base-URL, und dein existierender Code läuft. Mit Anonymisierung, wenn du sie brauchst. Mit Fallback-Modellen, wenn ein Anbieter ausfällt. Mit Zero Data Retention, wenn dein Compliance-Team es verlangt.

Was du bekommst

Alles in
einem Dashboard.

Die Developer Konsole bündelt alle Management-Funktionen, die du für produktive API-Nutzung brauchst.

Dashboard

Credits verbleibend, Monatsverbrauch, Anfragen gesamt auf einen Blick.

API-Keys

Mehrere Keys parallel anlegen, benennen, rotieren, widerrufen.

Modelle

Alle verfügbaren Modelle mit Preis pro 1M Input-/Output-Tokens.

Chat Playground

Modelle live testen mit System Prompt, Temperature, Max Tokens, Top P.

Konfiguration

Fallback-Modelle, Zero Data Retention – ein Toggle pro Funktion.

Nutzung

Kosten-Tracking, Rate Limits, vollständige Logs jedes Requests.

Alles erreichbar über Zurück zum Chat – die Konsole ist kein separates Produkt, sondern der Schalter neben deiner normalen anymize-Arbeit.

OpenAI-kompatibel

Tausch die Base-URL.
Das war's.

Die anymize API implementiert das OpenAI-Schema für Chat Completions. Jeder Code, der heute gegen OpenAIs API spricht – offizielles Python-SDK, Node-SDK, LangChain, LlamaIndex, dein eigenes Backend oder ein No-Code-Tool – funktioniert gegen anymize, sobald du zwei Werte austauschst.

Vorher · OpenAIpython
1from openai import OpenAI
2
3client = OpenAI(
4 api_key="sk-proj-...",Geändert
5 base_url="https://api.openai.com/v1"Geändert
6)
Nachher · anymizepython
1from openai import OpenAI
2
3client = OpenAI(
4 api_key="anymize_...",Geändert
5 base_url="https://app.anymize.ai/api/v1/llm"Geändert
6)

Kein Rewrite, keine neue SDK-Abhängigkeit, kein Parser-Umbau. Das chat/completions-Endpoint-Schema ist identisch – dieselben Rollen, dieselben Messages, dieselben Parameter (temperature, max_tokens, top_p, stop, etc.). Streaming wird unterstützt.

Was sich unterscheidet: die Model-Namen. Statt "model": "gpt-5" bei OpenAI sprichst du anymize-Kennungen an ("openai/gpt-5", "anthropic/claude-opus-4.7", "google/gemini-2.5-flash", "waterfall-1.0", "fountain-1.0"). Die aktuelle Liste fragst du jederzeit über GET /models ab.

Anonymisierung per Parameter

Die Funktion, die
kein anderer API-Anbieter hat.

Die spannende Eigenschaft der anymize API: Anonymisierung aktivierst du per Parameter im Request. Für jeden einzelnen Call entscheidest du, ob die Inhalte durch unsere Anonymisierungs-Pipeline laufen, bevor sie das gewählte Modell erreichen.

Mit Anonymisierung

Für sensible Daten

Du möchtest ein Frontier-Modell (GPT, Claude, Gemini) nutzen, hast aber personenbezogene Daten im Prompt. Aktivierst du die Anonymisierung, ersetzt anymize Namen, Adressen, IBAN, Aktenzeichen und weitere 40+ Kategorien vor dem Versand. Die Antwort des Modells wird vor der Rückgabe automatisch in deine Originaldaten zurück-übersetzt. Aus Sicht deiner Anwendung verhält sich die API wie eine normale OpenAI-API – nur ohne Drittland-Übermittlung personenbezogener Daten.

Ohne Anonymisierung

Für unkritische Inhalte

Für Inhalte ohne Personenbezug – öffentliche Studien, interne Handbücher, strukturierte Daten – sparst du dir den Anonymisierungs-Schritt. Direkter Weg, niedrigere Latenz.

Bonus-Option

Eigene Modelle

Nutzt du unsere eigenen Modelle Waterfall oder Fountain, brauchst du Anonymisierung ohnehin nicht: Die Modelle laufen bei uns in Deutschland, die Daten verlassen das Land nie. Ideal für Code-, Excel- und JSON-Arbeit, wo Anonymisierung den semantischen Wert zerstören würde.

Die genaue Parameter-Syntax findest du in der API-Dokumentation – entweder über den dedizierten Endpunkt für anonymisierte Aufrufe oder als Body-Parameter am Standard-Endpunkt, je nach Integrations-Präferenz.

API-Keys

Mehrere Keys.
Granulare Kontrolle.

Ein einzelner Key reicht selten. Produktions-Apps, Staging-Umgebungen, interne Tools, Ad-hoc-Skripte – für jedes Setup ein eigener Key, benennbar, löschbar, rotierbar.

console · api keys

Deine API-Keys

anyclaw
anymize_jv•••••jPJk
Erstellt12.03.2026
Test-Staging
anymize_kq•••••9xTz
Erstellt27.02.2026
n8n-Workflow
anymize_pf•••••aB12
Erstellt04.01.2026

Warum mehrere Keys wichtig sind

Isolation bei Leak

Ein kompromittierter Key wird widerrufen, ohne den Rest lahmzulegen.

Nachvollziehbarkeit

Die Logs pro Key zeigen, welche Integration welche Requests macht.

Rotations-Hygiene

Reguläre Rotation ist Standard-Empfehlung in Audits (DSGVO, ISO 27001).

Modelle, Preise, Credits

Ein Wallet
für alles.

Die Modelle-Übersicht in der Konsole zeigt drei Gruppen, jedes Modell mit Input-/Output-Preis pro 1 Million Token – umschaltbar zwischen EUR und Credits.

anymize-eigene Modelle

Deutsche Inferenz. Keine externen Anbieter, keine zusätzlichen Verträge.

Deep-Thinking
anymize/waterfall-1.0
Input · 1M
0,60 €
Output · 1M
3,00 €
Performance
anymize/fountain-1.0
Input · 1M
0,15 €
Output · 1M
0,60 €
EU-Modelle

In Europa gehostete Varianten – für Anwendungen, bei denen der EU-Hosting-Aspekt zählt.

Gemini · EU
google/gemini-2.5-flash-eu
Input · 1M
Output · 1M
Mistral · EU
mistral/large-eu
Input · 1M
Output · 1M
GPT · EU
openai/gpt-5-eu
Input · 1M
Output · 1M
Internationale Modelle

Claude, GPT, Gemini, Perplexity, Kimi in voller Leistung. Bei sensiblen Daten: Anonymisierung aktivieren.

OpenAI
openai/gpt-5
Input · 1M
Output · 1M
Anthropic
anthropic/claude-opus-4.7
Input · 1M
Output · 1M
Google
google/gemini-2.5-pro
Input · 1M
Output · 1M
Perplexity
perplexity/sonar-pro
Input · 1M
Output · 1M
Moonshot AI
moonshot/kimi-k2
Input · 1M
Output · 1M
Ein Credit-Wallet für alles

Ein Plan. Ein Budget. Ein Abrechnungsblick.

Die Besonderheit: Credits sind universell. Aus demselben Wallet werden bezahlt:

Chat-NutzungAnonymisierungAPI-CallsWissensdatenbankenArtefakt-GenerierungLive-Transkription

Keine separaten API-Abos zu Chat-Abos. Frontier-Modelle laufen zum Anbieter-Preis plus dünner anymize-Margin.

Chat Playground

Test vor
Deploy.

Der Playground ist eine reduzierte Chat-Oberfläche, gebaut für Entwickler-Workflows – nicht für End-User-Content. Du testest exakt das, was deine API-Aufrufe produzieren würden. Konfiguration rüber in den API-Body deiner Anwendung – fertig.

Du bist ein präziser Assistent für juristische Dokumente. Antworte auf Deutsch, strukturiert, nur auf Basis der übergebenen Akte…
anymize/waterfall-1.0
Temperature0.3
Max Tokens4 096
Top P0.9
playground · session
Nachricht eingeben…

Für wen besonders nützlich

Prompt-Engineers

System-Prompts iterativ tunen, mit den echten Parametern, die später produktiv laufen.

Developer

Einen neuen Modell-Kandidaten evaluieren, bevor er in Produktion geht.

Ops-Teams

Ein Problem eines produktiven API-Calls nachstellen – mit denselben Parametern.

Fallback & Zero Data Retention

Verlässlichkeit und Datenhygiene –
in der Konsole aktivierbar.

Unter Konfiguration sitzen zwei Enterprise-Features, die viele API-Anbieter gar nicht anbieten.

Fallback-Modelle

Antwort garantiert.

Antwortet dein Primär-Modell nicht rechtzeitig (Timeout, Anbieter-Störung, Rate-Limit), springt automatisch ein Fallback-Modell ein. Du konfigurierst zwei in Reihe – das zweite ist oft ein eigenes Modell, unabhängig von externen Anbietern.

Primär
openai/gpt-5
Standard-Rolle
Fallback 1
anthropic/claude-opus-4.7
Gleiche Leistungsklasse
Fallback 2
anymize/waterfall-1.0
Unabhängig verfügbar
Zero Data Retention

Ein Toggle, zwei Verhalten.

Ein Toggle entscheidet, wie anymize mit deinen Request-Daten umgeht. Metadaten (Tokens, Modell, Zeitstempel) bleiben in beiden Modi erhalten – der Inhalt nur bei Bedarf.

ZDR aus

Dokumente und Inhalte werden in deinem Account für spätere Einsicht (Logs, Wiederverwendung) hinterlegt.

ZDR an

Request-Inhalte werden nach der Verarbeitung bereinigt. Ideal für Legal, Healthcare, Finance.

Für Branchen mit strengen Compliance-Anforderungen ist ZDR oft gesetzt – die Plattform verhält sich dann weitgehend wie ein Pass-Through-Proxy mit Anonymisierungs- und Fallback-Logik.

Nutzungs-Tracking

Jeder Request
nachvollziehbar.

Unter Nutzung findest du drei Teilbereiche – für Budget, Skalierung und Forensik.

Kosten

Monats- und Tages-Aufschlüsselung in EUR oder Credits, filterbar nach Key, Modell und Zeitraum. Du siehst sofort: Welcher Key verbrennt das Budget, welches Modell ist der Kostentreiber, welcher Workflow ist ineffizient.

Rate Limits

Deine aktuellen Limits (abhängig von deinem Plan) auf einen Blick – plus Historie, wie häufig du sie tatsächlich getroffen hast. Wer produktiv skaliert, sieht hier rechtzeitig, ob ein Upgrade fällig ist.

Logs

Jeder API-Request landet im Log: Zeitstempel, API-Key, Modell, Input-/Output-Tokens, Latenz, Status. Für Debugging, Audit, Compliance-Nachweise – und für die Frage „hat unsere Software das so wirklich gesendet?“.

Bei aktiviertem Zero Data Retention bleiben die Metadaten im Log, die Inhalte werden entfernt – die Abrechnung ist trotzdem vollständig.

Einsatzgebiete

Wo Entwickler
die anymize API einsetzen.

Sechs typische Integrations-Szenarien.

Drop-in-Replacement für OpenAI
Was passiert

Base-URL getauscht, restliche Codebase unverändert

Warum anymize

DSGVO-konform durch Anonymisierung, alle Modelle verfügbar, ein Vertrag

n8n / Make.com / Zapier
Was passiert

No-Code-Workflows mit KI-Schritten

Warum anymize

Fertige Integration in allen drei Plattformen, siehe n8n / Make.com / Zapier.

Eigenes Backend (Node / Python / Go)
Was passiert

Standard-LLM-Requests aus deiner Anwendung

Warum anymize

Fallback-Modelle, ZDR, zentrales Credit-Wallet

Agentic Workflows (LangChain, LlamaIndex, MCP)
Was passiert

Tool-Calling, RAG, Agents mit mehreren LLMs

Warum anymize

Mehrere Modelle mit einem Key, Kosten-Tracking pro Tool-Call

CRM-/DMS-Integration
Was passiert

Automatische Zusammenfassungen, Entwurfs-Generierung

Warum anymize

Anonymisierung schützt Mandanten-/Kundendaten vor US-Anbietern

Dev-Tools (IDE-Plugin, interner Code-Assistant)
Was passiert

Code-Review, Refactoring, Dokumentations-Generierung

Warum anymize

Waterfall/Fountain für Code ohne Anonymisierung – deutscher Stack

Was du über die Developer Konsole wissen solltest.

Häufige Fragen

Ja. Der Chat-Completions-Endpunkt implementiert das OpenAI-Schema. Du tauscht base_url und api_key in deinem existierenden Code – das war's. Das offizielle OpenAI-Python-SDK, das Node-SDK, LangChain, LlamaIndex, Claude-Code, Aider, Cursor und alles andere, was das OpenAI-Format unterstützt, funktioniert sofort. Nur die Model-Namen wechselst du auf die anymize-Kennungen (z. B. openai/gpt-5, waterfall-1.0).

Jetzt starten.
14 Tage kostenlos testen.

Alle Modelle. Alle Features. Keine Kreditkarte.

Wir sind überzeugt von anymize. Und wir wissen: Bei einem KI-Werkzeug, das Mandanten-, Patienten- oder Mitarbeiter-Daten berührt, reicht ein Demo-Video nicht. Deshalb 14 Tage voller Zugang – alle Modelle, alle Features, keine Kreditkarte. Genug Zeit, um sicher zu sein, bevor du uns vertraust.

Dein KI-Arbeitsplatz wartet.