Dashboard
Credits verbleibend, Monatsverbrauch, Anfragen gesamt auf einen Blick.
OpenAI-kompatibel als Drop-in Replacement. Mit Anonymisierung per Parameter.
Die anymize Developer Konsole ist deine Schaltzentrale für API-Integrationen: ein API-Key für alle Frontier-Modelle (GPT, Claude, Gemini, Mistral, Perplexity, Kimi) plus unsere eigenen Modelle (Waterfall, Fountain). Unterstützt das OpenAI-Schema – tausch die Base-URL, und dein existierender Code läuft. Mit Anonymisierung, wenn du sie brauchst. Mit Fallback-Modellen, wenn ein Anbieter ausfällt. Mit Zero Data Retention, wenn dein Compliance-Team es verlangt.
Was du bekommst
Die Developer Konsole bündelt alle Management-Funktionen, die du für produktive API-Nutzung brauchst.
Credits verbleibend, Monatsverbrauch, Anfragen gesamt auf einen Blick.
Mehrere Keys parallel anlegen, benennen, rotieren, widerrufen.
Alle verfügbaren Modelle mit Preis pro 1M Input-/Output-Tokens.
Modelle live testen mit System Prompt, Temperature, Max Tokens, Top P.
Fallback-Modelle, Zero Data Retention – ein Toggle pro Funktion.
Kosten-Tracking, Rate Limits, vollständige Logs jedes Requests.
Alles erreichbar über Zurück zum Chat – die Konsole ist kein separates Produkt, sondern der Schalter neben deiner normalen anymize-Arbeit.
OpenAI-kompatibel
Die anymize API implementiert das OpenAI-Schema für Chat Completions. Jeder Code, der heute gegen OpenAIs API spricht – offizielles Python-SDK, Node-SDK, LangChain, LlamaIndex, dein eigenes Backend oder ein No-Code-Tool – funktioniert gegen anymize, sobald du zwei Werte austauschst.
1from openai import OpenAI23client = OpenAI(4api_key="sk-proj-...",Geändert5base_url="https://api.openai.com/v1"Geändert6)
1from openai import OpenAI23client = OpenAI(4api_key="anymize_...",Geändert5base_url="https://app.anymize.ai/api/v1/llm"Geändert6)
Kein Rewrite, keine neue SDK-Abhängigkeit, kein Parser-Umbau. Das chat/completions-Endpoint-Schema ist identisch – dieselben Rollen, dieselben Messages, dieselben Parameter (temperature, max_tokens, top_p, stop, etc.). Streaming wird unterstützt.
Was sich unterscheidet: die Model-Namen. Statt "model": "gpt-5" bei OpenAI sprichst du anymize-Kennungen an ("openai/gpt-5", "anthropic/claude-opus-4.7", "google/gemini-2.5-flash", "waterfall-1.0", "fountain-1.0"). Die aktuelle Liste fragst du jederzeit über GET /models ab.
Anonymisierung per Parameter
Die spannende Eigenschaft der anymize API: Anonymisierung aktivierst du per Parameter im Request. Für jeden einzelnen Call entscheidest du, ob die Inhalte durch unsere Anonymisierungs-Pipeline laufen, bevor sie das gewählte Modell erreichen.
Du möchtest ein Frontier-Modell (GPT, Claude, Gemini) nutzen, hast aber personenbezogene Daten im Prompt. Aktivierst du die Anonymisierung, ersetzt anymize Namen, Adressen, IBAN, Aktenzeichen und weitere 40+ Kategorien vor dem Versand. Die Antwort des Modells wird vor der Rückgabe automatisch in deine Originaldaten zurück-übersetzt. Aus Sicht deiner Anwendung verhält sich die API wie eine normale OpenAI-API – nur ohne Drittland-Übermittlung personenbezogener Daten.
Für Inhalte ohne Personenbezug – öffentliche Studien, interne Handbücher, strukturierte Daten – sparst du dir den Anonymisierungs-Schritt. Direkter Weg, niedrigere Latenz.
Nutzt du unsere eigenen Modelle Waterfall oder Fountain, brauchst du Anonymisierung ohnehin nicht: Die Modelle laufen bei uns in Deutschland, die Daten verlassen das Land nie. Ideal für Code-, Excel- und JSON-Arbeit, wo Anonymisierung den semantischen Wert zerstören würde.
Die genaue Parameter-Syntax findest du in der API-Dokumentation – entweder über den dedizierten Endpunkt für anonymisierte Aufrufe oder als Body-Parameter am Standard-Endpunkt, je nach Integrations-Präferenz.
API-Keys
Ein einzelner Key reicht selten. Produktions-Apps, Staging-Umgebungen, interne Tools, Ad-hoc-Skripte – für jedes Setup ein eigener Key, benennbar, löschbar, rotierbar.
Ein kompromittierter Key wird widerrufen, ohne den Rest lahmzulegen.
Die Logs pro Key zeigen, welche Integration welche Requests macht.
Reguläre Rotation ist Standard-Empfehlung in Audits (DSGVO, ISO 27001).
Modelle, Preise, Credits
Die Modelle-Übersicht in der Konsole zeigt drei Gruppen, jedes Modell mit Input-/Output-Preis pro 1 Million Token – umschaltbar zwischen EUR und Credits.
Deutsche Inferenz. Keine externen Anbieter, keine zusätzlichen Verträge.
In Europa gehostete Varianten – für Anwendungen, bei denen der EU-Hosting-Aspekt zählt.
Claude, GPT, Gemini, Perplexity, Kimi in voller Leistung. Bei sensiblen Daten: Anonymisierung aktivieren.
Die Besonderheit: Credits sind universell. Aus demselben Wallet werden bezahlt:
Keine separaten API-Abos zu Chat-Abos. Frontier-Modelle laufen zum Anbieter-Preis plus dünner anymize-Margin.
Chat Playground
Der Playground ist eine reduzierte Chat-Oberfläche, gebaut für Entwickler-Workflows – nicht für End-User-Content. Du testest exakt das, was deine API-Aufrufe produzieren würden. Konfiguration rüber in den API-Body deiner Anwendung – fertig.
System-Prompts iterativ tunen, mit den echten Parametern, die später produktiv laufen.
Einen neuen Modell-Kandidaten evaluieren, bevor er in Produktion geht.
Ein Problem eines produktiven API-Calls nachstellen – mit denselben Parametern.
Fallback & Zero Data Retention
Unter Konfiguration sitzen zwei Enterprise-Features, die viele API-Anbieter gar nicht anbieten.
Antwortet dein Primär-Modell nicht rechtzeitig (Timeout, Anbieter-Störung, Rate-Limit), springt automatisch ein Fallback-Modell ein. Du konfigurierst zwei in Reihe – das zweite ist oft ein eigenes Modell, unabhängig von externen Anbietern.
Ein Toggle entscheidet, wie anymize mit deinen Request-Daten umgeht. Metadaten (Tokens, Modell, Zeitstempel) bleiben in beiden Modi erhalten – der Inhalt nur bei Bedarf.
Dokumente und Inhalte werden in deinem Account für spätere Einsicht (Logs, Wiederverwendung) hinterlegt.
Request-Inhalte werden nach der Verarbeitung bereinigt. Ideal für Legal, Healthcare, Finance.
Für Branchen mit strengen Compliance-Anforderungen ist ZDR oft gesetzt – die Plattform verhält sich dann weitgehend wie ein Pass-Through-Proxy mit Anonymisierungs- und Fallback-Logik.
Nutzungs-Tracking
Unter Nutzung findest du drei Teilbereiche – für Budget, Skalierung und Forensik.
Monats- und Tages-Aufschlüsselung in EUR oder Credits, filterbar nach Key, Modell und Zeitraum. Du siehst sofort: Welcher Key verbrennt das Budget, welches Modell ist der Kostentreiber, welcher Workflow ist ineffizient.
Deine aktuellen Limits (abhängig von deinem Plan) auf einen Blick – plus Historie, wie häufig du sie tatsächlich getroffen hast. Wer produktiv skaliert, sieht hier rechtzeitig, ob ein Upgrade fällig ist.
Jeder API-Request landet im Log: Zeitstempel, API-Key, Modell, Input-/Output-Tokens, Latenz, Status. Für Debugging, Audit, Compliance-Nachweise – und für die Frage „hat unsere Software das so wirklich gesendet?“.
Bei aktiviertem Zero Data Retention bleiben die Metadaten im Log, die Inhalte werden entfernt – die Abrechnung ist trotzdem vollständig.
Einsatzgebiete
Sechs typische Integrations-Szenarien.
Base-URL getauscht, restliche Codebase unverändert
DSGVO-konform durch Anonymisierung, alle Modelle verfügbar, ein Vertrag
No-Code-Workflows mit KI-Schritten
Standard-LLM-Requests aus deiner Anwendung
Fallback-Modelle, ZDR, zentrales Credit-Wallet
Tool-Calling, RAG, Agents mit mehreren LLMs
Mehrere Modelle mit einem Key, Kosten-Tracking pro Tool-Call
Automatische Zusammenfassungen, Entwurfs-Generierung
Anonymisierung schützt Mandanten-/Kundendaten vor US-Anbietern
Code-Review, Refactoring, Dokumentations-Generierung
Waterfall/Fountain für Code ohne Anonymisierung – deutscher Stack
Häufige Fragen
Ja. Der Chat-Completions-Endpunkt implementiert das OpenAI-Schema. Du tauscht base_url und api_key in deinem existierenden Code – das war's. Das offizielle OpenAI-Python-SDK, das Node-SDK, LangChain, LlamaIndex, Claude-Code, Aider, Cursor und alles andere, was das OpenAI-Format unterstützt, funktioniert sofort. Nur die Model-Namen wechselst du auf die anymize-Kennungen (z. B. openai/gpt-5, waterfall-1.0).
Alle Modelle. Alle Features. Keine Kreditkarte.
Wir sind überzeugt von anymize. Und wir wissen: Bei einem KI-Werkzeug, das Mandanten-, Patienten- oder Mitarbeiter-Daten berührt, reicht ein Demo-Video nicht. Deshalb 14 Tage voller Zugang – alle Modelle, alle Features, keine Kreditkarte. Genug Zeit, um sicher zu sein, bevor du uns vertraust.
Dein KI-Arbeitsplatz wartet.