Zahlungsverkehr und Operations
PSD3-SCA-Anpassung — Behavior-/Device-Intelligence-Konfiguration
anymize hält Trainings-Personendaten aus dem Cloud-LLM heraus, während das Frontier-Modell die Behavior-/Device-Intelligence-Konfiguration gegen PSD3-RTS-Entwurf und EU-AI-Act-Anforderungen drafted. Die KI strukturiert Feature-Mapping, Schwellen-Vorschläge und Bias-Test-Empfehlungen — Bias-Bewertungen bleiben menschlich.
Schwierigkeit: Spezialist · Datenklasse: Mandantendaten · Letztes Review:
Zur Orientierung gedacht. Die anwaltliche Würdigung im Einzelfall bleibt selbstverständlich bei Ihnen — KI-Outputs sind vor jeder Verwendung zu prüfen. Mehr dazu am Ende.
Anwendungsbereich
Worum geht es hier?
PSD3 erweitert SCA um Behavior-Biometrie, Geräte-Intelligenz und Malware-Detection als zusätzliche Faktoren bzw. TRA-Komponenten. Die Konfigurations-Anpassung an die kommenden RTS-Entwürfe ist Operations-Vorbereitung. Manuelle Konfigurations-Anpassung 8–14 h pro Modell-Update — anymize beschleunigt die strukturierte Drafting-Schicht, ohne Trainings-Personendaten in die Cloud-KI zu lassen.
Für wen passt das?
Zielgruppe und Kontext
- Rolle
- Open-Banking-Product-Owner, Anti-Fraud-Lead, Behavioral-Analytics-Engineer, PSD3-Compliance-Officer.
- Seniorität
- Senior — verlangt Kenntnis SCA-Architektur, ML-Modellierung und RTS-Texte.
- Kanzleigröße
- Alle PSP/ASPSP mit eigenem SCA-Stack (Großbanken, mittlere Sparkassen-Verbund, FinTechs). Bei Verbund-SCA (FI/atruvia) zentrale Konfiguration.
- Spezifische Kontexte
- Modell-Update, RTS-Entwurfs-Veröffentlichung, BaFin-Vorhalt, Pilot-Rollout.
Die Situation in der Kanzlei
So bringen Sie Tempo und Sorgfalt zusammen
PSD3 verlangt die Integration von Behavior-/Device-Intelligence in die SCA-Architektur. ML-Modelle liefern Score-Signale; die Konfiguration muss Feature-Selektion dokumentieren, Schwellen begründen, Explainability nach EU AI Act erfüllen, Bias-Tests bestehen. Trainings-Personendaten gehören nicht in den Cloud-LLM — wer das Modell-Inventar samt eingebetteter Beispiele direkt hochlädt, verletzt § 26 BDSG und ggf. § 43 KWG. anymize hält Trainings-Daten draußen; aggregierte Modell-Metadaten (Klasse B) sind sicher.
Was Sie davon haben
Zeit, Wert, Vertraulichkeit
Zeit pro Modell-Update
6–12 h
Feature-Mapping, Schwellen-Vorschläge, Explainability-Bausteine und Bias-Test-Methodik strukturiert. Modell-Validierung und Bias-Bewertung bleiben menschlich.
EU AI Act-Bereitschaft
Art. 13/14/15
Transparenz, Aufsicht und Genauigkeit nach EU AI Act werden in der Modell-Karte vorbereitet — auch ohne Hochrisiko-Einstufung.
DSGVO Art. 22
Schwellen-System
Vollautomatisierter Block wird durch Schwellen mit Verifikations-Schritt vermieden; Recht auf menschliche Prüfung bleibt strukturell erfüllt.
Vertraulichkeit
Trainings-Daten offline
Trainings-Personendaten gehören nicht in den Drafting-Workflow — anymize macht diese Grenze sichtbar.
So gehen Sie vor
In 5 Schritten zum Antrag
Modell-Dokumentation sammeln: Feature-Liste, Trainings-Datenbeschreibung (aggregiert), Modell-Karte des Vendors, PSD3-RTS-Entwurfs-Ausschnitte, aktuelle SCA-Konfiguration.
Sie + Engineering
Datenbasis
Klasse-Entscheidung. Aggregierte Modell-Metadaten = Klasse B. Trainings-Daten mit Kundenbezug = Klasse A; die gehen NICHT in den Cloud-LLM. anymize macht die Grenze sichtbar.
anymize + Sie
DSGVO · § 26 BDSG
Frontier-KI drafted. Der CRAFT-Prompt fragt Feature-Mapping (Modell-Feature → PSD3-SCA-Komponente: Inherence/Possession/Knowledge/TRA), Schwellen-Vorschläge mit Backend-Test-Plan, Explainability-Bausteine, Bias-Test-Methodik (Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio) und Konfigurations-Patch-Vorschläge ab.
GPT / Claude / Gemini in anymize
Strukturierung · EU AI Act
Schwellen-Vorschläge mit Backend-Test absichern. Bias-Tests in separatem Workflow durchführen — KI gibt nur Test-Methodik vor, keine Bewertung. Explainability-Dokumentation: vereinfachte Erklärungen für Service + Modell-Karte für Aufsicht.
Sie
Letztverantwortung · EU AI Act
Compliance-Sign-off und Rollout-Planung. Engineering → Anti-Fraud-Lead → PSD3-Compliance-Officer → IT-Sicherheit. Bei Bias-Auffälligkeit Modell-Stop oder Re-Training.
Sie
Letztverantwortung Compliance
Womit Sie arbeiten
So setzen Sie anymize konkret ein
Was anymize tut
- Macht die Grenze zwischen aggregierten Modell-Metadaten (B) und Trainings-Personendaten (A) sichtbar.
- Verhindert versehentliche Übertragung von Trainings-Daten in den Cloud-LLM.
- Pseudonymisiert eingebettete Test-Personas in Modell-Karten.
- Verarbeitung in deutschen Rechenzentren (Hetzner). AVV im Standardvertrag.
Was Sie als Anti-Fraud-Lead/Compliance tun
- Modell-Karte des Vendors anfordern — Explainability-Tiefe verhandeln.
- Schwellen-Vorschläge mit Backend-Test absichern, nicht aus KI-Output blind übernehmen.
- Bias-Tests separat durchführen — KI liefert nur Methodik-Vorschläge.
- DSGVO Art. 22: Schwellen-System mit Verifikations-Schritt bewahrt menschliche Option.
Daten-Input
Aggregierte Modell-Karte (Feature-Liste, Trainings-Datengröße, Modell-Klasse), PSD3-RTS-Entwurfs-Ausschnitte, aktuelle SCA-Konfiguration, eigene Bias-Test-Aggregate (Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio).
Output-Kontrolle
Pseudonymisierte (Trainings-Daten-freie) Modell-Dokumentation geht an die KI. Feature-Mapping-Tabelle, Schwellen-Tabelle, Explainability-Bausteine, Bias-Test-Methodik und Konfigurations-Patch kommen zurück.
Freigabeprozess
Sie behalten die Hoheit: Datenklassen-Vorprüfung, Schwellen-Annahme nach Backend-Validierung, Bias-Test-Durchführung und -Bewertung, Compliance-Freigabe. anymize ist der Anonymisierungs-Layer, kein Bias-Test-Tool.
Die KI-Anweisung
Prompt zum Kopieren
So nutzen Sie diesen Prompt:
1. Aggregierte Modell-Dokumentation in anymize einfügen — Trainings-Personendaten gehören NICHT in den Input.
2. Diesen Prompt kopieren und an die pseudonymisierte Dokumentation anhängen.
3. In anymize unter „Tools → Reasoning“ auf ”Thinking-Modus“ stellen.
# Rolle
Du bist SCA-Konfigurations-Assistenz für ein Karten-/Banking-Institut.
Rechtsstand: <heutiges Datum — bitte aktuell ermitteln und hier einsetzen>.
# Aufgabe
Drafte die Konfigurations-Anpassung eines Behavior-/Device-Intelligence-
Stacks an PSD3-erweiterte SCA-Anforderungen. Input: aggregierte Modell-
Dokumentation (Feature-Liste, Score-Komponenten), PSD3-RTS-Entwurfs-
Ausschnitte, aktuelle SCA-Konfiguration. Keine personenbezogenen
Trainingsdaten im Input.
# Inhalt
1. Feature-Mapping-Tabelle
Spalten: Feature | PSD3-SCA-Komponente (Inherence/Possession/Knowledge/
TRA) | Bemerkung
2. Schwellen-Tabelle
Spalten: Element | Vorschlag (konservativ Erst-Rollout) | Begründung |
Test-Plan
3. Explainability-Bausteine
- Vereinfachte Kunden-Erklärung
- Modell-Karte (Aufsicht): Modell-Klasse, Feature-Kategorien (ohne
Gewichtung), Trainings-Datengröße aggregiert, Bias-Test-Ergebnisse,
Update-Frequenz.
4. Bias-Test-Methodik-Empfehlungen
Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio
gegen AGG-Schutzkategorien (Alter, Geschlecht, sexuelle Orientierung,
Religion, Weltanschauung, Behinderung, ethnische Herkunft).
5. Konfigurations-Patch (Pseudo-YAML/JSON)
sca.behavior-intelligence-Block.
6. Unsicherheiten
[[UNSICHER: …]] bei PSD3-Entwurfsklauseln.
# Format
Markdown, Tabellen für Mapping und Schwellen, Code-Block für Patch.
# Verbote
KEINE Bias-Bewertung — nur Test-Methodik vorschlagen.
KEINE Schwellen-Empfehlung als verbindlich — Backend-Test ist Pflicht.
KEINE PSD3-Entwurfsklausel als geltend behandeln — [[UNSICHER]] markieren.
KEINE Modell-Gewichtungs-Offenlegung — Schutz der Anti-Fraud-Wirksamkeit.So sieht der Sachverhalt aus
Pseudonymisierter Eingabetext
Modell-Dokumentation (aggregiert)
Modell: BehavioralAnalyticsScoreV3 ([[Modell-a3f9]])
Feature-Liste:
- Tastendruck-Rhythmus (Inherence)
- Maus-Bewegungs-Muster (Inherence)
- Geräte-Fingerabdruck (Possession-Komponente)
- Geo-Stabilität (TRA-Komponente)
- Session-Verhaltens-Stabilität 30 Tage (TRA-Komponente)
Score-Komponenten-Gewichtung (aggregiert): nicht offengelegt —
Eigentum Anbieter.
Schwellen aktuell: 0,30 (low-risk) — 0,70 (high-risk) — 0,90 (block).
PSD3-RTS-Entwurf (anonymisiert):
Art. X: Behavior-Intelligence kann TRA-Komponente sein, wenn:
- aggregierter Score über mind. 30 Tage etabliert
- Modell explainable nach Art. 13 EU AI Act
- Bias-Test gegen geschützte Kategorien dokumentiertSo liefert anymize zurück
Der Antrags-Entwurf
# PSD3-SCA-Konfiguration — Drafting-Entwurf
## Feature-Mapping
| Feature | SCA-Komponente PSD3 | Bemerkung |
|---|---|---|
| Tastendruck-Rhythmus | Inherence | klassisch biometrisch |
| Maus-Bewegungs-Muster | Inherence | ergänzend, 30-Tage-Stabilität nötig |
| Geräte-Fingerabdruck | Possession-Komponente | im Verbund mit Device-ID |
| Geo-Stabilität | TRA-Komponente | Risikoanalysen-Faktor |
| Session-Verhaltens-Stabilität 30 Tage | TRA-Komponente | erfüllt PSD3 30-Tage-Anforderung |
## Schwellen-Vorschlag
| Element | Vorschlag Erst-Rollout | Begründung | Test-Plan |
|---|---|---|---|
| Low-Risk-Bypass | 0,20 (konservativ; aktuell 0,30) | konservativ bei PSD3-Erst-Rollout | A/B mit 5 % Verkehr |
| High-Risk-Verifikation | 0,65 | reduziert von 0,70 für sichere Erfassung | Backend-Test |
| Block-Threshold | 0,90 | unverändert | — |
## Explainability-Bausteine
- **Vereinfachte Kunden-Erklärung**: "Unsere Sicherheitssysteme erkennen
das gewohnte Nutzungsverhalten Ihres Geräts. Bei Abweichungen bitten
wir um zusätzliche Bestätigung."
- **Modell-Karte (Aufsicht)**: Modell-Klasse, Feature-Kategorien (ohne
Gewichtungs-Offenlegung), Trainings-Datengröße aggregiert,
Bias-Test-Ergebnisse, Modell-Update-Frequenz.
## Bias-Test-Methodik-Empfehlungen
1. Test gegen AGG-Schutzkategorien (Alter, Geschlecht, Behinderung) —
Demographic Parity Difference + Equalized Odds.
2. Test gegen Geo-Cluster (Verzerrung gegen ländliche Regionen?).
3. Test gegen Geräte-Cluster (Verzerrung gegen ältere Endgeräte?).
4. Dokumentation: Fairness-Metrik je Test mit Schwellen-Empfehlung
Banking-Standard.
## Konfigurations-Patch (Pseudo-YAML)
```yaml
sca:
behavior-intelligence:
enabled: true
feature-set: "v3-bia"
score-thresholds:
low-risk-bypass: 0.20
high-risk-verification: 0.65
block: 0.90
explainability:
customer-explanation-template: "verhaltens-abweichung-v1"
model-card: "[[Modell-a3f9]]-v3-card"
bias-tests:
schedule: "quarterly"
methodology: "demographic-parity + equalized-odds"
```
## Unsicherheiten
1. [[UNSICHER: PSD3-RTS-Entwurf Art. X — finale Formulierung "explainable
nach Art. 13 EU AI Act" hängt von Trilog-Ergebnis ab]]
2. [[UNSICHER: Score-Komponenten-Gewichtung nicht offengelegt — Modell-
Karte erfordert Anbieter-Bestätigung der Explainability-Tiefe]]Was das Berufsrecht verlangt
Pflichten — und wie anymize sie abdeckt
PSD2/PSD3 (SRC-0137)
SCA und Behavior-/Device-Intelligence sind RTS-Themen. PSD3-Entwurfsklauseln dürfen nicht als geltend behandelt werden — Trilog-Ergebnisse abwarten.
EU AI Act Art. 13/14/15 + Annex III 5(b) (SRC-0126)
Reine Anti-Fraud ist nicht Hochrisiko-KI. Wenn aber der Score zu Kreditwürdigkeits-Implikationen führt, greift Annex III 5(b) — Explainability und Bias-Tests werden Pflicht.
DSGVO Art. 22 (SRC-0141)
Vollautomatisierter Block ohne menschliche Option ist problematisch. Daher Schwellen-System mit Verifikations-Schritt — der Mensch bleibt im Loop.
BaFin BDAI / KI-Algorithmen-Prinzipien (SRC-0120)
Modell-Inventar, Explainability und Bias-Tests sind BaFin-Erwartungen. Modell-Karte für Aufsicht ist Pflichtbestand.
DORA Art. 28 (SRC-0128)
Bei externem Behavior-Intelligence-Provider (Featurespace, BioCatch, IBM Trusteer) Auslagerung nach § 25b KWG und DORA Art. 28 (UC-V-FIN-PAY-002).
MaRisk ZAG (SRC-0118)
BaFin-ZAG-Aufsicht prüft den SCA-Stack im Rahmen von Vor-Ort-Prüfungen. Konfigurations-Drafting muss BaFin-Vorhalt-Format unterstützen.
Datenschutz und Vertraulichkeit
So funktioniert das mit anymize
Bei PSD3-SCA-Konfiguration ist die kritische Grenze: aggregierte Modell-Metadaten = Klasse B (Cloud-LLM ist okay), Trainings-Personendaten = Klasse A (gehören nicht in den Drafting-Workflow). anymize macht diese Grenze in der Vorschau sichtbar. Verarbeitung in deutschen Rechenzentren (Hetzner), AVV nach Art. 28 DSGVO und § 25b KWG. Rechtsgrundlage: Art. 6 Abs. 1 lit. f (Anti-Fraud) + lit. c (PSD2/PSD3-Pflicht). Bei systematischer KI-Nutzung im SCA-Stack DPIA nach Art. 35 DSGVO.
Was anymize konkret leistet
- Macht die Grenze zwischen aggregierten Metadaten und Trainings-Personendaten sichtbar.
- Verhindert versehentliche Übertragung von Trainings-Daten.
- Pseudonymisiert eingebettete Test-Personas.
- Verarbeitung in deutschen Rechenzentren (Hetzner). AVV im Standardvertrag.
- Zuordnungstabelle bleibt im Haus.
Sicherheitscheck vor der Einreichung
Was anymize liefert — was Sie souverän entscheiden
Vor dem KI-Aufruf
- Trainings-Personendaten im Input ausgeschlossen?
- Aggregierte Modell-Karte verfügbar?
- PSD3-RTS-Entwurfs-Stand notiert?
- Bias-Test-Aggregate aus eigenem Test eingebunden?
- AGG-Schutzkategorien-Liste zur Hand?
Nach der KI-Antwort
- Schwellen-Empfehlungen mit Backend-Test-Plan versehen?
- Bias-Test-Methodik (keine Bewertung) im Output?
- Explainability in Kunden-Sprache + Modell-Karte für Aufsicht?
- PSD3-Entwurfsklauseln als [[UNSICHER]] markiert?
- Modell-Gewichtungs-Offenlegung vermieden?
Vor Produktiv-Setzung
- Bias-Test-Ergebnisse aus eigenem Test dokumentiert?
- Schwellen nach Backend-Validierung angenommen?
- Anti-Fraud-Lead-Freigabe?
- PSD3-Compliance-Officer-Freigabe?
- IT-Sicherheit-Sign-off?
Typische Fehlermuster — und wie anymize gegensteuert
- →KI macht Bias-Bewertungen statt Test-Methodik vorzuschlagen — Prompt-Verbot greift.
- →Schwellen-Empfehlung ohne Backend-Test übernommen — KI markiert Test-Plan-Pflicht.
- →Explainability nur in Modell-Karte, nicht in Kunden-Sprache — Doppel-Bausteine im Prompt.
- →PSD3-Entwurfsklauseln als verbindlich übernommen statt mit [[UNSICHER]] — Prompt-Verbot.
- →Modell-Gewichtungs-Offenlegung im Output — Schutz der Anti-Fraud-Wirksamkeit.
Rechtsgrundlagen
Normen, Urteile, Belege
Primärnormen Aufsichtsrecht
- PSD2/PSD3 + RTS
- BaFin MaRisk ZAG
- EU AI Act Art. 13/14/15
- DSGVO Art. 22 — automatisierte Entscheidungen
- DSGVO Art. 28
- DORA Art. 28
BaFin KI-Aufsicht
- BaFin Orientierungshilfe IKT-Risiken KI 18.12.2025
- BaFin KI-Cyber-Warnung
Sekundärquellen
- PwC KI-Finanzsektor 2025
- Featurespace ARIC/Visa
- Feedzai
Stand: · Nächste Überprüfung:
Hinweis zur Nutzung
Zur Orientierung — nicht als Mandatsersatz
Diese Anleitung beschreibt einen Arbeitsablauf, den Sie mit anymize umsetzen können. Sie ist zur Orientierung gedacht und ersetzt weder die anwaltliche Würdigung im Einzelfall noch eine fachanwaltliche Prüfung. Welche Rechtsprechung einschlägig ist, wie der Sachverhalt rechtlich zu bewerten ist, welche Anträge in Ihrem konkreten Mandat richtig sind — das bleibt selbstverständlich bei Ihnen.
KI-Outputs müssen vor jeder Verwendung anwaltlich geprüft werden. Insbesondere Urteils-Aktenzeichen, Norm-Verweise und Fristen sind gegen Primärquellen zu verifizieren. anymize gewährleistet die Vertraulichkeit der Mandantendaten gegenüber dem KI-Anbieter; die fachliche Richtigkeit des Outputs liegt in Ihrer Verantwortung.
Jetzt starten.
14 Tage kostenlos testen.
Alle Modelle. Alle Features. Keine Kreditkarte.
Wir sind überzeugt von anymize. Und wir wissen: Bei einem KI-Werkzeug, das Mandanten-, Patienten- oder Mitarbeiter-Daten berührt, reicht ein Demo-Video nicht. Deshalb 14 Tage voller Zugang – alle Modelle, alle Features, keine Kreditkarte. Genug Zeit, um sicher zu sein, bevor du uns vertraust.
Dein KI-Arbeitsplatz wartet.