Zahlungsverkehr und Operations

PSD3-SCA-Anpassung — Behavior-/Device-Intelligence-Konfiguration

anymize hält Trainings-Personendaten aus dem Cloud-LLM heraus, während das Frontier-Modell die Behavior-/Device-Intelligence-Konfiguration gegen PSD3-RTS-Entwurf und EU-AI-Act-Anforderungen drafted. Die KI strukturiert Feature-Mapping, Schwellen-Vorschläge und Bias-Test-Empfehlungen — Bias-Bewertungen bleiben menschlich.

Schwierigkeit: Spezialist · Datenklasse: Mandantendaten · Letztes Review:

Zur Orientierung gedacht. Die anwaltliche Würdigung im Einzelfall bleibt selbstverständlich bei Ihnen — KI-Outputs sind vor jeder Verwendung zu prüfen. Mehr dazu am Ende.

01

Anwendungsbereich

Worum geht es hier?

KI im Zahlungsverkehr, FinTech-Operations und unter DORA

PSD3 erweitert SCA um Behavior-Biometrie, Geräte-Intelligenz und Malware-Detection als zusätzliche Faktoren bzw. TRA-Komponenten. Die Konfigurations-Anpassung an die kommenden RTS-Entwürfe ist Operations-Vorbereitung. Manuelle Konfigurations-Anpassung 8–14 h pro Modell-Update — anymize beschleunigt die strukturierte Drafting-Schicht, ohne Trainings-Personendaten in die Cloud-KI zu lassen.

02

Für wen passt das?

Zielgruppe und Kontext

Rolle
Open-Banking-Product-Owner, Anti-Fraud-Lead, Behavioral-Analytics-Engineer, PSD3-Compliance-Officer.
Seniorität
Senior — verlangt Kenntnis SCA-Architektur, ML-Modellierung und RTS-Texte.
Kanzleigröße
Alle PSP/ASPSP mit eigenem SCA-Stack (Großbanken, mittlere Sparkassen-Verbund, FinTechs). Bei Verbund-SCA (FI/atruvia) zentrale Konfiguration.
Spezifische Kontexte
Modell-Update, RTS-Entwurfs-Veröffentlichung, BaFin-Vorhalt, Pilot-Rollout.
03

Die Situation in der Kanzlei

So bringen Sie Tempo und Sorgfalt zusammen

PSD3 verlangt die Integration von Behavior-/Device-Intelligence in die SCA-Architektur. ML-Modelle liefern Score-Signale; die Konfiguration muss Feature-Selektion dokumentieren, Schwellen begründen, Explainability nach EU AI Act erfüllen, Bias-Tests bestehen. Trainings-Personendaten gehören nicht in den Cloud-LLM — wer das Modell-Inventar samt eingebetteter Beispiele direkt hochlädt, verletzt § 26 BDSG und ggf. § 43 KWG. anymize hält Trainings-Daten draußen; aggregierte Modell-Metadaten (Klasse B) sind sicher.

04

Was Sie davon haben

Zeit, Wert, Vertraulichkeit

Zeit pro Modell-Update

6–12 h

Feature-Mapping, Schwellen-Vorschläge, Explainability-Bausteine und Bias-Test-Methodik strukturiert. Modell-Validierung und Bias-Bewertung bleiben menschlich.

EU AI Act-Bereitschaft

Art. 13/14/15

Transparenz, Aufsicht und Genauigkeit nach EU AI Act werden in der Modell-Karte vorbereitet — auch ohne Hochrisiko-Einstufung.

DSGVO Art. 22

Schwellen-System

Vollautomatisierter Block wird durch Schwellen mit Verifikations-Schritt vermieden; Recht auf menschliche Prüfung bleibt strukturell erfüllt.

Vertraulichkeit

Trainings-Daten offline

Trainings-Personendaten gehören nicht in den Drafting-Workflow — anymize macht diese Grenze sichtbar.

05

So gehen Sie vor

In 5 Schritten zum Antrag

1

Modell-Dokumentation sammeln: Feature-Liste, Trainings-Datenbeschreibung (aggregiert), Modell-Karte des Vendors, PSD3-RTS-Entwurfs-Ausschnitte, aktuelle SCA-Konfiguration.

Sie + Engineering

Datenbasis

2

Klasse-Entscheidung. Aggregierte Modell-Metadaten = Klasse B. Trainings-Daten mit Kundenbezug = Klasse A; die gehen NICHT in den Cloud-LLM. anymize macht die Grenze sichtbar.

anymize + Sie

DSGVO · § 26 BDSG

3

Frontier-KI drafted. Der CRAFT-Prompt fragt Feature-Mapping (Modell-Feature → PSD3-SCA-Komponente: Inherence/Possession/Knowledge/TRA), Schwellen-Vorschläge mit Backend-Test-Plan, Explainability-Bausteine, Bias-Test-Methodik (Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio) und Konfigurations-Patch-Vorschläge ab.

GPT / Claude / Gemini in anymize

Strukturierung · EU AI Act

4

Schwellen-Vorschläge mit Backend-Test absichern. Bias-Tests in separatem Workflow durchführen — KI gibt nur Test-Methodik vor, keine Bewertung. Explainability-Dokumentation: vereinfachte Erklärungen für Service + Modell-Karte für Aufsicht.

Sie

Letztverantwortung · EU AI Act

5

Compliance-Sign-off und Rollout-Planung. Engineering → Anti-Fraud-Lead → PSD3-Compliance-Officer → IT-Sicherheit. Bei Bias-Auffälligkeit Modell-Stop oder Re-Training.

Sie

Letztverantwortung Compliance

06

Womit Sie arbeiten

So setzen Sie anymize konkret ein

Was anymize tut

  • Macht die Grenze zwischen aggregierten Modell-Metadaten (B) und Trainings-Personendaten (A) sichtbar.
  • Verhindert versehentliche Übertragung von Trainings-Daten in den Cloud-LLM.
  • Pseudonymisiert eingebettete Test-Personas in Modell-Karten.
  • Verarbeitung in deutschen Rechenzentren (Hetzner). AVV im Standardvertrag.

Was Sie als Anti-Fraud-Lead/Compliance tun

  • Modell-Karte des Vendors anfordern — Explainability-Tiefe verhandeln.
  • Schwellen-Vorschläge mit Backend-Test absichern, nicht aus KI-Output blind übernehmen.
  • Bias-Tests separat durchführen — KI liefert nur Methodik-Vorschläge.
  • DSGVO Art. 22: Schwellen-System mit Verifikations-Schritt bewahrt menschliche Option.

Daten-Input

Aggregierte Modell-Karte (Feature-Liste, Trainings-Datengröße, Modell-Klasse), PSD3-RTS-Entwurfs-Ausschnitte, aktuelle SCA-Konfiguration, eigene Bias-Test-Aggregate (Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio).

Output-Kontrolle

Pseudonymisierte (Trainings-Daten-freie) Modell-Dokumentation geht an die KI. Feature-Mapping-Tabelle, Schwellen-Tabelle, Explainability-Bausteine, Bias-Test-Methodik und Konfigurations-Patch kommen zurück.

Freigabeprozess

Sie behalten die Hoheit: Datenklassen-Vorprüfung, Schwellen-Annahme nach Backend-Validierung, Bias-Test-Durchführung und -Bewertung, Compliance-Freigabe. anymize ist der Anonymisierungs-Layer, kein Bias-Test-Tool.

07

Die KI-Anweisung

Prompt zum Kopieren

So nutzen Sie diesen Prompt:

1. Aggregierte Modell-Dokumentation in anymize einfügen — Trainings-Personendaten gehören NICHT in den Input.

2. Diesen Prompt kopieren und an die pseudonymisierte Dokumentation anhängen.

3. In anymize unter „Tools → Reasoning“ auf ”Thinking-Modus“ stellen.

Empfohlener Reasoning-Modus in anymize: Thinking-Modus.
# Rolle
Du bist SCA-Konfigurations-Assistenz für ein Karten-/Banking-Institut.
Rechtsstand: <heutiges Datum — bitte aktuell ermitteln und hier einsetzen>.

# Aufgabe
Drafte die Konfigurations-Anpassung eines Behavior-/Device-Intelligence-
Stacks an PSD3-erweiterte SCA-Anforderungen. Input: aggregierte Modell-
Dokumentation (Feature-Liste, Score-Komponenten), PSD3-RTS-Entwurfs-
Ausschnitte, aktuelle SCA-Konfiguration. Keine personenbezogenen
Trainingsdaten im Input.

# Inhalt

1. Feature-Mapping-Tabelle
   Spalten: Feature | PSD3-SCA-Komponente (Inherence/Possession/Knowledge/
   TRA) | Bemerkung

2. Schwellen-Tabelle
   Spalten: Element | Vorschlag (konservativ Erst-Rollout) | Begründung |
   Test-Plan

3. Explainability-Bausteine
   - Vereinfachte Kunden-Erklärung
   - Modell-Karte (Aufsicht): Modell-Klasse, Feature-Kategorien (ohne
     Gewichtung), Trainings-Datengröße aggregiert, Bias-Test-Ergebnisse,
     Update-Frequenz.

4. Bias-Test-Methodik-Empfehlungen
   Demographic Parity Difference, Equalized Odds, Disparate Impact Ratio
   gegen AGG-Schutzkategorien (Alter, Geschlecht, sexuelle Orientierung,
   Religion, Weltanschauung, Behinderung, ethnische Herkunft).

5. Konfigurations-Patch (Pseudo-YAML/JSON)
   sca.behavior-intelligence-Block.

6. Unsicherheiten
   [[UNSICHER: …]] bei PSD3-Entwurfsklauseln.

# Format
Markdown, Tabellen für Mapping und Schwellen, Code-Block für Patch.

# Verbote
KEINE Bias-Bewertung — nur Test-Methodik vorschlagen.
KEINE Schwellen-Empfehlung als verbindlich — Backend-Test ist Pflicht.
KEINE PSD3-Entwurfsklausel als geltend behandeln — [[UNSICHER]] markieren.
KEINE Modell-Gewichtungs-Offenlegung — Schutz der Anti-Fraud-Wirksamkeit.
08

So sieht der Sachverhalt aus

Pseudonymisierter Eingabetext

Aggregierte Modell-Dokumentation. Modell-Bezeichnung als Platzhalter; Feature-Liste in Klartext für Mapping.
Modell-Dokumentation (aggregiert)

Modell: BehavioralAnalyticsScoreV3 ([[Modell-a3f9]])
Feature-Liste:
  - Tastendruck-Rhythmus (Inherence)
  - Maus-Bewegungs-Muster (Inherence)
  - Geräte-Fingerabdruck (Possession-Komponente)
  - Geo-Stabilität (TRA-Komponente)
  - Session-Verhaltens-Stabilität 30 Tage (TRA-Komponente)

Score-Komponenten-Gewichtung (aggregiert): nicht offengelegt —
  Eigentum Anbieter.
Schwellen aktuell: 0,30 (low-risk) — 0,70 (high-risk) — 0,90 (block).

PSD3-RTS-Entwurf (anonymisiert):
  Art. X: Behavior-Intelligence kann TRA-Komponente sein, wenn:
    - aggregierter Score über mind. 30 Tage etabliert
    - Modell explainable nach Art. 13 EU AI Act
    - Bias-Test gegen geschützte Kategorien dokumentiert
09

So liefert anymize zurück

Der Antrags-Entwurf

KI-Output (Beispiel). Modell-Bezeichnung re-identifiziert; Bias-Test-Methodik wird vorgeschlagen, keine Bewertung getroffen.
# PSD3-SCA-Konfiguration — Drafting-Entwurf

## Feature-Mapping
| Feature | SCA-Komponente PSD3 | Bemerkung |
|---|---|---|
| Tastendruck-Rhythmus | Inherence | klassisch biometrisch |
| Maus-Bewegungs-Muster | Inherence | ergänzend, 30-Tage-Stabilität nötig |
| Geräte-Fingerabdruck | Possession-Komponente | im Verbund mit Device-ID |
| Geo-Stabilität | TRA-Komponente | Risikoanalysen-Faktor |
| Session-Verhaltens-Stabilität 30 Tage | TRA-Komponente | erfüllt PSD3 30-Tage-Anforderung |

## Schwellen-Vorschlag
| Element | Vorschlag Erst-Rollout | Begründung | Test-Plan |
|---|---|---|---|
| Low-Risk-Bypass | 0,20 (konservativ; aktuell 0,30) | konservativ bei PSD3-Erst-Rollout | A/B mit 5 % Verkehr |
| High-Risk-Verifikation | 0,65 | reduziert von 0,70 für sichere Erfassung | Backend-Test |
| Block-Threshold | 0,90 | unverändert | — |

## Explainability-Bausteine
- **Vereinfachte Kunden-Erklärung**: "Unsere Sicherheitssysteme erkennen
  das gewohnte Nutzungsverhalten Ihres Geräts. Bei Abweichungen bitten
  wir um zusätzliche Bestätigung."
- **Modell-Karte (Aufsicht)**: Modell-Klasse, Feature-Kategorien (ohne
  Gewichtungs-Offenlegung), Trainings-Datengröße aggregiert,
  Bias-Test-Ergebnisse, Modell-Update-Frequenz.

## Bias-Test-Methodik-Empfehlungen
1. Test gegen AGG-Schutzkategorien (Alter, Geschlecht, Behinderung) —
   Demographic Parity Difference + Equalized Odds.
2. Test gegen Geo-Cluster (Verzerrung gegen ländliche Regionen?).
3. Test gegen Geräte-Cluster (Verzerrung gegen ältere Endgeräte?).
4. Dokumentation: Fairness-Metrik je Test mit Schwellen-Empfehlung
   Banking-Standard.

## Konfigurations-Patch (Pseudo-YAML)
```yaml
sca:
  behavior-intelligence:
    enabled: true
    feature-set: "v3-bia"
    score-thresholds:
      low-risk-bypass: 0.20
      high-risk-verification: 0.65
      block: 0.90
    explainability:
      customer-explanation-template: "verhaltens-abweichung-v1"
      model-card: "[[Modell-a3f9]]-v3-card"
    bias-tests:
      schedule: "quarterly"
      methodology: "demographic-parity + equalized-odds"
```

## Unsicherheiten
1. [[UNSICHER: PSD3-RTS-Entwurf Art. X — finale Formulierung "explainable
   nach Art. 13 EU AI Act" hängt von Trilog-Ergebnis ab]]
2. [[UNSICHER: Score-Komponenten-Gewichtung nicht offengelegt — Modell-
   Karte erfordert Anbieter-Bestätigung der Explainability-Tiefe]]
10

Was das Berufsrecht verlangt

Pflichten — und wie anymize sie abdeckt

PSD2/PSD3 (SRC-0137)

SCA und Behavior-/Device-Intelligence sind RTS-Themen. PSD3-Entwurfsklauseln dürfen nicht als geltend behandelt werden — Trilog-Ergebnisse abwarten.

EU AI Act Art. 13/14/15 + Annex III 5(b) (SRC-0126)

Reine Anti-Fraud ist nicht Hochrisiko-KI. Wenn aber der Score zu Kreditwürdigkeits-Implikationen führt, greift Annex III 5(b) — Explainability und Bias-Tests werden Pflicht.

DSGVO Art. 22 (SRC-0141)

Vollautomatisierter Block ohne menschliche Option ist problematisch. Daher Schwellen-System mit Verifikations-Schritt — der Mensch bleibt im Loop.

BaFin BDAI / KI-Algorithmen-Prinzipien (SRC-0120)

Modell-Inventar, Explainability und Bias-Tests sind BaFin-Erwartungen. Modell-Karte für Aufsicht ist Pflichtbestand.

DORA Art. 28 (SRC-0128)

Bei externem Behavior-Intelligence-Provider (Featurespace, BioCatch, IBM Trusteer) Auslagerung nach § 25b KWG und DORA Art. 28 (UC-V-FIN-PAY-002).

MaRisk ZAG (SRC-0118)

BaFin-ZAG-Aufsicht prüft den SCA-Stack im Rahmen von Vor-Ort-Prüfungen. Konfigurations-Drafting muss BaFin-Vorhalt-Format unterstützen.

11

Datenschutz und Vertraulichkeit

So funktioniert das mit anymize

Bei PSD3-SCA-Konfiguration ist die kritische Grenze: aggregierte Modell-Metadaten = Klasse B (Cloud-LLM ist okay), Trainings-Personendaten = Klasse A (gehören nicht in den Drafting-Workflow). anymize macht diese Grenze in der Vorschau sichtbar. Verarbeitung in deutschen Rechenzentren (Hetzner), AVV nach Art. 28 DSGVO und § 25b KWG. Rechtsgrundlage: Art. 6 Abs. 1 lit. f (Anti-Fraud) + lit. c (PSD2/PSD3-Pflicht). Bei systematischer KI-Nutzung im SCA-Stack DPIA nach Art. 35 DSGVO.

Was anymize konkret leistet

  • Macht die Grenze zwischen aggregierten Metadaten und Trainings-Personendaten sichtbar.
  • Verhindert versehentliche Übertragung von Trainings-Daten.
  • Pseudonymisiert eingebettete Test-Personas.
  • Verarbeitung in deutschen Rechenzentren (Hetzner). AVV im Standardvertrag.
  • Zuordnungstabelle bleibt im Haus.
12

Sicherheitscheck vor der Einreichung

Was anymize liefert — was Sie souverän entscheiden

Vor dem KI-Aufruf

  • Trainings-Personendaten im Input ausgeschlossen?
  • Aggregierte Modell-Karte verfügbar?
  • PSD3-RTS-Entwurfs-Stand notiert?
  • Bias-Test-Aggregate aus eigenem Test eingebunden?
  • AGG-Schutzkategorien-Liste zur Hand?

Nach der KI-Antwort

  • Schwellen-Empfehlungen mit Backend-Test-Plan versehen?
  • Bias-Test-Methodik (keine Bewertung) im Output?
  • Explainability in Kunden-Sprache + Modell-Karte für Aufsicht?
  • PSD3-Entwurfsklauseln als [[UNSICHER]] markiert?
  • Modell-Gewichtungs-Offenlegung vermieden?

Vor Produktiv-Setzung

  • Bias-Test-Ergebnisse aus eigenem Test dokumentiert?
  • Schwellen nach Backend-Validierung angenommen?
  • Anti-Fraud-Lead-Freigabe?
  • PSD3-Compliance-Officer-Freigabe?
  • IT-Sicherheit-Sign-off?

Typische Fehlermuster — und wie anymize gegensteuert

  • KI macht Bias-Bewertungen statt Test-Methodik vorzuschlagen — Prompt-Verbot greift.
  • Schwellen-Empfehlung ohne Backend-Test übernommen — KI markiert Test-Plan-Pflicht.
  • Explainability nur in Modell-Karte, nicht in Kunden-Sprache — Doppel-Bausteine im Prompt.
  • PSD3-Entwurfsklauseln als verbindlich übernommen statt mit [[UNSICHER]] — Prompt-Verbot.
  • Modell-Gewichtungs-Offenlegung im Output — Schutz der Anti-Fraud-Wirksamkeit.
13

Rechtsgrundlagen

Normen, Urteile, Belege

Primärnormen Aufsichtsrecht

  • PSD2/PSD3 + RTS
  • BaFin MaRisk ZAG
  • EU AI Act Art. 13/14/15
  • DSGVO Art. 22 — automatisierte Entscheidungen
  • DSGVO Art. 28
  • DORA Art. 28

BaFin KI-Aufsicht

  • BaFin Orientierungshilfe IKT-Risiken KI 18.12.2025
  • BaFin KI-Cyber-Warnung

Sekundärquellen

  • PwC KI-Finanzsektor 2025
  • Featurespace ARIC/Visa
  • Feedzai

Stand: · Nächste Überprüfung:

Hinweis zur Nutzung

Zur Orientierung — nicht als Mandatsersatz

Diese Anleitung beschreibt einen Arbeitsablauf, den Sie mit anymize umsetzen können. Sie ist zur Orientierung gedacht und ersetzt weder die anwaltliche Würdigung im Einzelfall noch eine fachanwaltliche Prüfung. Welche Rechtsprechung einschlägig ist, wie der Sachverhalt rechtlich zu bewerten ist, welche Anträge in Ihrem konkreten Mandat richtig sind — das bleibt selbstverständlich bei Ihnen.

KI-Outputs müssen vor jeder Verwendung anwaltlich geprüft werden. Insbesondere Urteils-Aktenzeichen, Norm-Verweise und Fristen sind gegen Primärquellen zu verifizieren. anymize gewährleistet die Vertraulichkeit der Mandantendaten gegenüber dem KI-Anbieter; die fachliche Richtigkeit des Outputs liegt in Ihrer Verantwortung.

Jetzt starten.
14 Tage kostenlos testen.

Alle Modelle. Alle Features. Keine Kreditkarte.

Wir sind überzeugt von anymize. Und wir wissen: Bei einem KI-Werkzeug, das Mandanten-, Patienten- oder Mitarbeiter-Daten berührt, reicht ein Demo-Video nicht. Deshalb 14 Tage voller Zugang – alle Modelle, alle Features, keine Kreditkarte. Genug Zeit, um sicher zu sein, bevor du uns vertraust.

Dein KI-Arbeitsplatz wartet.