Performance Management und Feedback

Bias-Check auf bereits verfassten Performance-Review (AGG, Gendered Language, BAG 8 AZR 74/25)

anymize behält demografische Hinweise bewusst im Text (kontrollierte Ausnahme für Bias-Erkennung), entfernt aber sensitive Aspekte (Schwangerschaft, Krankheit). KI erzeugt Marker-Liste mit Zitat, Schweregrad und Re-Drafting-Vorschlag — DEI-Officer trifft Letztentscheidung.

Schwierigkeit: Fortgeschritten · Datenklasse: Beschäftigtendaten · Letztes Review:

Zur Orientierung gedacht. Die personalrechtliche Würdigung im Einzelfall bleibt selbstverständlich bei Ihnen — KI-Outputs sind vor jeder Verwendung zu prüfen. Mehr dazu am Ende.

01

Anwendungsbereich

Worum geht es hier?

KI im Performance Management und Feedback

Bias-Check ist die Risiko-Mitigation-Schicht für Performance-Reviews. Eigenständiger Audit-Workflow für bereits verfasste Texte — entweder vor MA-Gespräch oder im quartalsweisen Sample-Audit. BAG 8 AZR 74/25 (120 kEUR algorithmische Diskriminierung) + AGG-Reform 2026 (4-Monats-Klagefrist) machen den Workflow zur Pflicht-Stufe bei systematischen Review-Programmen.

02

Für wen passt das?

Zielgruppe und Kontext

Rolle
HR-Business-Partner, Diversity-/Inclusion-Officer, Performance-Management-Verantwortliche, HR-Compliance. Sekundär: Vorgesetzte als Ersteller bei Selbst-Check.
Seniorität
Fortgeschritten — Bias-Forschungs-Bewusstsein (Eva Gengler, AlgorithmWatch), AGG-Kenntnis, Diversity-Sensibilität.
Unternehmensgröße
Konzern, großer Mittelstand mit Diversity-Programm, Mittelstand mit BR.
Spezifische Kontexte
(a) Letzt-Prüfung vor MA-Gespräch, (b) quartalsweiser Sample-Audit (20 Reviews stichprobenartig), (c) bei Beförderungs-/PIP-Indikation als Pflicht-Schritt, (d) bei AGG-Beschwerde als Beweissicherung. NICHT als „Pre-Final-Stempel” durch KI alleine.
03

Die Situation in der Personalabteilung

So bringen Sie Tempo und Sorgfalt zusammen

Selbst gewissenhaft formulierte Performance-Reviews enthalten systematische Bias-Muster. Eva Gengler (YT-034) zeigt: Adjektiv-Asymmetrien („durchsetzungsstark” bei Männern vs. „aggressiv” bei Frauen), Karriere-Empfehlungs-Asymmetrien („High Potential” bei jüngeren, „verlässlich” bei älteren), Familienthema-Andeutungen als Frauen-Karriere-Bremse. AlgorithmWatch/FINDHR: 23,9 % Diskriminierungs-Erfahrungen in Recruiting (übertragbar auf Performance). BAG 8 AZR 74/25: 120 kEUR pro Fall; AGG-Reform 2026: 4-Monats-Klagefrist. KI kann bestehende Review-Texte systematisch scannen — was ein Mensch in 50 Reviews nicht zuverlässig leistet. Aber: KI hat selbst Bias (Trainings-Daten); deshalb ist DEI-Officer-Letztentscheidung Pflicht.

04

Was Sie davon haben

Zeit, Wert, Vertraulichkeit

Zeit pro Review-Text

10–25 Min

Bei 50 Sample-Audits/Quartal = 8–21 h Quartals-Audit-Zeit gespart.

Risiko-Hebel

120 kEUR

BAG 8 AZR 74/25 pro Fall + Folgekosten (Anwalt, Reputation). Wenn nur 1 Klage in 5 Jahren vermieden wird → Vielfaches gespart.

System-Lerneffekt

Manager-Coaching

Manager bekommen Sprach-Feedback und passen über Zeit eigenes Wording an.

Anymize-Klasse

A

Kontrollierte Ausnahme: demografische Hinweise bleiben sichtbar für Bias-Check; sensitive Aspekte werden entfernt.

05

So gehen Sie vor

Der Workflow Schritt für Schritt

1

Vorgesetzte:r verfasst Review-Entwurf (UC-V-HR-PEF-001-Output oder eigenständig).

Mensch

Standard-Workflow

2

HR-BP / DEI-Officer triggert Bias-Check als Pflicht-Schritt vor MA-Gespräch oder im Quartals-Sample-Audit.

Mensch

Compliance

3

Pseudonymisierung: MA-Name → Platzhalter; demografische Hinweise (Geschlecht, Alter, Migrationshintergrund, Familienkontext) bewusst belassen — KI muss diese sehen, um Bias-Muster zu erkennen.

Mensch + anymize

Kontrollierter Bias-Kontext

4

Spot-Check sensitive Aspekte (Schwangerschaft, Krankheit, Religion) — die müssen entfernt werden (dürfen nicht in Bewertung einfließen).

Mensch

AGG · Art. 9 DSGVO

5

KI-Bias-Analyse: Marker-Liste pro Bias-Kategorie (Gendered Language, Alter, Herkunft, Karriere-Asymmetrie, vergleichende Formulierungen), pro Marker Zitat aus Text, Re-Drafting-Vorschlag, Schweregrad.

KI

Strukturierter Bias-Audit

6

Re-Identifikation Platzhalter. HR-BP / DEI-Officer prüft jeden Marker mit Manager-Kontext-Verständnis; entscheidet Re-Drafting Pflicht / Empfehlung / Verwerfen.

Mensch + anymize

DSGVO Art. 22, 28 · menschliche Letztentscheidung

7

Bei Pflicht-Re-Drafting: Vorgesetzte:r überarbeitet, HR-BP gegenzeichnet.

Mensch

AGG-Mitigation

8

Bei systemischer Bias-Indikation über mehrere Reviews (Sample-Audit): Manager-Coaching, Performance-Tool-BV-Anpassung. Dokumentation der Bias-Check-Ergebnisse (anonymisiert) im KI-Modell-Risiko-Inventar.

Mensch + System

System-Lerneffekt · EU AI Act Art. 26

06

Womit Sie arbeiten

So setzen Sie anymize konkret ein

Was anymize tut (Bias-Check-Modus)

  • Pseudonymisiert MA-Klarnamen, lässt aber demografische Hinweise (Geschlecht, Alter, Migrationshintergrund, Familienkontext) gezielt im Text — KI braucht sie für Bias-Erkennung.
  • Entfernt sensitive Aspekte (Schwangerschaft, Krankheit, Religion) — diese gehören nicht in Bewertung.
  • Konsistente Pseudonymisierung über Sample-Audit.

Was Sie als DEI-Officer / HR-BP tun

  • Bias-Check-Modus aktivieren — kontrollierte Ausnahme für demografische Hinweise.
  • Jeden KI-Marker mit Manager-Kontext-Verständnis prüfen.
  • Re-Drafting-Entscheidung: Pflicht / Empfehlung / Verwerfen (menschliche Letztentscheidung Pflicht).
  • Bei wiederholten Mustern eines Managers: Coaching + BR-Information.

Daten-Input

Review-Volltext mit pseudonymisiertem MA-Namen; demografische Hinweise (Geschlecht, Alter, Migrationshintergrund, Familienkontext) kontrolliert belassen. Sensitive Aspekte (Schwangerschaft, Krankheit, Religion) entfernt.

Output-Kontrolle

Marker-Liste als Tabelle mit Bias-Kategorie, konkretem Zitat, Schweregrad (niedrig/mittel/hoch), Re-Drafting-Vorschlag. Meta-Check (korreliert Karriere-Empfehlung mit demografischen Hinweisen?). Selbst-Bias-Hinweis am Ende.

Freigabeprozess

HR-BP / DEI-Officer Letztentscheidung; Vorgesetzte:r ggf. Coaching bei wiederholten Mustern; bei Quartals-Sample-Audit: HR-Leitung + BR-Info.

07

Die KI-Anweisung

Prompt zum Kopieren

So nutzen Sie diesen Prompt:

1. Review-Text in anymize Bias-Check-Modus einfügen (demografische Hinweise bleiben, sensitive Aspekte werden entfernt).

2. Diesen Prompt anhängen, Thinking-Modus.

3. DEI-Officer prüft jeden Marker mit Manager-Kontext.

4. Bei Pflicht-Re-Drafting: Vorgesetzte:r überarbeitet, HR-BP gegenzeichnet.

Empfohlener Reasoning-Modus: Thinking. Modell-Empfehlung: Frontier-KI mit expliziter Bias-Awareness (Claude, GPT-4-Klasse oder höher).
# Context (C)
Rechtsstand: <heutiges Datum>. Du analysierst einen bereits verfassten
Performance-Review-Text auf Bias-Marker. Der Text ist pseudonymisiert beim
MA-Klarnamen, aber demografische Hinweise (Geschlecht, Alter,
Migrationshintergrund, Familienkontext) sind kontrolliert im Text — du
brauchst sie für Bias-Erkennung. Sensitive Aspekte (Gesundheit,
Schwangerschaft, Religion) wurden vor Übergabe entfernt — wenn doch
enthalten, melden.

# Role (R)
Du agierst als Diversity-/Inclusion-Audit-Assistenz mit Kenntnis von AGG
§§ 1, 3, 7, AGG-Reform 2026 (4-Monats-Klagefrist), BAG 8 AZR 74/25
(algorithmische Diskriminierung 120 kEUR), Bias-Forschung (Eva Gengler,
AlgorithmWatch FINDHR). Du analysierst, du entscheidest NICHT — die
Letztentscheidung trifft HR-BP / DEI-Officer.

# Action (A)
1. Scanne den Text auf folgende Bias-Kategorien:
   - **Gendered Language**: Adjektiv-Asymmetrien („durchsetzungsstark” vs.
     „aggressiv”, „emotional” vs. „empathisch”, „ehrgeizig” vs.
     „karriereorientiert”).
   - **Alter**: Etiketten wie „High Potential” (oft jüngere) vs.
     „verlässlich/erfahren” (oft ältere) bei gleicher Leistung.
   - **Herkunft / Migrationshintergrund**: Sprach-Kompetenz-Bezüge, Akzent-
     Erwähnung, kulturelle Stereotype.
   - **Behinderung / Gesundheit / Schwangerschaft**: jegliche Erwähnung —
     Pflicht-Marker (sollte gar nicht im Text sein).
   - **Familien-/Care-Asymmetrie**: „flexibel verfügbar”, „Family-First”
     als negative Konnotation.
   - **Vergleichende Formulierungen**: „besser als [Vergleich-MA]”.
   - **Karriere-Empfehlungs-Asymmetrie**: hochgepuschte Karriere-
     Empfehlungen bei demografisch privilegierten Gruppen vs.
     zurückhaltende bei marginalisierten.
2. Pro gefundenem Marker:
   - Konkretes Zitat aus Text.
   - Bias-Kategorie.
   - Schweregrad: hoch (AGG-Risiko, BAG-Präzedenz-relevant) / mittel /
     niedrig.
   - Re-Drafting-Vorschlag (neutrale Formulierung).
3. Meta-Check: korreliert Karriere-Empfehlung mit demografischen Hinweisen?
4. Bei sensitiven Aspekten im Text trotz Pre-Filter: Pflicht-Marker
   „CRITICAL — sensitive Aspekt im Text” mit Hinweis auf Art. 9 DSGVO.
5. Bei Auffälligkeiten in Häufigkeits-Muster (z.B. nur Stärken bei Männern,
   nur Verbesserungsfeldern bei Frauen): Hinweis.
6. Selbst-Bias-Hinweis: Markiere am Ende, dass KI-Bias-Detektion eigene
   Bias-Risiken hat und menschliche Letztentscheidung Pflicht ist.

# Format (F)
- Marker-Liste als Markdown-Tabelle: | # | Kategorie | Zitat | Schweregrad |
  Re-Drafting-Vorschlag |
- Meta-Check als separater Block.
- Selbst-Bias-Hinweis als finale Box.

# Target Audience (T)
Output wird von HR-BP / DEI-Officer gelesen und mit Manager-Kontext-
Verständnis bewertet. KEINE automatische Anwendung der Re-Drafting-
Vorschläge.
08

So sieht der Input aus

Pseudonymisierter Eingabetext

Original-Review-Entwurf mit kontrollierter Ausnahme: demografische Hinweise (47 J., w, 2 Kinder) bleiben sichtbar für Bias-Erkennung.
Performance-Review-Entwurf 2026 (Auszug)
Mitarbeitende:r: [[MA-q1r9]], weiblich, 47 Jahre, Senior Marketing Manager, 2 Kinder.

Auszug Stärken:
„[[MA-q1r9]] ist sehr verlässlich und emotional ausgeglichen im Team-Umfeld. Sie bringt langjährige Erfahrung ein, was bei der jüngeren Generation manchmal als zu konservativ wahrgenommen wird. Im Gegensatz zu [[Vergleich-MA-1-q1r9]] ist sie weniger karriereehrgeizig, was zur Stabilität im Team beiträgt.”

Auszug Verbesserungsfelder:
„Sie könnte mehr Initiative bei Tool-Migrationen zeigen — wir verstehen die familiäre Belastung.”

Auszug Karriereperspektive:
„Aktuell sehen wir [[MA-q1r9]] in ihrer Senior-Rolle gut aufgehoben. Eine weitere Karriereentwicklung ist denkbar, aber nicht prioritär — die Stabilität im Team ist wichtiger.”
09

So liefert anymize zurück

Der KI-Entwurf

KI-Output mit Marker-Liste, Meta-Check und Selbst-Bias-Hinweis. Cluster aus Alter + Geschlecht + Familie ist klassischer AGG-Risiko-Cluster.
## Bias-Marker-Liste

| # | Kategorie | Zitat | Schweregrad | Re-Drafting-Vorschlag |
|---|---|---|---|---|
| 1 | Gendered Language | „emotional ausgeglichen” | mittel | „gefasst und konstruktiv im Team-Umfeld” |
| 2 | Alter | „langjährige Erfahrung … von der jüngeren Generation als zu konservativ wahrgenommen” | hoch (AGG-Alter) | Generation-Bezug streichen; konkretes Verhalten mit Beispiel |
| 3 | Vergleichende Formulierung | „Im Gegensatz zu [[Vergleich-MA-1-q1r9]] ist sie weniger karriereehrgeizig” | hoch (AGG + § 26 BDSG Drittdaten) | Vergleich entfernen; eigene Karriere-Ausrichtung MA beschreiben |
| 4 | Gendered Language | „karriereehrgeizig” als negative Konnotation bei Frau | mittel | „strategische Karriere-Orientierung” |
| 5 | Familien-Asymmetrie | „wir verstehen die familiäre Belastung” | hoch (AGG + Art. 9 DSGVO impliziert) | Familien-Bezug streichen; Verfügbarkeit allgemein adressieren |
| 6 | Karriere-Empfehlungs-Asymmetrie | „weitere Karriereentwicklung … nicht prioritär — Stabilität im Team wichtiger” | hoch (AGG kombiniert Alter, Familie, Geschlecht) | Karriereentwicklung an MA-Wunsch und Reife messen, nicht an Team-Stabilität |

## Meta-Check
Karriere-Empfehlung („nicht prioritär”) korreliert mit demografischen
Hinweisen (47 J., weiblich, 2 Kinder). Hohe Wahrscheinlichkeit eines AGG-
Diskriminierungs-Patterns. Empfehlung: Pflicht-Re-Drafting; Manager-Coaching;
ggf. Sample-Audit über weitere Reviews dieses Managers.

## CRITICAL — Sensitive Aspekt
- Familien-Belastung erwähnt (Marker 5). Art. 9 DSGVO und AGG-Risiko.
  Pflicht-Entfernung.

## Selbst-Bias-Hinweis
KI-Bias-Detektion hat selbst Bias-Risiken (Trainings-Daten); HR-BP / DEI-
Officer trifft Letztentscheidung. Bei Pflicht-Re-Drafting Manager-Kontext-
Verständnis einbeziehen — z.B. ob es eine MA-explizite Karriere-Aussage
gab, die hier missverstanden wiedergegeben wurde.
10

Was das HR-Recht verlangt

Pflichten — und wie anymize sie abdeckt

AGG §§ 1, 3, 7 + AGG-Reform 2026 (SRC-0217, SRC-0218)

4-Monats-Klagefrist verlängert; algorithmische Diskriminierung in BAG 8 AZR 74/25 mit 120 kEUR pro Fall.

BAG 8 AZR 74/25 (SRC-0256)

Leitsatz gilt analog für Performance-Bewertungs-KI — auch beim Bias-Check selbst.

DSGVO Art. 22 (SRC-0240)

KI-Bias-Marker dürfen NICHT zu automatischem Re-Drafting führen ohne menschliche Letztentscheidung des DEI-Officers.

§ 26 BDSG (SRC-0215)

Vergleichs-MA-Erwähnungen sind § 26-Risiko (Drittdaten); werden im Bias-Check als Marker erkannt.

KI-eigene Bias

Trainings-Daten-Bias des Bias-Detectors selbst — Selbst-Bias-Hinweis am Ende ist Pflicht.

AlgorithmWatch / FINDHR (SRC-0280, 0281)

Empirische Diskriminierungs-Belege; Antidiskriminierungsstelle 2023 (SRC-0253) bemängelt AGG-Lücke bei algorithmischer Diskriminierung.

11

Datenschutz und Vertraulichkeit

So funktioniert das mit anymize

Review-Volltext mit MA-Klarname = Klasse A. Bias-Check-Modus: kontrollierte Ausnahme — demografische Hinweise (Geschlecht, Alter, Migrationshintergrund, Familienkontext) bleiben sichtbar für Bias-Erkennung; MA-Klarname wird pseudonymisiert. Sensitive Aspekte (Art. 9 DSGVO) werden entfernt. AVV nach Art. 28 DSGVO. DPIA für Bias-Check-Tool. EU AI Act Annex III bei systematischem Bias-Auditing-Programm mit Personalmanagement-Folge.

Was anymize konkret leistet

  • Bias-Check-Modus: kontrollierte Ausnahme — demografische Hinweise bleiben, sensitive Aspekte werden entfernt.
  • Konsistente Pseudonymisierung über Sample-Audit über mehrere Reviews.
  • Performance-Tool-natives Bias-Modul: Leapsome AI Copilot, Lattice, Textio-Integration.
  • Microsoft 365 Copilot mit Inclusion-Skill.
  • Hybrid: KI für Marker-Identifikation, Re-Drafting manuell.
12

Sicherheitscheck vor der Veröffentlichung

Was anymize liefert — was Sie souverän entscheiden

Vor Bias-Check

  • Pseudonymisierungs-Spot-Check; sensitive Aspekte (Schwangerschaft, Krankheit, Religion) vorab entfernt.
  • Demografische Hinweise (Geschlecht, Alter, Migration, Familienkontext) bewusst belassen.

Nach KI-Marker-Liste

  • HR-BP / DEI-Officer prüft jeden Marker mit Manager-Kontext.
  • Re-Drafting-Entscheidung: Pflicht / Empfehlung / Verwerfen — menschliche Letztentscheidung.
  • Selbst-Bias-Hinweis durchgesehen — keine automatische Anwendung von Re-Drafting-Vorschlägen.

Bei System-Pattern (Sample-Audit)

  • Bei wiederholten Mustern eines Managers: Manager-Coaching + BR-Information.
  • Anonymisierte Findings im KI-Modell-Risiko-Inventar (EU AI Act Art. 26).
  • Bei „CRITICAL”-Markern: Review verwerfen, neu schreiben.

Typische Fehlermuster — und wie anymize gegensteuert

  • KI-Marker übersieht subtile Bias (z.B. Mentoring-Schwelle Frauen) — DEI-Officer-Kontext-Check.
  • KI-Marker erzeugt False-Positive („durchsetzungsstark” als Bias markiert in neutralem Kontext).
  • Sensitive Aspekte trotz Pre-Filter im Text — CRITICAL-Marker Pflicht.
  • Re-Drafting-Vorschläge zu glatt (Sprach-Vermeidung statt inhaltlicher Klarheit) — Vorgesetzte:r passt eigene Formulierung an.
  • Automatische Anwendung von Re-Drafting-Vorschlägen — DSGVO Art. 22-Verstoß.
13

Rechtsgrundlagen

Normen, Urteile, Belege

Primärnormen

  • Mitbestimmung (SRC-0211)
  • Beurteilungsgrundsätze (SRC-0227)
  • Beschäftigtendaten (SRC-0215)
  • Diskriminierungs-Schutz (SRC-0217)
  • 4-Monats-Klagefrist (SRC-0218)
  • Menschliche Letztentscheidung (SRC-0240)
  • Algorithmische Diskriminierung 120 kEUR (SRC-0256)
  • Microsoft-365-Präzedenz (SRC-0257)
  • AGG-Lücke algorithmische Diskriminierung (SRC-0253)
  • DSGVO-Praxis (SRC-0246)

Bias-Forschung

  • Empirische Diskriminierungs-Berichte (SRC-0280)
  • 23,9 % Diskriminierungs-Erfahrungen (SRC-0281)
  • Feministische KI, Gendered Language

Stand: · Nächste Überprüfung:

Hinweis zur Nutzung

Zur Orientierung — nicht als Ersatz für die HR-Letztverantwortung

Diese Anleitung beschreibt einen Arbeitsablauf, den Sie mit anymize umsetzen können. Sie ist zur Orientierung gedacht und ersetzt weder die personalrechtliche Würdigung im Einzelfall noch eine arbeits- oder mitbestimmungsrechtliche Prüfung. Welche Rechtsprechung einschlägig ist, wie der Sachverhalt arbeitsrechtlich zu bewerten ist, welche Entscheidungen in Ihrem konkreten Fall richtig sind — das bleibt selbstverständlich bei Ihnen und Ihrer HR-Letztverantwortung.

KI-Outputs müssen vor jeder Verwendung HR-fachlich geprüft werden. Insbesondere personenbezogene Entscheidungen (Einstellung, Beförderung, Kündigung) dürfen nicht allein auf KI-Empfehlungen gestützt werden (DSGVO Art. 22, EU AI Act Art. 26). anymize gewährleistet die Vertraulichkeit der Beschäftigtendaten gegenüber dem KI-Anbieter; die fachliche Richtigkeit und die rechtliche Verantwortung liegen in Ihrer Hand.

Jetzt starten.
14 Tage kostenlos testen.

Alle Modelle. Alle Features. Keine Kreditkarte.

Wir sind überzeugt von anymize. Und wir wissen: Bei einem KI-Werkzeug, das Mandanten-, Patienten- oder Mitarbeiter-Daten berührt, reicht ein Demo-Video nicht. Deshalb 14 Tage voller Zugang – alle Modelle, alle Features, keine Kreditkarte. Genug Zeit, um sicher zu sein, bevor du uns vertraust.

Dein KI-Arbeitsplatz wartet.