Nutzen Sie diese Checkliste, um Ihre Infrastruktur auf Transparenz und gerichtsfeste Dokumentation zu prüfen.

Ist Ihre Voice AI bereit für den EU AI Act?

EU AI Act Checkliste für Enterprise Voice AI

Prüfen Sie in wenigen Minuten die 18 kritischen Kontrollpunkte für Transparenz, Sicherheit und forensische Nachweise Ihrer Voice AI.

I. Unzulässige KI-Praktiken (Art. 5)

Diese Praktiken sind in der EU streng verboten. Ein „Nein“ bedeutet hier meist ein sofortiges Projekt-Stopp.

Manipulationsverbot: Können Sie sicherstellen, dass Ihre KI-Systeme (z. B. Voicebots) keine unterschwelligen Techniken einsetzen, um das Verhalten von Kunden oder Patienten in einer Weise zu manipulieren, die diesen Schaden zufügt?
Schutz vulnerabler Gruppen: Ist gewährleistet, dass Ihre KI-Systeme keine Schwächen von Anrufern ausnutzen, die auf Alter, Behinderung oder einer spezifischen sozialen/wirtschaftlichen Lage beruhen?
Social Scoring: Verzichtet Ihr Unternehmen darauf, KI-gestützte Bewertungen des sozialen Verhaltens von Kunden zu erstellen, die zu einer Schlechterstellung in nicht zusammenhängenden Kontexten führen?
Emotionserkennung am Arbeitsplatz: Sofern Sie KI zur Analyse der Emotionen Ihrer Call-Center-Agenten nutzen: Dient dies ausschließlich medizinischen oder Sicherheitszwecken (z. B. Übermüdungserkennung bei kritischer Infrastruktur) und nicht der allgemeinen Leistungsüberwachung?

II. Klassifizierung als Hochrisiko-KI (Art. 6 & Anhang III)

Wenn Sie eines dieser Systeme nutzen, gelten strenge Auflagen.

Notruf-Triage (z. B. Energieanbieter/Bahn): Falls Sie KI zur Bewertung und Klassifizierung von Notrufen oder zur Priorisierung von Rettungseinsätzen nutzen: Behandeln Sie dieses System als „Hochrisiko“ und erfüllen alle Anforderungen aus Kapitel III?
Personalmanagement: Nutzen Sie KI für die Rekrutierung, Beförderung oder Kündigung von Contact-Center-Mitarbeitern oder zur Überwachung von deren Leistung? Wenn ja, ist dieses System als Hochrisiko-KI registriert und dokumentiert?
Kreditwürdigkeit: Falls Ihr Contact Center (z. B. für Online-Shops oder Banken) KI zur Bewertung der Bonität von Kunden einsetzt: Erfüllt das System die Hochrisiko-Standards (außer bei reiner Betrugserkennung)?
Öffentliche Leistungen (z. B. Behörden-Hotlines): Nutzt Ihre KI-Lösung Daten, um über den Zugang zu grundlegenden öffentlichen Diensten (Sozialhilfe, Wohngeld) zu entscheiden? Wenn ja, wird sie als Hochrisiko-System geführt?

III. Transparenzpflichten (Art. 50)

Dies gilt für fast alle modernen Contact Center.

KI-Offenlegung: Werden Kunden oder Patienten beim Kontakt mit einem Voice- oder Chatbot klar und rechtzeitig darüber informiert, dass sie mit einer KI interagieren (außer dies ist offensichtlich)?
Emotionserkennung (Kunden): Wenn Sie Sentiment-Analysen nutzen, um die Stimmung von Anrufern zu erfassen: Werden die betroffenen Personen über den Einsatz dieser biometrischen Datenverarbeitung informiert?
Deepfake-Kennzeichnung: Falls Sie künstlich erzeugte Audio- oder Videoinhalte verwenden (z. B. Avatare), die echtem Personal täuschend ähnlich sehen: Werden diese Inhalte eindeutig als „künstlich erzeugt“ markiert?

IV. Pflichten für Betreiber (Deployer) von Hochrisiko-KI (Art. 26 & 27)

Wichtig für Unternehmen, die KI-Lösungen von Drittanbietern kaufen.

Nutzung nach Anweisung: Haben Sie technische und organisatorische Maßnahmen getroffen, um sicherzustellen, dass die KI strikt nach der Betriebsanleitung des Herstellers verwendet wird?
Menschliche Aufsicht: Sind die Mitarbeiter, die die KI überwachen, ausreichend qualifiziert, geschult und befugt, die Ausgaben der KI bei Bedarf zu ignorieren oder das System zu stoppen?
Datenqualität: Stellen Sie sicher, dass die in das System eingespeisten Eingabedaten (z. B. Kundenanfragen) für den vorgesehenen Zweck relevant und ausreichend repräsentativ sind?
Protokollierung: Bewahren Sie die automatisch erzeugten Logs des KI-Systems für mindestens sechs Monate auf, um die Rückverfolgbarkeit zu gewährleisten?
Grundrechte-Folgenabschätzung (FRIA): Falls Sie eine öffentliche Stelle sind oder wesentliche private Dienste (z. B. Banken/Versicherungen) erbringen: Haben Sie vor dem Einsatz der Hochrisiko-KI eine Bewertung der Auswirkungen auf die Grundrechte durchgeführt?

V. Übergreifende Governance & AI Literacy (Art. 4)

KI-Kompetenz: Haben Sie Maßnahmen ergriffen, um sicherzustellen, dass Ihre Mitarbeiter (vom Agent bis zum Management) über ein Mindestmaß an Wissen verfügen, um KI-Systeme, deren Vorteile und Risiken zu verstehen?
Registrierung: Ist Ihr Hochrisiko-KI-System (sofern zutreffend) in der EU-Datenbank registriert worden?

Ihr Compliance-Score (Ja-Anteil): 0 / 18

Verordnungstext und Referenz-PDFs

Volltext der Verordnung herunterladen. Für eine vertiefte Prüfung sprechen Sie unser Team an.