CompuGroup Medical
Synchronizing Healthcare

Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen. 

Investor Relations
Eine Person tippt mit dem Finger auf ein Tablet-PC mit einer Investor-Relations-Präsentation
Karriere
Eine junge Frau telefoniert mit ihrem Smartphone, während sie einen Tablet-PC hält
CGM Global
Mehrere CGM-Flaggen

KI: Die "Black Box-Falle" und der "Konflikt mit dem AI Act"

10. November 2025 | Walter Zifferer
Black-Box.
Black-Box.

Die Black-Box-Falle

Die Black-Box-Falle beschreibt die Situation, in der eine KI Entscheidungen trifft oder Ergebnisse liefert, deren Entstehung für Menschen nicht nachvollziehbar ist.

Viele moderne KI-Modelle (insbesondere Deep-Learning-Systeme wie große neuronale Netze) bestehen aus Millionen von Parametern. Sie lernen Muster aus Daten, aber ihr innerer Entscheidungsprozess ist für Menschen nicht transparent.

  • Dadurch kommt es zu mangelnder Erklärbarkeit von KI-generierten Resultaten: Anwender*innen oder Prüfer*innen können nicht nachvollziehen, warum eine KI eine bestimmte Entscheidung getroffen hat.
  • Die Fehlererkennung wird schwierig: Wenn Entscheidungswege und Gewichtungen unsichtbar sind, lassen sich Fehler, Verzerrungen (Bias) oder Diskriminierungen schlecht finden.
  • Anwender*innen und Betroffene verlieren Vertrauen, wenn Entscheidungen undurchsichtig oder nicht begründbar sind.
  • Gerade in der Medizin fordern die Akteure erklärbare Entscheidungen – eine „Black Box“ erfüllt diese absolut nicht.

Praxisbeispiel: Eine KI lehnt systematisch Kreditanträge bestimmter Gruppen ab, aber niemand kann nachvollziehen, warum. Ein Audit ist kaum möglich, weil das Modell nicht interpretierbar ist.

 

Der Konflikt mit dem "AI Act“

Der EU AI Act ist das neue umfassende KI-Regelwerk der Europäischen Union, das Anforderungen an Transparenz, Sicherheit, Datenqualität und Risikoüberwachung definiert. Ein Konflikt mit dem AI Act entsteht, wenn eine KI-Lösung diese Anforderungen nicht einhält oder nicht einhalten kann.
 

Typische Konfliktpunkte

  • Transparenzanforderungen
    Der AI Act verlangt bei vielen KI-Systemen Erklärbarkeit, Dokumentation und Nachvollziehbarkeit. Eine Black-Box-KI kann diese Pflichten nicht erfüllen.
  • Daten- und Bias-Vorschriften
    KI-Systeme müssen auf hochwertigen, repräsentativen, nicht diskriminierenden Daten basieren. Wenn ein Modell seine Entscheidungen nicht erklären kann, lässt sich diese Erfüllung nicht nachweisen.
  • Risikomanagement und Monitoring
    Hochrisiko-KI benötigt laufende Überwachung, Protokollierung und Auditierbarkeit. Ohne Einsicht in den Entscheidungsprozess ist dies jedoch fast unöglich.
  • Dokumentationspflichten
    Entwickler*innen müssen detaillierte technische Unterlagen bereitstellen. Auch dies ist bei intransparenten Modellen oft schwierig.

Praxisbeispiel: Ein Krankenhaus nutzt ein KI-Diagnosesystem, das seine Entscheidungen nicht erklären kann. Da medizinische KI nach dem AI Act als Hochrisiko-Kategorie gilt, ist Erklärbarkeit verpflichtend. Das System wäre demnach nicht konform und dürfte so nicht eingesetzt werden!

 

Die Black-Box-Falle führt direkt zum Konflikt mit dem AI Act

Weil das Modell nicht erklärbar ist, können die vorgeschriebenen Transparenz-, Audit- und Risikoanforderungen nicht erfüllt werden, was wiederum zu Nicht-Konformität und möglichen Sanktionen führt.

Intransparente KI-Modelle sind also nicht nur ein praktisches Problem, sondern stehen auch regulatorisch im Konflikt mit den Anforderungen des EU AI Act.

Verwandte Artikel
Hände hoch gehalten.
Hände hoch gehalten.
KI-Ansätze im öster­reichi­schen Sozial­wesen

KI ist in aller Munde - doch wie können Bereiche wie das Sozialwesen...

KI in der Medizin.
KI in der Medizin.
Besondere Auflagen für Entwickler von "Hoch­risiko-KI"

Die KI-Verordnung der EU (KI-VO) legt für KI-Systeme im Bereich der ...