CGM Global
Lösungen
Produkte
Informationen zu unseren Produkten, die Gesundheitsprofis entlang der gesamten Patient Journey unterstützen.
ARTIKEL
Über uns
Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen.
Die Black-Box-Falle beschreibt die Situation, in der eine KI Entscheidungen trifft oder Ergebnisse liefert, deren Entstehung für Menschen nicht nachvollziehbar ist.
Viele moderne KI-Modelle (insbesondere Deep-Learning-Systeme wie große neuronale Netze) bestehen aus Millionen von Parametern. Sie lernen Muster aus Daten, aber ihr innerer Entscheidungsprozess ist für Menschen nicht transparent.
Praxisbeispiel: Eine KI lehnt systematisch Kreditanträge bestimmter Gruppen ab, aber niemand kann nachvollziehen, warum. Ein Audit ist kaum möglich, weil das Modell nicht interpretierbar ist.
Der EU AI Act ist das neue umfassende KI-Regelwerk der Europäischen Union, das Anforderungen an Transparenz, Sicherheit, Datenqualität und Risikoüberwachung definiert. Ein Konflikt mit dem AI Act entsteht, wenn eine KI-Lösung diese Anforderungen nicht einhält oder nicht einhalten kann.
Praxisbeispiel: Ein Krankenhaus nutzt ein KI-Diagnosesystem, das seine Entscheidungen nicht erklären kann. Da medizinische KI nach dem AI Act als Hochrisiko-Kategorie gilt, ist Erklärbarkeit verpflichtend. Das System wäre demnach nicht konform und dürfte so nicht eingesetzt werden!
Weil das Modell nicht erklärbar ist, können die vorgeschriebenen Transparenz-, Audit- und Risikoanforderungen nicht erfüllt werden, was wiederum zu Nicht-Konformität und möglichen Sanktionen führt.