CGM Global
Lösungen
Produkte
Informationen zu unseren Produkten, die Gesundheitsprofis entlang der gesamten Patient Journey unterstützen.
ARTIKEL
Über uns
Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen.
Folgende Use Cases bieten sich zur zeitnahen Umsetzung an, um Prozesse im Sozialwesen effizienter zu gestalten und Freiräume für die Anwender*innen zu schaffen:
Pflegekräfte dokumentieren Tätigkeiten, Beobachtungen, Vitalparameter oder Pflegeinterventionen per Sprache, die KI wandelt dies in strukturierte Pflegeeinträge um (z.B. nach AEDL, ATL oder WHO-ICF). Die KI kann Vorschläge zur Vervollständigung machen (z.B. „Beobachtung durch Vitalwerte ergänzt“), aber keine Entscheidungen treffen.
Solange die KI nicht pflegerische Entscheidungen trifft, sondern rein assistiert, handelt es sich um kein Hochrisikosystem. Derartige Systeme fallen also unter "Limited Risk" KI mit Transparenzpflicht: Pflegekräfte müssen wissen, dass es KI-generierte Inhalte sind. Das Bias-Risiko ist gering, da keine automatisierten Klassifikationen genutzt werden.
Audioaufnahmen sind personenbezogene Gesundheitsdaten (Art. 9 DSGVO). Erforderlich sind daher: Eine entsprechende Rechtsgrundlage (Gesundheitsversorgung / öffentliches Interesse), Privacy by Design (On-Prem oder EU-Cloud, kein Training mit Echtdaten ohne Zustimmung) sowie klare Löschfristen für Audioaufzeichnungen. Besondere Vorsicht ist bei Audioaufzeichnungen im Bewohnerzimmer geboten. Hier gelten die Bestimmungen der Zweckbindung & Minimierung.
Die Berater*in gibt Lebenslauf, Qualifikationen, Interessen, Betreuungshistorie oder AMS-Interviews ins System ein, die KI erstellt daraus ein strukturiertes Kompetenzprofil, Vorschläge für passende Weiterbildungen, Hinweise auf lokale Stellenangebote (mittels Job-Crawling / API), Mustererkennung (z.B. „Lücke von 2 Jahren - ein Nachfragen wird empfohlen“) und die Vorbereitung von Beratungsgesprächen. Die KI entscheidet nicht, wem welche Maßnahme zusteht, sondern unterstützt lediglich die Beratung.
Sobald KI automatisiert entscheidet, wer Zugang zu Leistungen/Programmen erhält, fällt sie unter Hochrisiko-KI (AI Act Annex III). Der hier beschriebene Ansatz wird bewusst als Assistenzsystem gestaltet, wodurch er als Medium Risk einzustufen ist, aber starke Pflichten entstehen: Transparenz über die KI-Nutzung, Nachvollziehbare Vorschläge ("Explainability") und umfassende Protokollierung der Ergebnisse. Bias-Gefahr beim Matching (Diskriminierung aufgrund von Alter, Herkunft, Geschlecht). sowie ungerechtfertigte Risikozuschreibungen beim Profiling sind unbedingt zu vermeiden.
Verarbeitete Daten enthalten oft sensible Sozialdaten.. KI darf demnach kein automatisiertes Profiling mit Rechtswirkung durchführen (Art. 22 DSGVO) Die Durchführung von Datenschutz-Folgenabschätzung (DSFA), Datenminimierung (keine unnötigen Freitexte) und eine klare Rollenverteilung (Berater*innen bleiben entscheidungsverantwortlich!) ist unbedingt erforderlich.
Ein KI-System unterstützt Fachkräfte bei der Erstellung und Aktualisierung individueller Unterstützungspläne (z.B. ICF-basiert). Es kann Informationen aus Dokumenten (z.B. Protokollen, Arztbriefen, Gutachten, ...) zusammenfassen, Ziele vorschlagen (z.B. „Erhöhte Selbstständigkeit beim Kochen“), Hilfsmittel-Empfehlungen auf Basis von Bedarfen geben, Übersetzung in leichte Sprache erzeugen und Klient*innen mit Sprachbarrieren via Chat-/Voice-Interface unterstützen.
Die Unterstützung kann in den Bereich „Zugang zu essentiellen sozialen Leistungen“ fallen, wodurch es potenziell der Kategorie "Hochrisiko" fällt, wenn das KI-System Entscheidungen mitträgt. Der hier definierte Use Case ist bewusst assistierend gestaltet. die Fachkraft trifft demnach alle Entscheidungen
Das KI-System beschleunigt die Analyse & Formulierung und fällt damit unter "Limited Risk" bis "Medium Risk" - inklusive strenger Anforderungen: Die Erklärbarkeit der Vorschläge, dokumentierte menschliche Aufsicht sowie Prüfung auf Verzerrungen (z.B. Benachteiligung bestimmter Diagnosen) muss sichergestellt werden.
Gemäß Art. 9 der DSGVO ist zur Verarbeitung von Gesundheits- und Behinderungsdaten die Einhaltung folgender Aspekte zwingend erforderlich:
Besondere Sensitivität ist bei Menschen mit eingeschränkter Entscheidungsfähigkeit gegeben - hier sind zusätzliche Schutzmaßnahmen gefordert.