CGM Global
Lösungen
Produkte
Informationen zu unseren Produkten, die Gesundheitsprofis entlang der gesamten Patient Journey unterstützen.
ARTIKEL
Über uns
Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen.
Matthias Samwald, außerordentlicher Professor am Institut für Artificial Intelligence der MedUni Wien, im ÖKZ-Brennpunkt-Interview über den AI Act und warum es den Code of Practice braucht.
Matthias Samwald: "General-Purpose AI bezeichnet Systeme, die nicht nur für einen einzelnen Anwendungsfall trainiert sind, sondern über viele Domänen hinweg einsetzbar sind. ChatGPT ist ein Beispiel dafür: Man kann es auf unterschiedlichste Fragestellungen ansetzen – manchmal liefert es gute Antworten, manchmal nicht. Das unterscheidet es grundlegend von einem Schachcomputer oder einem spezialisierten Klassifikationsalgorithmus. Damit sind wir auf einem Weg hin zu Systemen, die man bisher nur aus Science-Fiction kannte, die aber in absehbarer Zeit Realität werden können."
"Das Rahmenwerk des AI Acts definiert Ziele. Der Code of Practice soll diese Ziele in konkrete, pragmatische und wirksame Maßnahmen übersetzen. Ich habe als Co-Chair das Kapitel „Safety and Security“ mitgestaltet. Dabei ging es darum, selektiv Regeln für die mächtigsten KI-Systeme – die sogenannten Frontier-AI-Systeme – zu entwickeln. Diese Systeme bieten großes Potenzial, bergen aber auch systemische Risiken. Unsere Aufgabe war es, in Zusammenarbeit mit einer großen Gruppe von Stakeholdern – Unternehmen wie OpenAI, Google oder Mistral, Vertreter der europäischen Industrie, Zivilgesellschaft, Wissenschaft und Behörden – praktikable Wege zu finden, wie diese Risiken reduziert werden können."
"In einem Stakeholder-Prozess zeigt sich die ganze Spannweite der Meinungen. Ein und dasselbe Dokument gilt für die einen als Überregulierung, für andere als völlig unzureichend. Dazu kommen viele Eigeninteressen – verständlich, denn es geht um eine Industrie, die wohl die größte unserer Zeit sein wird. Unsere Aufgabe war es, eine Balance zwischen diesen Perspektiven zu finden. Das war schwierig. Am Ende haben alle großen KI-Unternehmen den Code of Practice unterzeichnet. Damit liegt erstmals ein Konsensdokument vor, an das sich die großen Player halten wollen."
"Die stärkste rechtliche Wirkung hat der AI Act. Unser Code of Practice zeigt, wie man dessen Vorgaben konkret erfüllt – vor allem bei mächtigen Frontier-AI-Modellen. Der Code ist daher keine bloße Empfehlung, sondern eines der international stärksten Rahmenwerke mit Leuchtturmwirkung, auch in die USA und nach China."
"Unsere Gruppe am Institut für Artificial Intelligence war eine der wenigen in der EU, die sehr früh das Potenzial dieser Technologien erkannt hat. Wir haben den „Big Picture“-Ansatz verfolgt, während Europa insgesamt vieles verschlafen hat. Large-Language-Models existierten bereits vor ChatGPT, fanden aber kaum Beachtung. Erst als ChatGPT kam, wurde man in Europa gezwungen, die Relevanz zu erkennen. Jetzt fokussiert sich alles auf LLMs, doch die eigentliche Entwicklung geht viel weiter: In fünf bis zehn Jahren werden wir noch mächtigere Systeme sehen, die weit größere Transformationen auslösen."
"Für die aktuellen Technologien ist die Aufmerksamkeit durchaus da. Was mir allerdings fehlt, ist der Blick von Gesellschaft und Politik nach vorne: Wo stehen wir, wenn sich die Entwicklung fünf oder zehn Jahre fortschreibt? Hier sehe ich meine Aufgabe, Bewusstsein zu schaffen und die nötigen Technologien und regulatorischen Rahmenwerke vorzubereiten. Im Moment wirkt es so, als ob Politik und Realität in zwei Welten leben: Während die Politik darüber diskutiert, wie man Menschen bis 70 arbeiten lassen kann, sprechen wir in der KI-Community darüber, dass in zehn Jahren ein großer Teil der Arbeit von Maschinen übernommen werden könnte. Diese Diskrepanz ist eklatant – und sie entscheidet darüber, wie vorbereitet Europa auf die nächste Stufe der KI-Entwicklung sein wird."
Quelle: ÖKZ 5/2025, 66. Jahrgang, Springer Verlag.