CompuGroup Medical
Synchronizing Healthcare

Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen. 

Investor Relations
Eine Person tippt mit dem Finger auf ein Tablet-PC mit einer Investor-Relations-Präsentation
Karriere
Eine junge Frau telefoniert mit ihrem Smartphone, während sie einen Tablet-PC hält
CGM Global
Mehrere CGM-Flaggen

Matthias Samwald: „Politik und Realität leben in zwei Welten“

10. November 2025 | Josef Ruhaltinger
Matthias Samwald, außerordentlicher Professor am Institut für Artificial Intelligence der MedUni Wien.
Matthias Samwald, außerordentlicher Professor am Institut für Artificial Intelligence der MedUni Wien.

Matthias Samwald, außerordentlicher Professor am Institut für Artificial Intelligence der MedUni Wien, im ÖKZ-Brennpunkt-Interview über den AI Act und warum es den Code of Practice braucht.

Herr Samwald, Sie haben in einem EU-weiten Projekt als Co-Chair eine Arbeitsgruppe geleitet und dabei den „General-Purpose AI Code of Practice“ mitgestaltet. Wie erfüllt man eine EU-Norm wie den AI Act mit Leben?

Matthias Samwald: "General-Purpose AI bezeichnet Systeme, die nicht nur für einen einzelnen Anwendungsfall trainiert sind, sondern über viele Domänen hinweg einsetzbar sind. ChatGPT ist ein Beispiel dafür: Man kann es auf unterschiedlichste Fragestellungen ansetzen – manchmal liefert es gute Antworten, manchmal nicht. Das unterscheidet es grundlegend von einem Schachcomputer oder einem spezialisierten Klassifikationsalgorithmus. Damit sind wir auf einem Weg hin zu Systemen, die man bisher nur aus Science-Fiction kannte, die aber in absehbarer Zeit Realität werden können."
 

Warum braucht es den „Code of Practice“?

"Das Rahmenwerk des AI Acts definiert Ziele. Der Code of Practice soll diese Ziele in konkrete, pragmatische und wirksame Maßnahmen übersetzen. Ich habe als Co-Chair das Kapitel „Safety and Security“ mitgestaltet. Dabei ging es darum, selektiv Regeln für die mächtigsten KI-Systeme – die sogenannten Frontier-AI-Systeme – zu entwickeln. Diese Systeme bieten großes Potenzial, bergen aber auch systemische Risiken. Unsere Aufgabe war es, in Zusammenarbeit mit einer großen Gruppe von Stakeholdern – Unternehmen wie OpenAI, Google oder Mistral, Vertreter der europäischen Industrie, Zivilgesellschaft, Wissenschaft und Behörden – praktikable Wege zu finden, wie diese Risiken reduziert werden können."
 

Gab es Widerstand der Konzerne?

"In einem Stakeholder-Prozess zeigt sich die ganze Spannweite der Meinungen. Ein und dasselbe Dokument gilt für die einen als Überregulierung, für andere als völlig unzureichend. Dazu kommen viele Eigeninteressen – verständlich, denn es geht um eine Industrie, die wohl die größte unserer Zeit sein wird. Unsere Aufgabe war es, eine Balance zwischen diesen Perspektiven zu finden. Das war schwierig. Am Ende haben alle großen KI-Unternehmen den Code of Practice unterzeichnet. Damit liegt erstmals ein Konsensdokument vor, an das sich die großen Player halten wollen."
 

Welchen normativen Charakter hat der Code of Practice?

"Die stärkste rechtliche Wirkung hat der AI Act. Unser Code of Practice zeigt, wie man dessen Vorgaben konkret erfüllt – vor allem bei mächtigen Frontier-AI-Modellen. Der Code ist daher keine bloße Empfehlung, sondern eines der international stärksten Rahmenwerke mit Leuchtturmwirkung, auch in die USA und nach China."
 

Wie sind Sie als österreichischer Forscher Teil eines so großen Projekts geworden?

"Unsere Gruppe am Institut für Artificial Intelligence war eine der wenigen in der EU, die sehr früh das Potenzial dieser Technologien erkannt hat. Wir haben den „Big Picture“-Ansatz verfolgt, während Europa insgesamt vieles verschlafen hat. Large-Language-Models existierten bereits vor ChatGPT, fanden aber kaum Beachtung. Erst als ChatGPT kam, wurde man in Europa gezwungen, die Relevanz zu erkennen. Jetzt fokussiert sich alles auf LLMs, doch die eigentliche Entwicklung geht viel weiter: In fünf bis zehn Jahren werden wir noch mächtigere Systeme sehen, die weit größere Transformationen auslösen."


Hat KI in Österreich in Forschung und An­wendung genügend Aufmerksamkeit?

"Für die aktuellen Technologien ist die Aufmerksamkeit durchaus da. Was mir allerdings fehlt, ist der Blick von Gesellschaft und Politik nach vorne: Wo stehen wir, wenn sich die Entwicklung fünf oder zehn Jahre fortschreibt? Hier sehe ich meine Aufgabe, Bewusstsein zu schaffen und die nötigen Technologien und regulatorischen Rahmenwerke vorzubereiten. Im Moment wirkt es so, als ob Politik und Realität in zwei Welten leben: Während die Politik darüber diskutiert, wie man Menschen bis 70 arbeiten lassen kann, sprechen wir in der KI-Community darüber, dass in zehn Jahren ein großer Teil der Arbeit von Maschinen übernommen werden könnte. Diese Diskrepanz ist eklatant – und sie entscheidet darüber, wie vorbereitet Europa auf die nächste Stufe der KI-Entwicklung sein wird."

Quelle: ÖKZ 5/2025, 66. Jahrgang, Springer Verlag.

Matthias Samwald

ist außerordentlicher Professor am Institut für Artificial Intelligence der MedUni Wien. Er forscht zur Nutzung von KI in Biomedizin und Gesundheit, war Co-Initiator des 15-Millionen-Euro-Projekts „U-PGx“ zur personalisierten Medizin und arbeitet zu Large Language Models, Systemevaluierung und AI-Governance.

Verwandte Artikel
Android, KI Maschine.
Android, KI Maschine.
KI-Professor Sepp Hochreiter:
"Wir sind sehr träge"

Univ. Prof. Dr. Sepp Hochreiter ist Leiter des Institutes für M...

Warum künftige Mediziner eine KI-Aus­bildung brauchen

Basiskompetenzen der Künstlichen Intelligenz werden zwingender ...