CompuGroup Medical
Synchronizing Healthcare

Erfahren Sie alles über die Vision, Mission sowie die Menschen, die die CompuGroup Medical weltweit prägen. 

Investor Relations
Eine Person tippt mit dem Finger auf ein Tablet-PC mit einer Investor-Relations-Präsentation
Karriere
Eine junge Frau telefoniert mit ihrem Smartphone, während sie einen Tablet-PC hält
CGM Global
Mehrere CGM-Flaggen

Superintelligente Maschinen könnten wir nicht kontrollieren

19. März 2021 | QUALITAS Redaktion
Künstliche Intelligenz / Roboter
Künstliche Intelligenz / Roboter

Neue Erkenntnisse aus der theoretischen Informatik: Maschinen, die Autos steuern, Symphonien komponieren oder Menschen in Schach, Go oder Jeopardy besiegen, faszinieren uns. Während in der Künstlichen Intelligenz (KI) ständig neue Fortschritte gemacht werden, warnen einige Wissenschaftler und Philosophen vor den Gefahren einer unkontrollierbaren, superintelligenten KI. Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren. Die Studie ist im Journal of Artificial Intelligence Research erschienen. 

Angenommen, jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen? 

Computerwissenschaftler und Philosophen stellen sich die Frage, ob wir eine superintelligente KI überhaupt kontrollieren könnten, sodass sie der Menschheit nicht schadet. Ein internationales Team von Computerwissenschaftlern zeigt anhand theoretischer Berechnungen, dass es grundsätzlich unmöglich ist, eine superintelligente KI zu kontrollieren. 

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbstständig erledigen, ohne dass Programmierer komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ im Forschungsbereich Mensch und Maschine am MaxPlanck-Institut für Bildungsforschung und Co-Autor der Studie. 

Wissenschaftler weltweit haben zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte. Zum einen könnte man die Ressourcen der superintelligenten KI gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet, sodass sie keinen Kontakt zur Außenwelt hat – doch würden dadurch auch die Fähigkeiten der superintelligente KI deutlich geringer sein. Die großen Menschheitsprobleme würde sie so nicht lösen. Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Doch zeigen die Forscher, dass diese und andere historischen oder aktuellen Ideen, die superintelligente KI zu kontrollieren, ihre Grenzen haben. Das Forscherteam konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse dieses Algorithmus, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. 

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. 

Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. 

 

Originalstudie: 

Alfonseca, M., Cebrian, M., Fernández, A., Coviello L., Abeliuk A., & Rahwan I. (2021). Superintelligence cannot be contained: Lessons from Computability Theory. Journal of Artificial Intelligence Research. https://doi.org/10.1613/jair.1.12202 Quelle: Max-Planck-Institut für Bildungsforschung, Berlin. www.mpib-berlin.mpg.de 

Verwandte Artikel
Warum künftige Mediziner eine KI-Aus­bildung brauchen

Basiskompetenzen der Künstlichen Intelligenz werden zwingender ...

Bessere Versorgung durch verlaufs­be­zogene Onko­logie­register

Jährlich erkranken ca. 40.000 Menschen in Österreich an Krebs. ...