Chiara Kucharski spricht mit Karl Olsberg künstliche Intelligenz
Dass „Futuristisches“ immer weniger mit Science-Fiction und vielmehr mit unserer Realität zu tun hat, wird immer deutlicher. Waren bislang interaktive Geschichten und technische Gedankenspiele ein großer Teil von Karl Olsbergs Wirken, ruft der Bestseller-Autor und Unternehmer nun im neuen Jahr auf seinem YouTube-Kanal die Reihe „Konsequenzen der KI“ ins Leben und möchte mit mehr Realismus auf die drängenden Aufgaben der Gegenwart aufmerksam machen. Chiara Kucharski spricht mit Karl Olsberg über spannende, aktuelle und unvermeidbare Bereiche unseres Jetzt und die Verantwortung für künstliche Intelligenz.
SCHLAUER ALS DER MENSCH VERTRÄGT?
Sie haben schon vor dreißig Jahren zu künstlicher Intelligenz promoviert. Wie definieren Sie moderne KI?
KI heute ist selbstlernend. Künstliche neuronale Netze simulieren im Prinzip das, was ähnlich wie bei uns im Gehirn vorgeht, und werden dann trainiert. Das funktioniert ganz toll und man kennt sicherlich erfolgreiche Beispiele wie AlphaGo, das den amtierenden Weltmeister im Go geschlagen hat, zum Erstaunen aller Experten. Etwa ein Jahr später hat sich dieses System das Spiel komplett selbst beigebracht, ohne jeglichen menschlichen Input. Das zeigt, wie unglaublich mächtig dieser Ansatz ist. Er hat aber auch einen Haken.
Welcher ist das?
Der Haken ist, dass man den Ansatz nicht mehr versteht. Wir wissen heute nicht genau, wie die KI funktioniert, die wir täglich benutzen.
Also droht Kontrollverlust?
So kann man es sehen. Es ist nicht so, dass man automatisch die Kontrolle verliert. Das Problem ist, dass wir nicht mehr genau verstehen, was so ein System entscheidet. Wir automatisieren Entscheidungen. Das kann eine gute Idee sein. Beim Autofahren können Maschinen das auf Dauer sicher besser als wir. In anderen Bereichen ist das auch so, wie in der Medizin und vielem mehr. Es gibt aber Beispiele, die zu abstrusen Ereignissen führen.
Zum Beispiel?
Eine Plattform, auf der Bewerber für einen Job ausgewählt werden sollen. Dann entscheidet diese Plattform, ob ich zu einem Vorstellungsgespräch eingeladen werde. Das hat der Bayrische Rundfunk mal unter die Lupe genommen und festgestellt, dass da alles Mögliche eine Rolle spielt, nur nicht die Qualifikation des Bewerbers.
Sondern?
Da spielten Faktoren eine Rolle wie: Wie sieht er aus, welche Kleidung trägt er, wie ist die Beleuchtung und sogar die Auswertung des Hintergrundes. Hängt ein Bild an der Wand? Steht da ein Bücherregal? Das hatte alles Einfluss darauf, ob der Kandidat als geeigneter Bewerber eingestuft wurde. Das System sagt, der Bewerber sei geeignet oder nicht, aber wir verstehen oft nicht mehr, auf welchen Grundlagen das System entscheidet.
Das ist interessant, weil bei Menschen doch teils auch aus persönlichen Gründen, wie Sympathie oder Erscheinungsbild, eingestellt wird.
Stimmt. Man kann aber zumindest versuchen, mit den Personen zu sprechen oder über die Kriterien zu reden, auch wenn die Gründe eventuell nicht immer stimmen. Aber diese Vorurteile gibt es beim Menschen natürlich auch. Gerade deswegen bin ich der Ansicht, sollte eine Maschine diese Vorurteile nicht haben. Wir nahmen an, dass es die Qualität des Bewerbers beurteilt, aber tatsächlich hat es irgendwas beurteilt. Die Prozesse sieht man dem System nicht an. Wir wissen dann nicht mehr, warum die KI Dinge tut und sagt.
Es gibt in der Tech-Branche auch Leute, die KI harmlos finden.
Grundsätzlich glaube ich schon, dass es gute Anwendungen von KI gibt. Natürlich kann KI nützlich sein. Unser Problem ist eigentlich nicht die künstliche Intelligenz, sondern die menschliche Dummheit. Die Art und Weise, wie wir KI einsetzen, ist das Problem. Ich halte es für naiv, zu glauben, dass so eine Technologie nicht gefährlich ist. Das ist die mächtigste Technologie, die wir je erfunden haben. Bislang war auch jede andere Technologie, die wir erfunden haben, gefährlich.
An welche denken sie da?
Das fing mit dem Feuer an. Damit kann man Suppe kochen oder ein ganzes Dorf abfackeln. Man muss lernen, damit umzugehen. Das hat ganz schön lange gedauert, bis wir zu Brandschutzverordnungen und Co. kamen. Bei der KI ist es schlimmer, weil die Risiken noch größer sind. Wir haben keine Jahrhunderte Zeit, um zu lernen, wie man mit KI umgeht. So leistungsfähig, wird es nicht lange dauern, bis KI schlauer ist als der Mensch.
„Die Menschheit befindet sich aktuell in der Phase größtmöglicher Verletzlichkeit.“
Richtig. Der Satz stammt ursprünglich von Toby Ord. Ein Oxford-Philosoph, der das in seinem Buch „The Precipice“ (Der Abgrund) beschreibt. Der Mensch war seit den letzten hunderttausend Jahren, seit es den „modernen“ Menschen gibt, nie in der Situation, sich wirklich komplett selbst zerstören zu können. In die Situation kommen wir jetzt. Man könnte auch sagen, da sind wir jetzt drin – seit den letzten paar Jahrzehnten, seit Erfindung der Atombombe.
Warum ist die Menschheit jetzt noch „verletzlicher“?
Wir erfinden immer neue Technologien, mit denen wir in der Lage sind, uns umzubringen. Wenn wir das Glück haben, es zu schaffen, mit diesen Technologien umzugehen, dann ist die Wahrscheinlichkeit, dass wir als Menschheit noch komplett ausgelöscht werden, irgendwann sehr niedrig. Zum einen weil wir gelernt haben, mit diesen Technologien umzugehen, zum anderen weil wir es irgendwann schaffen, uns im Weltraum auszubreiten.
Okay.
Toby Ord sieht da tatsächlich ein Zukunftspotenzial von Millionen Jahren. Man könnte sagen, dass wir theoretisch noch ganz am Anfang der Menschheit stehen. Aber dafür müssen wir Möglichkeiten schaffen. Das Thema ist komplett unterbeachtet, gemessen an der Dimension dieses Problems. Es gibt weniger als eine Handvoll Institute weltweit, die sich ernsthaft mit dem Thema beschäftigen. Es gibt kein einziges innerhalb der EU.
Wo beschäftigt man sich mit dem Thema?
In Amerika wurde ich beim AI Safety Camp angenommen; das ist eine Initiative, eigentlich für junge Leute, die in dem Bereich arbeiten. Sie diskutieren über Lösungsmöglichkeiten. Die meisten sind im Durchschnitt halb so alt wie ich, ich hoffe aber, dass ich trotzdem meinen Beitrag dazu leisten kann. Selbst kluge junge Köpfe aus Deutschland orientieren sich ins Ausland, weil hier dahingehend nichts passiert. Das würde ich schon gern ändern.
Gibt es Ansätze oder Vermutungen, was man tun kann?
Es gibt vage Ideen. Das Grundproblem ist das sogenannte Midas-Prinzip. Die Geschichte von König Midas kennen Sie vielleicht. Er wünschte sich vom Gott Dionysos, dass alles, was er anfasst, zu Gold wird. Was dazu führte, dass er nichts mehr zu essen hatte und seine Tochter zu einer goldenen Statur wurde. Das Problem der menschlichen Gier war schon den alten Griechen bekannt.
Im übertragenen Sinne?
Wir wünschen uns heute von den KI allen möglichen Kram, den wir nicht wirklich brauchen, der auch nicht gut für uns ist. Der KI ist es egal, ob die ganze Welt aus Gold besteht, und hat keinerlei ethische oder moralische Wertmaßstäbe, die sie hindern. Die Frage ist also, wie gebe ich einer Maschine, die quasi superintelligent ist, ein Ziel, das am Ende nicht dazu führt, dass wir uns damit selbst zerstören. Das ist nicht einfach, wenn jedes Ziel, das man so explizit formulieren kann, dazu führt, dass die Maschine am Ende Quatsch macht.
Quatsch?
Das wohl bekannteste Beispiel ist der sogenannte Büroklammer-Optimierer. Zur Vorstellung: Es gibt eine Maschine, deren einziges Ziel es ist, möglichst viele Büroklammern herzustellen. Das Erste, was sie machen wird, ist verhindern, dass sie abgeschaltet wird. Denn dann kann sie keine Büroklammern mehr herstellen. Also ein unvermeidliches Teilziel. Weil sie intelligenter ist als wir, wird sie das auch schaffen. Der Effekt wird sein, dass die ganze Welt aus Büroklammern besteht.
Pardon, da muss ich kurz lachen.
Das ist natürlich ein extremes Beispiel, bewusst auch gehörig ironisch. Aber das gilt eigentlich für fast jedes Ziel. Nehmen wir mal an, ich würde der Maschine sagen: „Ich möchte, dass alle Menschen glücklich und zufrieden sind.“ Dann würde das wahrscheinlich nicht so ausgehen, wie wir uns das gerne vorstellen. Das könnte dann so aussehen, dass die Maschine uns alle unter Drogen setzt … oder sie würde jeden Menschen, der nicht glücklich ist, töten. Oder aufhören, wenn sie den einen Moment maximalen Glücks eingefangen hat.
Klingt skurril, aber die Problematik wird klar.
Sie könnte das Ziel komplett anders interpretieren, als wir es gemeint haben. Ein möglicher Ansatz ist, dass wir der Maschine nicht explizit sagen, was sie machen soll, sondern sie muss es selbst herausfinden, indem sie uns beobachtet. Wir müssen vage bleiben und ihr sagen: „Denk dir, was unser Ziel sein könnte, und wir bewerten dann hinterher, ob du recht damit hattest.“
Verstehe.
Das könnte dazu führen, dass die Maschine durch Vagheit das Ziel hat, genau herauszufinden, was die Menschen möchten und mit ein bisschen Glück eben nicht den größten Quatsch macht. Aber auch dann kann man immer noch nicht genau sagen, wie die Maschine Aufgaben umsetzt und interpretiert. Im Zweifelsfall hätten wir dann eine Lösung gefunden, die aber niemand anwendet und kaufen will, weil sie so widerspenstig agiert.
Natürlich.
Wir können einfach nicht davon ausgehen, dass eine intelligente KI nett ist und unsere Werte teilt. Von selbst wird das zumindest nicht passieren. Von daher: Noch ist es ein theoretisches Problem, aber es wird zu einem praktischen Problem, wenn wir es jetzt nicht rechtzeitig angehen. Wir haben jetzt noch die Zeit und die Chance.
INFO
Karl Olsberg
Eigentlich Karl-Ludwig Max Hans Freiherr von Wendt (Jahrgang 1960), ist Bestseller-Autor von Zukunftsthrillern und Jugendromanen sowie Gründer verschiedener erfolgreicher Start-ups. Er studierte BWL in Münster und schrieb seine Dissertation über künstliche Intelligenz. Angesichts der Aktualität hat er es sich zur Aufgabe gemacht, die Diskussion rund um Problematiken von KI zu fördern und auf die Risiken aufmerksam zu machen. Der Schriftsteller und Unternehmer lebt in Hamburg.
Autorin Chiara Kucharski / Illustration Thorsten Kambach / Fotos Pressefotos
Erstmalig erschien dieser Text in Stadtgeflüster Interview März 2022
Alle Rechte bei Stadtgeflüster – das Interviewmagazin vom