„Der Mensch ist Teil einer digitalen Zivilisation“
Der Bremer Informatiker und KlarText-Preisträger der ersten Stunde Rainer Malaka ist einer der führenden Forschenden zur Künstlichen Intelligenz (KI). Mit Blick auf die neuen Technologien bezeichnet er sich als „notorischen Optimisten“. Ein Gespräch über eine menschenzentrierte KI – und darüber, was wir von abstürzenden Flugzeugen lernen können
Herr Malaka, wie halten Sie es eigentlich mit Videospielen?
Das ist ein richtig cooles Forschungsthema! Kennen Sie das Spiel „Half Life: Alyx“?
Nein, noch nie gehört.
Das ist ein Virtual-Reality-Spiel, das ich unlängst probiert habe. Ich teste immer wieder mal neue Spiele, hier am Institut habe ich eine richtige Bibliothek mit Spielen.
In Ihrer Forschung beschäftigen Sie sich viel mit Künstlicher Intelligenz. Was hat die mit Spielen zu tun?
Mich interessiert generell, wie Mensch und Computer miteinander agieren, und da sind Spiele ein interessantes Beobachtungsfeld. Aber gehen wir einen Schritt zurück: Die Lust am Spielen ist bei allen höheren Tieren zu beobachten. Denken Sie an Katzen. Das Spielen ist etwas Positives, weil das Gehirn dadurch lernt, sich in unbekannten Umgebungen zurechtzufinden. Wie Menschen sich in Computerspielen bewegen, ist für die Forschung hoch spannend – und natürlich auch für die Weiterentwicklung der KI.
Zur Person
Rainer Malaka ist Professor für Digitale Medien an der Universität Bremen. Er leitet das Technologie-Zentrum Informatik und Informationstechnik (TZI) und ist Sprecher des von der Klaus Tschira Stiftung geförderten Graduiertenkollegs „Empowering Digital Media“. Zu seinen Forschungsschwerpunkten gehören neben Künstlicher Intelligenz auch multimodale Interaktion, Sprachverstehen und Entertainment Computing. Im Jahr 1997 wurde er für seine verständliche Doktorarbeit mit dem Vorläufer des heutigen KlarText-Preises ausgezeichnet.
Erinnern Sie sich an Ihren ersten Kontakt mit der KI?
Das war während meines Studiums in den 1980ern. Die KI ist ja in den 1960er-Jahren erfunden worden. Damals gingen die Erfinder davon aus, dass es sich um ein einfaches Problem handelt, das in zwei Jahren gelöst ist – bis sich dann herausgestellt hat, dass es doch sehr viel schwieriger ist und sehr viel länger dauert. Mich selbst hat das Thema in meiner Studienzeit gepackt. Schon damals habe ich die KI mit Fragestellungen aus der Kognitionswissenschaft verbunden: Wie denken eigentlich Menschen – und was können wir wechselseitig voneinander lernen?
Die Öffentlichkeit erlebte ja erstmals 1996, was für eine gewaltige Kraft in der KI steckt – nämlich als der Supercomputer Deep Blue den Schachweltmeister Garri Kasparow schlug.
Das war dieser Supercomputer, der so groß war wie ein Kleiderschrank. Das Witzige ist: Seine Rechenkapazität steckt heute in jedem Smartphone. Die damalige KI basierte vor allem auf Suchalgorithmen. Von allen denkbaren Lösungen muss man die beste finden – das war der technische Ansatz. Die heutige KI funktioniert ein bisschen anders, sie setzt auf Statistik. Das ist das Machine Learning, von dem so viel die Rede ist: Gesucht wird nicht nach Lösungen, sondern es werden Antworten generiert, die so ähnlich sind wie diejenigen, die der Computer schon gesehen hat.
Was interessiert Sie als Forscher an dieser Technik?
Zwei Seiten: Erstens, wie der Mensch mit der KI umgeht. Nehmen Sie zum Beispiel einen Chatbot, also einen Algorithmus, der automatisch auf Fragen reagiert. Wir haben untersucht, welche Faktoren die Interaktion von Nutzerinnen und Nutzern mit Chatbots beeinflussen: Was passiert zum Beispiel, wenn die Antworten höflicher oder weniger höflich formuliert sind? Da geht es also um den konkreten Anwendungsbezug. Das zweite Thema ist die Technik dahinter. Man merkt immer wieder, dass die Systeme bei ihren Antworten überhaupt nicht verstehen, worum es geht.
Haben Sie dafür ein Beispiel?
Na klar: Neulich hat eine neuseeländische Supermarktkette eine Anwendung auf ihre Homepage gestellt, mit der die Kundschaft Kochrezepte generieren konnten. Wer wollte, nannte Zutaten, die gerade im Kühlschrank waren, und ließ sich daraus von der KI ein Rezept entwickeln. Die Leute haben dann zum Beispiel geschrieben, dass sie Tomaten, Gurken und Schokokekse haben, und die KI schlug dann frittierte Kekse mit Salat vor. Einige Witzbolde haben dann auch Chlorreiniger oder Insektenspray auf die Zutatenliste gesetzt. Was machte die KI? Generierte daraus gnadenlos Rezepte, die natürlich teils ziemlich giftig waren.
Kann man so etwas der KI nicht beibringen?
Ja, natürlich. Das grundlegende Problem bleibt aber bestehen: Die Technik hat keinerlei tieferes Verständnis für die Zusammenhänge. Ich würde gern dazu beitragen, das zu ändern, und die Algorithmen mit einem tieferen Verstehen versehen. Dieser Gedanke steckt hinter dem MUHAI-Projekt („Meaning and Understanding in Human-centric AI“), an dem ich beteiligt bin: Mit einem internationalen Team aus Forscherinnen und Forschern wollen wir herausfinden, wie sich der Mensch in den Mittelpunkt der KI stellen lässt. Soziales Wissen und Erfahrungswissen zum Beispiel sind zwei Kategorien, die dafür eine Rolle spielen – bei vielen KI-Systemen aber außen vor bleiben.
Ist es bei der KI eigentlich so ähnlich wie bei den Hackerinnen und Hackern, wo es die Guten und die Bösen gibt – die Ethischen und die Unmoralischen?
Nein, das würde ich nicht sagen. Es gibt eher die Vertreterinnen und Vertreter der linken und der rechten Gehirnhälfte.
Wie meinen Sie das?
Die rechte Gehirnhälfte ist beim Menschen für schnelle, assoziative Gedanken zuständig. Das entspricht dem, was ChatGPT und die anderen Anwendungen des maschinellen Lernens machen. Wenn sie eine neue Anfrage bekommen, dann antworten sie auf der Basis großer Datenmengen assoziativ. Das geht verblüffend schnell und oft verblüffend gut. Darauf stürzt sich gerade die Industrie, weil dieser Bereich eben beeindruckende Effekte hervorbringt. Aber dann gibt es noch die linke Gehirnhälfte, die für das rationale Denken zuständig ist und oft ziemlich lang braucht.
Und Sie wollen diese linke Gehirnhälfte auf den Computer übertragen?
Genau, das ist der Gedanke hinter unserem MUHAI-Projekt. Aber mit Gut und Böse hat das nichts zu tun. Wir Menschen haben ja auch beide Hirnhälften. Für den Alltag reicht uns ein schnelles, assoziatives Denken. Aber ab und zu sollten wir eben doch ein bisschen mehr nachdenken.
Es klingt so harmlos, wenn Sie das sagen. Trotzdem forderten führende KI-Forschende unlängst ein Moratorium. Damit wollen sie verhindern, dass die Künstliche Intelligenz irgendwann das Kommando über den Menschen übernimmt.
Die Informatik-Community hat zu lange gesagt: „Wir bauen ja nur die Technik, und irgendwelche Ethiker sollen sich um die Regeln kümmern, wie sie dann eingesetzt wird.“ Das halte ich für zu einfach, denn natürlich müssen wir Informatikerinnen und Informatiker auch unsere Verantwortung wahrnehmen. Politik und Rechtsprechung hinken immer zehn, zwanzig Jahre hinterher: Sie verstehen am Anfang gar nicht, was wir da bauen und welche Möglichkeiten sich daraus ergeben. Es findet aber bei den Informatikerinnen und Informatikern gerade ein Umdenken statt, und die Forderung nach dem KI-Moratorium zeigt das ja sehr gut.
Trotzdem: Haben Sie manchmal Sorge, dass die KI den Menschen über den Kopf wächst?
Spannend, wie die Leute sich jetzt auf einmal an ChatGPT reiben. Ich empfinde das nicht als Bedrohung. Mir bereitet es viel mehr Sorgen, wie die Menschen mit ihrer Privatsphäre umgehen. Wir sprechen da vom Privacy Paradox: Wenn Sie irgendwo am Bahnhof in einer Zeitschrift blättern und hinter Ihnen steht jemand, der sich Notizen macht, wie lange Sie auf welcher Seite bleiben und welche Bilder Sie sich anschauen, würden Sie vermutlich die Polizei rufen. Aber gleichzeitig bauen sich die Leute Siri oder Alexa ins Wohnzimmer ein, und deren Mikrofone hören den ganzen Tag im Prinzip alles mit, was dort passiert. Wer in der Welt von Facebook, Amazon, Instagram oder TikTok lebt, über den hat heute schon jemand eine Art von Herrschaft. Da müssen wir nicht auf irgendeine KI warten.
Aber was wollen Sie mit der menschenzentrierten KI denn anders machen?
Ich wünsche mir, dass wir durch die Interaktion mit künstlichen Systemen mehr Freiheiten gewinnen – und sie nicht verlieren oder die Steuerung abgeben. Ich ziehe immer gern ein Beispiel aus der Mensch-Maschine-Interaktion heran, nämlich den Autopiloten in Flugzeugen: Der funktioniert über Stunden hinweg zuverlässig, aber dann kommt die Maschine in ein Unwetter, die Instrumente fallen aus und das Flugzeug ist im freien Fall. In diesem Moment schaltet sich der Autopilot ab und sagt: Pilot, übernimm du! Und der muss dann innerhalb weniger Sekunden entscheiden, was zu tun ist. Das geht nicht immer gut aus, weil er nicht weiß, wie es zu der Situation gekommen ist. Übertragen auf die Künstliche Intelligenz bedeutet das: Wir Menschen sollten immer die Fäden in der Hand behalten und nicht vor fertige Entscheidungen der KI gestellt werden.
Ist das ein Plädoyer für eine andere KI?
Ich wünsche mir auf jeden Fall eine erklärbare und erklärende KI. Sie darf keine Blackbox sein, wo nachher niemand weiß, wie ihre Entscheidungen zustandegekommen sind. Es soll eine KI sein, die interaktiv ist und den Menschen mitnimmt, statt ihn außen vor zu lassen. Kurzum: Ich finde, der Mensch ist Teil einer digitalen Zivilisation – aber er muss aktiv und mündig bleiben.