Maschinen das Träumen lehren

Danko Nikolić hat einen »Kindergarten für künstliche Intelligenz« entwickelt, der Computer so schlau machen soll wie Menschen. Eine Leseprobe

Herr Professor Nikolić, was reizt Sie an künstlicher Intelligenz?

Mein Interesse an dem Thema geht auf ein Missverständnis zurück. Ich war etwa zehn Jahre alt und lebte in Kroatien, wo es zu der Zeit noch keine Computer im Laden zu kaufen gab. Einer der wenigen Rechner im Land – vielleicht sogar der einzige – gehörte zur Verwaltung der Sozialversicherung.

Er konnte natürlich noch nicht viel, war aber in den Augen vieler etwas ganz Besonderes, weshalb sich gerade unter Kindern allerhand Mythen um ihn rankten. Ich dachte beispielsweise, er könne denken wie ein Mensch. Deshalb wollte ich unbedingt auch so einen haben, wenn ich groß bin.

Als ich endlich meinen ersten Computer bekam, war ich sehr enttäuscht. Er war kein bisschen intelligent. Von da an wollte ich herausfinden, wie man intelligente Maschinen bauen kann. Diese Frage hat mich komplett eingenommen. Ich habe viel darüber gelesen und irgendwann festgestellt: Bevor das möglich ist, muss man zuerst das menschliche Gehirn verstehen.

Haben Sie es verstanden?

Teilweise, hoffentlich. Trotz unzähliger Studien gibt es allerdings immer noch keine allgemein akzeptierte Erklärung dafür, wie unsere physiologische Hardware mentale Vorgänge ermöglicht – etwa zu denken, zu entscheiden, zu handeln und wahrzunehmen. Die aktuelle Lage der kognitiven Neurowissenschaften ähnelt derjenigen der chemischen Forschung während der Blütezeit der Alchemie. Wissenschaftler beobachteten allerhand kuriose Phänomene im Labor, doch niemand hatte eine Ahnung, was genau dahintersteckte, da noch keine allumfassende Theorie über das Wesen der chemischen Elemente existierte.

Dennoch versuchen Computerwissenschaftler und Hirnforscher, künstliche Intelligenzen zu entwickeln, die der menschlichen vergleichbar sind. Ist das überhaupt möglich?

Wenn überhaupt, wird das äußerst schwer sein und sehr lange dauern. Denn Intelligenz ist nicht nur ein ausgeklügelter neuronaler Algorithmus unseres Gehirns. Auch andere Körperteile »denken« mit. Wenn wir beispielsweise Entscheidungen treffen, hören wir unter anderem auf unser Bauchgefühl. Allein das enterische Nervensystem in der Darmwand enthält rund 100 Millionen Neurone – etwa so viel wie ein Mäusegehirn. Wollen wir eine intelligente Maschine bauen, die zum Beispiel etwas ästhetisch Wertvolles schafft, wie einen künstlichen Architekten oder Komponisten, muss diese beurteilen können, ob ihr Werk positive Gefühle auslöst. Wir Menschen verlassen uns dabei nicht nur auf die Beurteilung des Gehirns, sondern ebenso auf Signale aus anderen Körperbereichen. Gänsehaut ist so ein Zeichen. Wenn uns etwas bewegt, stellen sich die Härchen auf unserer Haut auf, ohne dass wir den genauen Auslöser kennen. Maschinen kriegen keine Gänsehaut, sie müssen bei Entscheidungen auf andere Dinge zurückgreifen.

Worauf zum Beispiel?

Aktuelle KI-Systeme können lernen, was bei Menschen Gänsehaut auslöst, und nach entsprechenden Gesetzmäßigkeiten suchen. Dieses Wissen können sie dann auf neue Situationen interpolieren. Sie sind jedoch nicht in der Lage zu extrapolieren: etwas Neues zu erfinden, für das es noch keine Trainingsdaten gibt.

Es würde also gar nicht reichen, das menschliche Gehirn nachzubilden, wenn wir menschenähnliche Intelligenz erschaffen wollten?

Nein. Wir bräuchten auch noch einen Körper mit Organen wie Magen, Muskeln, Herz, Haut und so weiter. Denn diese arbeiten eng zusammen, wenn wir Entscheidungen treffen. Je mehr ein KI-System dem Menschen ähneln soll, desto exakter müssen wir die Biologie kopieren.

Wie kann das gelingen?

Ob das irgendwann überhaupt einmal möglich sein wird, ist schwer zu sagen. Zuerst müssen wir uns jedoch von der Art und Weise verabschieden, nach der heutige künstliche neuronale Netze arbeiten.

Warum? Aktuelle Systeme sind doch schon sehr erfolgreich und erledigen manche Dinge besser als Menschen, Schachcomputer zum Beispiel.

Ja, aber sie sind absolut unflexibel. Sie lernen mit Hilfe eines Trainingsdatensatzes, eine Aufgabe zu bewältigen, zum Beispiel Menschen auf Bildern zu erkennen. Mit ausreichend Übung werden sie darin sogar sehr gut. Ihnen fehlt jedoch eine entscheidende Fähigkeit: schnell auf neue Situationen zu reagieren, für die noch keine Trainingsdaten existieren. Das ist auch der Grund, warum autonome Autos immer wieder Fehler machen werden. Selbst ein einfacher PC ohne jeglichen KI-Algorithmus kann bedeutend schneller rechnen als ich und markiert alle Rechtschreibfehler in meinen Texten, noch bevor der Prozessor warm ist. Dennoch bin ich viel schlauer. Rechenleistung und Intelligenz sind nicht das Gleiche, weil Letztere Flexibilität und echtes Verstehen voraussetzt.

Die Intelligenz künstlicher neuronaler Netze kann nicht grenzenlos wachsen

Welche Lösung schlagen Sie vor?

KI-Systeme, die eine menschenähnliche Intelligenz erlangen sollen, müssen ihr Wissen anders organisieren. Aktuelle Netze bestehen aus einem Satz an Gleichungen. Anfangs sind sie völlig »leer«, das heißt, sie können nichts. Erst indem man Millionen von Parametern richtig setzt, erlangen sie ihr Wissen. Das passiert in einem mehr oder weniger aufwändigen Training. Anschließend sind alle notwendigen Fähigkeiten – als so genannte synaptische Gewichtungen – in einer Art Box enthalten. Sie enthält riesige Mengen an »Wissen« und ein paar wenige Lernregeln. Doch so funktioniert unser Gehirn nicht!

Sondern?

Das Gehirn hat nicht alles schon vorbereitet, was wir fürs Leben brauchen. Dauernd lernen wir Neues dazu und aktualisieren unsere Repräsentation der Umgebung. Wenn wir zum Beispiel morgens unsere Augen öffnen und unseren Blick durchs Schlafzimmer schweifen lassen, lernen wir immer wieder aufs Neue, was sich wo befindet – der Schrank, der Stuhl oder die Bauklötze auf dem Boden. Dann können wir durch den Raum laufen, ohne irgendwo anzustoßen. Das geschieht ständig im Leben. Die Fähigkeit, in Sekundenbruchteilen neue Dinge zu erfassen, ist fest in unserem Gehirn angelegt.

Wie könnte man künstliche neuronale Netze mit dieser Eigenschaft ausstatten?

Ich habe dazu eine neue Theorie entworfen, die ich Practopoiesis nenne – von altgriechisch »prâxis«, Handlung, und »poíēsis«, Schaffen. Ihr zufolge müssten KI-Systeme viel mehr Speicherkapazität auf Lernregeln verwenden und deutlich weniger auf bereits vorbereitetes Wissen in der besagten »Box«. Sie soll nur enthalten, was für die momentane Situation vonnöten ist, also eine Art Arbeitsgedächtnis darstellen. Intelligente Maschinen müssten daher auf zwei Lernsystemen aufbauen, einem langsamen und einem schnellen. Das langsame vermittelt letzterem, wie man schnell lernt, und dieses wiederum passt das Netz an neue Situationen an. Es ermöglicht dem Algorithmus rasch, anhand nur eines Beispiels zu lernen, weil es auf das Wissen der langsamen Lernebene zurückgreifen kann. Das ist natürlich sehr aufwändig und kostet vor allem Zeit – wie im echten Leben. Der Vorteil aber ist, dass solche Systeme deutlich flexibler sind. Nur so wird eine künstliche Intelligenz in der Lage sein, die Welt zu verstehen. Klassische KI-Systeme können das nicht.

Arbeitet das menschliche Gehirn nach dem gleichen Prinzip?

Nach meiner Theorie ja. In unseren Genen sind bestimmte generelle Lernregeln angelegt. Über die Genexpression werden Proteine beispielsweise für Membrankanäle oder Rezeptoren hergestellt, die es den Nervenzellen im Gehirn ermöglichen, ihre Arbeitsweise zu justieren. Dieser Vorgang entspricht den Aufgaben der langsamen Ebene, welche wiederum dem schnellen Lernsystem erlauben, sich rasch auf neue Situationen einzustellen. Im Gehirn geschieht das durch die Aktionen der neuen Membrankanäle und Rezeptoren.

Die Gene sind im Zuge der Evolution über Millionen von Jahren hinweg entstanden und haben sich immer weiter optimiert. Ein vergleichbares Maschinengenom in einem Bruchteil der Zeit zu erstellen, erscheint utopisch.

Wir haben natürlich nicht so viel Zeit. Deshalb müssen wir versuchen, so viele Eigenschaften wie möglich vom menschlichen auf das Maschinengenom zu übertragen. Dazu habe ich ein Lernprotokoll entwickelt, das ich KI-Kindergarten nenne, weil es viele Parallelen zur Kindheitsentwicklung aufweist.

Wie funktioniert es?

Das Grundprinzip des KI-Kindergartens ist die Interaktion zwischen Maschinen und Menschen. Anfangs sind die Maschinen noch dumm und unerfahren, sie bekommen jedoch permanent Feedback, ähnlich wie ein Kind von seinen Eltern. Die Erwachsenen spielen und beschäftigen sich mit ihm, sie loben es, wenn es etwas richtig gemacht hat, beziehungsweise weisen es bei Fehlverhalten zurecht. Das Gleiche soll mit den Maschinen geschehen. Was sie auf diese Weise gelernt haben, geben sie an andere Roboter weiter.

Das heißt, ein intelligentes System kann niemals aus nur einer isolierten Maschine bestehen?

Genau. Denn sie muss immer wieder Rückmeldung von Menschen und anderen Maschinen bekommen. Und je mehr solcher Erfahrungen zeitgleich gesammelt und ausgetauscht werden, desto effizienter erlangt das Gesamtsystem die notwendigen Kompetenzen. Nehmen wir an, 100 Menschen trainieren jeweils einen kleinen Roboter. Alle 100 kleinen künstlichen Intelligenzen trainieren anschließend gemeinsam eine große, die wiederum ihr Gesamtwissen an jeden einzelnen kleinen Roboter zurückgibt. Diese interagieren dann erneut mit Menschen und erhalten Feedback von ihnen, um schließlich ihre neuen Erfahrungen wieder an den großen Roboter weiterzugeben. Diesen Kreislauf muss man immer wieder durchlaufen. Ein wenig erinnert der Prozess an das, was während des Schlafs in unserem Gehirn vorgeht.

Inwiefern?

Unsere Träume haben unter anderem den Zweck, die Dinge, die wir am Tag gelernt haben, mit vorhandenem Wissen zu verknüpfen. Über Nacht werden die Membrankanäle und Rezeptoren so justiert, dass neue Lerninhalte mit älteren abgeglichen werden. Dies ist eine große Herausforderung für die KI-Forschung. Wenn wir ein herkömmliches künstliches neuronales Netz trainieren, wiederholen wir ein und dasselbe Beispiel unzählige Male. Wollen wir ihm etwa beibringen, Autos und Blumen zu erkennen, müssen wir ihm dieselbe Anzahl an Auto- und Blumenbildern in zufälliger Reihenfolge präsentieren. Nur so sind die zwei Repräsentationen im System ausgeglichen. Würde es mit einer Million Autofotos, aber nur zehn Blumenbildern trainiert, würde es alle Dinge für Autos halten. Für Kinder dagegen reicht eine einzige Blüte aus, um zu begreifen, was das Wesen einer Blume ausmacht. Denn ihr Gehirn kann über Nacht das neu Gelernte mit dem bereits vorhandenen Wissen verknüpfen.

Das chinesische Zimmer – was Maschinen (nicht) können

Einem Computer, der Fragen beantworten oder Schach spielen kann, würden viele ein gewisses Maß an Intelligenz zuschreiben. Aber ist diese wirklich vergleichbar mit dem menschlichen Denkvermögen? Schon vor Jahrzehnten diskutierten Experten diese Frage. Der Philosoph John Rogers Searle (* 1932) von der University of California in Berkeley gehörte dabei von Anfang an zu den Zweiflern.

Um zu widerlegen, dass Computer denken können, entwarf er 1980 ein berühmtes Gedankenexperiment: Ein Mann befindet sich in einem geschlossenen Raum. Durch einen Türschlitz schiebt ihm jemand einen Zettel mit einer Geschichte in chinesischer Schrift zu. Weil der Mann die chinesische Sprache nicht beherrscht, kann er die Zeichen nicht entziffern und die Geschichte somit nicht verstehen. Ein zweiter Zettel kommt durch den Schlitz, diesmal mit Fragen zum Inhalt der Geschichte, wieder in chinesischer Schrift. In dem Raum befindet sich jedoch ein Handbuch mit Transformationsregeln, eine Art Datenbank mit chinesischen Sätzen. Der Mann malt die zu den Fragen passenden Zeichenfolgen aus dem Handbuch auf einen Zettel und reicht ihn aus dem Zimmer heraus. Ein Chinese liest die Sätze und kommt zu dem Urteil, der Mann in dem Raum habe die Geschichte verstanden. Dabei hat er nur die vorgegebenen Regeln befolgt, ohne zu begreifen, worum es ging.

Laut Searle entspräche dies der Arbeitsweise einer Maschine mit (vermeintlicher) künstlicher Intelligenz. Sie kann lediglich Syntaxregeln korrekt anwenden, ohne die Bedeutung zu erkennen. Der Philosoph bezeichnete sie daher als System mit »schwacher Intelligenz«. Ein künstliches neuronales Netz mit »starker Intelligenz« müsse hingegen die Semantik verstehen – so wie Menschen es tun.

Wie lange müsste eine Maschine den KI-Kindergarten besuchen, bis sie so intelligent ist wie ein Mensch?

Das ist unmöglich vorherzusagen. Wenn wir ein Kind aufziehen, dauert es ungefähr 20 Jahre, bis es problemlos für sich selbst sorgen kann. Bei einem künstlichen System kann es nicht schneller gehen. Es könnte aber auch 100 Jahre dauern.

Hängt die Geschwindigkeit auch von der Hardware des Computers ab?

Ja, die spielt ebenfalls eine gewisse Rolle. Aber wichtig sind vor allem die Interaktion mit Menschen und die echten Erfahrungen. Die kann man nicht beschleunigen.

Ist der KI-Kindergarten bislang nur eine Theorie, oder haben Sie schon mit der Umsetzung begonnen?

Bislang ist er nur ein Konzept. Ich habe allerdings mit Kollegen das theoretische Gesamtsystem in kleine Abschnitte zerlegt und entsprechende Algorithmen programmiert. Diese haben wir auch bereits trainiert – als Proof of Concept, dass die Theorie in die richtige Richtung geht. Dazu haben wir kürzlich eine Demoversion erstellt, die man auf der Website »robotsgomental.com« testen kann. Es gibt allerdings noch ein ganz anderes Problem: Wir haben bislang niemanden gefunden, der die Entwicklung finanziert.

Wo könnte ein solcher Algorithmus zum Einsatz kommen?

Wir entwickeln zurzeit spezialisierte intelligente Systeme, die Ereignisverläufe vorhersagen können, beispielsweise Aktienkurse. Später wollen wir ihre Kompetenzen auf Ton- und Bildverarbeitung ausweiten. Es sind natürlich unzählige andere Anwendungen denkbar.

In manchen Sciencefiction-Szenarien bekämpfen superintelligente Maschinen die Menschheit. Ist das realistisch?

Nein, die Intelligenz künstlicher neuronaler Netze kann nicht unkontrolliert wachsen. Das wäre wie ein Perpetuum mobile: Von nichts kommt nichts. Man kann nur intelligenter werden, indem man von der Umwelt lernt. Und ein KI-System wird niemals in der Lage sein, vorauszusagen, welches Wissen es in Zukunft erwerben wird. Das bedeutet auch: Das Verständnis der Welt ist begrenzt; das gilt für uns genauso wie für Maschinen. Höhere Intelligenz ist nur durch einen sehr langsamen Lernprozess möglich.

Leave a Reply

Your email address will not be published.