Computerprogramme sind mittlerweile ganz gut darin, Dinge auf Fotos zu erkennen – den simplen Buchstaben „T“ etwa oder etwas komplexeres wie einen Tisch. Dafür müssen die Algorithmen allerdings zuvor trainiert werden – und zwar bislang mit hunderten oder tausenden entsprechenden Beispielbildern.
Ein Mensch hingegen braucht nur einen einzigen Tisch zu sehen, und kann anschließend auch verschiedenste Varianten des Möbelstücks identifizieren oder sogar selbst neu entwerfen. Und zwar deswegen, weil er das grundsätzliche Konzept – eine horizontale Platte auf vertikalen Stützen – versteht.
Die KI, die sogenannte „künstliche Intelligenz“ kann sich also durchaus vom Menschen noch einiges abschauen – und genau das ist der Ansatz für eine neue Art des „maschinellen Lernens“, den amerikanische Forscher in der aktuellen Ausgabe von „Science“ vorstellen.
Momentan funktioniert der von Joshua Tenenbaum, Brenden Lake und Ruslan Salakhudinov entwickelte Ansatz nur bei einem eigentlich bereits “erfundenen Rad” – der Handschrifterkennung, einem “Showcase” also mit sehr überschaubaren Freiheitsgraden und relativ leichten Trainingsmöglichkeiten.
Interessanterweise war aber bei der Science-Telekonferenz am Tag vor der Veröffentlichung kaum von den (übrigens sehr komplizierten und für Laien kaum nachvollziehbaren…) Details der aktuellen Studie die Rede, sondern eher von vagen Zukunftsperspektiven und der Frage, ob sich ein menschenähnlich lernender KI-Algorithmus auch auf andere Wissensdomänen übertragen lässt – jenseits von naheliegenden Varianten wie der Spracherkennung oder der Verbesserung der Autokorrektur auf Smartphones.
Eine sehr konkrete Nachfrage kam vom Reporter der “Defense One” – und in der Tat sind Geheimdienstler und Militärs sehr interessiert, ob ein konzeptuell lernendes KI-Programm nicht auch dazu taugen könnte, die Absichten von Menschen vorherzusagen oder irgendwann einmal Drohnen oder Kampfdroiden autonom agieren zu lassen.
Da war dann die Frage von Tanya Lewis vom Business Insider sehr angebracht:
Besteht nicht die Gefahr, dass Ihr Programm voreilige Schlüsse zieht, wenn es sich auf zu wenige Beispiele stützt?
Und Professor Joshua Tenenbaum vom MIT, Psychologe und Kognitionswissenschaftler, gab ihr prinzipiell recht:
Diese Stereotypen oder Kurzschlüsse, die Sie ansprechen, das sind möglicherweise menschliche Schwächen als unausweichliche Konsequenzen unserer Stärken. Die spannende Frage ist also, wollen wir, dass Maschinen unsere Schwächen genauso erben wie unsere Stärken? Und ist es überhaupt möglich, dass sie die Stärken haben werden ohne die Schwächen?
Künstliche Intelligenz – Maschinelles Lernen nach menschlichem Vorbild
Deutschlandfunk – Forschung aktuell vom 11.12.2015 (Moderation: Uli Blumenthal)