Text: Selina Eckhardt | Sparring: Judith Begiebing | Korrektorat: Elisa Köhler | Stimme: Friederike Niermann |
- Menschliches Lernen ist durch die Fähigkeit zu Abstraktion, sprachlichem Ausdruck bewusster Informationen, Integration neuer Informationen in bestehendes Wissen, Systematik und Übertragung gekennzeichnet, was den Unterschied zur bloßen Mustererkennung der künstlichen Intelligenz ausmacht
- Das menschliche Gehirn ist dazu in der Lage auf Grundlage von Beobachtungen abstrakte und hierarchisch geordnete Regeln abzuleiten und so Wissen auf der Metaebene zu bilden
- Das Gehirn kann als generatives Modell angesehen werden, das hypothetische Regeln erzeugt, die mit der Realität abgeglichen werden
A. Wie lernt das menschliche Gehirn (im Vergleich zu künstlicher Intelligenz)?
Nach Knud Illeris, der es sich zum Ziel gemacht hat, ein “großes Ganzes” Modell des Lernprozesses zu entwickeln, wird in den weiteren Beiträgen dieser Reihe überwiegend Stanislas Dehaene (2020) als Kognitionswissenschaftler für die spezifischen Abläufe im Gehirn und Nervensystem herangezogen. Während sich Illeris auf theoretische Modelle von Jean Piaget, Carl Rogers und der “Frankfurter Schule” stützt und sie kombiniert, gehen Dehaenes Arbeiten direkt auf neurowissenschaftliche, empirische Forschung zurück. In seinem Buch, das ebenfalls den Titel “How we learn” trägt, vergleicht er zum Zwecke des besseren Verständnisses das menschliche Gehirn mit künstlicher Intelligenz (KI). Die Fortschritte, die auf diesem Feld gemacht werden, seien zwar beeindruckend, die bisherigen Maschinen aber im Gegensatz zu manch dystopischer Fantasie noch stark limitiert. Was fehlt KI also bisher? Oder genauer gesagt, was macht die menschlichen Lernfähigkeiten so besonders?

A.1 Das Lernen abstrakter Konzepte
Human learning is not just the setting of a a pattern-recognition filter, but the forming of an abstract model of the world (Stanislas Dehaene, 2020).
Jeder kennt es. Um auf einer Website zu beweisen, dass man wirklich ein Mensch und keine Maschine ist, soll ein sogenanntes CAPTCHA gelöst werden. Dabei handelt es sich um eine Reihe an Buchstaben oder Zahlen, die jahrelang für Maschinen nicht zu erkennen waren. Menschen verinnerlichen etwa beim Lesenlernen das abstrakte Konzept jedes Buchstaben des Alphabets derart, dass sie in der Lage sind, auch ungewohnte Formen wiederzuerkennen. Im Gegensatz dazu erfassen Computer lediglich spezifische Farben und Formen. Werden nur wenige Pixel eines Buchstabens modifiziert, oder wie im unten stehenden Link ein Sticker neben eine Banane geklebt, erkennen künstlich neuronale Netzwerke plötzlich einen Toaster.

Es konnte zwar mittlerweile (seit 2017) eine KI entwickelt werden, welche CAPTCHAs auf einem beinahe menschlichen Level erkennt, die Fähigkeit bleibt jedoch auf diese spezifische Aufgabe beschränkt. Menschliche Gehirne sind so hoch entwickelt, dass sie die Fähigkeit der Abstraktion auf alle möglichen Aspekte des täglichen Lebens übertragen können. Zu diesem Zweck besitzen sie im Gegensatz zu einem Computer zum Beispiel die Fähigkeit, ihre Aufmerksamkeit auf Aspekte zu lenken, die nicht zum ersten Eindruck des Fotos passen. Sie können so ihre erste Intuition hinterfragen und das Ergebnis prozessartig anpassen.
A.2 Soziales Lernen
…the highest level Information, which reaches our consciousness, can be explicitly stated to others (Dehaene, 2020).
Die menschliche Spezies ist eine der wenigen, die freiwillig Informationen teilt. Diese Fähigkeit ist bisher noch außer Reichweite von künstlich neuronalen Netzwerken. Essenziell und einzigartig für das Teilen der Informationen ist dabei die Sprache, mit der auch nicht sichtbare Konzepte besprochen werden können. In neuronalen Netzwerken ist Wissen verschlüsselt und kann in dieser versteckten Form nicht extrahiert und selektiv mit anderen geteilt werden. Das menschliche Gehirn ist also in der Lage, im Gegensatz dazu die Informationen des höchsten Levels, die das Bewusstsein erreicht, explizit Anderen mittzueilen.
A.3 Unmittelbares Lernen (”One-Trail-Learning”)
To learn is to succeed in inserting new knowledge into an existing network (Dehaene, 2020).
Neue Informationen, innerhalb eines existierenden Netzwerks von Wissen zu integrieren ist eine weitere Fähigkeit, die Maschinen bisher nicht gut können und Menschen im Vergleich wunderbar beherrschen. Lernt man ein neues Verb wie zum Beispiel „knastern“ kann man sich nicht nur an den Begriff erinnern, sondern ist in der Lage es zu konjugieren und in anderen Sätzen einzusetzen. Hast du je geknastert? Ich habe gestern geknastert. Lass uns morgen knastern gehen. Lernen ist also auch neues Wissen erfolgreich in ein bestehendes Netzwerk zu integrieren.
A.4 Systematik
Systematicity, the ability to generalize on the basis of a symbolic rule rather than a superficial resemblance, still eludes most current algorithms (Dehaene, 2020).
Sei es Mathematik, Sprache, Wissenschaft oder Musik, das menschliche Gehirn schafft es sehr abstrakte Prinzipien zu extrahieren, quasi systematische Regeln zu erstellen, welche in verschiedenen Kontexten erneut angewendet werden können. Systematik, also die Fähigkeit auf Basis einer symbolischen Regel zu generalisieren, anstatt eine oberflächliche Ähnlichkeit zu erkennen, entzieht sich weiterhin den meisten derzeitigen Algorithmen. Menschen sind die einzigen Primaten, deren Gehirn eine Ansammlung von Symbolen darstellen können, die sich nach einer komplexen und baumartig verzweigten Syntax kombinieren lassen. Experimente haben beispielweise gezeigt, dass das menschliche Gehirn beim Hören einer Reihe an Tönen wie „beep beep beep boop“ direkt eine Hypothese über die zugrundeliegende abstrakte Struktur aufstellt (drei identische Töne, gefolgt von einem anderen Ton). In derselben Situation scheinen Affen zwar zu erkennen, dass der letzte Ton anders ist, aber können dieses stückweise Wissen nicht in eine zusammenhängende Formel bringen (Dehaene et al., 2015).
A.5 Komposition oder Rekombination
…, learning almost always means rendering knowledge explicit, so that it can be reused, recombined, and explained to others (Dehaene, 2020).
Wenn Menschen eine bestimmte Fähigkeit gelernt haben, sei es etwa das Addieren von zwei Zahlen, wird sie zu einem wesentlichen Teil eines Repertoires an Talenten und ist direkt für andere Aufgaben verfügbar. Sie kann in ganz verschiedenen Kontexten, zum Beispiel beim Bezahlen im Restaurant oder dem Erstellen einer Steuererklärung genutzt und zudem mit weiteren Fähigkeiten kombiniert werden. Bisher sind KIs nicht flexibel genug, gelernte Fähigkeiten zu „komponieren“, das heißt sie neu zu kombinieren, um ein andersartiges Problem zu lösen. Lernen bedeutet in diesem Zusammenhang fast immer, Wissen explizit so zu übersetzen, dass es wiederverwendet, neu kombiniert und anderen erklärt werden kann.
B. Von welchen Fähigkeiten kann KI bisher nur träumen?
Alle oben genannten Fähigkeiten ordnet Dehaene einem Lernsystem erster Ordnung zu, das auf Regeln und Symbolen basiert. Hierarchisch darüber steht ein System, in welchem Lernen dem logischen Denken (Reasoning) ähnelt. Das heißt, es wird durch logische Schlussfolgerung versucht, die Struktur einer Domäne zu erfassen. Die dazugehörigen, folgenden Fähigkeiten unterscheiden menschliche Gehirne nicht nur von bisherigen Maschinen, sondern auch von vielen anderen Tieren.
B.1 Sich den Aufbau eines Gebietes erschließen
Für Menschen charakteristisch ist ein unablässiges Suchen nach abstrakten Regeln. Es funktioniert über Schlussfolgerungen, die aus spezifischen Situationen extrahiert und nachfolgend an neuen Beobachtungen getestet werden. Die Fähigkeit, das passende Gesetz oder die logische Regel für alle verfügbaren Daten zu finden, kann das Lernen massiv beschleunigen. Ein Beispiel: Jemand hat mehrere gleichfarbige Boxen vor sich, holt aus einer Box einen grünen Ball heraus und fragt: Welche Farbe wird der nächste Ball haben? Es ist schwierig das vorherzusagen, da bisher nur wenige Informationen zur Verfügung stehen. Hat man jedoch vorher beobachtet, dass mehrere Bälle aus verschiedenen Boxen gezogen wurden und die Bälle in einer Kiste immer die gleiche Farbe hatten, wird die gestellte Frage plötzlich trivial. Das Beispiel zeigt, wie Menschen Wissen höherer Ordnung auf dem sogenannten Meta-Level bilden. Dabei müssen sie eine interne Hierarchie von Regeln managen und versuchen so schnell wie möglich auf die übergreifende Regel zu schließen, die eine Serie von Beobachtungen zusammenfasst. Die so gebildete Meta-Regel “die Bälle in einer Box haben immer die gleiche Farbe”, kann sich natürlich im weiteren Verlauf auch als falsch herausstellen, wenn die 10. Box auf einmal Bälle in allen Farben enthält. Vielleicht wird daraus eine neue Hypothese auf einem noch höheren Level gebildet. Etwa “es gibt zwei Arten von Boxen, einfarbig und bunt“, was bedeutet, das Sehen von mindestens zwei Bällen pro Box ist die Voraussetzung, um auf die Farbe des nächsten Balles schließen zu können. (Negativbeispiel vgl. confirmation Bias/Vorurteile)
B.2 Der Segen der Abstraktion
Die Frage, wie Babys Wörter lernen, ist für Kognitionswissenschaftlerinnen noch eine große Herausforderung. Bisher weiß man, dass ein Teil der Lösung darin liegt, dass Kinder die Fähigkeit besitzen, nicht-linguistische, abstrakte, logische Vorstellungen auszubilden. Eine der einfachsten Regeln, die das Vokabellernen fazilitiert ist das Bevorzugen der einfachsten, kleinsten, mit den Daten kompatiblen Annahme. Wie finden Kinder beispielsweise heraus, dass es sich bei „Hund“, um ein übergreifendes Wort handelt und “Snoopy”, nur ein bestimmter Hund ist? Experimente deuten darauf hin, dass sie logisch schlussfolgern. Das heißt, sie testen alle Hypothesen, behalten aber nur die einfachsten, also die Hypothesen, die zu dem passen, was sie gehört haben, bei. Hören sie „Hund“ in einem einzigen bestimmten Kontext, glauben sie zeitweise, das Wort gehört nur zu diesem speziellen Tier. Sobald sie es zweimal in verschiedenen Kontexten hören, können sie sich erschließen, dass das Wort zu einer gesamten Kategorie gehört. Ein mathematisches Modell dieses Prozesses berechnet voraus, dass drei oder vier solcher Gelegenheiten ausreichen, um sich an die passende Bedeutung anzunähern (Xu, F., & Tenenbaum, J.B., 2007). Eine weitere Meta-Regel ist die “sich-gegenseitig-ausschließen”-Hypothese oder auch “das Eindeutigkeitsprinzip”. Kinder nutzen sie, um das Wörterlernen zu beschleunigen. Es besagt, dass es unwahrscheinlich ist, dass zwei verschiedene Wörter dasselbe Konzept beschreiben. Hören sie also ein neues Wort, können sie ihre Suche, was es bedeutet auf Dinge beschränken, deren Namen sie noch nicht kennen. Diese “Beispiel-Meta-Regeln” illustrieren den Segen der Abstraktion, also dass abstrakte Meta-Regeln, das Lernen vereinfachen.
B.3 Neue Sichtweisen des Gehirns
An immense generative model, massively structured and capable of producing myriad hypothetical rules and structures - but which gradually restricts itself to those that fit with reality (Dehaene, 2020).
Das Beobachten dieser Phänomene zeigt, dass das menschliche Gehirn deutlich mehr kann als alle bisherigen künstlichen neuronalen Netzwerke. Außerdem lässt es vermuten, dass das Gehirn bereits bei Geburt zwei Hauptkomponenten besitzen muss: die Hardware, die es ermöglicht eine Vielzahl an abstrakten Formeln zu generieren und die Software, mit der Fähigkeit, je nach Plausibilität für die Datenlage, aus diesen Formeln auszuwählen. Die neue Vision vom Gehirn ist also, dass es sich um ein immenses generatives Modell handelt. Es ist massiv strukturiert und fähig unzählige hypothetische Regeln und Strukturen zu produzieren. Gleichzeitig begrenzt es sich graduell selbst innerhalb der Regeln, die zur Realität passen.
C. Was lässt sich daraus für die Arbeit mit Menschen ableiten?
Beschäftigt man sich genauer mit den Fähigkeiten des menschlichen Gehirns, kommt man wahrscheinlich nicht umhin, eine gewisse Bewunderung zu empfinden. Es ist beeindruckend, was Menschen leisten können, ohne es, in den meisten Fällen, bewusst wahrzunehmen. Aus dieser Bewunderung heraus kann ein positiveres Menschenbild entspringen (vgl. Motivational Interviewing/personenzentriertes Arbeiten) und die Erkenntnis, dass man Menschen eigenverantwortliches Handeln zutrauen kann. Gerade das Meta-Ebenen-Lernen wird möglicherweise in der Therapie oder im Training nicht voll ausgeschöpft oder berücksichtigt. Es ist denkbar, dass Trainees häufig keine spezifische Übung benötigen, die bis ins Detail erklärt wird. Stattdessen kann es je nach Kontext eventuell sinnvoller und nachhaltiger sein, über übergreifende Konzepte zu sprechen und ihnen damit auch die Freiheit zu geben, diese Informationen in ihr bestehendes Vorwissen einzufügen und selbst weiterzuentwickeln.
Lernen auf der Metaebene und das Bilden von Meta-Regeln kann sowohl Chancen als auch Risiken im Praxisalltag bieten. So können bestimmte Meta-Regeln etwa im Rahmen eines Placebo-Effekts genutzt werden („meine Physiotherapeutin ist toll und hilft mir immer“), andere aber auch die Regeneration negativ beeinflussen („den Rücken zu beugen schmerzt“). In letzterem Fall muss versucht werden diese Regel zu überschreiben, indem neue Beobachtungen gemacht werden. Im hiesigen Beispiel könnte dies etwa durch eine schmerzfreie Beckenkippung zunächst in Rückenlage, dann im Sitzen und schließlich im Stehen geschehen.
Literatur
- Dehaene, S., Meyniel, F., Wacongne, C., Wang, L., & Pallier, C. (2015). The neural representation of sequences: from transition probabilities to algebraic patterns and linguistic trees.
- Dehaene, S. (2020). How we learn: Why brains learn better than any machine... for now. ISBN 9780525559887.
- Xu, F., & Tenenbaum, J. B. (2007). Word learning as Bayesian inference.
Weiterführender Inhalt
- Für KI interessierte: https://www.youtube.com/c/JordanHarrod/featured
- Stanislas Dehaene - The Power and Limits of Artificial Intelligence: https://www.youtube.com/watch?v=Rv7dgaqIG68