Künstliche Intelligenz

Wie intelligent kann Künstliche Intelligenz eigentlich sein?

Die Grenzen der Künstlichen Intelligenz in der Wissenschaft und ihre Überwindung

    Abstract
    Science-Fiction-Literatur lebt von der menschlichen Ur-Angst, Künstliche Intelligenz könne irgendwann die Weltherrschaft übernehmen. Ist diese Angst gerechtfertigt? Die Beantwortung dieser Frage geht auf das antike Leib-Seele-Problem zurück: Denn der Leib ist genau das, was der KI fehlt. Wie wichtig dieser Leib für die Seele ist, versuchte Hilary Putnam in seinem berühmten Gehirn-im-Tank-Gedankenexperiment herauszufinden.

    Mit künstlicher Intelligenz kommt man täglich in Kontakt: Ob beim Online-Banking, bei der Bestellung von Büchern im Internet oder in den Sozialen Netzwerken: Algorithmen sortieren für uns aus, sortieren vor, erkennen und übermitteln Daten, sorgen dafür, dass wir im Informationsüberfluss nicht die wichtigen vor lauter unwichtigen Informationen ausser Acht lassen. Künstliche Intelligenz ist (so hoffen wir es zumindest) wie die Mutter, die dem schlafenden Sohn den Stapel Comic-Hefte wegräumt, auf dass die Schulbücher wieder zum Vorschein kommen. Sie kann noch viel mehr und wird – so die Prognose – in zehn Jahren ein Vielfaches der heutigen Leistung erreichen. Aber vor einer Mutter, die das Comic-Abo ganz kündigen würde, würde man sich doch wohl eher fürchten. Genau darin liegt die Angst, die von zahlreichen Science Fiction-Autoren genährt wird: Verlieren wir irgendwann die Kontrolle über die von uns gezüchtete Künstliche Intelligenz, verlieren wir die Macht, diese zu beherrschen? Wird Alexa irgendwann das Licht ausschalten und die Tür von innen verriegeln, wie man es aus dystopisch anmutenden Filmepisoden kennt?

     

    Ein Problem der Künstlichen Intelligenz ist als Blackbox-Problematik bekannt: Können wir verstehen, nachvollziehen, wie ein maschinelles Ergebnis zustandegekommen ist? Je komplexer die neuronalen Netzwerke werden, desto weniger können wir deren Abläufe verstehen. 2017 berichteten verschiedene Medien von zwei Chatbots, die miteinander interagiert haben, bis Facebook, einer der Initiatoren des Experiments, den Kommunikationsfluss unterbrochen hat. Dieser sah am Ende so aus:

    Bob: I can can I I everything else
    Alice: Balls have 0 to me to me to me to me to me to me to me to me to[1]

    Das Problem: Die beiden Chatbots Bob und Alice interagierten miteinander, verliessen dabei jedoch die Grammatik der uns bekannten Sprache und verwendeten ganz offensichtlich eine eigene Sprache auf Basis englischer Wörter, jedoch mit vollkommen neuartiger Syntax, die selbst die Programmierer nicht mehr verstehen konnten.

    Platons Unsterblichkeit der Seele – die Reinform der künstlichen Intelligenz?

    Ist aber die Angst, Künstliche Intelligenz könnte einmal die Weltherrschaft an sich reissen, berechtigt? Nein, denn dazu fehlt ihnen etwas Entscheidendes: Ein Körper. Also genau das, was Platon im Phaidon-Dialog noch abschätzig beschrieben hat: „Also auch dabei verachtet des Philosophen Seele am meisten den Leib“[2]. Denn dieser wird mit Essen und Trinken, mit dem Geschlechtstrieb und der „übrigen Besorgung des Leibs“ konnotiert, alles Dinge, die einen echten Philosophen vom Philosophieren abhalten. Zunächst gibt Sokrates zu bedenken: „Ich meine aber all dieses, Grösse, Gesundheit, Stärke und mit einem Worte von allem insgesamt das Wesen, was jegliches wirklich ist; wird etwa vermittelst des Leibes hiervon das eigentlich Wahre geschaut“[3]. An dieser Stelle stimmt sein Dialogpartner Simmias noch zu, aber Sokrates abstrahiert von den Begriffen „Grösse, Gesundheit und Stärke“ den Begriff des „reinen Geistes“, der all das in Reinform böte, also „…sich des reinen Gedanken allein bedienend, auch jegliches rein für sich zu fassen trachtet, soviel möglich geschieden von Augen und Ohren und, um es kurz zu sagen, von dem ganzen Leibe, der nur verwirrt und die Seele nicht Wahrheit und Einsicht erlangen lässt, wenn er mit dabei ist“[4]. Der reine Geist ist jene unsterbliche Seele, von der Sokrates vermutet, „…dass sie in menschlichen Leib gekommen, könne schon der Anfang ihres Untergangs gewesen sein, gleichsam als eine Krankheit“[5] und Kebes ruft aus: „Die Seele dem Göttlichen und der Leib dem Sterblichen“[6].

    Sokrates meinte – wie viele vor und viele nach ihm – sich durch das Leeren des Schierlingsbechers der göttlichen Seele nähern zu können. Aber ist eine körperlose Seele tatsächlich möglich? Je nachdem, wie frei wir den Begriff Seele definieren wollen und was wir unter „künstliche Intelligenz“ verstehen, das Verständnis Vieler von künstlicher Intelligenz ist zunächst einmal genau das: Eine körperlose, göttliche, gottgleiche Intelligenz. Immanuel Kant hätte dafür kein Verständnis gehabt: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind“[7], so seine Beschreibung des dualistischen Erkenntnisvermögens.

    Putnams Gehirn im Tank: Warum das Experiment fehlschlägt

    Dass sich viele dennoch auf eine „Künstliche Intelligenz“ im Sinne einer körperlosen, nicht-dualistischen Intelligenz verständigen können, erscheint daher erstaunlich. Wer Kants Erkenntnis noch anzweifelt, dem kann vielleicht Hilary Putnam weiterhelfen. Die Möglichkeiten der Bedingung von körperloser Intelligenz war jedenfalls das Ziel, das Putnam in einem Gedankenexperiment zu lösen versuchte, das unter dem Namen „Gehirn im Tank“ (brain in a vat) bekanntgeworden ist. Unter Ausblendung all der damit verbundenen medizinischen (und natürlich auch ethischen) Fragen möchte Putnam herausfinden, ob ein körperloses Gehirn in einem Tank prinzipiell körperliche Wahrnehmungen empfinden kann. Wenn die simulierte „Person“ (das Gehirn) also die (simulierte) Hand zu heben versucht, könnte dann nicht eine Rückkopplung des Computers bewirken, dass die simulierte „Person“ (Gehirn), „fühlt“, wie die Hand gehoben wird? So weit, so vorstellbar. Aber was wäre damit erklärt? Dieses Experiment enthält zahlreiche Denkprobleme: Es gibt keinen Grund anzunehmen, dass Gehirne im Tank auf äussere Dinge Bezug nehmen: Sie können nicht denken, dass Sie Gehirne im Tank sind, das heisst, ihnen fehlt die Selbstreflexivität. Putnam zufolge ist das Verstehen der eigenen Gedanken, das Gewahrwerden des eigenen Denkens eine Fähigkeit, die nicht in binären Ereignissen dargestellt, simuliert – geschweige denn überhaupt beschrieben werden kann. Er kommt zu dem Schluss, dass die Existenz einer physikalisch möglichen Welt, in der es Gehirne im Tank gibt, zwar nicht unbedingt physikalisch, jedoch philosophisch ausgeschlossen werden kann. Hinzu kommt ein Mangel propositionaler Intelligenz: Die Frage, wie es – erlebnismässig – wäre, ein bestimmtes Ziel zu erreichen, ist erneut ein nicht beschreibbares Problem. So fragt auch Thomas Nagel: „Sind unsere Gedanken, Wünsche, Wahrnehmungen, Empfindungen und Wünsche Ereignisse, die zu den physikalischen Vorgängen in unserem Gehirn noch hinzukommen, oder machen sie ihrerseits eine Teilmenge dieser physikalischen Vorgänge aus?“[8]. Der dadurch zum Ausdruck gebrachte Physikalismus würde bedeuten, dass sich alle mentalen Zustände auf physikalische Prozesse reduzieren lassen würden. Dieser Reduktionismus scheitert jedoch am Thema Bewusstsein und ist als Erklärung des Verhältnisses des Mentalen zum Physischen ungeeignet. Nagel begründet dies damit, dass die Erfahrung als Bewusstseinserlebnis einen subjektiven Charakter aufweist, die mit einer einzelnen Perspektive verbunden ist. Um das Problem des Reduktionismus – und damit des Physikalismus – zu veranschaulichen, stösst Nagel in seinem bekannten Aufsatz: „Wie ist es, eine Fledermaus zu sein?“ bei der Beantwortung dieser Frage auf Grenzen der Erkenntnis. Denn selbst, wenn man sich tatsächlich wie eine Fledermaus verhalten würde, gewänne man lediglich die Erkenntnis, wie es für einen selbst ist, sich wie eine Fledermaus zu verhalten, nicht aber, wie es für eine Fledermaus ist, eine Fledermaus zu ein, denn jeder ist auf die Ressourcen seines eigenen Bewusstseins beschränkt. Nagel stellt also fest, „…dass uns ein solches Verständnis aufgrund der Schranken unserer Natur dauerhaft versagt ist“[9]. 

    Physikalismus bringt uns also nicht weiter. Betrachten wir stattdessen das Cogito-Argument von Réné Descartes: „Was aber bin ich demnach? Ein denkendes Etwas! Was ist das? Nun, - ein Etwas, das zweifelt, einsieht, bejaht, verneint, will, nicht will und darüber hinaus imaginieren und fühlen kann“[10]. Hier legt Putnams Gehirn im Tank ein weiteres Defizit offen: Sicher, den (simulierten) Arm heben, das ist künstlich, aber noch nicht sonderlich intelligent im cartesianischen Sinne. Putnam gibt zu bedenken, dass die Fähigkeit, eigene oder fremde Zielsetzungen rational kritisieren zu können, in dem Experiment ebenso ausgeschlossen werden kann, wie die Urteilskraft, also die Fähigkeit, wahre Aussagen zu akzeptieren und falschen Aussagen keinen Glauben zu schenken. Auch wenn Menschen sich damit schwertun, für das Gehirn im Tank ist eine solche Fähigkeit noch nicht einmal – beispielsweise als Lernziel oder Aufgabenstellung – beschreibbar. Auch Überkomplexität und Unschärfe können durch ein Gehirn im Tank nicht bewältigt werden, also jener Bereich, der sich zwischen Andeutungen, Ironie, Teilwahrheiten, Intuitionen, Metaphern, Überspitzungen, Pro-Einstellungen, Erfahrungen und Widersprüchen bewegt. Michael Polanyi nennt dies „implizites Wissen“ (auch als Polanyis Paradox bekannt): Ohne eine Theorie, die in Regeln übersetzt und aufgeschlüsselt ist, können wir an Maschinen Wissen nicht weitergeben. Wir wissen also immer mehr, als wir aufschreiben, in Sprache fassen können. Jeder Schüler wird damit in der Schule konfrontiert, wenn er versuchen soll, in einem Aufsatz zu beschreiben, wie man sich die Schuhe zubindet.

    Husserls Lebensweltbegriff: Warum es keine Objektivität geben kann

    Putnams Fazit ähnelt überraschend jenem Platons in dem Phaidon-Dialog: „Die Annahme, es könnte eine Welt geben, in der alle fühlenden Wesen Gehirne im Tank sind, setzt also von vornherein einen Gottesgesichtspunkt voraus bzw. genauer gesagt, eine Wahrheitsauffassung ohne Blickpunkt: Die Wahrheit gilt als völlig beobachtungsunabhängig“[11], oder um es mit Luhmann auszudrücken: Das Mysterium der objektiven Wahrheit verlagert sich in einen Beobachtungsstandpunkt zweiter Ordnung.

    Vor dieser Herausforderung stand auch Edmund Husserl, als über „die universelle Welt- und Menschenerkenntnis in absoluter Vorurteilslosigkeit“[12] als destillierte Reinform objektiven, universellen Wissens nachdachte. Ihm schien das als eine leere, wirklichkeitsfremde Vorstellung, weshalb er den Begriff der Lebenswelt hinzufügt, womit er Putnams Experiment gänzlich zum Scheitern erklärt (und dies bereits 50 Jahre vor Putnam): „Wenn Wissenschaft Fragen stellt und beantwortet, so sind es von Anfang an, und so notwendig weiter, Fragen auf dem Boden dieser, an den Bestand dieser vorgegebenen Welt, in der eben ihre wie alle sonstige Lebenspraxis sich hält. In dieser spielt schon Erkenntnis als vorwissenschaftliche Erkenntnis eine beständige Rolle“[13]. Unter Lebenswelt versteht Husserl die raumzeitliche Welt der Dinge, so wie wir sie in unserem vor- und ausserwissenschaftlichen Leben erfahren und als erfahrbar wissen. Und so muss auch Putnam zu dem Schluss kommen, „dass […] die Überlegungen, die in Erwägung gezogen werden müssen, einfach so komplex und unpräzise sind, dass gar keine Hoffnung besteht, wir könnten uns auf so etwas wie wissenschaftliche Beweise oder wissenschaftliche Definitionen stützen; in diesen Dingen sei es vielmehr notwendig, dass wir uns auf unsere eigene Wahrnehmung und unser eigenes Urteilsvermögen verlassen“[14].

    Bevor wir also – in einem zweiten Schritt – die Möglichkeit Künstlicher Intelligenz auf bestimmte Aufgabenstellungen ansetzen, sollte – in einem ersten Schritt – die Frage gestellt werden, inwieweit die Auswahl bestimmter Theorien überhaupt KI-fähig ist. Es ist notwendig, mit einer methodologischen Begründung eine kleine Anzahl von Theorien aus dem Universum unendlich vieler denkbaren Thesen auszuwählen, mit denen man sich die Mühe machen kann, zu testen. Putnam illustriert das mit diesem Beispiel: „Die Theorie z.B., dass ein Dämon erscheinen wird, wenn ich mir einen Mehlsack über den Kopf ziehe und 99mal auf den Tisch klopfe, ist hochfalsifizierbar, aber ich werde mir gewiss nicht die Mühe machen, sie zu testen“[15]. Hierin zeigt sich nicht nur ein entscheidender Unterschied zwischen Mensch und Maschine, sondern auch zwischen Mensch und Gehirn im Tank – womit endgültig klar sein dürfte, dass das Gehirn im Tank dem Menschen nicht ebenbürtig sein kann – geschweige denn perspektivisch überlegen. Und eben diese Erkenntnis trifft auch auf die Künstliche Intelligenz zu.

    Es geht aber nicht (nur) darum, zu beweisen, dass die diffuse Angst vor einer künstlichen Intelligenz vollkommen unbegründet ist, sondern es geht vielmehr darum, aufzuzeigen, welchen Platz die Wissenschaft der künstlichen Intelligenz zuweisen sollte, den einer externen Festplatte, die unseren Geist von den mühseligen Aufgaben der Datenauslese und Datenverarbeitung befreit und stattdessen den Weg freimachen soll für Kreativität und Kombination, oder wie es Putnam ausdrückt: „Das heisst, dass nicht das, was wir für gewöhnlich den Geist nennen, der Geist ist, sondern die Einheit aus Gehirn und Geist“[16]. Und daraus folgt: „Der Geist und die Welt zusammen erschaffen den Geist und die Welt“[17]. Deutlich wird es auch bei Kant und seiner Frage, wie synthetische Urteile a priori, also erfahrungsunabhängige Verstandesurteile, möglich sind. Liegt hierin eine Entwicklungsmöglichkeit künstlicher Intelligenz? Kant kommt zu dem Ergebnis: „Reine Verstandesbegriffe sind also nur darum a priori möglich, ja gar in Beziehung, auf Erfahrung, notwendig, weil unsere Erkenntnis mit nichts, als Erscheinungen zu tun hat, deren Möglichkeit in uns selbst liegt“[18]. Selbst der reine Verstandesbegriff ist also auf Erscheinungen angewiesen – das Gehirn im Tank, also auch Künstliche Intelligenz, kann auf diese Verstandesmöglichkeit nicht zugreifen.

    Die intuitive (menschliche) Methode ist die notwendige und hinreichende Bedingung für Rationalität. Eine Theorie muss als wahrscheinlich und denkmöglich ausgewählt werden. Diese anspruchsvolle Denkleistung vermag KI nicht zu erbringen. Kein Erfinder hat je die praktische Wirkung seiner Tat richtig vorausgesehen. Daraus folgt auch, dass wir zwar programmatisch, nicht aber inhaltlich die Entwicklungsrichtung der KI vorgeben können, wie es Oswald Spengler beschrieb: „Aber das gehört zur Tragik dieser Zeit, dass das entfesselte menschliche Denken seine eigenen Folgen nicht mehr zu erfassen vermag“[19]. Dies könnte durch und mit künstlicher Intelligenz sogar noch weiter verstärkt werden. Auch wenn man Spenglers fatalistischen Ansatz vom Untergang des Abendlandes nicht mittragen mag, so ist doch der Lebenskampf-Gedanke Spenglers mit dem Begriff der „faustischen Kultur“ sehr gut umschrieben: „Die faustische Kultur war deshalb im stärksten Masse auf Ausdehnung gerichtet, sei sie politischer, wirtschaftlicher oder geistiger Natur“[20].

    Fazit

    Künstliche Intelligenz hat seinen Schrecken als Ursache von unberechenbaren Folgen wissenschaftlicher Experimente verloren und ist zu einem Werkzeug, einem Gebrauchsgegenstand geworden, oder um mit Spengler zu sprechen: Ein immer besseres und schnelleres Schiff zur Entdeckung neuer, unbekannter Kontinente. Künstliche Intelligenz ersetzt weder das Denken, noch ist es in der Lage, Methoden vorzugeben, zu kombinieren oder selbständig Schlüsse zu ziehen. Es erhöht jedoch die Methodenkompetenz und ermöglicht unzähligen praktischen Anwendungsgebieten der Lebenswelt vollkommen neuartige Zugänge. Die Kombination aus beidem: Intuition, also menschliche Intelligenz und künstliche Intelligenz, wird in Zukunft viel neues hervorbringen, oder um es mit Husserl zu sagen: „Entdeckung, das ist eine Mischung aus Instinkt und Methode“[21].


      [1] Vgl. Theresa Locker. 2017: „Ausser Kontrolle geraten“. Warum Facebook seine Künstliche Intelligenz wirklich abschalten musste. Vice
      [2] Platon: Phaidon 65 A – 65 E
      [3] Platon: Phaidon 65 A – 65 E
      [4] Platon: Phaidon 65 E – 66 D
      [5] Platon: Phaidon 95 C – 96 A
      [6] Platon: Phaidon 80 A – 80 D
      [7] Immanuel Kant. 1781: Kritik der reinen Vernunft, A51/B 75
      [8] Thomas Nagel. 1990: Was bedeutet das alles? Eine ganz kurze Einführung in die Philosophie, Stuttgart, S. 26
      [9] Thomas Nagel. 1981: Wie ist es, eine Fledermaus zu sein? In: Peter Bieri (Hrsg): Analytische Philosophie des Geistes, Königstein, S. 265
      [10] René Descartes. 1641: Meditationes de Prima Philosophia II/ 8
      [11] Hilary Putnam. 1990: Vernunft, Wahrheit und Geschichte, Frankfurt, S. 76
      [12] Edmund Husserl. 2019: Die Krisis der Europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg, S. 8
      [13] Edmund Husserl. 2019: Die Krisis der Europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg, S. 131
      [14] Hilary Putnam. 1990: Vernunft, Wahrheit und Geschichte, Frankfurt, S. 238
      [15] Hilary Putnam. 1990: Vernunft, Wahrheit und Geschichte, Frankfurt, S. 260f.
      [16] Hilary Putnam. 1990: Vernunft, Wahrheit und Geschichte, Frankfurt, S. 109
      [17] Hilary Putnam. 1990: Vernunft, Wahrheit und Geschichte, Frankfurt, S. 11
      [18] Immanuel Kant. 1781: Kritik der reinen Vernunft, A130
      [19] Oswald Spengler. 2007: Der Mensch und die Technik, Paderborn, S. 74
      [20] Oswald Spengler. 2007: Der Mensch und die Technik, Paderborn, S. 158
      [21] Edmund Husserl. 2019: Die Krisis der Europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg, S. 42