Willy Bierter

Wir sollten uns über die KI Gedanken machen ... – eine Replik auf Christian Schulmeyers Blogbeitrag

Es bringt uns ein gehöriges Stück weiter, wenn wir uns über die KI Gedanken machen, weshalb sich die KI – zumindest in ihrer gegenwärtigen Form – keine Gedanken machen kann!

Christian Schulmeyers Beitrag "Wenn sich die KI Gedanken macht…" finden Sie hier.

Künstliche Intelligenz ist in aller Munde. Doch ob alle „verstehen“, die darüber reden und schreiben, was es damit auf sich hat? Zweifel sind angebracht. Allerdings wird man nur an dem zweifeln, was man glaubt, und nicht an dem, von dem man nicht weiss, dass man daran zweifeln könnte, weil es dem gängigen Sprechen-Denken verborgen ist. Die Quintessenz: Es gilt das Verborgene zu „entdecken“ und ans Licht zu holen. Das kann nur gelingen, wenn neue Denk-Wege erkundet werden und dies erst noch in wenig bekannten und unwegsamen (Denk-)Landschaften. [1] Ein solches Wagnis einzugehen ist weder ein nutzloses Glasperlenspiel noch ein für die Praxis müssiges akademisches Unterfangen. Im Gegenteil: Es bringt uns ein gehöriges Stück weiter, wenn wir uns über die KI Gedanken machen, weshalb sich die KI – zumindest in ihrer gegenwärtigen Form – keine Gedanken machen kann!

Richtig ist, dass wir Zeugen einer dritten Entthronung des Menschen sind, die jetzt unser Selbst betrifft, das bis vor kurzem als unzerlegbar angesehen wurde. Mit der technisch-maschinellen Realisierung einfachster Bewusstseinsanalogien, die bislang ausschliesslich dem Bereich des Mentalen, Geistigen zugeordnet wurden, ist es damit aber vorbei.

Wie praktisch jede Technologiedebatte verstrickt sich auch jene zur Künstlichen Intelligenz in der sattsam bekannten Entweder-Oder-Alternative, pendelt zwischen den dualen Positionen von Technikeuphorie und Technikpessimismus, verfängt sich damit noch und noch in der binären Opposition von „nützlich“ und „gefährlich“, also von „gut“ und „böse“: Entweder ist der Computer ein raffinierter und schneller Rechenknecht oder ein Subjekt mit Bewusstsein und menschenähnlichen Eigenschaften. Die schlichte Alternative, dass er weder das eine noch das andere ist, liegt quer zur geläufigen Subjekt-Objekt-Dualität.

Solange solche Debatten mit der klassisch-zweiwertigen Denkweise verstrickt bleiben, ist kein Entkommen aus diesem Dilemma, aus diesem Paradox möglich. Die implizite Folge ist, dass nicht so sehr die Inhalte der technologischen Entwicklung die Debatten bestimmen, sondern vielmehr das logische Denkmuster der von den Kontrahenten eingenommenen Positionen und vorgetragenen Argumente. Deshalb sollten wir uns die Günther’sche Maxime zu Herzen nehmen, der unaufhörlich darauf hingewiesen hat, man solle nicht endlos weitere Antworten auf überkommene Fragen suchen, sondern gelegentlich innehalten und sich vergewissern, ob man denn die richtigen Fragen gestellt hat.

Die Konstruktion der kybernetischen Maschine beinhaltet jene Aspekte, wo es um das Allgemeine, das Objektivierbare im Denken geht, also nicht um jenen Bereich des Denkens, der Ausdruck des je individuellen Ichs der menschlichen Subjektivität ist, dessen Privatheit als höchste Ausprägung des Besonderen gilt. Mit der technisch-maschinellen Realisierung von Funktionen, die bislang allein dem Bereich des Mentalen, Geistigen zugeordnet wurden – so die Möglichkeit, abstrakte Gebilde, Zahlen und Symbole zu manipulieren und damit zu rechnen, sowie zu speichern und über Suchfunktionen unmittelbar wieder aufzufinden –, wird der Mensch im kognitiven Bereich von Routinen entlastet, und das eröffnet ihm wiederum Handlungs- und Gestaltungsmöglichkeiten. Ob und wie Menschen sie nutzen, hängt ab von ihrem Willen, von jenem Bereich der Subjektivität, den Gotthard Günther in seinem Werk „Das Bewusstsein der Maschinen“ [2]als subjektiven bezeichnet und der nicht auf einer Maschine implementierbar ist.

Trotzdem wird mit den jüngsten technischen Entwicklungen das Kernvermögen des Menschen, seine Intelligenz, sein Erinnerungsvermögen, seine Fähigkeit mit komplexen Prozessen umzugehen, seine Reaktivität, schliesslich seine Fähigkeit zur Reflexion angefochten. Das löst natürlich Ängste aus. Verblüfft stellen wir fest, dass die bislang als unantastbar geglaubten Grenzen zwischen dem Seelischen und dem Maschinellen sich verschieben, weil wesentlich mehr Mechanismen zum Gesamtbestand des Seienden gehören als wir je gedacht haben.

Solche Ängste gehen zum einen aus einem mangelnden technischen Verständnis dessen hervor, was digitale Technologien können und was nicht. Technisch realisiert werden Analogien von Bewusstseinsfunktionen, was zumindest eine Zerlegbarkeit dessen zutage fördert, was zu allen Zeiten als unzerlegbares Selbst interpretiert wurde. Nicht realisiert wird hingegen ein in technischen Artefakten implementiertes Bewusstsein. Der einzelne Computer sowie die zu Netzen zusammengeschalteten IT-Systeme haben keine eigene und damit autonome Existenz: Wir sind es, die Computer mit Daten füttern, sie dort wieder herausholen und dann interpretieren. Zudem besteht ein ganz grundsätzlicher Unterschied zwischen den Speicherfunktionen unserer Computer und unserer lebendigen Erinnerung: letztere bildet die Grundvoraussetzung für Verstehen.Das heisst, ein Verlust an Autonomie unsererseits der Maschine gegenüber geht nicht einher mit einem Gewinn einer Autonomie der Maschine. Die bislang existierenden Maschinen sind lediglich Prothesen. Auch der Computer kann als eine Prothese für gewisse einfache Denkroutinen des menschlichen Gehirns interpretiert werden.

Ein kognitives System wie das Gehirn zu bauen, das auch nur annähernd der Leistungsfähigkeit eines biologischen Gehirns nahekommt, ist bislang nicht gelungen. Die uns zu Gebote stehenden intellektuellen Mittel – unsere zweiwertige Verstandesmechanik – reichen bei weitem nicht aus, um Leben, Erkennen usw. so zu beschreiben, dass die Beschreibungen als Blaupause für entsprechende technischen Konstruktionen dienen können. Deshalb gibt es bis heute (noch) keine „denkende Maschine“, also eine Maschine, die aus eigener Leistung Entscheidungen treffen kann.

Die Grundlage unserer heutigen Computer stellen die klassisch-zweiwertigen, mono-kontex­turalen Logiken dar. Das spiegelt sich auch in dem theoretischen Modell der Turing-Ma­schine wider, das – würde man es nachbauen – sich als ein mechanisches Modell unserer heutigen digitalen Computer entpuppen würde, die ebenfalls hierarchisch strukturiert sind und die Algorithmen sequentiell, d.h. Schritt für Schritt abarbeiten. Es ist wichtig, sich das klar zu machen. Denn könnten wir Lebensprozesse wie Denken, Wahrnehmen, Entscheiden usw. – gemeinhin auch als mentale Prozesse bezeichnet – auf einer Turing-Maschine abbilden, dann hätten wir bereits heute Computer, die in der Lage wären, selbständig zu denken und zu entscheiden. Doch dem ist nicht so – im Gegenteil. Solche Lebensprozesse lassen sich eben nicht sequentiell abbilden, denn sie stellen ein Wechselspiel von heterarchisch-hierarchisch strukturierten Prozessen dar, die man nur als eine Prozessgesamtheit beschreiben und implementieren kann – und eine Turing-Maschine kann immer nur sequentiell darstellbare Prozesse bearbeiten, und diese Prozesse gehören alle einer mono-kontexturalen Welt der Beschreibung an. Hier stösst man immer wieder auf entscheidende Missverständnisse in der Verwechslung von Denkinhalten und Denkprozessen, nicht nur in der Forschung zu Künstlicher Intelligenz, sondern auch in der Hirnforschung. Während man Denk- oder Wahrnehmungsinhalte – also das was gedacht oder wahrgenommen wurde oder gedacht oder wahrgenommen werden kann – sequentiell und daher mit Hilfe der Denkwerkzeuge der (klassischen) Mathematik und Logik – also positiv-sprachlich – beschreiben und modellieren kann, gilt dies nicht für die Denk- oder Wahrnehmungsprozesse selbst. Um diese beschreiben oder modellieren und letztendlich implementieren zu können, benötigt man eine standpunktabhängige Theorie, wie sie beispielsweise durch Günthers Polykontexturalitätstheorie [3] gegeben ist – da führt kein Weg daran vorbei.

Damit eine kybernetische Maschine fähig wäre, selbständig zu denken und zu entscheiden, müsste sie zwischen sich und der Umwelt unterscheiden können, d.h. einen Standpunkt – einen logischen Ort – ausserhalb des Programms, das sie steuert, einnehmen, um sich ein Bild von sich und seiner Umgebung machen zu können. Sie müsste also über erkennens- und willensmässige Fähigkeiten verfügen. Das ist eine zwingende Notwendigkeit für Lernfähigkeit. Technisch gesagt bedeutet Lernfähigkeit, dass sie aus eigener Leistung in der Lage sein müsste, ihren eigenen Algorithmus zu verändern. „Aus eigener Leistung“ bedeutet, dass die Maschine eine Situation erkennt, d.h. analysiert und aufgrund vorgegebener Sachverhalte (Hintergrundwissen) eine Entscheidung trifft, die vom Konstrukteur vorher nicht einprogrammiert wurde. Dabei muss diese Maschine auch das Hintergrundwissen im Verlauf ihrer Aktionen eigenständig permanent erweitern. Das ist eine Maschine, die ihr Verhalten durch die Interaktionen mit ihrer Umgebung (diese Maschine hat eine Umgebung!) kontinuierlich verändern können soll. Das bedeutet, dass diese Maschine, die in der Lage sein muss, ihren Algorithmus (das ist das vom Konstrukteur vorgegebene Maschinen-Programm) gemäss der getroffenen Entscheidungen gegebenenfalls eigenständig zu verändern.

Die heute diskutierten künstlichen Modelle neuronaler Netze besitzen keine Umgebung und stellen damit auch keine kognitiven Systeme dar. Wir können das am Beispiel eines Roboters veranschaulichen, der an der Produktionsstrasse in einem Automobilwerk Schrauben an den vorbei kommenden Karosserien befestigt. Vom Standpunkt eines Beobachters des Roboters hat dieser Roboter natürlich eine Umgebung, nämlich die Schrauben, das Regal wo die Schrauben liegen, die Karosserie, an der die Schrauben befestigt werden usw. Vom Standpunkt des Roboters aus gesehen, gibt es keine Umgebung, denn die Schrauben und der Ort, wo die Schrauben liegen, also das Regal sowie der Ort wo die Schrauben befestigt werden sollen, also die Karosserie, sind Teile des Roboterprogramms, d.h. da ist alles peinlichst genau vorprogrammiert. Der Roboter kann zwischen Objekt und Abbild des Objektes keine Unterscheidung treffen. Es gibt aber Systeme wo das ganz offensichtlich nicht so ist. So kann z.B. das Immunsystem zwischen körpereigenem und körperfremden Eiweiss unterscheiden. Doch der Roboter könnte nicht einmal zwischen den eigenen Schrauben, die ihn zusammenhalten und den fremden Schrauben im Regal unterscheiden. Er ist auch kein kognitives System, denn dazu müsste er mindestens in der Lage sein, zwischen sich und seiner Umgebung aus eigener Leistung eine Unterscheidung treffen zu können. Er hat aber gar keine Umgebung! Das alles gilt auch für die heute diskutierten Modelle der Neuroinformatik.

Algorithmen aber, die sich sequentiell auf das Funktionsmodell einer Turing-Maschine abbilden lassen, können sich niemals aus eigener Leistung verändern. Das würde erst gelingen, wenn Subjektivität in die Maschinen einbezogen würde, also etwas Vergleichbares zum lebendigen Denkprozess. Solche Maschinen könnten dann aus eigenem Antrieb zwischen sich und ihrer Umgebung unterscheiden, d.h. einen Bezug zu sich selber realisieren und somit selber darüber entscheiden, was und wie sie lernen wollen. Und hier stossen wir auf das Hauptproblem sowohl der Künstlichen Intelligenz als auch der Hirnforschung: der Selbstbezug. Solange man in einem mono-kontexturalen Weltbild gefangen bleibt, ist es – trotz Feedback, diversen Regelkreisen und parallel arbeitenden Algorithmen – allein aus Sicht der klassisch-zweiwertigen Logik nicht möglich, einen solchen Selbstbezug in einer Maschine zu realisieren, denn ein Bezug auf sich selbst erzeugt – wie wir inzwischen hinlänglich gelernt haben – widersprüchliche Situationen, und wenn solche auftauchen, geht die Maschine in die „Irre“.

Zudem steht unwiderleglich fest, dass es nicht möglich ist und nie möglich sein wird, ein Robotergehirn mit vollem menschlichen Selbstbewusstsein zu entwerfen. Der Grund dafür ist, dass die Beschreibung und Konstruktion einer Maschine mit einem „mechanischen Gehirn“ zwei Sprachen erfordert, eine Metasprache und eine Maschinensprache. Die Metasprache ist die Sprache des Menschen, der das „mechanische Gehirn“ beschreibt, entwirft und programmiert. Gotthard Günther hat diesen Sachverhalt folgendermassen zum Ausdruck gebracht: „Die Logik bzw. Mathematik, in der ein solches ‚mechanisches Gehirn’ beschrieben wird, muss von einem höheren Sprachtypus sein als derjenige, den das Robotgehirn braucht, um seine Begriffe zu produzieren. In der Ausdrucksweise der symbolischen Logik: die Konstruktion eines Robots muss in einer Sprache erfolgen, die relativ zu der Sprache, in der ein Robot ‚denkt’, die Metasprache ist. Nun gibt es aber zu einer Sprache, die Begriffe wie ‚Ich’, ‚Du’ oder ‚Selbst’ als logisch relevante Ausdrücke enthält, keine Metasprache mehr. Eine solche Sprache ist von höchstmöglicher logischer Ordnung. Wenn also ein Konstrukteur versuchte, einem ‚mechanischen Gehirn’ die eben genannten Begriffe und damit ein Denken in einer Sprache höchstmöglicher Ordnung einzubilden, dann bliebe ihm keine Metasprache mehr, in der er ein solches Robotgehirn entwerfen könnte. Umgekehrt: reserviert der Konstrukteur einen solchen Sprachtypus für die Darstellung seines Entwurfes, dann kann er dem Entwurf selber nur ein niedereres Sprachniveau, in dem solche Worte (Begriffe) noch nicht auftreten, zuschreiben. Ein Gehirn aber, das den Begriff ‚Selbstbewusstsein’ prinzipiell nicht konzipieren und in seiner Sprache bilden kann, hat auch kein Selbstbewusstsein. Es wird also nie möglich sein, einen Robot, der Selbstbewusstsein besitzt, zu konstruieren, weil ein ‚mechanical brain’, der Worte wie ‚Ich’ und ‚Selbst’ gebrauchen kann und weiss, was sie bedeuten eine Sprache spricht, zu der es keine Metasprache mehr gibt, in der sein technischer Entwurf vom Konstrukteur konzipiert werden könnte. Wenn beide die gleiche Sprache sprächen, dann wären Schöpfer und Geschöpf einander geistig ebenbürtig. Dies ist absurd.“ [4]

Ängste gehen aber auch aus einem unzulänglichen Konzept dessen hervor, was der Mensch ist. Sie setzen nämlich voraus, dass der Mensch sich selbst als mechanisches Produkt begreift, und dann als solches von den intelligenten Maschinen übertroffen werden würde. Wie Gotthard Günther zeigt, ist der Mensch bewusstseinstheoretisch jedoch alles andere als mechanisch zu verstehen. Mit der selbstreflexiven, philosophischen Selbsterkenntnis des Menschen, die gewissermassen durch die elektronische Revolution erzwungen wird, überwindet der Mensch endgültig die mechanistische Stufe und kann in eine neue Spiritualität erwachsen.

Dass die kybernetischen Theorien eine metaphysische Herausforderung an die spirituellen Reserven des Menschen darstellen, ist kürzlich von Ulrich Sonnemann mit dankenswerter Eindringlichkeit hervorgehoben worden. [5] Mit Recht sagt er: „Die Automation als erster Vorgang in der Geschichte der Technik verheisst die Entmechanisierung des Menschen. Der Weg dahin ist nicht leicht und allerlei Unbequemlichkeiten sind auf ihm zu erwarten.“ Ich schliesse mit der Hommage von Eva Meyer an Gotthard Günther: „Unter den Gesichtspunkten jedoch, die Günthers Überlegungen leiten, gewinnt die Technik eine völlig neue Funktion. Sie ist nicht mehr Instrument im ‚Dienste der Menschheit’, nicht mehr Vermittler von Mensch und Natur, die sich in einer blossen Ingenieurwissenschaft erschöpft, sondern eine allgemeine Theorie aller Systeme, physischer wie geistiger, und als solche ‚Spiegel’ der Menschen in ihrer irreduziblen Andersheit und Verschiedenheit, in ihrer Autonomie und Souveränität. So gesehen gehört die Technik, wenn es sich um kybernetische Maschinen und künstliche Intelligenz handelt, nicht als Instrument zum Wesen des Menschen, sondern das Wesen des Menschen gehört zur Technik, insofern er sich erst über sie ein Bild von sich machen kann. Denn erst über den Umweg über die technische Abbildung, Wiederholung der menschlichen Subjektivität in der Maschine (Mechanical Brain, Inkarnation des Logos im technischen Artefakt), entsteht eine neue und künstliche Instanz der Vermittlung der Menschen untereinander, die dem Menschen ein Verständnis seiner selbst ermöglicht, weil sie ihn von seiner Gebundenheit an die Natur, die auch der Ausgangspunkt seiner Abwehrmechanismen und Unterwerfungsstrategien ist, befreit. Dies ist notwendig, weil die blosse Idee der Humanität den konkreten und die Handlung erfordernden Problemen nicht mehr genügt.“ [6]

 

 

 

 

[1]  Bierter, Willy: „Wege eines Wanderers im Morgengrauen. Auf den Spuren Gotthard Günthers in transklassischen Denk-Landschaften“, Books on Demand, Norderstedt 2018; ders.: „Denk-Wege – Gotthard GünthersGeburtsarbeit an einem neuen Format von Menschsein“, September 2018, in: https://www.philosophie.ch

[2]  Günther, Gotthard: „Das Bewusstsein der Maschinen“, Baden-Baden 1963

[3]  Günther, Gotthard: „Beiträge zur Grundlegung einer operationsfähigen Dialektik“, Band 1, 2, 3, Hamburg 1976, 1979, 1980; „Idee und Grundriss einer nicht-Aristotelischen Logik. Die Idee und ihre philosophischen Voraussetzungen“, Hamburg 1978

[4]  Günther, Gotthard: „Das Bewusstsein der Maschinen“, Baden-Baden 1963, S. 113 f.

[5]  Sonnemann, Ulrich: „Das Land der unbegrenzten Zumutbarkeiten“, Hamburg 1963, S. 126

[6]  Meyer,Eva : „Universum / Pluriversum. Gotthard Günther ein Denker der Zukunft?“, in: taz v. 25.3. 1985, S. 6