Ein Beitrag von Gregorio Demarchi

Der alte und der neue Mechanismus

Descartes und die Entstehung der mechanistischen Philosophie

·

    Der alte Mechanismus bildet die Grundlage der Naturauffassung von Descartes und von vielen anderen Philosophen und Naturwissenschaftlern in der Zeit der naturwissenschaftlichen Revolution (17.-18. Jahrhundert). Der neue Mechanismus, mit dem sich der zweite Teil des Artikels beschäftigen wird, ist in der zweiten Hälfte des 20. Jahrhunderts als Reaktion gegen das Vorherrschen der neopositivistisch geprägten abstrakt-formalistischen Konzeptionen in der Epistemologie entstanden (durch Herbert Simon, Stuart Kauffman, William Wimsatt, William Bechtel, Robert Richardson und noch viele andere), und widmet größere Aufmerksamkeit den konkreten Forschungsmethoden in speziellen Wissenschaften wie der Biologie.

    Das Werk von Georges Canguilhem (1904-1995), und insbesondere seine Ideen zum Verhältnis zwischen Maschine und Organismus, wird als Bindeglied zwischen dem alten und dem neuen Mechanismus fungieren, da diese Ideen einerseits die wissenschafts- und philosophiegeschichtlichen Dimensionen vom Begriff des Mechanismus berücksichtigen, andererseits aber auch einen konkreten Bezug zu den modernen biomedizinischen Wissenschaften haben, auf deren Terrain sich der neue Mechanismus entwickelt hat.

    Teil I: Descartes und die Entstehung der mechanistischen Philosophie

    In einer Fußnote zum Maschinenkapitel von Kapital Band I erklärt Karl Marx, dass „Descartes mit seiner Definition der Tiere als bloßer Maschinen […] mit den Augen der Manufakturperiode [sieht]“1. In dieser Periode – so die Interpretation – führte die zunehmende Rationalisierung des Produktionsprozesses dazu, dass Arbeitstiere schrittweise durch Maschinen verdrängt und ersetzt wurden, da letztere im Vergleich zu ersteren eine bedeutsame Produktivitätssteigerung möglich machten, wodurch mehr Profit erbeutet werden konnte.

    Die Analogie zwischen Tieren und Maschinen – deren sozioökonomische Wurzel womöglich tatsächlich in den Rationalisierungstendenzen der frühkapitalistischen Produktionsweise zu suchen sind – erschöpft allerdings bei weitem noch nicht den theoretischen Inhalt jener philosophischen Position, die man als Mechanismus bezeichnet, und deren Ursprünge in Descartes‘ Philosophie hier rekonstruiert werden sollen. Wie dies Eduard Jan Dijksterhuis im Schlusswort seines klassischen Werks Die Mechanisierung des Weltbildes (1950) erläutert, kann der Ausdruck „Mechanismus“ verschiedene Bedeutungen annehmen, deren Zusammenhang mit dem altgriechischen Wort μηχανη (Maschine) nicht immer unmittelbar ist2. Der Einfachheit halber sollen hier nur zwei von diesen Bedeutungen erwähnt werden:

    1. In einer ersten Bedeutung ist der Zusammenhang zwischen Mechanismus und Maschine ziemlich unmittelbar: die Welt wird als eine große Maschine aufgefasst (wie dies z.B. Descartes im §188 vom vierten Teil der Principes de la philosophie macht), die sich nur dadurch von den Maschinen, die von menschlicher Hand konstruiert werden, unterscheidet, dass ihre Teile – ihre „Röhren oder Triebfeder“ (tuyaux ou ressorts) – zu klein sind, um von unseren Sinnen wahrgenommen zu werden (Principes de la philosophie, IV, §204)3. Wie dies Dijksterhuis richtig bemerkt, „[setzt] eine Maschine […] einen bewussten und intelligenten Erbauer voraus, der sie konstruiert hat und sie wirken lässt, um ein bestimmtes Ziel zu erreichen.“4 In einem unten noch ausführlicher zu besprechenden Aufsatz hat Georges Canguilhem die ganze Tragweite dieser im Begriff selbst der Maschine impliziten Teleologie erkannt und ins Zentrum seiner Überlegungen zum Verhältnis zwischen Maschine und Organismus gestellt.

    2. In einer zweiten Bedeutung unterhält der Mechanismus allerdings eine viel schwächere Beziehung zum Begriff der Maschine, und zwar nur vermittelt durch die Wissenschaft der Mechanik. Obwohl diese in ihren Ursprüngen tatsächlich eine (praktische) Wissenschaft der Konstruktion von Maschinen war, verwandelte sie sich im Spätmittelalter in eine allgemeine Bewegungslehre. Durch das Werk von bedeutsamen Naturwissenschaftlern wie Simon Stevin, Galileo Galilei und Johannes Kepler entwickelte sich dann in der Spätrenaissance und im frühen 17. Jahrhundert die als Bewegungslehre verstandene Mechanik zu einer mathematischen Wissenschaft, in deren Zentrum der von Descartes selbst eingeführte Begriff des Naturgesetzes steht. Was die Naturkörper gemäß dieser Auffassung zu maschinenähnlichen Konstrukten macht, ist lediglich jenes „negative[…] Kennzeichen“, das Dijksterhuis als „das Unvermögen, aus eigener Kraft zu funktionieren, die Notwendigkeit, von außen her in Bewegung gebracht und gehalten zu werden“ beschreibt5. Anders als die aristotelisch geprägte Naturphilosophie, die der Mechanismus ablöst, spricht letzterer den Naturkörpern jedwedes intrinsische Kausalvermögen ab. Die „mechanischen“ Eigenschaften der Ausdehnung und der Bewegung sind die einzigen Attribute der Materie, und die kausalen Verhältnisse, die das Naturgeschehen strukturieren, werden nicht von den intrinsischen Vermögen der Dinge selbst bestimmt (von deren causal powers), sondern von einer von oben herab aufoktroyierten Gesetzgebung diktiert6.

    Obwohl Descartes‘ These vom maschinenhaften Charakter von Lebewesen, wie gesagt, nicht den ganzen Inhalt der mechanistischen Weltanschauung erschöpft, stellt sie ein thematisches Terrain dar, auf dem die Spannung zwischen den zwei soeben erwähnten Auffassungen vom Mechanismus ihre Entfaltung findet. Man könnte zunächst meinen, dass die These der bêtes-machines (die u.a. im fünften Teil vom Discours de la méthode dargelegt wird) klar im Sinn der ersten Bedeutung vom Mechanismus ausgelegt werden soll: wenn die Welt als Ganzes eine Maschine ist, umso mehr sind als Maschinen die Lebewesen aufzufassen, deren Teile auf so präzise Art und Weise aufeinander abgestimmt sind, dass sie zu den komplexen Verhaltensweisen führen, die wir bei den Tieren beobachten.

    Obwohl Georges Canguilhem die sozioökonomistische Interpretation zurückweist, die hinter dem von Dijksterhuis erwähnten „bewussten und intelligenten Erbauer“ lediglich die Rationalisierungsanforderungen der frühkapitalistischen Manufaktur erblickt7, ist es für ihn unleugbar, dass die Konzeption von Tieren als Maschinen nicht weniger anthropomorphisch ist als die Auffassung, die sie abzulösen vorgibt. Zwar eliminiert Descartes die von der aristotelischen Biologie postulierten seelischen Vermögen, deren teleologische Verfassung die Funktionen und Bewegungen von Lebewesen hätte erklären sollen. Die Teleologie wird aber eigentlich nur auf den Ursprung verlegt: „Man kann also sagen, dass Descartes die Teleologie des Lebens beseitigt, indem er den Mechanismus an die Stelle des Organismus setzt; und dennoch beseitigt er sie nur scheinbar, da er sie am Ausgangspunkt wieder einführt.“8 So wie am Ausgangspunkt des Konstruktionsprozesses einer von menschlicher Hand erbauten Maschine der bewusste Plan des Handwerkers steht, so sind die „mikromechanischen“ (Thomas S. Hall)9 oder „nanotechnologischen“ (Ian Hacking)10 Biomaschinen, die man gewöhnlich als Tiere bezeichnet, Erzeugnis der anthropomorph konzipierten zielgerichteten Konstruktionstätigkeit eines Artifex Maximus. Um seine Interpretation zu untermauern, beruft sich Canguilhem auf die ersten Paragraphen von Descartes‘ posthum erschienener Abhandlung L’homme:

    Ich setze voraus, dass der Körper nichts anderes ist als eine Statue oder Maschine aus Erde, die Gott ausdrücklich formt, um sie uns so ähnlich wie möglich zu machen. Deshalb verleiht er ihr nicht nur äußerlich die Farbe und Gestalt aller unserer Körperglieder, sondern setzt auch alle Stücke in ihr Inneres, die erforderlich sind, um sie herumlaufen, essen, atmen und schließlich all jene unserer Funktionen nachahmen zu lassen, von denen man sich vorstellen kann, dass sie von der Materie herrühren und von der Disposition der Organe abhängen.

    Wir sehen Uhren, kunstvolle Wasserspiele, Mühlen und andere ähnliche Maschinen, die zwar nur von Menschen gefertigt sind, aber dennoch die Kraft haben, sich von selbst auf viele verschiedene Weisen zu bewegen. Und mir scheint, ich könnte mir in dieser Maschine, von der ich voraussetze, dass sie durch die Hände Gottes gefertigt ist, weder so viele Arten von Bewegungen vorstellen noch ihr eine solche Kunstfertigkeit zusprechen, dass Sie keinen Anlass hätten, zu denken, sie könne nicht noch mehr davon haben.“ (AT XI, 120)11

    Eine wichtige Konsequenz der von Descartes hier dargelegten Konzeption, wonach die Funktionen und Bewegungen von organischen Lebewesen nicht auf immanent wirkende teleologische Seelenvermögen zurückgeführt werden sollen, sondern biomaschinelle Automatismen sind, deren teleologische Konzipierung ihnen äußerlich ist, ist, dass die richtige Verfassung der Organe eine hinreichende Bedingung für körperliche Bewegungen darstellt. Anders gesagt, ist das seelische Vermögen des Willens keine notwendige Bedingung, damit sich der Körper bewegt, wie dies die unwillentlichen Körperbewegungen zeigen:

    Das zeigt, dass die Seele nur dann im Körper eine Bewegung hervorrufen kann, wenn sich die für diese Bewegung erforderlichen körperlichen Organe in der dafür richtigen Verfassung befinden, und dass, wenn sich umgekehrt alle Organe des Körpers in der richtigen Verfassung zu einer bestimmten Bewegung befinden, der Körper die Seele nicht nötig hat, um sie zu produzieren.“ (AT XI, 225)12

    Canguilhem bemerkt dabei: „Ein technologischer Anthropomorphismus ersetzt einen politischen Anthropomorphismus.“13 Damit ist gemeint, dass Descartes „das politische Bild der Befehlsgewalt als Typus magischer Kausalität – einer Kausalität durch das Wort oder durch das Zeichen – durch das technische Bild der ‚Steuerung‘ als positiver Kausalität, also einer Vorrichtung oder eines Zusammenspiels mechanischer Verbindungen [ersetzt].“14 Während das seelische Vermögen des Willens sich zum Körper wie ein König gegenüber seinen Untertanen oder ein General gegenüber seinen Soldaten verhält, findet in den kartesischen Biomaschinen dieses politische Modell der Befehlsgewalt durch das Wort keine Anwendung, um die Bewegungen der Organe zu erklären, da diese sich „gegenseitig steuern wie die Rädchen eines Räderwerks.“15 Dies scheint tatsächlich der Konzeption von Descartes zu entsprechen, der nachdrücklich betont, dass angesichts der Fähigkeit des Körpers zur unwillentlichen Bewegung wir genauso wenig berechtigt sind, die Wirksamkeit einer immateriellen Seele anzunehmen, „wie wir Anlass haben, zu urteilen, es gebe in einer Uhr eine Seele, die dafür sorgt, dass sie die Stunden anzeigt.“ (AT XI, 226; Beschreibung des menschlichen Körpers, S. 133)

    Das Modell des Uhrwerks, das hier von Descartes explizit erwähnt wird, um seine These zu untermauern, wonach die richtige Disposition der Organe eine hinreichende Bedingung für körperliche Bewegungen darstellt, ist allerdings nicht das einzige mechanische Modell, von dem Descartes Gebrauch macht. Schon in der oben angeführten Eröffnungspassage aus der Abhandlung L‘homme werden neben der Uhr noch „Wasserspiele“ und „Mühlen“ erwähnt, d.h. Vorrichtungen, die durch die Kraft des Wassers oder der Luft funktionieren. Dieser scheinbar nebensächliche Aspekt steht im Zentrum der Interpretation der kartesischen These der bêtes-machines, die vom „analytischen Marxisten“ Jon Elster vorgelegt wurde16. Gegen eine vulgär-technizistische Lektüre, die Descartes‘ Mechanismus als nicht weiter spezifizierten Ausdruck der Produktionsmethoden der Manufakturperiode ansieht, argumentiert Elster dahingehend, dass Descartes‘ Wahl von ganz spezifischen Maschinen als Modelle, um seine These zu illustrieren, ihren Grund eher in der immanenten Logik seiner Metaphysik hat als in den sozioökonomischen Bedingungen seiner Epoche.

    Um diesen wichtigen Aspekt am besten zu verstehen, soll hier nochmals auf die zweite oben erwähnte Bedeutung vom Mechanismus zurückgekommen werden: in dieser Bedeutung fasst der Mechanismus das Verhalten der Naturkörper als bestimmt nicht durch deren intrinsische kausale Vermögen auf – wie dies die Naturphilosophie von Aristoteles machte –, sondern durch von oben herab aufoktroyierte Gesetze. Die Mehrdeutigkeit, die dem Begriff vom Mechanismus eigen ist, ist laut Elster der Grund, warum viele Interpreten die grundsätzlich dualistische Natur von Descartes‘ Biomechanismus verkennen. Denn Descartes macht nicht nur vom schon ausführlich behandelten technologischen Modell Gebrauch, das Tiere als fertige Maschinen konzipiert, die von einem „bewussten und intelligenten Erbauer“ konstruiert wurden, sondern auch von einem atomistischen Modell, das die Formierung des Organismus als Resultat eines Selbstorganisationsprozesses auffasst, wodurch kleine ausgedehnte Materieteilchen aufgrund der Naturgesetze, die ihr Verhalten bestimmen, progressiv die Form des lebenden Organismus annehmen17. Während das technologische Modell der erbauten Maschine im programmatischen Text vom fünften Teil vom Discours de la méthode und in der Abhandlung L’homme vorherrscht, legt Descartes seine embryologische Theorie der Epigenese in der Description du corps humain und in der kleinen Abhandlung Primae cogitationes circa generationem animalium dar. Wie dies Elster richtig erkannt hat, ist tatsächlich die embryologische Theorie der Epigenese, die einen Selbstformierungsprozess des lebenden Organismus annimmt, grundsätzlich unvereinbar mit dem Modell der Tiere als fertig erbauten Maschinen. Erst die alternative Theorie der Präformation – die u.a. von Leibniz und Malebranche vertreten wurde – ist mit dem Modell der erbauten Maschine kompatibel, da sie die organischen Strukturen als vorgeformt und nicht als selbstgeformt konzipiert.

    Die Auffassung von Tieren als Entitäten, die aus dem naturgesetzmäßigen Selbstorganisationsprozess von kleinen ausgedehnten Materieteilchen resultieren, hat nun wichtige Konsequenzen auch für das alternative Modell der Tiere als erbauten Maschinen, und zwar näher für Descartes‘ Wahl der konkreten Maschinen, die der Illustrierung seiner These dienen sollen. Während das Modell des Uhrwerks annimmt, dass die Teile der Maschine – die Räder der Uhr – sich genau gemäß dem Plan des Erbauers bewegen werden, bieten hydraulische Maschinen (wie Brunnenautomaten und Wassermühlen) ein alternatives Modell dar, in dem die Teile – oder mindestens einige Teile der Maschine, nämlich die flüssigen – sich frei bewegen können. Freie Bewegung der Teile bedeutet hier freilich naturgesetzmäßige Bewegung. Dies ist allerdings eine Bewegung, die einen gewissen Spielraum erlaubt und nicht vollständig vom Erbauer bestimmt wird. Die festen Bestandteile der Maschine – ihre Röhren und Triebfedern – stellen nur die Rahmenbedingungen für die freie Bewegung der Flüssigkeiten dar:

    Damit man sich zunächst einen allgemeinen Begriff von der gesamten Maschine machen kann, die ich beschreiben will, möchte ich hier sagen, dass die Wärme in ihrem Herzen gewissermaßen die große Triebfeder und das Prinzip aller Bewegungen in ihr ist. Die Venen sind die Röhren, die das Blut von allen Teilen des Körpers geradewegs zum Herzen bringen, wo es der dortigen Wärme als Nahrung dient. Ebenso sind auch der Magen und die Gedärme eine andere große Röhre, die mit kleinen Löchern durchsetzt ist, durch die der Saft der Nahrungsmittel in die Venen strömt, die sie geradewegs zum Herzen tragen. Die Arterien sind wiederum andere Röhren, durch die das im Herzen erwärmte und verdünnte Blut von dort auf alle anderen Körperteile übergeht, zu denen es die Wärme bringt und etwas Materie, um sie zu ernähren.“ (AT XI, 226f.)18

    Die Hydraulik der Blutzirkulation stellt somit das Merkmal dar, wodurch lebende Biomaschinen sich von unbelebten Uhrwerken unterscheiden, so dass es sich bei Descartes‘ These der bêtes-machines eher um einen „heuristischen Vergleich“ (Markus Wild)19 handeln würde, als um die Behauptung, Tiere seien wirklich Maschinen. Das Interessante an der Lektüre, die Jon Elster vorlegt, ist vor allem, dass sie zu Konklusionen führt, die denjenigen von Georges Canguilhem diametral entgegengesetzt sind. Während Canguilhem (sich auf die entsprechenden angeführten Passagen von Descartes berufend) vor allem die Entbehrlichkeit des seelischen Vermögens des Willens für das korrekte Funktionieren von biologischen Maschinen betont, und somit den „politischen“ Anthropomorphismus des Willens durch den „technologischen“ des Erbauers ersetzen will, ist Elster davon überzeugt, dass Descartes auch deshalb dem hydraulischen Modell des Brunnenautomaten den Vorzug gibt, weil der Spielraum, den die freie Bewegung der Flüssigkeiten eröffnet, einen möglichen Eingriffspunkt für den Willen darstellt. Elster betont explizit, dass Descartes den Willen nicht als Erbauer („constructeur“) konzipiert, sondern als Operator („opérateur“), der in der Maschine sitzt und dieselbe durch kybernetische Rückkoppelung steuert20.

    Es kann hier zum Schluss dieses Artikels ein längeres Zitat aus Descartes‘ L‘homme angeführt werden, das Elster als das zentrale Beweisstück für seine These ansieht, wonach Descartes den Willen so konzipiert, dass er die Biomaschine durch einen Mechanismus der negativen Rückkoppelung steuern würde, der vergleichbar wäre mit der Aktion eines Brunnenwarts auf die Automaten eines mechanischen Brunnens, und der somit nicht hinreichend bestimmt werden würde durch den Plan des Erbauers. Die hydraulischen Automaten, die Descartes dabei mit barocker Plastizität beschreibt, sind die von den Brunnen, die sich in den Grotten vom Schloss Saint-Germain-en-Laye befanden (siehe Bild), und die leider mittlerweile zerstört worden sind:

    So mögen Sie vielleicht in den Grotten und Wasserspielen, die sich in den Gärten unserer Könige befinden, gesehen haben, dass allein die Kraft, mit der das Wasser sich bewegt, wenn es aus seiner Quelle austritt, ausreicht, um dort verschiedene Maschinen zu bewegen und sie sogar irgendwelche Instrumente spielen oder Worte aussprechen zu lassen, gemäß der verschiedenen Disposition der Rohre, die es leiten.

     

    Automates hydrauliques des jardins de Saint-Germain-en-Laye

    Automates hydrauliques des jardins de Saint-Germain-en-Laye

    Quelle: https://atelier-canope-95.canoprof.fr/eleve/Automates%20et%20robots/res/robot.dossierHtml/co/saintGermainLaye_1.html

    Und wirklich kann man die Nerven der Maschine, die ich Ihnen beschreibe, sehr gut mit den Rohren der Maschinen dieser Wasserspiele vergleichen; ihre Muskeln und ihre Sehnen mit den verschiedenen anderen Vorrichtungen und Triebfedern, die dazu dienen, sie zu bewegen; ihre Lebensgeister mit dem Wasser, die sie in Bewegung setzt, dessen Quelle das Herz ist und dessen Vorratstanks die Höhlen des Gehirns. […] Die äußeren Objekte, die allein durch ihre Anwesenheit auf ihre Sinnesorgane einwirken und sie dadurch bestimmen, sich auf mehrere verschiedene Weisen zu bewegen, […] sind wie Fremde, die in einigen der Grotten dieser Wasserspiele eintreten und dadurch, ohne daran zu denken, selbst die Bewegungen verursachen, die sich in ihrer Anwesenheit vollziehen; denn sie können dort nur eintreten, wenn sie über gewisse Bodenfliesen hinüberlaufen, die eine solche Disposition haben, dass, wenn sie sich zum Beispiel einer badenden Diana nähern, sie sie im Schilf verbergen lassen; und gehen sie weiter voran, um ihr nachzueilen, lassen sie einen Neptun auf sich zukommen, der sie mit einem Dreizack bedroht; oder wenn sie zu irgendeiner anderen Seite gehen, lassen sie ein Meeresungeheuer austreten, das ihnen Wasser ins Gesicht speiht; oder ähnliche Dinge, gemäß der Laune des Erfinders, der sie gefertigt hat. Und schließlich, wenn es in dieser Maschine eine vernünftige Seele geben wird, wird sie in ihr ihren Hauptsitz im Gehirn haben und dort wie der Brunnenwart sein, der sich bei den Vorratstanks aufhalten muss, wo alle Rohre dieser Maschinen zusammenlaufen, wenn er ihre Bewegungen in irgendeiner Weise auslösen, hemmen oder verändern will.“ (AT XI, 130-132)21


    1 MEW 23, S. 411.

    2 E.J. Dijksterhuis, Die Mechanisierung des Weltbildes (Berlin, 1956), S. 550-557.

    3 Ian Hacking schreibt in seinem sehr lesenswerten Artikel Canguilhem amid the cyborgs (in Economy and Society, 27, 1998), dass Descartes sich für die Nanotechnologien begeistert hätte, wenn er sie noch erlebt hätte: „How Descartes would have loved to have lived in our age of nanoengineering!“

    4 Dijksterhuis, S. 551.

    5 Dijksterhuis, S. 553.

    6 Siehe zu dieser Frage Walter R. Ott: Causation and laws of nature in early modern philosophy (Oxford, 2009).

    7 G. Canguilhem, Maschine und Organismus (in: Die Erkenntnis des Lebens, Berlin, 2009), S. 196-200, bespricht ausführlich die marxistische Interpretation von Franz Borkenau (Der Übergang vom feudalen zum bürgerlichen Weltbild: Studien zur Geschichte der Philosophie der Manufakturperiode, Paris, 1934) und deren ebenfalls marxistisch geprägte Kritik durch Henryk Grossmann (Die gesellschaftIichen Grundlagen der mechanistischen Philosophie und die Manufaktur; in Zeitschrift für Sozialforschung, 4, 1934). Canguilhems Konklusion ist dabei die Folgende: „Folglich können wir feststellen, dass Descartes eher ein menschliches Phänomen, die Konstruktion von Maschinen, in seine Philosophie integriert hat, als dass er ein gesellschaftliches Phänomen, die kapitalistische Produktion, zur Ideologie erhoben hätte.“ (S. 200)

    8 Canguilhem, S. 206.

    9 Thomas S. Hall: Ideas of life and matter (Chicago, 1969).

    10 Siehe Hackings Artikel, der in Fussnote 3 zitiert wird.

    11 Der Mensch (Hamburg, 2015), S. 173

    12 Beschreibung des menschlichen Körpers (Hamburg, 2014), S. 132.

    13 Canguilhem, S. 207.

    14 Canguilhem, S. 208.

    15 Canguilhem, S. 208.

    16 J. Elster, Leibniz et la formation de l’esprit capitaliste (Paris, 1975), Kapitel II.

    17 Elster, S. 54ff.

    18 Beschreibung des menschlichen Körpers, S. 133f.

    19 Markus Wild, Die anthropologische Differenz (Berlin, 2006), S. 157: „Will Descartes mit der Maschinenanalogie nun tatsächlich behaupten, Tiere seien Maschinen? Die Antwort lautet Ja und Nein. […] Es scheint sich lediglich um einen heuristischen Vergleich zu handeln. Die so gewonnene Analogie wird durch Hinweise auf tatsächlich konstruierte Maschinen – die mechanische Diana – plausibilisiert (Homme, AT XI: 120). Tiere sind metaphysisch (qua res extensa) und funktional nicht von Maschinen verschieden. Descartes weiß jedoch sehr wohl, dass es zwischen der mechanischen Göttin und seinem eigenen Hund einen Unterschied gibt.“ Dies Unterschied, so Wilds Interpretation, besteht hauptsächlich darin, dass Lebewesen „ein biologisches Zentrum“ (S. 165) haben, nämlich das Herz (oder ein Analogon desselben im Fall der Pflanzen: die Nachfolger von Descartes bemühen sich um eine „hydraulische Konzeption von Pflanzenbewegungen aufgrund der Saftzirkulation“, so Wild auf S. 164).

    20 Elster, S. 59: On peut avancer aussi la conclusion que le modèle technologique de Descartes ne présente pas l’organisme comme n’importe quelle « machine », mais comme un mécanisme très singulier et très spécifique : une machine qui permet la circulation des parties fluides et qui permet aussi la possibilité permanente d’intervention de la part d’un agent libre. Pour comprendre avec quelle précision le modèle de la fontaine correspond aux soucis de Descartes, on n’a qu’à le comparer au modèle de l’horloge, également très fréquemment proposé au XVIIe et XVIIIe siècle. L’horloger serait le constructeur de la machine plutôt que l’opérateur, Dieu plutôt que l’âme ; sans doute il pourrait construire sa montre, la mettre en mouvement, la remonter de temps en temps et peut-être la corriger, mais il ne pourrait pas vraiment s’installer dans la machine et former avec elle une union étroite. L’horloge n’aurait pas permis non plus le mécanisme de la rétroaction négative. Ainsi la machine de Descartes est construite selon des spécifications très précises, ce qui rend probable la priorité de la métaphysique sur son analogie technologique, tandis que l’interprétation marxiste demanderait la priorité inverse.

    21 Der Mensch, S. 189-191.

    Dieser Teil des Textes ist die Fortsetzung des ersten. Er beschäftigt sich mit dem „neuen Mechanismus“, d. h. mit jener Strömung innerhalb der zeitgenössischen Wissenschaftsphilosophie und Philosophie der Biologie, die ihr Augenmerk auf die genaue Bedeutung von Mechanismen im Rahmen der Funktionsweise von biologischen Organismen richtet (z. B. dem Mechanismus der Signalübertragung in Nervenzellen, oder dem Mechanismus der Zellatmung in Mitochondrien, oder dem Mechanismus der entwicklungsbiologischen Segmentierung eines Insekts, usw.). Wie der Beitrag zeigen soll, unterscheidet sich der neue Mechanismus vom alten hauptsächlich dadurch, dass er der ganzen Komplexität von biologischen Systemen, wie sie im Lauf der Evolution entstanden sind, angemessen Rechnung trägt.

    Teil II: Mechanismus, Naturgesetze und Komplexität in der Wissenschaftsphilosophie des 20. Jahrhunderts

    Im ersten Teil dieses Beitrags wurde es zwischen zwei Bedeutungen unterschieden, die der Ausdruck „Mechanismus“ im 17. Jahrhundert annimmt: Einerseits kann sich der Ausdruck auf die Auffassung beziehen, die Welt sei als eine große Maschine zu konzipieren, deren Funktionsweise ohne Rückgriff auf äußere Ursachen erklärt werden soll, wobei allerdings die Frage aufkommt, wer diese Maschine erbaut habe. Andererseits kann der Ausdruck „Mechanismus“ auch einen loseren Zusammenhang mit dem Begriff der Maschine unterhalten und sich auf das neue Weltbild beziehen, das durch das Werk von Galileo Galilei, Kepler und Descartes entwickelt wurde und wonach das Naturgeschehen weniger durch die intrinsischen kausalen Vermögen (die „Seelen“) der Dinge bestimmt ist als durch von oben herab aufoktroyierte Gesetzmäßigkeiten, denen eine als träg konzipierte Materie passiv gehorchen muss. Beide Auffassungen hatten wichtige Konsequenzen für die Art und Weise, wie im Jahrhundert der naturwissenschaftlichen Revolution die Struktur und die Funktionsweise von organischen Lebewesen konzipiert wurde, wie dies beispielhaft am Werk von Descartes gezeigt worden ist. Denn Descartes vertritt nicht nur die Theorie, dass Lebewesen wie Maschinen modelliert werden sollen, in denen Bewegungen räderwerkmäßig von einer Teilkomponente auf die andere übertragen werden, ohne dass da eine „Seele“ nötig wäre, um die Bewegung voranzutreiben. Eine solche Theorie, wie erwähnt, geht mit der Vorstellung einher, dass ein Handwerker die Maschine planmäßig erbaut und die zweckmäßige Anordnung ihrer Teile bewusst zustande gebracht hat. Neben diesem technologischen Modell von Lebewesen vertritt Descartes aber eben auch noch ein atomistisches Modell, das seinen Ausdruck in der entwicklungsbiologischen Theorie der Epigenese findet.1 Diese besagt, dass Lebewesen durch einen Prozess der Selbstorganisation von kleinen Materieteilchen entstehen, deren Verhalten von den Naturgesetzen diktiert wird, so dass die Herstellung durch einen bewussten und intelligenten Erbauer von vornherein ausgeschlossen wird (anders als im Fall der entgegengesetzten Theorie der Präformation, die organische Lebewesen als vorgeformt statt selbstgeformt konzipiert).

    Man könnte nun meinen, dass spätestens seitdem Charles Darwin Mitte des 19. Jahrhunderts seine Theorie der biologischen Evolution durch natürliche Selektion formulierte, die Spannung zwischen den zwei Momenten des Mechanismus – dem „technologischen“ und dem „atomistischen“ – aufgelöst worden sei. Wir brauchen heutzutage nicht mehr auf die Annahme eines bewussten und intelligenten Erbauers zurückzugreifen, um die zweckmäßige Einrichtung von Lebewesen zu erklären, denn organische Anpassungen sind das natürliche Ergebnis des „blinden“ Prozesses der Selektion, durch die Umwelt, von für das Überleben und die Fortpflanzung vorteilhaften Variationen innerhalb einer biologischen Art. Die Frage nach dem Verhältnis zwischen Maschine und Organismus und nach dem eigentümlichen Charakter ihrer zweckmäßigen Organisation bleibt allerdings hochaktuell, und es ist das Ziel des vorliegenden Beitrags zu zeigen, dass im Licht dieser Frage bestimmte Aspekte der zeitgenössischen Debatte über Mechanismen in der Philosophie der Biologie beleuchtet werden können, die sonst nicht gerade im Vordergrund stehen, und zwar gerade die Aspekte, auf die Georges Canguilhem in seinem klassischen Aufsatz Maschine und Organismus (1947 / 1952)2 aufmerksam machte.

    Zum Einstieg kann es daran erinnert werden, dass die Metapher des Organismus als einer Maschine und der natürlichen Selektion als eines – wohl blinden – Uhrmachers noch immer Anwendung findet in den heutigen Debatten. Die Metapher hat übrigens nichts von ihren ursprünglichen sozioökonomischen Konnotationen verloren, die sie schon in der Periode der Manufaktur hatte, als sie Ausdruck der Rationalisierungstendenzen der frühkapitalistischen Produktionsweise war. Besonders deutlich kommen diese Konnotationen in einem für den „neuen Mechanismus“ grundlegenden Aufsatz von Herbert Simon (1916-2001) zum Tragen, nämlich The Architecture of Complexity (1962).3 In seinem Aufsatz erzählt Simon die Parabel von Hora und Tempus. Hora und Tempus sind eine Uhrmacherin und ein Uhrmacher, die dem ökonomischen Druck einer warenproduzierenden Marktwirtschaft ausgesetzt sind: Sie müssen nämlich ihre Uhren so effizient wie möglich herstellen, d. h. ohne unnötigen Zeitverlust. In ihrer Komplexität unterscheiden sich die Uhren von Tempus nicht beträchtlich von denjenigen von Hora: Beide stellen Uhren her, die aus ungefähr 1000 Teilkomponenten bestehen, die zusammengesetzt werden müssen. Worin sich Tempus und Hora unterscheiden, ist in der Effizienz ihrer Produktionsmethoden. Tempus hat seine Uhren so entworfen, dass teilweise zusammengesetzte Uhren wieder in ihre Teilkomponente zerfallen, wenn er in seiner Arbeit unterbrochen wird (z. B. von einer Kundin, die ihn gerade per Telefon anruft, um sich eine neue Uhr zu bestellen). Hora hat dagegen eine modulare Produktionsmethode entwickelt, die ihr ermöglicht, Teilmontagen (subassemblies) aus 10 Teilkomponenten unabhängig voneinander zusammenzusetzen. 10 solcher Teilmontagen bilden eine größere Teilmontage, die mit anderen solchen Teilmontagen wiederum zusammengesetzt werden kann, um die ganze Uhr zu ergeben.4 Der Vorteil von Horas Methode ist offensichtlich: Wenn sie durch den telefonischen Anruf eines Kunden in ihrer Arbeit unterbrochen wird, verliert sie nur die Teilmontage, an der sie gerade arbeitet, was eine beträchtliche Zeitersparnis gegenüber Tempus darstellt. Die ökonomischen Folgen sind auch voraussichtlich: „Hora prospered, while Tempus became poorer and poorer and finally lost his shop.“5

    Simon erzählt diese Parabel, um die Struktur und Produktionsweise von Uhren in Analogie zu setzen mit dem hierarchischen Aufbau, den man bei biologischen Organismen beobachtet (mit den verschiedenen Ebenen Moleküle – Makromoleküle – Organelle – Zellen – Gewebe – Organe – Organismus), und der Wirkungsweise der natürlichen Selektion, die diesen Aufbau erklären soll. Der marktwirtschaftliche Druck auf die Produktionsmethoden von Uhrmachern und Uhrmacherinnen entspricht dem Druck der natürlichen Selektion auf den Aufbau von biologischen Organismen: Vorteilhaft werden sich unter einem solchen selektiven Druck jene biologischen Strukturen erweisen, die dank ihrem hierarchischen und modularen Charakter die Evolution eines Teils des Organismus relativ unabhängig machen von der Evolution anderer Teile und somit die Evolvierbarkeit des Organismus steigern.6 Wenn also der „alte Mechanismus“ von Descartes und seinen Nachfolgern außerstande war, die zweckmäßige Anordnung der Teile einer Biomaschine anders als durch das Werk eines göttlichen Handwerkers zu erklären, so beabsichtigt der „neue Mechanismus“ von Herbert Simon und seinen Nachfolgern programmatisch, die „Architektur der Komplexität“ von Biomaschinen auf die Wirkung der natürlichen Selektion zurückzuführen.

    Welche Konsequenzen hat aber diese Analogisierung der Wirkungsweise der natürlichen Selektion mit den Rationalisierungsanforderungen einer auf technologischen Fortschritt angewiesenen Produktionsweise? Handelt es sich dabei bloß um eine unschuldige Metapher oder hat sie noch weiterreichenden Implikationen für die Konzipierung selbst der Komplexität von Lebewesen? Ist eine solche Analogisierung wirklich legitim oder verleitet sie nicht eher zu irreführenden Schlüssen über die Natur der inneren Verfasstheit und Funktionsweise von biologischen Organismen? Und wie sind biologische Mechanismen genau zu modellieren in Organismen, deren Komplexität ein Ergebnis evolutionärer Prozesse ist?

    Das sind die Fragen, denen Canguilhem in seinem schon erwähnten Aufsatz über Maschine und Organismus nachgeht. Wie dies im ersten Teil des Beitrags schon gezeigt wurde, hebt Canguilhem bei Descartes vor allem den Aspekt hervor, dass die maschinelle Funktionsweise von Lebewesen den „politischen“ Anthropomorphismus eines befehlenden Willens, der in das Räderwerk der Biomaschine kausal eingreifen würde, entbehrlich macht, wobei die maschinelle Einrichtung der bêtes-machines einen neuen Anthropomorphismus veranlasst, nämlich den „technologischen“ eines äußeren Erbauers: Die Teleologie wird „am Ausgangspunkt“ wieder eingeführt.7 Die Entbehrlichkeit von seelischen Vermögen, um die Funktionsweise von Biomaschinen zu erklären, hängt damit zusammen, dass diese Maschinen als Uhrwerke konzipiert werden, in denen die Bewegungsübertragung von einem Rad auf das andere wegen der Härte und der Starrheit dieser Räder äußerst präzis ist.

    Dabei soll allerdings nicht vergessen werden, dass Descartes auch ein alternatives Modell von Maschinen kennt, um seine Tiere zu konzipieren: Das Modell der hydraulischen Maschinen, deren Teile eben weich und feucht sind und somit besser die biologische Wirklichkeit widerspiegeln als das Räderwerk einer Uhr. Dieses zweite Modell von Maschinen spielt eine wichtige Rolle in jenen Texten von Descartes, in denen er die epigenetische Theorie der Selbstorganisation von Lebewesen vertritt. Dass Canguilhem das hydraulische Modell bei Descartes nur am Rande behandelt, rührt daher, dass er sich bewusst ist, dass die konsequente Durchführung des Gedankens, dass Lebewesen aus weichen und feuchten Teilen bestehen und somit nicht dieselbe Präzision besitzen wie die eines Räderwerks, dabei aber durch epigenetische Selbstorganisation entstehen können, das technologische Modell selbst von Tieren als Maschinen zum Sprengen bringt. Wenn Canguilhem nämlich auf seine eigene Auffassung vom Verhältnis zwischen Maschine und Organismus zu sprechen kommt, macht er gerade auf den Unterschied aufmerksam, dass man in einem Organismus „Phänomene der Selbstkonstruktion, Selbsterhaltung, Selbstregulierung und Selbstwiederherstellung“ beobachtet.8 Solche Phänomene wären unmöglich, wenn Organismen Maschinen wären, deren Komponenten derart hart und starr sind, dass sie keine Flexibilität ermöglichen. Die Flexibilität, die Organismen gegenüber Maschinen aufweisen, scheint sogar zu beinhalten, dass organische Komponenten weniger zweckmäßig sind als mechanische:

    Man würde gerne sagen, dass eine Maschine stärker zweckbestimmt ist als ein Organismus, weil ihre Zweckmäßigkeit starr und eindeutig ist. Eine Maschine kann keine andere Maschine ersetzen. Je begrenzter die Finalität und je enger der Toleranzbereich ist, desto verhärteter und deutlicher erscheint die Finalität. Im Organismus beobachtet man hingegen, und auch das ist zu bekannt, um darauf zu insistieren, eine Vikarianz der Funktionen und eine Polyvalenz der Organe. Zweifelsohne sind die Vikarianz der Funktionen und die Polyvalenz der Organe nicht absolut, doch sind sie im Verhältnis zu denen der Maschine um so viel beträchtlicher, dass sich im Grunde der Vergleich nicht aufrechterhalten lässt.“9

    Vikarianz der Funktionen bedeutet, dass die Funktion eines bestimmten organischen Teils auch von einem anderen übernommen werden kann, wenn der erste beschädigt wird. Dies kann z. B. bei bestimmten Gehirnschäden vorkommen, wie dies Canguilhem von seiner Auseinandersetzung mit dem Werk von Kurt Goldstein wusste.10 Polyvalenz der Organe bedeutet hingegen, dass derselbe Organ auch mehrere Funktionen ausüben kann – Canguilhem erwähnt den Fall des Magens, der neben Verdauungsfunktionen angeblich auch bei der Blutbildung eine wichtige Rolle spielt. Die Flexibilität und Anpassungsfähigkeit von Lebewesen – die Canguilhem auch als ihre Normativität bezeichnet – unterscheiden diese entschieden von Maschinen, die keine neuen Normen erzeugen können:

    Ein Organismus hat also mehr Handlungsspielraum als eine Maschine. Er verfügt über weniger Finalität und mehr Potentialitäten. Die aus Berechnung erzeugte Maschine verifiziert die Normen der Berechnung, das heißt die rationalen Normen der Identität, der Konstanz und der Prognose, während der lebendige Organismus nach empirischen Gesetzen verfährt. Das Leben ist Erfahrung; das heißt Improvisation und Nutzung von Gegebenheiten; es ist in jedem Sinn ein Versuch. Daher rührt jene gewichtige und sehr oft verkannte Tatsache, dass das Leben Monstrositäten zulässt. Es gibt keine Monstermaschinen. […] Denn Monster sind Lebewesen.“11

    Wenn wir uns vergegenwärtigen, dass Herbert Simon die gesteigerte Evolvierbarkeit von hierarchisch-modular aufgebauten Organismen anhand der Parabel des Uhrmachers und der Uhrmacherin veranschaulichte, können wir feststellen, dass Canguilhem gerade dieselbe Fähigkeit zur erfolgreichen Hervorbringung evolutionärer Neuigkeiten thematisiert, allerdings durch die explizite Zurückweisung der technologischen Analogie zwischen Organismus und Maschine: Wenn Organismen evolutionär erfolgreich sind in der Erzeugung neuer Normen und in der Erfindung neuer Anpassungen, so wird das nicht bloß durch einen hierarchisch-modularen Aufbau bewirkt, sondern durch die robuste Flexibilität desselben, die durch Vikarianz der Funktionen und Polyvalenz der Organe zustande kommt.

    Wenn wir uns jetzt der zeitgenössischen Debatte über biologische Mechanismen zuwenden, können wir feststellen, dass Canguilhems Kritik am „technologischen“ Modell von Organismen wichtige Konsequenzen auch für das alternative „atomistische“ Modell hat, dem wir schon bei Descartes begegnet sind. In der Tat könnte man zunächst denken, dass die durch die biologische Evolution bewirkte robuste Flexibilität und normsetzende Erfindungskraft von Lebewesen im Einklang stehen würde mit den Prämissen der epigenetischen Theorie der organischen Entwicklung, wie man sie eben auch schon bei Descartes findet: Nach dieser Theorie sind Organismen das Ergebnis eines Selbstorganisationsprozesses von kleinen materiellen Teilchen, deren Verhalten durch allgemeine Naturgesetze diktiert wird, ohne dass dabei der Rückgriff auf intrinsische kausale Dispositionen der Materieteilchen selbst nötig wäre. Bei näherem Hinsehen zeigt es sich allerdings, dass die Prämissen, auf denen das „atomistische“ Modell beruht, nicht dieselben sind wie die vom „neuen Mechanismus“. Zum Ersten kann man nämlich beobachten, dass die Zerlegung eines komplexen organischen Ganzen in seine Teilkomponenten nicht so unproblematisch ist, wie dies die reduktionistischen Annahmen der modernen Naturwissenschaft glauben lassen würden, und zwar gerade aufgrund jener von Canguilhem als „Vikarianz der Funktionen“ und „Polyvalenz der Organe“ beschriebenen Phänomene. Zweitens ist auch die Rolle von allgemeinen Naturgesetzen, die das Verhalten von materiellen Teilchen diktieren würden, in der Wissenschaftsphilosophie des 20. Jahrhunderts problematisiert worden, und in einem für den „neuen Mechanismus“ als Referenz geltenden Paper aus dem Jahr 2000 definieren die Philosophen Machamer, Darden und Craver „Mechanismen“ ohne jedweden Bezug auf den Begriff des Naturgesetzes:

    Mechanisms are entities and activities organized such that they are productive of regular changes from start or set-up to finish or termination conditions.“12

    In Bezug auf den ersten hervorgehobenen Aspekt, nämlich die nicht eindeutige Zerlegbarkeit eines komplexen organischen Ganzen in seine Teilkomponenten, bildet der schon oben erwähnte Aufsatz von Herbert Simon den Ausgangspunkt der Debatte. Nachdem er nämlich die hierarchische (modulare) Architektur von komplexen Systemen (und zwar nicht nur von biologischen Systemen, sondern auch physikalischen, sozialen und symbolischen) eingeführt hat, macht Simon auf eine wichtige Eigenschaft solcher hierarchischen Systeme aufmerksam, die er als deren Nahezu-Zerlegbarkeit (near-decomposability) bezeichnet.13 Dass hierarchische Systeme nahezu zerlegbar sind, bedeutet laut Simon, dass die Interaktionen zwischen den Teilen innerhalb einer Komponente des Systems (intracomponent linkages) stärker sind als die Interaktionen zwischen unterschiedlichen Komponenten (intercomponent linkages). Obwohl dies im Hinblick auf den Aufbau von biologischen Systemen sehr plausibel klingt, erweist sich diese Nahezu-Zerlegbarkeit empirisch nicht so leicht zu fassen, wie man zunächst meinen könnte. Der Biologe Stuart A. Kauffman und der Wissenschaftsphilosoph William Wimsatt wiesen in den 1970er Jahren darauf hin, dass die empirische Zerlegung eines komplexen Systems in seine Teilkomponenten unterschiedlich sein kann, je nachdem, was die spezifische Fragestellung und die konkreten Interessen sind, die den Forscher oder die Forscherin leiten.14 Wenn man z. B. einen mehrzelligen Organismus zerlegen und seine Zellen gruppieren will, so bieten sich mindestens zwei Kriterien dar, die zu unterschiedlichen Resultaten führen, denn die Gruppierung nach Zelltypen, die bestimmte Gene exprimieren und somit spezifische Funktionen erfüllen, entspricht nicht eins zu eins der Gruppierung nach embryologischer Herkunft (die angibt, aus welchem Keimblatt eine bestimmte Zelle stammt, ob aus dem Entoderm, aus dem Mesoderm oder aus dem Ektoderm). Außer dieser Schwierigkeit hinsichtlich der empirischen Zerlegung eines komplexen Ganzen in seine Teilkomponenten weist Wimsatt auch darauf hin, dass die Zusammensetzung der Teilkomponenten deren Funktionsweise nicht unverändert lässt, da die Zusammensetzung einen nicht-aggregativen Charakter hat:

    „The optima and conditions of stability for a system of aggregated parts are in general different in a non-aggregative way from the optima and conditions of stability for its parts taken in isolation.15

    Obwohl die Interaktionen zwischen den Komponenten eines komplexen Systems schwächer sein mögen als die Interaktionen innerhalb jeder einzelnen Komponente, führen sie doch zur Emergenz von neuen systemischen Eigenschaften, die u. a. jene von Canguilhem als „Vikarianz der Funktionen“ und „Polyvalenz der Organe“ beschriebenen Phänomene möglich machen. Entgegen der „alt-mechanistischen“ Annahme, dass das Verhalten des Ganzen sich aus der Summe des Verhaltens der isolierten Teile ergibt, machen Wimsatt und Kauffman geltend, dass das Verhalten und die Wirkungsweise der Teile selbst moduliert werden vom Kontext des komplexen Systems, das sie konstituieren. William Bechtel und Robert C. Richardson bezeichnen in ihrem Buch Discovering Complexity (1993 / 2010) diese Variante des „neuen Mechanismus“ als emergenten Mechanismus (emerging mechanism) oder als Konnektionismus.16 Als Beispiel für den nicht-linearen Charakter der Interaktionen zwischen den Teilen eines komplexen organischen Systems kann man die von Stuart Kauffman selbst untersuchten regulatorischen genetischen Netzwerke anführen,17 in deren Rahmen die phänotypischen Auswirkungen eines regulatorischen Gens (das als Enhancer oder als Inhibitor für die Expression anderer Gene fungiert) nicht sosehr von dessen intrinsischer biochemischer Spezifizität abhängen als von der Position des regulatorischen Gens im gesamten Netzwerk. Gerade diese Flexibilität hinsichtlich der phänotypischen Auswirkungen eines regulatorischen Gens macht sich die Evolution zunutze, um neue entwicklungsbiologische Programme (d. h. neue Baupläne und Modifikationen derselben) zu „erfinden“ („Evo-Devo“).

    Die soeben hervorgehobene Kontextabhängigkeit der Wirkungsweise der Komponenten eines komplexen organischen Systems betrifft auch den zweiten oben erwähnten Aspekt des neuen Mechanismus, nämlich seine Relativierung der Rolle von allgemeinen Naturgesetzen in Bezug auf biologische Mechanismen. Die Entwicklung des „neuen Mechanismus“ verläuft in der Tat Parallel zur Entwicklung jener Strömung in der Wissenschaftsphilosophie, die im Unterschied zu den neupositivistisch geprägten Ansätzen, die in den 1950er / 1960er Jahren populär waren (Carl Gustav Hempel, Paul Oppenheim, Ernest Nagel), eine gegenüber der Rolle von allgemeinen und modal notwendigen Naturgesetzen in der wissenschaftlichen Erklärung eher skeptische Haltung annimmt. Während die Neupositivisten das deduktiv-nomologische Modell (DN-Modell) der wissenschaftlichen Erklärung entwickelten – nach welchem allgemeine und modal notwendige Naturgesetze dazu dienen, aus bestimmten Anfangsbedingungen ein bestimmtes Ereignis oder einen bestimmten Zustand abzuleiten –, betonen Leute wie Nancy Cartwright, Ian Hacking oder auch Stephen Mumford eher die Rolle von singulären kausalen Beziehungen zwischen materiellen Entitäten, um Ereignisse oder Zustände der physikalischen Wirklichkeit zu erklären.18 Laut Cartwright stellen Naturgesetze abstrakte Idealisierungen dar, die die kausalen Dispositionen (capacities) von physikalischen Entitäten nur dann widerspiegeln, wenn man diese Dispositionen unter idealen Bedingungen (also in Absehung von der Wechselwirkung mit anderen Dispositionen) betrachtet. Wenn man aber das Verhalten dieser Entitäten in einem realistischeren Zusammenhang zu erklären versucht, in dem mehrere Kräfte wirken, dann verlieren Naturgesetze ihr explanatory power, denn nicht immer lassen sich die Wirkungen dieser Kräfte linear addieren wie im Fall der linearen Addition von Vektoren für die Gravitations- und für die Coulomb-Kraft. Im Fall von thermodynamischen Gradienten (Temperatur, Konzentration, elektrische Ladungen) ist eine solche Addition z. B. nicht möglich, wie dies die Schwierigkeiten zeigen, mit denen Physiker und Physikerinnen sich konfrontiert sehen, wenn sie versuchen, die nicht-linearen Wechselwirkungen dieser Gradienten durch die sogenannte Onsager-Theorie zu modellieren.19

    Diese Überlegungen sind hoch relevant auch gerade für die Rolle von Naturgesetzen in Bezug auf biologische Mechanismen. Wie erwähnt, definieren Machamer, Darden und Craver in ihrem Paper aus dem Jahr 2000 („MDC-Paper“) Mechanismen ohne jedweden Bezug auf Naturgesetze. Dabei ist die Frage legitim, wie denn die regular changes from start or set-up to finish or termination conditions durch die Entitäten und Aktivitäten zustande kommen können, die den Mechanismus konstituieren. Marcel Weber, der die Mechanismus-Konzeption vom MDC-Paper anhand des Beispiels der Übertragung eines Aktionspotentials entlang des Axons einer Nervenzelle veranschaulicht und dabei auf die verschiedenen Entitäten (Ionen, Membran, Ionenkanäle, Na+/K+-Pumpe) und deren Aktivitäten eingeht, die den Mechanismus konstituieren,20 macht auch darauf aufmerksam, dass die neurobiologische Forschung doch auch auf Gesetzmäßigkeiten rekurriert, um das Verhalten der Ionen zu erklären. Insbesondere die Nernst-Gleichung spielt eine wichtige Rolle in der Erklärung des Gleichgewichtspotentials für ein bestimmtes Konzentrationsverhältnis von einer spezifischen Spezies dieser Ionen. Wie Weber selbst erwähnt, handelt es sich bei der Nernst-Gleichung um ein thermodynamisches Gesetz, das das Verhalten von einer großen Menge materieller Teilchen bestimmt, ohne große Aufmerksamkeit auf die kausalen Vermögen einzelner Teilchen zu schenken.21 Laut Weber beinhaltet das, dass die Konzeption von Gesetzen, die Cartwright vertritt, für die Nernst-Gleichung nicht gilt.22 Aber Cartwright, wie gesehen, beruft sich explizit auf die Probleme, die bei der Aufstellung von Gesetzen für thermodynamische Systeme auftauchen, um geltend zu machen, dass solche Gesetze das Verhalten der Materieteilchen nur annäherungsweise erklärt, denn gerade in solchen Systemen wird die kontextabhängige Natur der Äußerung der kausalen Vermögen der Teilchen offenbar. Gerade im Fall der Erklärung der Übertragung des Aktionspotentials entlang einer Nervenzelle wird diese Kontextabhängigkeit manifest: Da in Nervenzellen das Gleichgewichtspotential durch mehrere Ionen (K+, Na+ und Cl) bestimmt wird, müssen Neurobiologen eigentlich auf eine komplexere Variante der Nernst-Gleichung rekurrieren, nämlich auf die Goldmann-Gleichung, die das Gleichgewichtspotential für ein Verhältnis mehrerer Ionen angibt.23 Und obwohl die Goldmann-Gleichung eine komplexere Situation als die Nernst-Gleichung beschreibt, handelt es sich dabei auch wiederum um eine idealisierte Situation, die die reale Komplexität eines biologischen Systems nur annährungsweise erfasst. Wenn also die biologische Forschung, wie von Weber richtigerweise angemerkt, in ihren Erklärungen in der Tat auch auf Gesetzmäßigkeiten zurückgreift, so scheinen diese Gesetzmäßigkeiten den allgemeinen und modal notwendigen Charakter, den sie für das DN-Modell hatten, doch eingebüsst zu haben.

    ***

    Zum Schluss dieses zweiteiligen Beitrags über den alten und den neuen Mechanismus können die allgemeinen Ergebnisse unserer Auseinandersetzung folgendermaßen zusammengefasst werden: Während der alte Mechanismus zwischen zwei grundsätzlich unvereinbaren Konzeptionen schwankte – einerseits die „technologische“ Konzeption der Welt und insbesondere der sie bewohnenden Lebewesen als Maschinen, die von einem bewussten und intelligenten Erbauer entworfen wurden, und andererseits die „atomistische“ Konzeption, die die Welt und die Lebewesen aus dem Zusammenspiel von Materieteilchen entstehen lässt, deren Verhalten von allgemeinen Naturgesetzen diktiert wird –, ist der neue Mechanismus durch die evolutionäre Sicht geprägt, die im 19. Jahrhundert entwickelt wurde. Obwohl man zunächst meinen könnte, dass dadurch die „atomistische“ Konzeption zum Sieg gegenüber der „technologischen“ verholfen wurde, sollte der vorliegende Beitrag gerade gezeigt haben, dass sowohl die reduktionistische Annahme, komplexe Systeme seien eindeutig in ihre Teilkomponenten zerlegbar, wie auch das neupositivistische Postulat, das Verhalten von physikalischen Teilchen sei durch allgemeine und modal notwendige Naturgesetze bestimmt, durch die Komplexität biologischer Mechanismen problematisch geworden sind. Durch die Berücksichtigung dieser Komplexität sind aus dem starren Verhalten der kartesischen bêtes-machines die flexiblen und evolvierbaren Systeme erwachsen, die die heutige Biologie ins Zentrum ihrer Forschung gestellt hat.


    1 J. Elster, Leibniz et la formation de l’esprit capitaliste (Paris, 1975), S. 54ff.

    2 G. Canguilhem, Maschine und Organismus (in: Die Erkenntnis des Lebens, Berlin, 2009).

    3 H. A. Simon, The Archtecture of Complexity (in: The Sciences of the Artificial, Cambridge MA, 1982).

    4 Marx unterscheidet im Manufaktur-Kapitel von Kapital Band I zwei Grundformen der Manufaktur (MEW 23, S. 362-371): In der heterogenen Manufaktur werden selbstständig hergestellte Teilprodukte zusammengesetzt, um das fertige Produkt zu ergeben; in der organischen Manufaktur entsteht hingegen das Endprodukt durch eine Reihenfolge sukzessiver Manipulationen. Man kann da eine gewisse Ähnlichkeit mit den Produktionsmethoden von Hora und Tempus erkennen.

    5 Simon, S. 200.

    6 Simon selbst verwendet nicht diesen Ausdruck, der Sache nach meint er aber genau das, was die heutige Biologie und Philosophie der Biologie mit Evolvierbarkeit meinen. Grundlegend für die neuen Debatten ist das Paper von G. Wagner, L. Altenberg, Complex Adaptations and the Evolution of Evolvability (in Evolution, 50, 1996). Siehe zu den Ursprüngen dieses Begriffs auch das Werk von Rupert Riedl.

    7 Canguilehm, S. 206.

    8 Canguilhem, S. 211.

    9 Canguilhem, S. 213.

    10 K. Goldstein, Der Aufbau des Organismus: Einführung in die Biologie unter besonderer Berücksichtigung der Erfahrungen am kranken Menschen (Haag, 1934).

    11 Canguilhem, S. 215f.

    12 P. Machamer, L. Darden, C. F. Craver, Thinking about Mechanisms (in Philosophy of Science, 67, 2000), S. 3.

    13 Simon, S. 209ff.

    14 S. A. Kauffman, Articulation of Parts Explanation in Biology and the Rational Search for Them (in Proceedings of the Biennial Meeting of the PSA, 1970); W. Wimsatt, Complexity and Organization (in Proceedings of the Biennial Meeting of the PSA, 1972).

    15 Wimsatt, S. 76.

    16 W. Bechtel, R. Richardson, Discovering Complexity (Cambridge MA, 2010), S. 199. Bechtel und Richardson widmen dieser reifsten Form des neuen Mechanismus den dritten Teil ihres Buchs.

    17 S. A. Kauffman, The Origins of Order: Self-Organization and Selection in Evolution (New York, 1993); Bechtel, Richardson, S. 223-227.

    18 N. Cartwright, How the Laws of Physics Lie (Oxford, 1983); I. Hacking, Representing and Intervening (Cambridge, 1983); S. Mumford, Laws in Nature (London, 2004).

    19 Cartwright, S. 64f.

    20 M. Weber, Philosophy of Experimental Biology (Cambridge, 2005), S. 21ff.

    21 Weber, S. 32.

    22 Weber, S. 31.

    23 Siehe z. B. D. Purves (u. a.), Neuroscience (New York, 2018), S. 42f.