OATbyCO


: Natürliche und Künstliche Intelligenz im Anthropozän

Natürliche und Künstliche Intelligenz im Anthropozän

Inhalt

8

Vorwort

Wie verhalten sich natürliche und Künstliche Intelligenz im Anthropozän zuein-ander? Vorliegender Band stellt diese Frage und stellt sich damit dem Zusammen-hang zwischen drei Themen, die jeweils in sich selbst schon komplex genug zu sein scheinen:

• dem Thema der natürlichen Intelligenz, das in jüngster Zeit insbesondere durch Hinweise auf entsprechende Leistungen nichtmenschlicher Lebewesen im Ge-spräch ist, sich aber einer grundlegenden Bestimmung nach wie vor entzieht;

• dem Thema der Künstlichen Intelligenz, das in den vergangenen Jahren seinen Weg aus der Science Fiction und von wissenschaftlich-technisch-ökonomischen Wunschlisten in unseren Alltag gefunden hat, was den damit verbundenen Klä-rungsbedarf nur noch deutlicher hervortreten ließ;

• und nicht zuletzt dem Thema des Anthropozäns, der geologischen Epoche, in der wir Menschen als starker Einflussfaktor das Erdsystem mitprägen und uns zugleich mit den oft unvorhergesehenen und heftigen Auswirkungen dieses Ein-flusses auseinandersetzen müssen.

Wäre es hier nicht klüger, der bekannten zweiten Maxime zu folgen, die René Des-cartes in seinem Discours de la méthode empfiehlt, um Erkenntnis auf einen guten Weg zu bringen: Problemkomplexe so weit wie möglich in einzelne Probleme zu un-terteilen und diese jeweils für sich zu lösen? Was den in diesem Band eingeschlagenen Weg rechtfertigt, ist die Klausel „so weit wie möglich“. Denn was sich wie eine grund-legende Arbeitshypothese durch die Beiträge zu diesem Band durchzieht, ist die – wie wir hoffen auch und gerade in ihm begründete – Annahme, dass die drei genannten Problemkomplexe so innig miteinander zusammenhängen, dass es zumindest ertrag-reich sein kann, sie eben auch auf ihren Zusammenhang hin zu betrachten.

Diese Annahme kam innerhalb des hier an die Öffentlichkeit tretenden Krei-ses erstmals am Samstag, dem 09.11.2019, zur Sprache, während eines informel-len Gesprächs zwischen den Verfassern dieses Vorworts und einem kanadischen Kollegen. In einer am Hafen der Neufundländer Metropole St. John’s gelegenen Bäckerei erzählte Sean J. McGrath, landesüblich bei Kaffee und Scones, eine

9

Führungspersönlichkeit der Fakultät für Ingenieurswesen und angewandte Wis-senschaft der Memorial University of Newfoundland habe ihn unlängst darauf angesprochen, dass die überhandnehmende Rede von Künstlicher Intelligenz dringend philosophischer Klärung bedürfe. McGrath kam daraufhin der Gedan-ke, erst einmal Klarheit darüber anzustreben, was natürliche Intelligenz sei – In-telligenz, wie wir sie von uns her kennen sowie bei den Lebewesen annehmen dürfen, mit denen wir diese Welt teilen; erst von daher könne ein Begriff von Intelligenz überhaupt gewonnen werden. Die Welt, die wir mit anderen Lebe-wesen teilen, war wiederum übergeordnetes Thema einer dankenswerter Weise durch die Bayerische Forschungsallianz geförderten Kontakt- und Vortragsreise der Verfasser dieses Vorworts durch Kanada, die an den Yukon, nach Vancouver und eben auch nach St. John’s geführt hatte. Konkret ging es dabei um die Wahr-nehmung von Totholz in Wäldern und um stimmungshaft gefühlte Umwelt im Anthropozän. Das Zusammentreffen dieser Forschungsanliegen führte zu der ge-nannten Annahme, gerade weil Intelligenz geläufig als gelingender Umgang mit der jeweiligen Umwelt aufgefasst wird, diese Umwelt heute aber für alle intelli-genten Wesen auf diesem Planeten, seien sie natürlichen oder künstlichen Ur-sprungs, die vom Menschen geprägte Welt des Anthropozäns ist.

Damit zeichneten sich bereits Leitfragen des vorliegenden Bandes ab: Was ist un-ter Intelligenz, unter dem Natürlichen und dem Künstlichen und unter den Kom-binationen dieser Begriffe zu verstehen? Was bedeutet die Umwelt des Anthropo-zäns jeweils für diese Verständnisweisen? Welche Disziplinen können auf je eigene Weise, aber auch und v. a. im interdisziplinären Dialog zur Klärung dieser Fragen beitragen? Und wie lassen sich eventuelle Ergebnisse entsprechender Überlegungen auch möglichst praktisch in den Umweltdiskurs einbringen?

Die Gelegenheit, diese Fragen zu vertiefen, bot sich bei einer weiteren Zusam-menkunft, die im Anschluss an jenes Treffen geplant worden war: Der Daimler und Benz-Stiftung ist es zu danken, dass sich eine größere Gruppe vom 1. bis zum 3.3.2020 am Sitz dieser Stiftung in Ladenburg zu einem sogenannten „Ladenburger Diskurs“ versammeln konnte. Dieses Förderformat dient dazu, eine Forschungsfra-ge zu diskutieren, auch um damit eine Veröffentlichung vorzubereiten – was dank eines sehr ertragreichen Diskurses nun auch gelungen ist1, wie er wegen der um sich greifenden Pandemie und damit infolge eines auch sehr „anthropozänischen“ Phänomens wenige Tage später nicht mehr hätte stattfinden können.

Es hatte sich aufgrund von Forschungskooperationen, aber auch Terminfragen, ergeben, dass bei der Tagung in Ladenburg neben der Philosophie, aus der heraus sich grundlegende Fragen zu den Themenkomplexen stellten, als Disziplinen ins-besondere die Psychologie, die Umweltwissenschaften und NGOs aus dem Umwelt-bereich vertreten waren. Im Fokus standen dabei Kanada und Deutschland als zwei Länder, die sich unter sehr unterschiedlichen Voraussetzungen den Herausforde-rungen einer nachhaltigen Zukunftsgestaltung widmen. Wie sich insbesondere bei Gesprächen am Rande der Tagung zeigte, verhalten sich Kanada und Deutschland im Hinblick auf die Sehnsucht nach unverfälschter natürlicher Umgebung kom-plementär zueinander – was hier als verloren oder utopisch erscheint, gilt dort als in gefährdeten Restbeständen noch erfahrbar. Damit jeweils umzugehen, erfordert jegliche Art von Intelligenz, die uns zu Hilfe kommen könnte, ob natürlich oder künstlich.

Die Texte im vorliegenden Band erwuchsen teils aus jener Tagung, teils wurden sie wegen ihrer thematischen Passung ebenfalls als Originalbeiträge herangezogen. Sie gliedern sich – nicht exklusiv, sondern schwerpunktmäßig – in drei Bereiche: Im Teil „Philosophische Fragen“ geht es um die erwähnten Begriffsklärungen. Die „Psychologischen Perspektiven“ betrachten natürliche und Künstliche Intelligenz jeweils auch anhand empirischer Erkenntnisse und theoretischer Modellbildungen. Die „Umsetzungen im Umweltdiskurs“ blicken darauf, was die Beschäftigung mit all diesen Fragen für alltägliche und gesellschaftliche Praxis, für das Verhältnis der Disziplinen untereinander und den Umgang mit nichtmenschlichen Lebewesen be-deuten kann und soll.

Allen Beiträgen gehen Zusammenfassungen auf Englisch und Deutsch voraus. Informationen über die Personen, denen sich die Beiträge verdanken, und ein Na-mensregister erschließen den Band ebenfalls.

Für wertvolle Hilfe bei der technischen Bearbeitung ist Frau Nurten Güler Güclü (Universität Augsburg) herzlich zu danken. Großer Dank geht ebenfalls an Herrn Prof. Dr. Uwe Meixner (ebd.), der durch eine großzügige Mittelzuweisung die Ver-öffentlichung ermöglicht hat.

Dass sich mit vorliegendem Band die komplexe Problematik, der er sich wid-met, nicht abschließend behandeln lässt, ist seinen Herausgebern wohlbewusst. Die

11

Hoffnung, die sie mit ihm verbinden, geht schon dann in Erfüllung, wenn sich diese Problematik durch ihn erschließt und damit Anlass zu weiteren interdisziplinären Gesprächen und transdisziplinärem Handeln bietet.

Augsburg, im Mai 2021

Die Herausgeber

12

Philosophische Fragen

13

14

Bewusstseinsintelligenz und Künstliche Intelligenz

Uwe Meixner Zusammenfassung

Intelligenz ist eng mit Bewusstsein verbunden. Im Bewusstsein erlebt Intelligenz sich selbst als solche und ist zu Entscheidungen befähigt, die sie frei treffen kann. Dies gilt für die natürliche Intelligenz, die auf evolutionärem Weg entstanden ist. Was wir Künstliche Intelligenz nennen, beruht demgegenüber nur auf Algorith-men. Ihr fehlen sowohl das Bewusstsein als auch die Entscheidungsfähigkeit. Was dieser Unterschied ausmacht, wird in diesem Aufsatz daran gezeigt, wie natürliche und Künstliche Intelligenz jeweils bei der Erzeugung von Beweisen auf dem Gebiet der axiomatisierten Logik verfahren. Abstract

Intelligence is closely connected to consciousness. Through consciousness, intelli-gence experiences itself as such and is able to make free decisions. This applies to natural intelligence, which has emerged in the course of evolution. What we call Artificial Intelligence, however, is just based on algorithms; it lacks consciousness as well as the ability to make decisions. The difference this makes is shown in this paper by the example of how natural and Artificial Intelligence proceed in the gen-eration of proofs in the field of axiomatized logic.

15

Ziel der Künstlichen-Intelligenz-Forschung ist es, menschliche Intelligenzleistun-gen auf maschineller Grundlage nachzuahmen und möglichst zu übertreffen. Alle Erfolge, die bisher in der Verfolgung dieser Zielsetzung erreicht wurden, sind nicht derart, dass sie im Eigenmedium eines Bewusstseins sich einstellen: Die Künstliche Intelligenz ist ohne künstliches Bewusstsein1. Vielmehr ist sie auf ein externes Be-wusstsein – nämlich auf das menschliche Bewusstsein – angewiesen, um überhaupt als Intelligenz interpretiert werden zu können. Wie Axt und Säge ohne das mensch-liche Bewusstsein zu nichts nütze sind, so sind es auch die Rechenmaschinen aller Art. Wie Axt und Säge bloße Werkzeuge des Menschen sind – von ihm hergestellt, damit sie ihm behilflich sind, gewisse Aufgaben auszuführen –, so sind auch Re-chenmaschinen bloße Werkzeuge: vom Menschen hergestellt, damit sie ihm be-hilflich sind, gewisse Aufgaben auszuführen, und zwar nicht nur Rechenaufgaben i. e. S. Auch unsere Bespaßung – das möglichst unterhaltsame Totschlagen der Le-benszeit – gehört zu den Aufgaben, bei denen Computer äußerst hilfreich sind.

Wie anders verhält es sich doch, was die Beziehung zum Bewusstsein angeht, bei der natürlichen Intelligenz! Natürliche Intelligenz ist Bewusstseinsintelligenz; sie hat sich im Laufe von Hunderten von Millionen Jahren evolutionär im Bewusst- sein herausgebildet – bis zu dessen eigener Entstehung wiederum Hunderte von Millionen Jahren nach der Entstehung des Lebens vergangen waren. Natürliche In-telligenz ist aufs Engste mit Bewusstsein verknüpft, und es ist zu erwarten, dass sie sich in einigen Punkten von Künstlicher Intelligenz, die ja nicht im Eigenmedium eines Bewusstseins – poetisch gesagt: im Meer des je eigenen Erlebens – schwimmt, unterscheidet .

Manches Unterscheidende fällt sofort ins Auge. Menschliches Bewusstsein – und wohl auch höheres tierisches Bewusstsein – kennt das Intelligenzerleben, das Ein-sichtserleben: den sich plötzlich einstellenden Durchblick, dieses „Es geht einem ein Licht auf“, man „sieht“ auf einmal, wie es sich verhält, wie vorzugehen ist, was die Lösung ist. Pathetisch könnte man sagen: Man sieht auf einmal die Wahrheit. Kann es Intelligenz – Intelligenz im eigentlichen Sinne – geben ohne Intelligenz-erleben? Ich denke, nein. Künstliche Intelligenz ist also keine eigentliche Intelli-genz. Der Schachcomputer mag den Schachgroßmeister noch so oft schlagen, der Schachcomputer ist nicht intelligenter als der Schachgroßmeister, denn der Schach-computer ist überhaupt nicht im eigentlichen Sinne intelligent; er kann nur gemäß den ihm einprogrammierten Algorithmen sehr viel schneller und sehr viel weiter rechnen als der Schachgroßmeister. Er ist eine tolle Rechenmaschine, sonst nichts. Man kann die Intelligenz seiner Konstrukteure bewundern, aber doch nicht etwa seine (des Schachcomputers) Intelligenz; die ist nämlich gar nicht da.

Das Wort „Intelligenz“ kommt vom lateinischen Verb intellegere , was in erster Linie so viel bedeutet wie „wahrnehmen“, „merken“, „erkennen“, „sehen“, in zweiter Linie so viel wie „einsehen“, „verstehen“, „begreifen“. Sieht oder begreift der Schach-computer irgendetwas? Ich denke, nein; denn um zu sehen oder zu begreifen, ist Bewusstsein erforderlich, was der Schachcomputer nicht hat. Dem Schachcompu-ter fehlt das Intelligenzerleben vollständig. Inwiefern ist er also intelligent ?

Intelligenzerleben ist nicht das Einzige, was natürliche Intelligenz – die bisher die alleinige Bewusstseinsintelligenz ist – gegenüber künstlicher Intelligenz auszeich-net. Das lateinische intellegere hat eine überaus interessante Etymologie; es kommt von inter legere , was so viel bedeutet wie „dazwischen wählen“. In der Tat: Natürli-che Intelligenz – die immer Bewusstseinsintelligenz ist – hat sehr viel mit Wahlfrei- heit zu tun. Wenn man sich fragt, warum es im Laufe der Evolutionsgeschichte zur Ausbildung von Bewusstsein kommen konnte, so ist die einzige Antwort auf diese Frage, die Bewusstsein nicht zu einer Laune der Natur macht – es nicht zu einem Luxus macht, den sich ja auch die Natur manchmal leistet –, die folgende Antwort: In der Welt, in der die Lebewesen leben, herrscht kein Determinismus; vielmehr: In der Welt, in der die Lebewesen leben, gibt es für ein Lebewesen nicht selten nicht weniges aus einem Repertoire von Optionen heraus durch die Tat zu entscheiden , m. a. W.: durch die Tat zu wählen  – zum Vorteil für das eigene Überleben. Dabei muss die Tatentscheidung informiert erfolgen, ohne dass doch allein schon die In-formation die der Tatentscheidung je zugehörige physische Aktivität determiniert; würde nämlich die Information allein schon jene Aktivität determinieren, so läge gar keine Tatentscheidung vor, sondern bloß eine automatische Reaktion . Gegeben diese Sachlage ist es, wenn die Naturgesetze es zulassen – und sie lassen es zu –, geradezu zu erwarten, dass sich im Laufe der Evolutionsgeschichte bei vielen Orga-

17

nismen ein Bewusstsein ausbildet, in dessen Zentrum ein durch dieses Bewusstsein indeterminativ informiertes Subjekt tätig ist – wählend und entscheidend, und zwar prospektiv zugunsten der Lebensinteressen des Organismus.

Auf diesem Boden – auf dem Boden des dem wahlfreien Handeln dienenden, indeterminativ informierenden Bewusstseins – wächst die natürliche, die eigent-liche Intelligenz, ja sie beginnt, rechtbesehen, zugleich damit (was rudimentär über Bewusstsein verfügt, das indeterminativ informierend dem wahlfreien Handeln dient, und sei es mit noch so wenigen und kleinen Optionen, ist schon rudimentär intelligent), und sie bleibt diesem Boden immer verbunden, auch wenn die natür-liche Intelligenz sich in ihrer – soweit uns bekannt ist – höchsten Entwicklungsform nicht selten mit Themen befasst, die von den vitalen Lebensinteressen des zugehö-rigen Organismus weit entfernt sind. Das werde ich gleich anhand eines Beispiels zeigen. Zunächst möchte ich noch auf Folgendes hinweisen: Aus der Wahlfreiheit, mit der die natürliche Intelligenz über das ihr natürliche Bewusstsein verbunden ist, ergeben sich zwei Fähigkeiten: die Fähigkeit zum Irrtum und die Fähigkeit zur Ir-rationalität. Sie gehören zur natürlichen Intelligenz ebenso dazu, wie die Wahlfrei-heit, aus der sie sich ergeben. Kann es Intelligenz – eigentliche Intelligenz – ohne die Fähigkeit zum Irrtum, ohne die Fähigkeit zur Irrationalität geben? Ich denke, nein. Und somit folgt abermals, dass künstliche Intelligenz keine eigentliche Intelligenz ist. Diejenigen Computer, die maschinell Beweise ausführen, machen keine Fehler und verhalten sich schon gar nicht irrational auf dem Gebiet, für das sie zuständig sind – solange sie in Hardware und Software in Ordnung sind2; aber sie sind nicht im eigentlichen Sinne intelligent. Gottlob Frege hingegen machte bei der Spezifizie-rung der von ihm als logische Gesetze aufgefassten Grundgesetze der Arithmetik einen verheerenden Fehler; aber er war im eigentlichen Sinne intelligent, der größte Logiker seit Aristoteles. Albert Einsteins ablehnende Haltung gegenüber der Quan-tenphysik wiederum war irrational; aber Einstein war im eigentlichen Sinne intelli-gent, der größte Physiker seit Newton. Kein Computer hingegen ist im eigentlichen Sinne intelligent, wenn er aufgrund der Datenlage gemäß gewissen Leitprinzipien irrtumslos und rational unbestechlich berechnet, welche Weiterformung einer The-orie gerade die plausibelste ist.

Nun zu dem versprochenen Beispiel, das konkret vor Augen führt, dass die na-türliche Intelligenz dem wahlfreien Handeln, dem das ihr zugehörige Bewusst-sein durch indeterminative Informationsgebung dient, auch in den entlegensten Anwendungsgebieten stets verbunden bleibt und hierin sehr verschieden ist von künstlicher Intelligenz (die auch dort determiniert oder mehr oder weniger zufalls- gesteuert ist, wo sie, wie man so sagt, „erste Schritte macht“ und „lernt“). Künstliche Intelligenz ist keine freie Intelligenz, und deshalb – so meine ich abermals – keine Intelligenz im eigentlichen Sinn.

Das Folgende ist ein vollständiges axiomatisches System der wahrheitsfunktiona-len Aussagenlogik, das sog. Frege-Łukasiewicz-Axiomensystem:

A1: A ⊃ (B ⊃ A)

A2: (A ⊃ (B ⊃ C)) ⊃ ((A ⊃ B) ⊃ (A ⊃ C))

A3: (¬B ⊃¬A) ⊃ (A ⊃ B)

R1: A, A ⊃ B ⊢ B

Mit diesem Axiomensystem lassen sich alle und nur die Gesetze der wahrheits-funktionalen Aussagenlogik, also genau die Wahrheiten des fundamentalsten Ge-biets der Logik, beweisen. Man kann das Axiomensystem aber auch als Basis eines zweckfreien (besser gesagt: ernster Zwecke entbehrenden) Spiels S betrachten, das sich auf gewisse graphische Formen – die Formen von S – bezieht und nur damit zu tun hat.

Die Formen von S

Diese Formen sind, erstens, die Elementarformen von S: A, B, C, D, A´, B´, C´, D´, A´´ usw. und, zweitens, (A ⊃ B) und ¬A und jede Form, die sich aus einer schon gegebenen Form F von S durch Ersetzung einer Elementarform in ihr durch eine schon gegebene

19

Form Y von S erzeugen lässt (und keine weiteren Formen). (Die jeweils erzeugte Form ist im nächsten Schritt selbst eine schon gegebene Form von S. Steht eine Form von S nicht im Kontext einer Form von S, dann dürfen etwaige an ihr vorhandene Außen-klammern weggelassen werden.)

Die Axiome A1 – A3 von S geben an, mit welchen Formen von S ein Spieler von S beginnen darf. Zulässig sind als Ausgangspunkte auch alle Spezialisierungen der Axiome (ebenfalls Formen von S), die sich durch uniforme Substitution von For-men von S für Buchstaben (d. h.: Elementarformen) in den Axiomen ergeben. Die Grundregel R1 von S gibt an, wie fortgeschritten werden darf; neben R1 gelten auch alle Spezialisierungen von ihr, die sich durch uniforme Substitution von Formen von S für Buchstaben (Elementarformen) in ihr ergeben, als fundamentale Erzeu-gungsregeln. Das Ziel des Spiels ist es, aus den Anfangsformen in endlich vielen Schritten in regelkonformer Weise weitere Formen zu erzeugen. Man nennt diese weiteren Formen „Theoreme“. Ein Spieler ist ein Könner, wenn er oder sie die je-weils angezielte Form in wenigen Schritten und mit wenig Mühe erzeugen kann. Dabei dürfen selbstverständlich Formen, die bereits erzeugt sind, ganz wie zusätz-liche Axiome verwendet werden. Es kann zudem außerordentlich hilfreich sein, wenn einige die Erzeugungsarbeit abkürzende, insofern nützliche Regeln abgeleitet werden, die dann bei passender, häufiger Gelegenheit zum Einsatz kommen. Für die Theoreme wie auch für die abgeleiteten Regeln gilt: Mit ihnen sind auch alle Ausdrücke Theoreme bzw. abgeleitete Regeln, die sich durch uniforme Substitution in ihnen von Formen von S für Elementarformen von S gewinnen lassen.

Hier nun zwei besondere Intelligenzaufgaben: Man erzeuge im angegebenen Axio-mensystem die Form A ⊃ A (m. a. W.: das Gesetz der Reflexivität der materialen Implikation) und die Form ¬¬A ⊃ A (m. a. W.: das Gesetz der Elimination der dop-pelten Verneinung). Diese Aufgaben, insbesondere die zweite, sind alles andere als triviale Angelegenheiten. Wenn ihre Lösung gelingt, stellt sich Freude ein, Freude am Gelingen, ein klein wenig Stolz und ein Erkenntnisstaunen darüber, wie hervorragend sich mit diesem Wunderwerk – dem Frege-Łukasiewicz-Axiomensystem – arbeiten lässt, wenn man einmal den Zugang zu ihm geschafft hat. Was Lust auf mehr macht.

Wie würde sich hier nun eine künstlich intelligente Maschine anstellen? Nun, zum einen kennt sie keine Gefühle, die aus reiner Erkenntnis entspringen, weder Frust noch Lust; ihr fehlt ja das Bewusstsein. Zum anderen aber stünde hier eine Maschi-ne, wenn es bei ihr auf Intelligenz ankäme , wie der sprichwörtliche Ochse vor dem

20

Scheunentor – dem doch weitoffenen. Dummerweise ist ihr durch das Axiomensys-tem kein bestimmter Anfang vorgegeben, an dem sie sich abarbeiten könnte. Es gibt unendlich viele Weisen, wie sie anfangen kann. Wie also anfangen? Und welche Weise anzufangen wäre denn zielführend? Es gibt unendlich viele Weisen anzufangen, die, wenn sie in ungeeigneter Weise fortgesetzt werden, nicht zum Ziel führen, ebenso wie es unendlich viele gibt, die , wenn sie in geeigneter Weise fortgesetzt werden, zum Ziel führen. Die Maschine hätte, wenn es auf Intelligenz ankäme, nicht die geringste Ahnung, was sie nun machen soll – wenn ich einmal so sprechen darf, als hätte sie Bewusstsein. Sie ist eben alles andere als intelligent – allem Gerede von Künstlicher Intelligenz zum Trotz. Es wäre ihr unmöglich, mit der unendlich großen Menge von Handlungsoptionen, die ihr mit dem Frege-Łukasiewicz-Axiomensystem offenste-hen, etwas anzufangen. Zuviel der objektiven Freiheit! Sie ertränke sozusagen darin.

Aber das bedeutet natürlich nicht , dass eine geeignete Maschine nicht möglicher-weise in wenigen Sekunden die genannten Aufgaben löst, während ein Mensch unter Umständen mehrere Stunden braucht. Wie macht sie das bloß? Nun, ihr Programmierer hat sie vor dem Übermaß an Handlungsoptionen bewahrt – durch geeignete Scheuklappen. Die Maschine macht die „Ochsentour“; sie macht sie al-lerdings mit rasender Geschwindigkeit. Entweder befinden sich in ihrem Speicher bereits Beweise in S (dem Spiel S), die mit A ⊃ A bzw. ¬¬A ⊃ A enden, und sie prä-sentiert im Handumdrehen den jeweils kürzesten; oder aber sie produziert einen S-Beweis für A ⊃ A und einen für ¬¬A ⊃ A frisch , und zwar so, dass sie nach An-zahl der Zeichen geordnet mechanisch Beweise in S produziert: erst mit minimaler Zeichenzahl, dann mit der nächstgrößeren Zeichenzahl, dann mit der dazu näch-stgrößeren Zeichenzahl usw. – wobei ich annehme, was gar nicht so ohne Weiteres garantiert ist: dass sich ein technisch umsetzbarer Algorithmus für die mechanische Produktion von S-Beweisen der Reihenfolge ihrer Zeichenzahlen nach schon finden lässt. Irgendwann wird dann die Maschine bei der beschriebenen Prozedur auf ei-nen S-Beweis stoßen, der mit A ⊃ A endet, und ebenso auf einen S-Beweis, der mit ¬¬A ⊃ A endet. Weil das Maschinchen sehr flott arbeitet ist, wird das nicht lange dauern. „Tüchtig!“, kann man da nur sagen – aber mit Intelligenz hat das rein gar nichts zu tun, es sei denn mit der natürlichen Intelligenz der menschlichen Erbauer und Programmierer der Maschine. Man sollte daher die Tugend, die die Maschine hat, besser nicht als „Intelligenz“ bezeichnen. Aber da es nun einmal üblich ge-worden ist, hier von „Künstlicher Intelligenz“ zu sprechen, mag es, muss es wohl, durchgehen.

21

An dieser Stelle könnte man nun einwenden, dass es doch unnötig sei, „Gehirn-schmalz“ aufzuwenden, wenn reine Elektromechanik – gewissermaßen „mit der Brech-stange“ – es auch tut. Das Spiel S könne man einer bewusstseinslosen Maschine über-lassen. Und so wie bei S ist es doch – wie schon jetzt absehbar sei – überall: Künstliche Intelligenz leiste – ohne Bewusstsein und ohne Freiheit – dasselbe, was natürliche Intel-ligenz leistet, aber schneller und mit weniger Anstrengung – und oftmals leiste sie mehr . Wieso also sollte man ihr den Titel „Intelligenz im eigentlichen Sinn“ absprechen? „Das ist doch gewissermaßen rassistisch !“, könnte da einer sagen. „ Schachspielerisch jedenfalls ist Deep Blue nicht weniger eigentlich intelligent als Kasparow!“

Jedoch gibt es einen Gesichtspunkt, der immer noch für ein gewisses leistungs-gemäßes Vorrecht der natürlichen Intelligenz, qua mit Wahlfreiheit verbundene Be-wusstseinsintelligenz, auf den Titel „Intelligenz im eigentlichen Sinn“ spricht. Beim Spiel S – dem Frege-Łukasiewicz-Axiomensystem – wissen wir (bzw. alle, die in Sa-chen moderne Logik gebildet sind) von vornherein, dass die Form von S ¬¬A ⊃ A sich in ihm erzeugen lässt – deshalb, weil wir (aufgrund eines Beweises) wissen, dass mit diesem Axiomensystem sich alle und nur die Gesetze der wahrheitsfunktionalen Aussagenlogik beweisen lassen, und weil wir wissen, dass ¬¬A ⊃ A ein solches Ge-setz ist (oder eigentlicher gesprochen: sich so lesen lässt). Es geht nur noch darum, wenigstens einen der ganz sicher existierenden S-Beweise für ¬¬A ⊃ A zu finden : für sich (und andere) auf dem Papier herzustellen – was allerdings schwierig sein kann.

Was aber macht eine über das Spiel S wohlinformierte Person, die S spielt und auf eine Form D von S stößt, von der sie nicht weiß, ob sie ein Gesetz der wahr-heitsfunktionalen Aussagenlogik ist oder nicht? (Bei längeren Formen von S ist das durchaus nicht unwahrscheinlich.) Wüsste die Person, dass D kein solches Gesetz ist, dann würde sie es erst gar nicht versuchen, einen S-Beweis für D zu produzie-ren – weil sie wüsste, dass dieses Unterfangen zwecklos ist. Wüsste sie hingegen, dass D ein solches Gesetz ist, dann könnte sie sich mit Aussicht auf Erfolg „auf den Weg machen“. Nun weiß sie aber weder das eine noch das andere. Was ist zu tun? Wenn die Person partout S hinsichtlich D spielen will (und nicht einfach irgend-eines der Entscheidungsverfahren auf D anwenden will, die es für die Formen von S in großer Vielfalt gibt und die unweigerlich in endlich vielen völlig mechanisch ausführbaren Schritten den Bescheid liefern, ob eine Form von S – also auch D – ein Gesetz der wahrheitsfunktionalen Aussagenlogik ist oder nicht), so kann sie „ins Blaue hinein“ versuchen, einen S-Beweis für D zu produzieren. Die Intelligenz, die sie dabei investiert, kann früher oder später mit Erfolg gekrönt werden – es kann

22

aber auch das Gegenteil eintreten. Wenn nun dauernde Erfolglosigkeit sich einstellt, woran liegt es? War die Person (noch) nicht intelligent genug – oder gibt es etwa gar keinen S-Beweis für D? Jedenfalls: Die Person muss und kann selbst entscheiden, ob sie es weiter versucht, oder aber aufgibt (also aus dem Spiel S aussteigt und sich eventuell einem der eben erwähnten Entscheidungsverfahren zuwendet, dann bei positiver Entscheidung – ja , D ist ein Gesetz der wahrheitsfunktionalen Aussagen-logik – eventuell mit neuer Zuversicht spaßeshalber zum Spiel S zurückkehrt).

Eine Maschine nun, die automatisch S-Beweise in der Reihenfolge der Anzahlen ihrer Zeichen produziert, wird, bewusstseinslos wie sie ist, weder von Zweifeln noch von Hoffnungen berührt. Hat sie nach einer Million S-Beweisen immer noch kei-nen S-Beweis für D produziert, macht sie unverdrossen und unentwegt weiter – bis, möglicherweise, die Kühlung nicht mehr funktioniert und die Drähte durchbren-nen. Vor diesem Schicksal kann man die Maschine bewahren, durch den Einbau einer Sicherung, die sie nach einer gewissen Anzahl von in einem Zug produzierten S-Beweisen stoppt . Dieses Stoppen ist ein gewisses Äquivalent des Aufgebens bei einer Person, die ohne Erfolg S hinsichtlich D spielt. Bei der Person aber ist das Aufgeben jedenfalls dann ein intelligenter Akt, wenn sie aufgrund der Vermutung der Aussichtslosigkeit des von ihr Betriebenen aufgibt (ob diese Vermutung nun zu Recht besteht oder nicht); von der Maschine hingegen ist das Stoppen kein intelli-genter Akt, sondern gewissermaßen ein externer und willkürlicher Gnadenakt der höheren (menschlichen) Intelligenz.

Wie gut, möchte man vielleicht sagen, dass eine Maschine, wenn es darum geht, festzustellen, ob eine Form von S ein Gesetz der wahrheitsfunktionalen Aussagen-logik ist, nicht auf die Implementierung des Frege-Łukasiewicz-Axiomensystems angewiesen ist. Es gebe für diese Sache ja Entscheidungsverfahren , bei deren ma-schineller Umsetzung jede der oben beschriebenen „Demütigungen“ der Maschi-ne – die stupide „Ochsentour“ bzw. das gerade beschriebene „von einer fremden Macht Gerettetwerden“ vor dem Weiterlaufen bis zur Selbstzerstörung – ausbleiben muss, weil alle Anwendungen eines Entscheidungsverfahren nach endlich vielen Schritten aus sich heraus mit einem definitiven Resultat enden, im vorliegenden Fall: entweder : ja , D ist ein Gesetz der wahrheitsfunktionalen Aussagenlogik, oder : nein , es ist keins.

Wenn man „Denk“-Maschinen klüger aussehen lassen will, als sie sind, dann beschränkt man ihr Tätigkeitsfeld auf die elektronische Umsetzung von Entschei-dungsverfahren, technisch gesagt: auf die elektronische Implementierung von not-

23

wendigerweise terminierenden Algorithmen, informell gesagt: auf das Rechnen , bis die Sache nun eben ausgerechnet ist und aus innerer Notwendigkeit ausgerechnet s ein muss (wobei nicht jedes Rechnen Zahlen zu involvieren braucht). Beim Rech- nen aller Art kann künstliche Intelligenz glänzen: Bei dem, was sich mit Rechen-verfahren erreichen lässt, kann sie jede natürliche Intelligenz (zumindest hier auf Erden) aus dem Feld schlagen.

Es ist nun ein grandioser Gedanke, dass zwar nicht jede Erkenntnistätigkeit ein Rechnen ist (was sehr elementar durch das Beweisen im Frege-Łukasiewicz-Axiomensystem gezeigt wird), also nicht jede eine im Grunde mechanische Tätig-keit ist, dass aber doch jede Erkenntnistätigkeit durch ein Rechnen resultatsäqui- valent dargestellt werden kann. Es ist ein grandioser Gedanke, aber es ist eben auch eine Illusion – der auch Leibniz erlegen ist, mit seinem berühmten „Calculemus!“, wobei Leibniz aber kein Vorwurf zu machen ist: Er konnte es noch nicht besser wis-sen. Dass es eine Illusion ist, weiß man aufgrund der Resultate des amerikanischen Logikers Alonzo Church aus den dreißiger Jahren des vergangenen Jahrhunderts: Schon für die Gesetze der elementaren Prädikatenlogik (im Gegensatz zu den Ge-setzen der wahrheitsfunktionalen Aussagenlogik) gibt es kein Entscheidungsver-fahren: kein Rechenverfahren. Ein Axiomensystem, in dem sich (bewiesenerma-ßen) alle und nur die Gesetze der elementaren Prädikatenlogik beweisen lassen, gibt es aber sehr wohl. Man erhält ein solches System z. B. dadurch, dass man das Frege-Łukasiewicz-Axiomensystem auf komplexere Formen bezieht (nämlich auf die Formen von S´, nicht mehr auf die von S), statt der Axiome und der Grund-regel gleich die entsprechenden Axiomenschemata und das entsprechende Grund-regelschema verwendet (wodurch mit einem Schlag unendlich viele Axiome und Grundregeln angegeben sind) und ihm ein Axiom(enschema) und eine Grundregel (ein Grundregelschema) hinzufügt:

A1: F⊃ (L⊃F)

A2: (F⊃ (L⊃G)) ⊃ ((F⊃L) ⊃ (F⊃G))

A3: (¬L⊃¬F) ⊃ (F⊃L)

R1: F, F⊃L⊢L

24

A4: "uF[u] ⊃F[k]

R2: S⊃F[k] ⊢S⊃"uF[u] (k nicht in S⊃"uF[u])3

Die Formen von

Die Elementarformen von S´ haben die Gestalt Yn(k1

, …, kn

), wobei für Yn gesetzt werden kann: F1, F2, F3, …; F´1, F´2, F´3, …; F´´1, F´´2, F´´3, …; und für ki

: a, b, c, d, a´, b´, usw. Sind F und L Formen von S´, so auch ¬F und (F⊃L). Ist F[k] eine Form von S´, in der eine Konstante k (ein Ausdruck aus der Reihe: a, b, c, d, a´, b´, …) an gewissen Stellen – an mindestens einer – vorkommt, und u eine Variable (ein Ausdruck aus der Reihe: x, y, z, x´, y´, …), die in F[k] nicht vorkommt, so ist auch "uF[u] eine Form von S´ (wobei uk an den gewissen Stellen – oder an der gewissen Stelle – ersetzt). Andere Formen von S´ als die gemäß den angegebenen Beschreibungen erzeugbaren Formen gibt es nicht.

Das Spiel S´ ist analog zum Spiel S bestimmt. Fragt man, worum es inhaltlich im Spiel S geht, so wird man sagen: „Es geht um das Beweisen (Erzeugen) von Geset-zen der wahrheitsfunktionalen Aussagenlogik.“ Fragt man, worum es inhaltlich im Spiel S´ geht, so wird man sagen: „Es geht um das Beweisen (Erzeugen) von Geset-zen der elementaren Prädikatenlogik.“ Im Gegensatz zum Spiel S kann das Spiel S´ – das Erzeugen von Gesetzen der elementaren Prädikatenlogik – nicht resultats-äquivalent durch ein Rechenverfahren (oder: Entscheidungsverfahren) dargestellt werden. Ein solches Rechenverfahren für die Prädikatenlogik – wo Künstliche In-telligenz glänzen könnte und ausgeschlossen wäre, dass sie in einen „Endlostunnel“ gerät, aus dem sie nur natürliche Intelligenz erretten kann – gibt es nämlich nicht und kann es nicht geben. Solange also Künstliche Intelligenz sich nicht zur freien Bewusstseinsintelligenz aufschwingt, also zu dem Punkt gelangt, an dem natürliche Intelligenz immer schon war (die Möglichkeit, dass Künstliche Intelligenz dorthin gelangt, will ich nicht ausschließen), solange wird sie nichts weiter sein als eine – sehr nützliche!  – ancilla intellegentiae naturalis und muss ihr ganz zu Recht die „Gleichberechtigung“ versagt bleiben.

Ich erinnere mich, vor vielen Jahren eine kürzere Konstruktion von ¬¬A ⊃ A im Rahmen des Frege-Łukasiewicz-Axiomensystem gefunden zu haben als die nun folgende; aber die diesbezüglichen Aufzeichnungen sind mir nicht mehr zuhan-den, und jene Konstruktion wieder zu erzeugen, ist mir nicht geglückt. Leser, die Freude an derartigen Dingen haben, seien aufgefordert, eine kürzere Konstruktion von ¬¬A ⊃ A im Rahmen des Frege-Łukasiewicz-Axiomensystem zu finden (ohne Zuhilfenahme einer Maschine!).

T14: A ⊃ A

1. A ⊃ ((A ⊃ A) ⊃ A)A1

2. (A ⊃ ((A ⊃ A) ⊃ A)) ⊃ ((A ⊃ (A ⊃ A)) ⊃ (A ⊃ A))A2

3. (A ⊃ (A ⊃ A)) ⊃ (A ⊃ A)R1(1, 2)4. A ⊃ (A ⊃ A)A1

5. A ⊃ A R1(3, 4)DR15: A ⊃ B, B ⊃ C ⊢ A ⊃ C [Kettenschlussregel]

1. A ⊃ B Voraussetzung2. B ⊃ C Voraussetzung3. (B ⊃ C) ⊃ (A ⊃ (B ⊃ C))A1

4. A ⊃ (B ⊃ C)R1(2, 3)5. (A ⊃ (B ⊃ C)) ⊃ ((A ⊃ B) ⊃ (A ⊃ C))A2

6. (A ⊃ B) ⊃ (A ⊃ C)R1(4, 5)7. A ⊃ CR1(1, 6)T2: C ⊃ (B ⊃ B)

1. (B ⊃ B) ⊃ (C ⊃ (B ⊃ B))A12. B ⊃ BT13. C ⊃ (B ⊃ B)R1(2, 1)T3: (¬A ⊃¬(B ⊃ B)) ⊃ A

1. (¬A ⊃¬(B ⊃ B)) ⊃ ((B ⊃ B) ⊃ A)A32. ((¬A ⊃¬(B ⊃ B)) ⊃ ((B ⊃ B) ⊃ A)) ⊃ (((¬A ⊃¬(B ⊃ B))

⊃ (B ⊃ B)) ⊃ ((¬A ⊃¬(B ⊃ B)) ⊃ A))

A263. (¬A ⊃¬(B ⊃ B)) ⊃ (B ⊃ B)T24. ((¬A ⊃¬(B ⊃ B)) ⊃ (B ⊃ B)) ⊃ ((¬A ⊃¬(B ⊃ B)) ⊃ A)R1(1, 2)5. (¬A ⊃¬(B ⊃ B)) ⊃ AR1(3, 4)T4: ¬C ⊃ (C ⊃¬(B ⊃ B))

1. ¬C ⊃ (¬¬(B ⊃ B) ⊃¬C)A12. (¬¬(B ⊃ B) ⊃¬C) ⊃ (C ⊃¬(B ⊃ B))A33. ¬C ⊃ (C ⊃¬(B ⊃ B))DR1(1, 2)T5: ¬¬A ⊃ A

1. (¬A ⊃¬(B ⊃ B)) ⊃ AT32. ¬¬A ⊃ (¬A ⊃¬(B ⊃ B))T43. ¬¬A ⊃ ADR1(2, 1)T6: A ⊃¬¬A [Gesetz der Einführung der doppelten Negation]

1. ¬¬¬A ⊃¬AT5

2. (¬¬¬A ⊃¬A) ⊃ (A ⊃¬¬A)A3

3. A ⊃¬¬AR1(1, 2) Anhang 2: Warum das mechanische Beweisverfahren für die elementare Prädikatenlogik kein Entscheidungsverfahren ist

Es gibt zwar kein Entscheidungsverfahren für die elementare Prädikatenlogik, aber es gibt für sie immerhin das – was Effektivität angeht – Zweitbeste: ein mechani-sches Beweisverfahren. Wenn eine Form von S´ – gleichgültig welche – ein ele-mentar-prädikatenlogisches Gesetz ist, dann liefert dieses Verfahren (ganz anders als das axiomatische Spiel S´ selbst) in endlich vielen, mechanisch (algorithmisch) ausführbaren Schritten den Nachweis, dass sie ein solches Gesetz ist . Aber es gilt eben nicht (und kann nach den Resultaten von Alonzo Church nicht gelten): Wenn eine Form von S´ – welche auch immer es sei – kein elementar-prädikatenlogisches Gesetz ist, dann liefert jenes Verfahren in endlich vielen, mechanisch ausführbaren Schritten den Nachweis, dass sie kein solches Gesetz ist .

Das mechanische Beweisverfahren für die elementare Prädikatenlogik (jedes sol-che) beruht in der Behandlung der unnegierten und negierten "-Formen von S´ auf der Idee, zu deren Instanziierungen unter optimaler Ausnutzung der schon im Verfahren befindlichen Konstanten überzugehen. Ich formuliere die entsprechenden Regeln der Anschaulichkeit halber als Handlungsanweisungen:

("-Regel) Behandelst Du "uF[u], so unterstreiche sie (diese Form) und füge hinzu: F[k1

], …, F[kn

], wobei k1

, … kn alle Konstanten sind, die schon im Ver-fahren sind; oder, falls noch keine Konstante im Verfahren ist, so füge nach der Unterstreichung von "uF[u] hinzu: F[k], wo k die Konstante „a“ ist.

(¬"-Regel) Behandelst Du ¬"uF[u], so unterstreiche sie und füge hinzu: ¬F[k], Y1

[k], …, Yn

[k], wobei "uY1

[u], …, "uYn

[u] alle "-Formen sind, die im Verfahren schon unterstrichen sind, und k diejenige Konstante ist, die in

28

der Reihenfolge der Konstanten die nächste ist, die nicht schon im Verfahren ist. (Die Reihenfolge der Konstanten ist: a, b, c, d, a´, b´, c´, d´, a´´, b´´, …)

Die Anwendung dieser beiden Regeln kann bei manchen Formen von S´, die kei-ne elementar-prädikatenlogischen Gesetze sind, dazu führen, dass das Verfahren nicht aus sich heraus endet (wie es jedoch der Fall sein müsste, wenn es sich bei dem mechanischen Beweisverfahren auch um ein Entscheidungsverfahren handel-te), sondern endlos weiterläuft . Ein sehr einfaches Beispiel ist der folgende Fall: Ist die S´-Form "x¬"y¬F2(x, y) ⊃ F2(a, a) ein elementar-prädikatenlogisches Gesetz? Versuch zu zeigen, dass es so ist, per Widerlegung der Annahme, dass es nicht so ist:1. "x¬"y¬F2(x, y), ¬F2(a, a)[Annahme zur

Widerlegung]

2. "x¬"y¬F2(x, y), ¬F2(a, a), ¬"y¬F2(a, y)["-R. (1)]

3. "x¬"y¬F2(x, y), ¬F2(a, a), ¬"y¬F2(a, y), ¬¬F2(a, b),

¬"y¬F2(b, y)

[¬"-R. (2)]

4. "x¬"y¬F2(x, y), ¬F2(a, a), ¬"y¬F2(a, y), ¬¬F2(a, b),

¬"y¬F2(b, y), F2(a, b)

[¬¬-R. (3)]

5. "x¬"y¬F2(x, y), ¬F2(a, a), ¬"y¬F2(a, y), ¬¬F2(a, b),

¬"y¬F2(b, y), F2(a, b), ¬¬F2(b, c), ¬"y¬F2(c, y)

[¬"-R. (4)]

Es ist für uns ersichtlich, dass dieses Verfahren nicht enden wird – weil nach jedem Schritt immer noch eine (nichtunterstrichene) S´-Form vorhanden ist, auf die eine der Regeln angewendet werden kann. Es wird weder mit einer Zeile enden , in der für eine S´-Form L sowohl L also auch ¬L steht (wäre das der Fall, dann lieferte das Ver-fahren das Resultat: "x¬"y¬F2(x, y) ⊃ F2(a, a) ist ein elementar-prädikatenlogisches Gesetz), noch mit einer Zeile, in der für keine S´-Form L sowohl L also auch ¬L steht (wäre das der Fall, dann lieferte das Verfahren das Resultat: "x¬"y¬F2(x, y) ⊃ F2(a, a) ist kein elementar-prädikatenlogisches Gesetz). Das Verfahren wird vielmehr end-los und sinnlos weiterlaufen. Eine höhere Intelligenz, als es gegenwärtige Künstliche Intelligenz ist, nämlich natürliche menschliche Bewusstseinsintelligenz, erkennt dies. Eine das Verfahren ausführende Maschine erkennt das nicht . Sie scannt nur die Zeile von S´-Formen, die sie gerade produziert hat, auf Regelanwendbarkeit, und wendet die jeweils einschlägige Regel auf die (von links nach rechts) erste S´-Form an, auf die

29

sie in der Zeile eine Regel anwenden kann, und produziert somit eine nächste, ver-längerte Zeile (und eine mit einer Unterstreichung mehr): Schritt für determinierten Schritt, und Schritt für determinierten Schritt, … Nur eine höhere Intelligenz rettet die ausführende Maschine vor dem sonst früher oder später unausweichlichen vor-zeitigen Ende ihres Maschinenlebens (aufgrund von Durchbrennen der Hardware) mittels einer Sicherung, die an einem festgelegten Punkt den Maschinenstopp auslöst (ein Ziehen des Netzsteckers tut es auch). Nota bene : Es lässt sich nicht von vorn-herein für alle Fälle ausmachen, ab wann das Verfahren sinnlos wird und von außen (gewissermaßen per deum ex machina, besser gesagt per hominem extra machinam ) gestoppt werden sollte (sonst hätte man ja doch, was man nicht haben kann: ein Ent-scheidungsverfahren für die elementare Pädikatenlogik). Anhang 3: Nichtmechanisches und mechanisches Beweisverfahren im Vergleich

Die sog. „Künstliche Intelligenz“ ist keine Intelligenz im eigentlichen Sinn (jeden-falls einstweilen), sondern sie ist eine – durch einen ganz erheblichen Aufwand von natürlicher Intelligenz – eingerichtete einsichtslose Elektronik, die aber sehr viele Aufgaben effektiver ausführen kann als natürliche Intelligenz das kann; welche In-telligenz ja stets Bewusstseinsintelligenz ist und auf Ideen warten muss – oftmals lange. Von der Effektivität der Künstlichen Intelligenz lassen sich manche so sehr beeindrucken, dass sie Maschinen für intelligenter als Menschen halten – eine Fehl-einschätzung, die nicht ganz unähnlich der Fehleinschätzung ist, Leute, die schnell reden, schon deshalb für intelligenter zu halten als Leute, die es langsam tun.

Ein Effektivitätsvergleich zwischen nichtmechanischem und mechanischem Be-weisverfahren auf elementarem Gebiet – nämlich dem der elementaren Prädika-tenlogik – kann den Kontrast zwischen unterbewerteter, weil nicht so effektiver, Intelligenz und überbewertetem, weil hocheffektivem, Intelligenzersatz eindrucks-voll illustrieren. Die eigentliche Intelligenzleistung liegt bei der Anwendung des nichtmechanischen Beweisverfahrens, die schon auf dem Weg zum Beweisziel mit den Zwischenresultaten eine Fülle von bewiesenen Einsichten liefert; aber die ma-schinelle Implementierung des mechanischen Beweisverfahrens, die die Lösung in weniger als einer Sekunde fertig haben dürfte, macht bei den meisten den größeren Eindruck und stiehlt die Show: Ist die S´-Form ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y)

30

ein elementar-prädikatenlogisches Gesetz?7 Die Antwort ist: Ja (was man z. B. auch modelltheoretisch zeigen kann).

(I) Aufgrund des in Anhang 2 spezifizierten mechanischen Beweisverfahrens für die elementare Prädikatenlogik ergibt sich die Antwort „Ja“ auf die Frage, ob die S´-Form ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y) ein elementar-prädikatenlogisches Gesetz ist, wie folgt in sieben völlig determinierten Schritten:

1. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y)[Annahme zur

Widerlegung]

2. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a)[¬"-R. (1)]

3. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a),

¬¬"y¬F2(b, y)

[¬"-R. (2)]

4. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a),

¬¬"y¬F2(b, y), "xF2(x, a)

[¬¬-R. (3)]

5. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a),

¬¬"y¬F2(b, y), "xF2(x, a), "y¬F2(b, y)

[¬¬-R. (4)]

6. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a),

¬¬"y¬F2(b, y), "xF2(x, a), "y¬F2(b, y), F2(a, a), F2(b, a)

["-R. (5)]

7. ¬"y¬"xF2(x, y), ¬"x¬"y¬F2(x, y), ¬¬"xF2(x, a),

¬¬"y¬F2(b, y), "xF2(x, a), "y¬F2(b, y), F2(a, a), F2(b, a),

¬F2(b, a), ¬F2(b, b)

["-R. (6)]

(II) Aufgrund des im Haupttext angegebenen Axiomensystems der elementaren Prädikatenlogik jedoch ergibt sich die Antwort „Ja“ auf die Frage, ob die S´-Form ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y) ein elementar-prädikatenlogisches Gesetz ist, gemäß einem nichtmechanischen Beweisverfahren – dem Spiel S´ – z. B. in der Weise, wie es unten angegeben ist; wobei im Anhang 1 Bewiesenes verwendet wer-den darf (es lässt sich ja mutatis mutandis auch im Spiel S´ beweisen, da S´ das Spiel S – nur bezogen auf andere Formen – mitenthält).

DR2: G⊃¬L⊢L⊃¬G [Regel der halbseitigen Kontraposition rechts ]1. G⊃¬LVoraussetzung2. ¬¬G⊃GT5

3. ¬¬G⊃¬LDR1(2, 1)4. (¬¬G⊃¬L) ⊃ (L⊃¬G)A3

5. L⊃¬GR1(3, 4)

T7: F[k] ⊃¬"u¬F[u] [Gesetz der hinteren Existenzgeneralisierung]81. "u¬F[u] ⊃¬F[k]A4

2. F[k] ⊃¬"u¬F[u]DR2(1)

DR3: G⊃L⊢¬L⊃¬G [Regel der aufsteigenden Kontraposition]1. G⊃LVoraussetzung2. ¬¬G⊃GT5

3. L⊃¬¬LT6

4. ¬¬G⊃LDR1(2, 1)5. ¬¬G⊃¬¬LDR1(4, 3)6. (¬¬G⊃¬¬L) ⊃ (¬L⊃¬G)A3

7. ¬L⊃¬GR1(5, 6)

DR4: ¬G⊃L⊢¬L⊃G [Regel der halbseitigen Kontraposition links ]1. ¬G⊃LVoraussetzung2. L⊃¬¬LT6

3. ¬G⊃¬¬LDR1(1, 2)4. (¬G⊃¬¬L) ⊃ (¬L⊃G)A3

5. ¬L⊃GR1(3, 4)DR5: F[k] ⊃S⊢¬"u¬F[u] ⊃S (k nicht in ¬"u¬F[u] ⊃S) [Regel der vorderen Existenzgeneralisierung]9

1. F[k] ⊃S (k nicht in S⊃¬"u¬F[u])Voraussetzung

2. ¬S⊃¬F[k]DR3(1)

3. ¬S⊃"u¬F[u]R2(2)10

4. ¬"u¬F[u] ⊃SDR4(3)

T8: ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y)

1. "xF2(x, a) ⊃ F2(b, a)A4

2. F2(b, a) ⊃¬"y¬F2(b, y)T7

3. "xF2(x, a) ⊃¬"y¬F2(b, y)DR1(1, 2)

4. "xF2(x, a) ⊃"x¬"y¬F2(x, y)R2(3)

5. ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y)DR5(4)

Es mag beim Beweisen in S´ einen lückenlosen kürzeren Weg zu ¬"y¬"xF2(x, y) ⊃"x¬"y¬F2(x, y) geben als die eben angegebene „Kletterroute“, deren Begehung dem komplizierten Aufstieg durch eine Steilwand gleicht. Aber jeder der angege-benen Zwischenschritte wird auf ihr gebraucht, um ans Ziel zu kommen: DR5 und T7 werden bei der Herleitung von T8 gebraucht, DR3 und DR4 bei der Herleitung von DR5, und DR2 bei der Herleitung von T7. Und eine genuine Intelligenzleistung ist das Finden und Begehen dieser „Kletterroute“ allemal (zumal sie außer der S´-Form, die ihr Ziel ist, ein überaus wichtiges Theorem und vier nicht weniger wich-tige Regelschemata „hergibt“) – ganz im Gegensatz zur oben angeführten Anwen-dung des mechanischen Beweisverfahrens, das ohne Einsichten, ohne Ideen, ohne Gedanken und (nachdem es nun einmal da ist und bloß angewendet zu werden braucht) ohne Intelligenz auskommt.

34

Was ist KI und wenn ja, wie viele? Vier Rätsel einer Philosophie der Künstlichen Intelligenz

Sebastian Rosengrün1 Zusammenfassung

In diesem Aufsatz zeige ich, warum die philosophischen Fragen, ob eine Künst-liche Intelligenz (KI) denken, fühlen oder handeln kann und ob ihr daher morali-sche Rechte und Pflichten zukommen, irreführend sind. Ich veranschauliche dies anhand von vier Rätseln. Das erste Rätsel betrifft die Extension des KI-Begriffs, der semantisch notwendig entweder leer oder unterbestimmt ist. Das zweite Rätsel differenziert zwischen Roboter und KI. Es verdeutlicht, dass es ein gravierendes technisches Missverständnis ist, einen Roboter als abgeschlossene Entität zu ver-stehen, von der mentale Zustände oder ein moralischer Objektstatus ausgesagt wer-den können. Darauf aufbauend formuliere ich im Rahmen des dritten und vierten Rätsels das Paradox von Theseus’ Computer, das einer Neufassung des bekannten Theseus-Schiff-Paradoxes entspricht und aufzeigt, dass KI angesichts von hard-ware- und softwaretechnischen Besonderheiten metaphysisch betrachtet ein höchst merkwürdiger Begriff ist.

In this paper I show why the following philosophical questions are misleading: can an Artificial Intelligence (AI) think, feel or act, and does it therefore own moral rights and duties? I do so by elucidating the issue with four puzzles. The first puzzle concerns the extension of the concept of AI, which, from the standpoint of semantics, necessarily is either empty or underdetermined. The second puzzle makes a distinction between robots and AI. It makes the point that it is a grave technical misunderstanding to under-stand a robot as an entity of its own which can be attributed mental states or the status of an object of morals. Based on this, in the context of the third and fourth puzzle I state the paradox of the Computer of Theseus, which compares to a new version of the well-known paradox of the Ship of Theseus and demonstrates that, in the face of the peculiar-ities of hardware and software, AI, considered metaphysically, is a very strange concept. 1. Einleitung Ein wesentlicher Teil der philosophischen Debatte zur Künstlichen Intelligenz ist es, danach zu fragen, ob eine KI denken, fühlen oder handeln kann, und ob ihr daher möglicherweise moralische Rechte und Pflichten zukommen2. Diese Fragen sind jedoch irreführend. Sie zielen nämlich darauf ab, welche Attribute KIs zu-gesprochen werden können, ob KIs mentale Zustände (Bewusstsein, Intentionen, Emotionen etc.) besitzen oder Träger von moralischen Rechten sind. Sowohl die historische Debatte seit den 1950er Jahren als auch die gegenwärtige Debatte zur KI versäumen es jedoch zumeist, genau zu bestimmen, wem oder was überhaupt Attribute zugesprochen werden, wenn von KI die Rede ist.

Die metaphysische Frage, wer oder was eine KI ist, welche Entitäten überhaupt als KI bezeichnet werden können, ist allerdings deutlich komplexer als gemeinhin angenommen. Unter Metaphysik bzw. Ontologie verstehe ich diejenige Teildisziplin der Philosophie, die nach der Existenz, dem Sein, dem Wesen und der Struktur von Dingen fragt. Insbesondere in der analytischen Philosophie ist Metaphysik eng mit Semantik verbunden, derjenigen linguistischen Teildisziplin, die nach der Be-deutung und der Referenz sprachlicher Ausdrücke fragt. Genau diese semantischen Fragen sind der Ausgangspunkt meiner folgenden Überlegungen zur metaphysi-schen Rätselhaftigkeit einer Philosophie der Künstlichen Intelligenz.

Der Satz (1) „Diese KI besitzt mentale Zustände“ ist der Form nach identisch mit dem Satz (2) „Der gegenwärtige König von Frankreich besitzt eine Glatze“: Bei-de drücken über ein bestimmtes Individuum ein bestimmtes Attribut aus, nämlich mentale Zustände bzw. eine Glatze zu besitzen.

Um den Wahrheitswert von (2) zu bestimmen, ist es durchaus wichtig, genau zu de-finieren, was es bedeutet, eine Glatze zu besitzen und Überlegungen anzustellen, wor-aus Glatzen resultieren und welche moralischen Rechte und Pflichten Glatzenbesitzern gegebenenfalls zukommen. Doch scheitert die Bestimmung des Wahrheitswertes hier nicht an einer unterbestimmten Definition des Attributs, sondern an der Unterbe-stimmtheit des Individuums, über das das Attribut ausgedrückt wird. Zwar lässt sich die Nominalphrase „Der gegenwärtige König von Frankreich“ semantisch insofern ana-lysieren, als sie auf das Individuum verweist, das gegenwärtig König von Frankreich ist, jedoch handelt es sich um einen leeren Verweis, da Frankreich eine Republik ist. D.h. das Individuum, von dem ausgesagt wird, dass es eine Glatze besitzt, existiert nicht.

Auf KI übertragen: Ich zeige in diesem Aufsatz, dass es philosophisch rätselhaft ist, wem oder was genau in einem Satz wie (1) überhaupt mentale Zustände zu-gesprochen werden. Dies hängt zum einen damit zusammen, dass — anders als beim König von Frankreich — verschiedene Auffassungen darüber existieren, was semantisch unter einer KI zu verstehen ist, zum anderen — genau wie beim König von Frankreich — unklar ist, ob überhaupt und wenn ja, worauf genau, eine Nomi-nalphrase wie „diese KI“ überhaupt verweist.

In diesem Zusammenhang diskutiere ich im Folgenden vier Rätsel einer Philo-sophie der KI, die sich teilweise auseinander ergeben und die die Problematik des KI-Begriffs aus semantischer und metaphysischer Perspektive verdeutlichen. 2. Jeder Computer ist KI (oder keiner)

Die KI-Forschung unterteilt sich in zwei divergierende Zweige3: Einerseits ist KI ein interdisziplinäres Forschungsfeld, in dessen Rahmen menschliche bzw. natürliche Intelligenz modelliert, simuliert und repliziert wird, zumeist mit dem Ziel, mensch-liche bzw. natürliche Intelligenz und andere kognitive Fähigkeiten besser zu ver-stehen. Dieser Bereich wird gemeinhin als „kognitive Simulation“4 bezeichnet. An-dererseits ist KI eine spezifische Technik innerhalb der Softwareentwicklung (und damit ein Teilgebiet der Informatik), auf deren Grundlage Computerprogramme hergestellt werden. Diese Technik kommt durchaus auch im Bereich der kognitiven Simulation zum Einsatz, wobei kognitive Simulation weit über computergestützte Verfahren hinausgeht und unter anderem Versuche, Intelligenz mit Hilfe von bio-chemischen Verfahren5 zu replizieren, einschließt.

Während Fortschritte auf dem Forschungsgebiet der kognitiven Simulation durchaus Erkenntnisse zu Intelligenz, Kognition und Bewusstsein hervorgebracht haben6, ist es zum Stand der gegenwärtigen Forschung spekulativ, ob auf diese Wei-se tatsächlich künstliche Intelligenzen geschaffen werden, die womöglich sogar Bewusstsein und weitere mentale Zustände besitzen. Dies gilt umso mehr als die Simulation von Intelligenz nicht dasselbe wie Intelligenz ist — ähnlich wie es bei einem Flug im Flugsimulator nicht um einen echten Flug handelt. Darüber hinaus ist es zweifelhaft, was genau eine künstliche Intelligenz (sofern sie mehr ist als eine Simulation) von einer natürlichen Intelligenz unterscheidet bzw. ob die Unterschei-dung zwischen Natürlichkeit und Künstlichkeit überhaupt aufrecht zu erhalten ist7. Wenn der KI-Begriff im Sinne der kognitiven Simulation verstanden wird, gibt es gegenwärtig keine Entitäten, die als KI bezeichnet werden können.

Im Folgenden fokussiere ich mich auf den KI-Begriff als Teilgebiet der Informa-tik, als Sammelbegriff für diejenigen Techniken, die gegenwärtig etwa bei der Ent-wicklung von Chatbots, Robotern, autonomen Fahrsystem, Militärdrohnen, algo-rithmenbasierten Entscheidungssystemen und vielen anderen Anwendungen eine wichtige Rolle spielen. KI im Sinne der Informatik umfasst die folgenden Teilgebie-te der Softwareentwicklung, wobei Kombinationen derselben nicht nur möglich, sondern auch üblich sind: Maschinelles Lernen basierend auf neuronalen Netzen; Computerlinguistik bzw. die Verarbeitung natürlicher Sprache; Maschinelles Sehen; Vernunftbasiertes Schlussfolgern; Planung und Optimierung8.

Darüber hinaus wird diskutiert, ob einfache regelbasierte Programme ebenfalls zur KI zählen. Ein einschlägiges Beispiel dafür wäre eine Abfolge von Wenn-Dann-Anweisungen, die — wie jedes Computerprogramm — als elektronisches Schal-tungssystem realisiert wird.

Alle anderen genannten Techniken sind ihrem Wesen nach jedoch nichts anderes als hochkomplexe regelbasierte Systeme. Sie können vollständig auf diese reduziert werden. Dies führt wiederum in das folgende Paradox:

1. Regelbasierte Systeme sind entweder KI oder nicht.

2. Jedes Computerprogramm ist ein regelbasiertes System.

3. Wenn jedes regelbasierte System eine KI ist, dann ist jedes Computerprogramm eine KI.

4. Alle Techniken, die gemeinhin als KI gelten, sind vollständig auf regelbasierte Systeme reduzierbar.

5. Wenn regelbasierte Systeme keine KI sind, dann ist kein Computerprogramm eine KI. Daraus folgt:

6. Entweder ist jedes Computerprogramm eine KI oder kein Computerprogramm ist eine KI.

Aus Sicht der Informatik ist dieses Paradox nicht problematisch. KI ist dort v. a. ein loser Sammelbegriff für bestimmte Techniken der Softwareentwicklung. Für die erfolgreiche Ausführung eines Programms ist es unerheblich, ob beispielsweise das Maschinelle Lernen basierend auf neuronalen Netzen seinem Wesen nach verschie-den ist von einem simplen „Hello World“-Befehl oder ob es sich nur aufgrund einer größeren Komplexität des Quellcodes von diesem unterscheidet.

Relevant wird dieses Paradox erst, wenn Entitäten als KI bezeichnet werden und/oder Entitäten aufgrund ihrer Eigenschaft, „künstlich-intelligent“ zu sein bzw. eine Anwendung von KI-Technik zu sein, bestimmte Attribute zugeschrieben werden, die sowohl philosophische als auch gesellschaftliche Konsequenzen suggerieren. Einem bestimmten Computer (oder Roboter, Software etc.) aufgrund von KI men-tale Zustände zuzusprechen, ist daher entweder eine leere oder missverständliche Aussage. Gemäß dem oben erläuterten Paradox würde es diesen Computer nämlich entweder gar nicht geben oder jeder andere Computer (beispielsweise auch der-jenige, auf dem ich gerade diesen Aufsatz schreibe, aber auch mein Smartphone und ein auf dem Dachboden verstaubter Commodore 64) würde ebenfalls mentale Zustände besitzen. KI kann also nicht der Grund dafür sein, dass ein Computer mentale Zustände besitzt.

Die These, dass jeder Computer mentale Zustände besitzt, mag auf den ersten Blick zwar absurd klingen. Dies heißt jedoch nicht, dass sie ausgeschlossen ist. Hi-lary Putnam (1994) hat dafür die Position des Funktionalismus bzw. Computer-funktionalismus in die Philosophie des Geistes geprägt. Er argumentiert9, dass je-des elektronische Gerät, auf dem ein Turing-vollständiges System realisiert werden kann (vereinfacht gesagt jede universell programmierbare Rechenmaschine), nach demselben Prinzip funktioniert wie der menschliche Geist. Jedoch ist dann nicht KI das eigentliche Kriterium für die Zuschreibung von mentalen Zuständen, sondern die Turing-Vollständigkeit. KI wäre nur noch ein unglücklich gewählter Begriff für das Programmieren von Computern jeglicher Art. Aus philosophischer Perspekti-ve wäre der KI-Begriff dann mindestens missverständlich, weil er aufgrund seiner von der Science-Fiction-Literatur geprägten Konnotationen zu vorschnellen Fehl-schlüssen und magischen Assoziationen einlädt.

Die erste Antwort auf das Paradox, demzufolge kein Computer eine KI ist, macht dagegen macht jede Aussage de re über eine KI zu einer Aussage mit einem leeren Namen und führt ins klassische no-reference- Problem der Sprachphilosophie10. Zu behaupten, dass eine bestimmte KI mentale Zustände besitzt, ist dann vergleichbar damit, zu behaupten, dass der gegenwärtige König von Frankreich eine Glatze be-sitzt, was — abhängig von sprachphilosophischen Prämissen — so lange entweder eine falsche oder eine sinnlose Aussage ist, wie Frankreich nicht in einer möglichen fernen Zukunft wieder zur Monarchie zurückkehrt. Alternativ können KIs als fik-tionale Entitäten (vergleichbar etwa mit Einhörnern) aufgefasst werden, was insbe-sondere angesichts der Popularität des Topos in der Science-Fiction-Literatur sogar naheliegt. Dies führt jedoch dazu, dass eine Aussage über KIs nichts über wirkliche Entitäten aussagt. Eine Aussage über KIs wäre dann mit der Aussage „Einhörner be-sitzen rosarote Mähnen“ vergleichbar, die jenseits einer Fantasy-Geschichte kaum die Existenz von echten Einhörnern präsupponiert11.

Die Aussage „KI besitzt mentale Zustände“ ist darüber hinaus auch de dicto ana-lysierbar, als eine Aussage darüber, was mit dem KI-Begriff ausgedrückt wird, ver-gleichbar mit „Der gegenwärtige König von Frankreich ist derjenige, der zum Zeit-punkt der Äußerung Monarch des als ‚Frankreich‘ bezeichneten Landes ist“. Doch auch nach dieser Lesart würde von keiner Entität ausgesagt werden, dass diese mentale Zustände besitzt, sondern lediglich ausgedrückt werden, dass eine KI (un-abhängig davon, ob sie existiert oder nicht) etwas ist, das mentale Zustände besitzt.

Zumindest würde dies auf alle Entitäten der Gegenwart und nahen Zukunft zu-treffen. Zwar lässt sich nicht prinzipiell beweisen, dass keine Technik der Software-entwicklung denkbar ist, die ihrem Wesen nach nicht vollständig auf regelbasierte Systeme reduzierbar ist und vom gegenwärtigen wissenschaftlichen Diskurs als KI klassifiziert würde. Das Gegenteil zu behaupten wäre aber reine Spekulation, die sich zudem weniger auf den technischen Fortschritt als auf einen durchaus mögli-chen Wandel des Sprachgebrauchs gründen dürfte: Selbstverständlich kann „Künst-liche Intelligenz“ in ferner Zukunft (oder in einer kontrafaktischen Situation, d. i. einer möglichen Welt) etwas bezeichnen, das nicht vollständig auf regelbasierte Sys-teme reduzierbar ist. Für die Gültigkeit der These, dass KI nicht anderes ist als ein regelbasiertes System, ist eine solche kontrafaktische Begriffsverwendung jedoch irrelevant12.

Dieses erste Rätsel hat gezeigt, dass der KI-Begriff unterbestimmt ist. Zumindest dann, wenn er verwendet wird, um bestimmte Entitäten zu bezeichnen: Entweder ist dann jeder Computer (bzw. jedes Computerprogramm) eine KI oder es gibt kei-ne KI. Statt von KI sollte daher grundsätzlich präziser von bestimmten Techniken der Softwareentwicklung gesprochen werden. Über dieses Rätsel hinaus geht es mir im Folgenden darum, weitere metaphysische Fragen und Probleme aufzuzeigen, die aus einem missverstandenen KI-Begriff resultieren, der im gegenwärtigen Diskurs häufig so gebraucht wird, als würde er Entitäten bezeichnen, über die bestimmte Attribute ausgesagt werden können. Das im folgenden Abschnitt vorgestellte Rätsel ist mereologischer Natur und betrifft die häufig vorgebrachte These, dass Roboter aufgrund von KI mentale Zustände und/oder moralische Rechte besitzen. 3. Ein Roboter ist keine KI, eine KI kein Roboter

Nach vorherrschendem Verständnis ist ein Roboter eine „elektromechanische Maschine […], die aus einem Prozessor, Sensoren und Effektoren“13 besteht. Als weitere mögliche Kriterien zur Bestimmung eines Roboters diskutiert werden auch eigenständige Körperlichkeit, autonomes bzw. autonom scheinendes Verhalten so-wie die Möglichkeit, auf seine jeweilige Umgebung Einfluss zu nehmen14.

Als Roboter gelten selbstverständlich auch Industrieroboter (z. B. in der Auto-mobilproduktion) sowie Haushalts- und Alltagsroboter (z. B. Staubsauger und Ra-senmäher). Diese sind von androiden bzw. humanoiden („menschenähnlichen“15) Robotern zu unterscheiden, die in der Sciencefiction zumeist mit künstlicher In-telligenz assoziiert werden. Rein mechanische Roboter bzw. Automaten sind zwar historisch bedeutend16, spielen aber in der gegenwärtigen Robotik kaum eine Rolle.

Ein Merkmal elektromechanischer Roboter ist es, dass sie in aller Regel von einem Computer (bzw. einem Turing-vollständigem System) kontrolliert werden. Abhän-gig von dem in Abschnitt 2 beschriebenen Paradox könnte damit tatsächlich jeder gegenwärtige Roboter als künstliche Intelligenz klassifiziert werden. Jedoch wird der KI-Begriff aus technischer Perspektive zumeist enger gefasst, wobei spezifisch für Roboter neben dem Maschinellen Lernen insbesondere die Verarbeitung natür-licher Sprache und das maschinelle Sehen relevante KI-Anwendungen darstellen. Wenngleich sie ihrem Wesen nach nichts anderes sind als regelbasiertes Program-mieren (vgl. Abschnitt 2), beschreiben diese Gebiete durchaus eigenständige Ge-biete der Softwareentwicklung bzw. Informatik.

Demnach scheint ein Roboter dann künstlich-intelligent zu sein, wenn er von einem Computer kontrolliert wird, auf dem KI-Anwendungen ausgeführt wer-den, beispielsweise eine Software, die Hindernisse im Raum auf Basis von Sen-soren (bzw. Kameras) analysiert und die Bewegungen des Roboters entsprechend steuert.

Während diese Beschreibung eines Roboters aus ingenieurtechnischer Perspek-tive unproblematisch ist, ergeben sich aus dem technischen Aufbau einige meta-physische Fragen, sobald Künstliche Intelligenz als Kriterium dafür herangezogen wird, Robotern mentale Zustände oder gar moralische Rechte und Pflichten zu-zuschreiben. Selbst wenn Computer aufgrund von bestimmter KI-Software näm-lich mentale Zustände (und damit möglicherweise Leidensfähigkeit und morali-sche Rechte) besitzen sollten17, lässt sich dies nicht ohne Weiteres auf den Roboter übertragen, der von diesem Computer gesteuert wird. Anders als beim Menschen existieren die „Psyche“ bzw. das „Gehirn“ eines Roboters nämlich unabhängig von dessen Körper18.

Die meisten Entitäten, die gegenwärtig als künstlich-intelligente Roboter an-gesehen werden, sind nur Peripheriegeräte, die von einem Computer (einem sog. Server) im Netzwerk (in einer „Cloud“) gesteuert werden. Zwar sind in diesen Robotern durchaus Prozessoren verbaut, doch dienen diese lediglich als Verteiler von Informationen im Roboter, während die Berechnungen, die technisch als KI bezeichnet werden (z. B. im Bereich des maschinellen Sehens und Sprachverarbeitung, aber auch des maschinellen Lernens), praktisch nie auf dem im Roboter verbauten Prozessor durchgeführt werden. Die im Roboter verbaute Hardware ist in der Regel nicht für derart ressourcenintensive Berech-nungen ausgelegt.

Ein Server bzw. eine KI-Software, die im Netzwerk ausgeführt wird, kontrolliert darüber hinaus meist nicht nur einen Roboter, sondern beliebig viele Roboter des-selben (oder gar verschiedenen) Bautyps. Jedoch lagert auch diese auf dem Server bzw. dem Server-Netzwerk ausgeführte Steuersoftware eines Roboters verschiede-ne komplexe Berechnungen auf speziellere KI-Anwendungen aus, z.  B. zur Ver-arbeitung von Sprache, und fügt gewissermaßen nur die Fäden zusammen, um eine Gruppe von Robotern zu kontrollieren.

Beim Menschen bilden Gehirn und Körper eine physikalische Einheit19, ein Mensch ist eine abgeschlossene Entität, welcher man — abhängig von der vor-ausgesetzten Position im Körper-Geist-Problem — mentale Zustände zusprechen kann. Ein Roboter ist jedoch in der Regel physikalisch getrennt von dem Computer, dessen Software ihn steuert. Das „Gehirn“ eines Roboters befindet sich — wie oben ausgeführt — meistens nicht im Roboter selbst, sondern in einem Rechenzentrum, das über das Internet (oder auch mit Hilfe anderer Techniken der digitalen Daten-übertragung) mit dem Roboter Daten austauscht, Input verarbeitet und entspre-chende Output-Befehle steuert. Gleichzeitig handelt es sich bei diesem Computer nicht nur um das „Gehirn“ dieses Roboters, sondern um das „Gehirn“ sehr vieler Roboter.

Davon auszugehen, dass ein Roboter mentale Zustände, moralische Rechte o. ä. besitzt, weil er von einer KI gesteuert wird, ist demnach ein Missverständnis. Bei-spielsweise besitzen weder meine Hand noch meine Darmwand mentale Zustände und moralische Rechte, sondern ich in meiner Gesamtheit als Mensch. Wenn je-mand meinen kleinen Finger bricht, fühlt nicht mein Finger Schmerz, sondern ich. Diese Person begeht auch kein Unrecht an meinem Finger, sondern an mir.

Entsprechend kann ein Roboter auch nicht empfindungs- und moralfähig sein, sondern — wenn überhaupt — das gesamte System, in dem der Roboter eingebun-den ist. Dies wirft jedoch zahlreiche mereologische Fragen dahingehend auf, welche Komponenten überhaupt zu diesem System dazu gehören, was überhaupt der kon-krete Gegenstand ist, von dem mentale Zustände o. ä. ausgesagt werden. Anders als beim Menschen, der eine mehr oder weniger abgeschlossene physikalische Entität darstellt, bleiben diese Fragen in Bezug auf Roboter und KI im Hinblick auf ihre metaphysischen Voraussetzungen rätselhaft. Wenn aber beispielsweise das saudi-arabische Regime der androiden Roboterfrau Sophia Bürgerrechte zuspricht20, oder Menschen sich zukünftig in künstlich-intelligente Roboter verlieben21, aber auch wenn das Europaparlament ein Konzept zu elektronischen Personen ausarbeitet22, wird diese metaphysische Rätselhaftigkeit auch zu einem praktischen Problem. Denn Individuen können nur dann Rechte besitzen und ausüben, wenn klar ist, wer oder was genau diese Individuen sind, und welche Teile zu ihnen gehören (und welche nicht).

Diese mereologische Problematik führt jedoch weit über KI-basierte Roboter hinaus. Dies zeige ich in den folgenden beiden Abschnitten, in denen ich das Ge-dankenexperiment von Theseus’ Computer einführe, mit dessen Hilfe ich aufzeige, dass die mereologische Unterbestimmtheit von KI gleich in mehrfacher Hinsicht praktische Probleme aufwirft. 4. Theseus’ Computer: Was ist KI, was Peripherie?

Aufbauend auf den Ausführungen zu Robotern wirft die Frage, welche konkreten Entitäten zur KI zählen, mereologische Fragen auf, die denen einer genauen Be-stimmung der Essenz eines Menschen nicht unähnlich sind. Dabei setzen meine folgenden Überlegungen einen sogenannten aristotelischen Essentialismus voraus. Darunter verstehe ich den lose auf Aristoteles’ Metaphysik aufbauenden Grund-gedanken, dass Dinge einige Attribute essentiell, andere Attribute nur akzidentiell besitzen23.

Während sich die Frage, welche Attribute für einen Menschen essentiell und wel-che nur akzidentiell sind, häufig intuitiv beantworten lässt, stoßen Intuitionen in Bezug auf Computer und KI nämlich an einige Grenzen. Meine linke Hand ist bei-spielsweise ein Teil meines Körpers, sie steht in einer mereologischen Relation zu diesem beziehungsweise zu mir. Wenn ich die Hand aufgrund eines Unfalls o. ä. verlieren würde, wäre ich jedoch weiterhin ich, meine Hand ist kein notwendiger Teil von mir. Meine linke Hand gehört nicht zu meinem Wesen bzw. meiner Essenz.

Doch was gehört zur Essenz eines Computers beziehungsweise einer KI? In An-lehnung an das antike Theseus-Paradox lässt sich diese Frage anhand des folgenden Gedankenexperiments veranschaulichen: Theseus ist ein Teenager, der in seiner Freizeit Künstliche Intelligenzen programmiert. Sein liebstes Projekt ist eine KI na-mens Minotaurus, die basierend auf Maschinellem Lernen mit neuronalen Netzen selbstständig Ausgänge aus verwinkelten Labyrinthen finden soll.

Da sein Computer etwas in die Jahre gekommen ist, bittet er seine Freundin Ari-adne, einige Komponenten auszutauschen. Ariadne ersetzt nach und nach Grafik-karte, Festplatte und Hauptplatine von Theseus’ Computer gegen leistungsfähigere Modelle und kopiert alle Daten (einschließlich der kompilierten KI und des un-kompilierten Quellcodes, vgl. Abschnitt 5) auf Theseus’ neue Festplatte. Da Ariadne noch gute Verwendung für Theseus’ alte Bauteile, insbesondere für die Festplatte und Hauptplatine, hat, baut sie diese in ihren eigenen Computer ein. Da sie neugie-rig ist, welche Fortschritte Theseus zuletzt bei seinem Minotaurus-Projekt gemacht hat, startet sie die KI, die sich noch auf der alten Festplatte des Theseus befindet.

Das sich aus diesem Gedankenexperiment ergebende philosophische Paradox lautet: Welches ist der originale Minotaurus? Diejenige KI, die sich auf Theseus’ neuem (durch Ariadnes Hilfe verbesserten) Computer befindet, oder doch diejeni-ge KI, die Ariadne gerade auf den ursprünglichen Bauteilen von Theseus’ Computer gestartet hat?

Anders als das antike Theseus-Paradox ist dieses Paradox auf zwei Ebenen rätsel-haft, nämlich sowohl auf der Software- als auch auf der Hardware-Ebene. Bevor ich die genuine Rätselhaftigkeit des Wesens von KI auf der Software-Ebene diskutiere (vgl. Abschnitt  5), zeige ich zunächst einige Überlegungen zur Hardware-Ebene auf. Diese sind im Vergleich zum antiken Theseus-Paradox zwar nicht unbedingt originell, aber philosophisch hochrelevant, wenn Computern beziehungsweise KI mentale Zustände, moralische Rechte und sonstige Attribute zugesprochen werden.

In der Computertechnik werden Komponenten, die sich außerhalb der Zentral-einheit eines Computers befinden, als Peripheriegeräte bezeichnet. Dazu zählen z. B. Maus, Tastatur, Bildschirm, aber auch Netzwerk- und Grafikkarten. Es liegt nahe, davon auszugehen, diese Geräte austauschen zu können ohne das Wesen ei-nes bestimmten Computers zu verändern — ähnlich wie es naheliegt, dass Theseus’

46

Schiff auch dann noch Theseus’ Schiff ist, wenn man das Segel oder Steuerrad er-neuert.

Wenn jedoch einer KI mentale Zustände zugeschrieben werden, die sich auf „Sinneswahrnehmungen“, dem Input durch Sensoren, zurückführen lassen, kann bereits die Installation bzw. De-Installation von Peripheriegeräten wie Mikrofonen, Webcams etc. die Art der mentalen Zustände einer KI gravierend verändern. Etwa würde eine Webcam mit geringfügig höherer Auflösung zu einer vollkommen an-dersartigen visuellen „Wahrnehmung“ der KI führen. Vergleichbare Überlegungen werden in Bezug auf den Menschen in der Regel unter dem Stichwort Enhance- ments diskutiert, die Optimierung des Menschen durch Technik24. Gewissermaßen beeinflusst bereits meine Brille meinen Sehsinn gravierend, doch dürfte kaum je-mand ernsthaft bezweifeln, dass ich immer noch ich bin, nachdem ich meine Brille gegen eine mit höherer Dioptrien-Zahl ersetzt habe. Dasselbe gilt beispielsweise für Prothesen, Hörgeräte etc., und selbst bei futuristisch anmutenden Enhancements wie dem Eyeborg-Farbsensor des Cyborg-Aktivisten Neil Harbisson (2012) wird man nur schwer argumentieren können, dass Harbisson nicht mehr Harbisson ist.

Anders als beim Menschen25 lassen sich bei einem Computer jedoch auch die-jenigen Teile problemlos austauschen und verbessern, die nicht zur Peripherie ge-hören, sondern seine Zentraleinheit bilden. Was genau zur Zentraleinheit eines Computers zählt, ist in der Informatik zwar umstritten: Manche Definitionen schließen auch den Arbeitsspeicher (RAM), die gesamte Hauptplatine und sogar die Festplatte ein, andere nur den Prozessor (CPU) bzw. sogar den Prozessorkern (den konkreten Mikrochip). Doch scheint es fragwürdig, ob der Austausch des Pro-zessorkerns (oder der gesamten Hauptplatine) das Wesen des Computers bzw. der auf ihm realisierten KI verändert.

Während sich diese und ähnliche Probleme ebenfalls in Bezug auf das antike The-seus-Paradox stellen, eröffnet das hier formulierte Paradox von Theseus’ Computer noch eine weitere Ebene: In Bezug auf den metaphysischen Status einer KI ist näm-lich vollkommen unklar, ob „KI“ die Software oder eine konkrete Hardware-Reali-sierung dieser Software bezeichnet. Diese vermeintlich nur theoretische Frage wird jedoch genau dann unmittelbar praktisch, wenn KI mentale Zustände und morali-sche Rechte zugeschrieben werden. 5. Theseus’ KI: Universalität und Individualität von Computerprogrammen

Jedes Computerprogramm (Software) kann auf elektronische Schaltungen (Hard-ware) reduziert werden. Ein Programm ist nichts anderes als eine Beschreibung bzw. Vorschrift, wie sich bestimmte elektronische Schaltungen zu verhalten haben. Das Programm hat wiederum eine Entsprechung auf der Hardware, wo es in ir-gendeiner Form (sei es optisch, magnetisch oder elektrisch) repräsentiert wird. Genau an dieser Stelle wird die Frage, was genau eine KI ist, jedoch philosophisch merkwürdig. Treffend fasst dies etwa der Medientheoretiker Friedrich Kittler mit seinem berühmten Bonmot „Es gibt keine Software“ (2013) zusammen. Wenn es aber keine Software gibt, wird die Frage, was genau eine KI ist, jedoch philosophisch merkwürdig.

Um diese Merkwürdigkeit begrifflich zu machen, ist es hilfreich, sich der Funk-tionsweise und des technischen Aufbaus eines Computerprogramms bewusst zu werden: Programmierer fertigen den Quellcode eines Programms an, d.  i. die Sammlung derjenigen Algorithmen, die den sogenannten Output abhängig vom jeweiligen Input determinieren26. Dieser Quellcode ist jedoch nicht das eigentliche Programm, sondern nur eine für Menschen verständliche Abstraktion der Maschi-nensprache. Dieser Quellcode muss erst für Maschinen „lesbar“ gemacht werden. Dafür gibt es zwei gängige Verfahren: Entweder wird der gesamte Quellcode von einem sogenannten Compiler in Maschinensprache kompiliert, bevor er ausgeführt werden kann, oder der Quellcode wird von einem sogenannten Interpreter Zeile für Zeile in Maschinensprache übersetzt und direkt ausgeführt. Welches Verfahren zum Einsatz kommt, hängt in der Regel von der gewählten Programmiersprache ab. Die gegenwärtig für KI-Anwendung beliebteste Programmiersprache Python ist eine Interpretersprache, die jedoch auch kompiliert werden kann.

Unabhängig davon, ob der Quelltext kompiliert oder interpretiert wird, stellt sich die Frage, ob bereits der reine Quelltext eines Programms eine KI darstellt. Immerhin hat Theseus seine Minotaurus-KI „erschaffen“, indem er den Quelltext des Minotaurus in einem Textdokument gespeichert hat. Bereits den Quelltext als KI zu klassifizieren, wäre jedoch zumindest dann absurd, wenn man einem KI-Programm bestimmte mentale Zustände oder moralische Rechte zuschreibt. Der Quelltext eines Programmes ist lediglich ein gewöhnliches Textdokument, dessen Inhalt der Syntax einer Programmiersprache entspricht. Einem Textdokument (wozu beispielsweise auch die Datei zählt, in der dieser Aufsatz gespeichert ist) wür-de jedoch kaum jemand mentale Zustände oder nennenswerte moralische Rechte zusprechen27.

Vom Quelltext eines jeden KI-Programms gibt es darüber unzählige Kopien, nicht nur aufgrund von regelmäßigen Backups, sondern auch aufgrund des tech-nischen Aufbaus von Computerbetriebssystemen. Diese Kopien stimmen exakt mit dem Original überein, so dass bei digitalen Kopien — anders als bei analo-gen — nicht mehr zu unterscheiden ist, welches Textdokument nun das Original ist28. Zwar ist auch in der gegenwärtigen Computertechnik beim Kopieren von Dateien ein „Generation Loss“ möglich, d. i. der Verlust einzelner Bits beim Ko-pieren von Dateien, doch bietet sich dadurch weder praktisch noch theoretisch ein Unterscheidungskriterium zwischen Original und Kopie von Dateien. Theseus hat demnach nicht nur einen Minotaurus auf seinem Rechner, sondern unzählig viele identische Minotauren. Ebenfalls besitzt Ariadne im oben skizzierten Gedanken-experiment unzählige Dateien mit demselben Quelltext, d. i. auch auf ihrem Com-puter befindet sich nicht einfach nur eine exakte Kopie des Minotaurus, sondern unzählig viele.

Aus metaphysischer Perspektive birgt der KI-Begriff daher ein Individuations-problem, da unmöglich bestimmt werden kann, welche dieser Dateien nun den eigentlichen Minotaurus enthält, ggf. ab der wievielten Kopie ein neuer Minotau-rus geschaffen wird (angenommen Ariadne verändert nur eine Zeile des Quelltexts, ist dies bereits ein neues Individuum?) und ob dann vielleicht sogar Theseus’ und Ariadnes Computer jeweils unzählige künstlich-intelligente Entitäten beherbergen, denen allesamt mentale Zustände und moralische Rechte zuzusprechen sind, wenn man davon ausgeht, dass KIs diese Attribute besitzen.

Dieses Individuationsproblem besteht jedoch auch dann, wenn man den Quell-text nicht zur eigentlichen KI zählt, sondern nur seine Übersetzung in Maschi-nensprache bzw. die Ausführung dieser Maschinensprache durch den Computer — sogar dann, wenn mit KI eigentlich ein Computer gemeint ist, der gerade ein als KI einzustufendes Computerprogramm ausführt. Wenn man davon ausgeht, dass nur die Ausführung eines KI-Programms eine KI darstellt, die zu mentalen Zuständen fähig ist und der darüber hinaus moralische Rechte zustehen, ist für die Lösung dieses Problems nämlich wenig gewonnen. Tatsächlich würde dies be-deuten, dass jedes Mal, wenn ein Programm neu gestartet wird, ein neues bewuss-tes Individuum geschaffen würde, und dieses mit dem Beenden eines Programms getötet wird.

Ein möglicher Einwand wäre es zu behaupten, dass das Beenden eines Pro-gramms lediglich bedeutet, ein bewusstes Individuum in eine Art künstliches Koma zu versetzen, das durch den Neustart wieder aufgeweckt würde. Wenn KI aber Be-wusstsein und moralische Rechte besitzt, wäre es dann aber ethisch zweifelhaft, ein Programm (oder gar den Computer) neu zu starten, ohne vorher um Erlaubnis zu fragen. Spätestens dann, wenn ein Programm neu kompiliert wird (insbesondere, wenn vorher kleine Änderungen am Quelltext vorgenommen worden sind), greift dieser Einwand zu kurz. Bei der Neukompilierung wird das alte Programm näm-lich komplett überschrieben, spätestens hier wäre ein neues bewusstes Individu-um geschaffen worden, während das vorherige Programm „getötet“ würde. Dann wäre aber jedes Überschreiben vorhandenen Programmiercodes und die darauf-hin notwendige Neukompilierung „Mord“ an einem bewussten Individuum. Bei interpretierten Programmiersprachen dagegen wäre jeder Neustart des Programms automatisch mit einer Neuschaffung eines bewussten Individuums verbunden, da der Quellcode dabei stets von Grund auf neu in Maschinensprache übersetzt wird. Softwareentwicklung — gleich welcher Art — wäre dann aus moralischen Gründen prinzipiell abzulehnen.

Wenngleich dies absurd klingt, ist dies — meiner Argumentation folgend — eine unmittelbare Konsequenz der Behauptung, dass eine KI mentale Zustände besitzt. Tatsächlich findet sich bei Thomas Metzinger ein ähnliches Argument, demzufol-ge die Schaffung künstlichen Bewusstseins ethisch fragwürdig ist. Metzinger geht

50

davon aus, dass die „ersten Maschinen, die eine minimal hinreichende Menge von Bedingungen für bewusstes Erleben und ein echtes Ichgefühl erfüllen würden“, den „Fehlleistungen der menschlichen Ingenieure“29 ausgeliefert wären und die Forschung an künstlichem Bewusstsein daher unnötiges Leiden produziert30. Met-zinger geht es bei diesem Argument aber wohlgemerkt nicht um KI im hier vorge-stellten technischen Sinn, sondern explizit um künstliches Bewusstsein. Selbstver-ständlich behauptet Metzinger auch nicht, dass jede KI Bewusstsein besitzt. Er geht lediglich davon aus, dass gemäß seiner eigenen naturalistischen Bewusstseinstheo-rie die Kreation von künstlichem Bewusstsein möglich ist, wobei dieses künstliche Bewusstsein nicht notwendig auf KI im Sinne der Informatik basieren muss (vgl. Abschnitt 2).

Nichtsdestotrotz führt Metzingers Argument in einen im Zusammenhang mit Theseus’ Computer interessanten Einwand gegen die These, dass eine KI (bzw. eine Maschine, auf der KI realisiert wird) Bewusstsein besitzt (und/oder mora-lische Rechte genießt). Insofern dies nämlich zutrifft, wäre jede Veränderung am Quellcode eines Programms mitsamt der dadurch notwendig werdenden Neukompilierung/-interpretation gleichbedeutend damit, die Existenz eines be-wussten Individuums aufgrund von Designfehlern auszulöschen und durch die Kreation eines neuen bewussten Individuums zu ersetzen. Dass Softwareentwick-lung eine moralisch höchst fragwürdige Tätigkeit darstellt, wäre damit eine un-mittelbare Konsequenz aus der These, dass KI mentale Zustände besitzt. Damit ist der Computerfunktionalismus (und zahlreiche ähnliche Positionen) natürlich nicht widerlegt. Aufgrund ethischer Überlegungen jegliche Form von Software-entwicklung konsequenterweise ablehnen zu müssen, steht allerdings im krassen Widerspruch zur Technik- und Innovationsfreudigkeit, die einige Vertreter der These, dass KI mentale Zustände besitzen kann, gegenwärtig in der Öffentlichkeit verkörpern.

Die in diesem Aufsatz formulierten Rätsel haben damit v. a. gezeigt, in welche merkwürdigen Absurditäten die These, dass KI mentale Zustände besitzt, notwen-dig führt, wenn man sich die grundlegende metaphysische Frage vor Augen führt, wer oder was überhaupt die Individuen sind, über die im gegenwärtigen Diskurs manchmal allzu unbedacht entsprechende Attribute ausgesagt werden.

Dieser Aufsatz hat anhand von einigen semantischen und metaphysischen Rätseln gezeigt, dass die Frage, was KI eigentlich ist, problematisch ist. Mit dieser Proble-matik müssen sich jedoch insbesondere diejenigen auseinandersetzen, die KI (bzw. Software bzw. Computer allgemein) im gegenwärtigen Diskurs verschiedene Attri-bute zuschreiben. Erst durch die Zuschreibung bestimmter Attribute entsteht näm-lich die argumentative Bringschuld, genau darzulegen, wem oder was genau die zugeschriebenen Attribute zuzuschreiben sind.

Unbedingt anzumerken ist, dass sich die von mir aufgeworfenen Rätsel auch dann stellen, wenn — wie häufig im gegenwärtigen Diskurs — nicht von KI, sondern von einer sog. Artificial General Intelligence (kurz: AGI) die Rede ist31. Darunter sind jene KIs zu verstehen, die nicht nur eine spezifische Aufgabe lösen können, sondern allgemein alle (oder zumindest die meisten) Aufgaben lösen können, die bisher nur von menschlicher Intelligenz gelöst werden können32. In Bezug auf eine AGI sind die in diesem Aufsatz gestellten Fragen und Probleme sogar noch merkwürdiger, da eine AGI gegenwärtig nicht existiert. Selbst ausführlich über das Bewusstsein einer AGI spekulierende Futurologen wie Max Tegmark gestehen zu, dass es „absolut keine Garantie dafür [gibt], dass es uns gelingen wird, zu unseren Lebzeiten — oder überhaupt jemals — eine AKI [= AGI, S.R.] auf menschlichem Niveau zu konstru-ieren“ (2019, S. 198).

Da es darüber hinaus mindestens fragwürdig ist, ob die Konstruktion einer AGI technisch überhaupt möglich ist, ist es auch vollkommen spekulativ, wie eine solche AGI möglicherweise konstruiert werden könnte. Dadurch wird jedoch jede gegen-wärtig getätigte Aussage, die einer AGI beispielsweise mentale Zustände zuschreibt, zu einer Aussage über die Extension eines leeren Begriffs (vergleichbar mit einer Aussage über Einhörner, siehe Abschnitt 2).

Die in diesem Aufsatz aufgezeigten semantischen und metaphysischen Rätsel werden daher umso absurder, umso weniger es sich bei der Form von KI, von der bestimmte Attribute ausgesagt werden, um KI auf dem gegenwärtigen Stand der Technik handelt. Literatur

54

AI and the Human Difference

Sean J. McGrath Zusammenfassung

Angesichts der Hoffnung auf und der Furcht vor einer Maschine, die uns an Intel-ligenz übertrifft, müssen wir uns zunächst fragen, was das überhaupt ist – Intelli-genz. Auch um die geläufige Unterschätzung natürlicher Intelligenz zu vermeiden, haben wir die Antwort darauf zunächst im Blick auf unsere eigene, die mensch-liche Intelligenz zu suchen. In einer vorläufigen Studie, die sich auf Debatten in der antiken und der neueren Philosophie wie auch in der gegenwärtigen analytischen Philosophie des Geistes stützt, enthüllt sich hier menschliche Intelligenz als eine besondere Weise, bewusst in der Welt zu sein: einer Weise, die sich auf Intentio-nalität, vernünftiges Urteilen – inklusive ästhetischem Urteilen – und moralischer Entscheidung stützt. Abstract

Facing hopes for and fears of the advent of a machine that is more intelligent than us, we have to ask ourselves in the first place what intelligence is. Also to avoid the popular underestimation of natural intelligence, for an answer we have to look at our own, human intelligence. In a preliminary study drawing on discussions in ancient and modern philosophy as well as in the current analytic philosophy of mind, here human intelligence is disclosed as a certain way of consciously being in the world, based on intentionality, rational judgment including aesthetic judgment, and moral decision.

55

We have been debating the pros and cons of artificial general intelligence for some time. Since the early 1960s we have been haunted by the spectre of the machine that will render human ingenuity obsolete by taking over the heritage of Homo habilis and become the tool user par excellence. Among the first to propose the advent of strong AI or AGI (Artificial General Intelligence) was the British mathematician Irving Good back in 1965:

The last point is crucial: how could we keep an ultra-intelligent machine under our control? The animals that we have domesticated or encaged in zoos are in most cases more physically powerful than we are, but because we outsmart them, they will never escape from our control. Why should we assume, as Irving Good does, that we could control a machine that was more intelligent than us? Would it not slip through any cage we constructed for it? Would it not disable the fail-safe shut down button in its own interest? It is precisely this conundrum which has prompted Oxford philosopher Nick Bostrom to plead, somewhat desperately, with computer engineers to find a way to program ‘our values’ into AI, so that when machines ascend into a position of supremacy over us, which he things inevitable, we can at least trust them to care about the things we care about2. But what are our values? Is there any consensus among us, or has there ever been, about what human values are? More to the point, how can a machine learn to value things? How can it learn to make genuine moral judgments? And even if we figured out how to program AI with values, would the result not be the most rigid legalistic moral reasoner imaginable? How do you teach a machine ambiguity? How do you teach it mercy, which is the occasional suspension of an otherwise just judgment? Further, if we do somehow succeed in inventing a program that can develop moral reasoning, and in an ‘ultra-intelligent’ way, why would we not submit to it for moral instruction?

Bostrom and many others are concerned that AGI will bring about ‘the singu-larity,’ the point at which humanity as such becomes dependent on a higher form of intelligence, which is not divine, and may not in the end be interested in us and our interests. We are afraid that we will invent a better version of ourselves which will turn around and eliminate its imperfect inventor, as HAL attempted to exter-minate the astronauts on the Jupiter Machine in Kubrick’s 2001 . The computer in the film reasoned that the best way to complete the mission—its mandate—was to kill the human crew. That sounded farfetched when the film was made in 1968, but it is disturbingly less so today. Imagine a machine designed to solve the problem of climate change which strikes upon the clear solution: to extinguish the cause: humanity itself.

But are we so sure we know what intelligence is, at least natural human intelli-gence, that we have reason to believe that we are on the cusp of creating it? Would we not first need to be clear on that before we could conclude that we have been doubled, perfected, and replaced? There is no more consensus on the nature of in-telligence than there is on morality, either among philosophers or psychologists, but to the contrary a long and ongoing debate that is as old as the first Greek philoso-phers and as recent as Nagel’s 2012 Mind and Cosmos .

The following essay is intended as only a first step in staking out the terrain to be discussed. I will not have the opportunity here to develop the three distinctions necessary to an intelligent debate about artificial intelligence: first, the distinction between natural intelligence (NI), common at least to all the higher animals, and natural human intelligence (NHI), unique to us; then the distinction between ANI, artificial narrow intelligence, which presumably we have already invented, and AGI; and finally, and most crucially the distinction between NHI and AGI. This will not be easy or without controversy, on the contrary, we should expect that in the course of seeking clarity on these distinctions, we will have to re-animate historical phil-osophical debates, between nominalist and realists, for example, between idealists and materialists, and indeed, among monotheists, pantheists and atheists. That things will become messy is no reason to avoid the work. Without this effort, we have no hope of advancing the current debate beyond the materialist prejudices and theological platitudes which currently dog both sides of it.

Everything that I say in what follows will need to be much more carefully devel-oped in the subsequent endeavors of the Working Group on Natural and Artificial Intelligence (WGI), founded at the conference on ‘Natürliche und Künstliche Intel-ligenz im Anthropozän’ held 01.–03.03.2020 in Ladenburg, Germany. This prelim-inary effort is written in anticipation of the larger, collaborative, interdisciplinary work ahead of us. It is a programmatic essay that has as its aim outlining the basic terms to be defined and the arguments to be developed in what might be the most important debate of our time. Without trying to answer all of the questions raised here, it seems clear enough to me that we have a problem. We are trying to build artificial general intelligence without understanding what natural intelligence is. It was this conundrum which led Uwe Voigt and myself to propose the establishment of the WGI, which would draw on the most significant contributions in the philos-

58

ophy of mind, phenomenology, consciousness studies, cognitive science, theology, and psychology, from the whole history of the Western canon (starting with Aris-totle’s De Anima and extending to contemporary panpsychism debates), to produce an adequate description of the basic features of what makes human intelligence hu-man, and what are the arguments for affirming or denying its existence in non-hu-mans, animal or mechanical. The concrete deliverable would be something like a report on intelligence, for computer engineers and policy makers, which would summarize in layperson’s terms what central currents in the Western tradition have meant and still mean by the terms ‘intelligence,’ ‘understanding,’ ‘rationality,’ ‘con-sciousness,’ and ‘soul.’ 2. What is at Issue in the Question Concerning AGI

An ambiguity pervades the current discussion about AGI, an ambiguity about the aim of the project from the beginning. Are we seeking to design a machine that can do all that we do, and more, better than we do it, however it does it? Or are we seeking to design a machine that does what we do in the way we do it , i.e., a ma-chine that is not only empirically conscious (cognitively responsive to sense data) but also intelligently and rationally conscious3? And are these two aims separable4? For our purposes, it is the second of these two alternatives that is of most interest. The singularity will not be brought about because of the efficiency of our machines at organising the ends we set for them, but because of the capacity of our machines to set ends we have not decided upon: not only machine learning acquiring the capacity for intentional thought, which we share with the higher animals, but above all acquiring the capacity for judgment and decision.

In a recent article, Ragnar Fjelland (2020), has looked at the evidence in support of the widespread claim of some computer engineers that we are only decades away from AGI5, and concluded that it is exaggerated. Neither algorithmic AI (the brain behind Amazon, YouTube, and countless other consumer service providers), nor more recent advances in creating artificial neural networks, have come close to the promises of AGI. Rather we are producing variations on what Fjelland calls ANI (Artificial Narrow Intelligence): machines that can achieve amazing feats such as Deep Blue which beat the world chess champion, Garri Kasparov, in 1997, or AlphaGo which defeated the world Go champion, Le Sedol, in 2016, because they were programmed to do nothing else. But humans are good at many things. Specialisation, as anyone who has persisted through a PhD program knows, is a limiting and constraining of natural human intelligence. ‘The overestimation of technology is closely connected with the under-estimation of humans’6. What AGI researchers are running up against is the natural ability of ordinary humans to do many things more or less well, even though they cannot explain how it is they do them, and on the basis of this limited and unthematised knowledge, their related ability to understand people very different from themselves and to con-tinue learning. This requires the ‘tacit knowledge’ Michael Polanyi defined as that human ability to learn something complicated from other human, like swimming or riding a bicycle, without having the faintest idea of exactly how one does it (Polanyi 1966). Tacit knowledge, Fjelland argues, has to do with being embodied and inhabiting a world7. He concludes that ‘Hubert Dreyfus’s arguments against general AI are still valid’8—even some fifty years later! This is because so called ‘general intelligence’ depends upon ‘being-in-the-world’ in Heidegger’s sense of the term, ‘world’ – the ‘referential totality’ [ Verweisungsganze ] which is never an object of knowledge or concern but the horizon of all concerns, plans, tool usages, and knowable objects9. Only the existential embodiment, enculturation, and his-toricity characteristic of Dasein (the mode of being unique to the human being) grants one the capacity to perform the countless tasks and to quickly learn count-less others, which we take for granted in ordinary life.

I would like to speak in this paper about a different feature of human being that continues to elude AI researchers, and which is under-appreciated in the Heideg-gerian account: rationality. Heidegger is involved in a not-so-subtle polemic with the whole Western tradition on its ostensible privileging of the theoretical attitude over practical life. This is not at all irrelevant to the question of the nature of human intelligence, of course, as Dreyfus had made plain. But here I do not want to by-pass human theoretical or objective knowing or cognition, but rather to focus on it for a moment. Human cognition I take to be expressed not in the rule-following or in the exhaustive mapping of probabilities, which computers already exceed us at, but in judgments of facts and decisions about what ought to be done in a particular situation. A first obstacle to be removed in the discussion about whether or not AGI in the strong sense of reduplicating NHI is possible is a persistent impoverished understanding of what we doing when we know anything at all.

Reductionist theories of mind seem to abound in AI circles. Reductionism is hardly a new problem in the history of philosophy. Recall Socrates explaining his early enthusiasm for Greek materialism and his disappointment at discovering that it left the one thing most in need of explanation unexplained, the nature of mind ( Phaedo 95a–100a). He read with interest Anaxagoras’s claim that ‘it is mind that produces order and is the cause of everything’ (97c). He took this to mean that ev-erything was arranged in the way that it was best for it to be, i.e., in Aristotle’s terms, that things are ordered according to final causes. Any sound and valid explanation would articulate the final cause of the explanandum and make it clear why it was the way that it was. Anaxagoras, however, quickly disappointed Socrates by substituting necessary, physical conditions for the existence of mind for sufficient explanations (the recurring eliminative materialist error). Despite a promising start, Anaxagoras proves himself a reductionist:

The reductionist—in the 4th century BC or the 21st century AD—purports to ex-plain the whole in terms of the part. Socrates heads off the error in its inception, and Western thought is in the mainstream free of it until late medieval nominalism appears. Now, or at least until recently, reductionism is mainstream, particularly in the philosophy of mind. Equipped with colourful neuroimaging, we are repeatedly assuming that a necessary condition without which mind cannot perhaps exists, such as the brain, or the nervous system, is also the sufficient condition for its existence10.

In the early days of AI debate, philosophers such as John Searle, among the ana-lysts, and Dreyfus, among the continentalists, tried to show the fallacy involved in the assumption that reproducing and improving on the human capacity to man-age information would also reproduce human consciousness11. While much has happened in computer science since then, not so much, it seems, has happened in the philosophy of mind. Markus Gabriel is busy popularising neglected ar-guments culled from the dusty tomes of the German Idealists to refute the new materialists12. He has good reason to do so: nothing was more evident to Fichte, Schelling, and Hegel, than the irreducibility of mind to its material conditions of operation13. David Chalmers’s much discussed zombie argument repeats in some ways Searle’s Chinese room experiment of the early 80s: a functionalist account of the human difference, which presumes that a machine that passes the Turing test because it acts and responds to questions as humans act and respond, leaves out the very thing in need of explanation, what Chalmers calls ‘the hard problem of consciousness’, i.e., the question why is there subjective experience in the first place14?

The question raised by Dreyfus, Nagel and Searle in the 70s and 80s was the following: Is a human intelligence essentially an information processor? If it is, then we have been already supplanted. My cell phone is a much more efficient processor than my brain, which habitually forgets, misjudges, and sometimes deliberately distorts information—even to itself—for various obscure reasons. But if NHI is not an information processor, then we need to re-open the ques-tion of how to best characterise it15. This is the essential question that must still be addressed as we move forward into the era of machine learning. Like any good question it can be broken down into other, smaller questions. For example, information processing requires the manipulation of signs. At the basic level, every piece of data in a computer can be expressed as some combination of two signs: 0 and 1. But are there other ways of using signs, perhaps more distinctive-ly human, which are not primarily manipulative and pragmatic? Do all animals use signs as stand-ins for objects over which they seek control? Do some ani-mals, human animals most notably, not use signs not only or even primarily as indexicals to facilitate practical activity but also as symbols in a stricter sense of the term, i.e., as mediators of meaning16? This is the question that I asked in Thinking Nature (2019). Drawing on a minority consensus in 20th century theory, with a diversity of representatives in psychology (Jung), the philosophy of science (Cassirer), theology (Tillich) and hermeneutics (Ricœur), I argued for a functional distinction between signs and symbols as key to understanding ‘the human difference’: all symbols are signs but not all signs are symbols. The symbol has a non-indexical function in certain distinctively human forms of discourse. In Thinking Nature my concern was the distinction of NHI from NI. In this essay I wish to look at the distinction in terms of the difference between NHI and AI.

To this end I would like to add the following consideration to the question concerning the human difference. What role does the human being’s always marginalized aesthetic capacities play in NHI? The one thing most paleontol-ogists can agree on is that when the modern human appears on earth some 200,000  years ago, art is left behind, in shattered figurines around their fire pits, and on the walls of caves where they took shelter from the ice age. Is the aesthetic sensibility that makes us so unique among the animal kingdom not more distinctive of our kind of intelligence than the speed with which we solve problems17?

Before we can be clear that we have created artificial intelligence, we need to be clear on what natural intelligence is, and how widely it is distributed among the earth community, and this clarification, the taxonomy of NI, shall be one of the more important tasks of the WGI. By and large the historical discussion of the na-ture of mind has neglected this issue and focussed often exclusively on human intel-ligence or (NHI)18. A brief review of the discussion concerning NHI in late modern philosophy19 reveals a focus on three essential marks of rational intelligence. Any-thing lacking the capacity for all three cannot be considered intelligent in a human way, or in more precise terms, rationally conscious:

1. intentionality

2. rational judgment, including aesthetic judgment

3. moral decision

It would seem that we should attribute some rudimentary form of the first of the three traits to the higher animals, and locate the human difference in the last two. Nothing is more intentional than my cat watching a mouse. Everything about the quality of his attention declares ‘aboutness’ or ‘directedness.’ But by the same token, nothing my cat does would justify me in attributing judgment or decision to him.

Missing from the list of essential marks of properly human consciousness is the concept of ‘care’ or interested and embodied intelligence. It is not clear to me whether this Heideggerian concept, which Dreyfus deployed to refute the very idea of artificial intelligence at MIT in the 70s, is a fourth feature of rational consciousness, or a phenomenologically refined, ‘fore-theoretical’ interpreta-tion of the three. Care, which Heidegger defines as ‘ahead-of-itself-Being-al-ready-in (the world) as Being-alongside entities which we encounter (within-the-world)’20 is a constitutive feature of human being, according to Dreyfus, more essential to us than the capacity to solve problems or process information, and presupposes features, or in Heideggerian language ‘existentials’ machines manifestly lack, notably the embodiment, enculturation (‘thrownness’), and his-toricity already mentioned. For a machine to be intelligent in a human way, it would have to care about its being, which means it would have been gripped by a troubled history with its being; it would have to be interested in its possibili-ties for being, and indeed anxious about its death. Care indicates the existential limitations of human being-in-the-world, its thrownness into being, and its call to take up as ground of its being a ground which it did not lay. It presupposes an environment natural to a human existence, i.e., a world. A machine that cares would be a form of being-in-the-world, like us, not a super intelligence or an abstract bodiless mind.

I would also add that a machine that cares would be a machine that inhabits a world mediated by meaning, i.e., it would be a machine capable not only of sign usage but also of symbolic thought. In Thinking Nature , I drew on Ernst Cassir-er and his student, the now mostly forgotten philosopher of mind, Susanne K. Langer (an important influence on Lonergan’s cognitional theory), to make the case that the human difference consists in the special way that the human animal uses signs, as symbols and not merely indices21. This was not to revive the tired argument that the human difference is just language, for clearly other creatures communicate with signs. My cat meows loudly at noon because he knows that it is time for food. My fifteen-year-old son asks, ‘What’s for dinner?’ every night at 6:30 pm on the same, basically animal impulse, and uses signs, in his case, words, analogously to the way my cat uses its meow. The claim in Thinking Nature was first of all to refute the prejudice that humans alone are communicative or sign users: animals which plainly use signs are also to that degree conscious and in-tentional. Nevertheless, there is a distinctive way that humans use signs, which is at the very core of human culture. If all the higher animals, and perhaps all animals, use signs to communicate with one another, only humans use signs to express meaning , i.e., only humans use signs as symbols— so I argued. With Langer, I follow Cassirer and draw a sharp distinction between signification, which is a direct indexical reference to a present object or state of affairs, and symbolization, which is an indirect reference to an object in absentia via a showing of meaning. Symbolisation is not confined to language but is also pre-eminently at play in ritual and in art. In fact, most of what we do in language is not signifying in the way that the meowing cat can be said to be signifying his hunger22. A meaning or sense is often (though not always) evoked by a symbol for the sake of consid-eration, and not merely as a means to an end. When I symbolize something by means of its associated senses—and connotation is for the most part not univocal but metaphorical and analogical, for symbols are most alive in ambiguity23—I am not seeking to achieve any practical aim in the world, or to evoke a response from the hearer, as I do when I call out someone’s name. Rather I symbolize for the sake of contemplative consideration, or to use the ancient Greek term, theorein . Such forms of communication are examples of what Aristotle calls theoria, attending to an intelligible essence for the sake of knowing it24. On this line, Aristotle’s zoon logon echon , or Cassirer’s animal symbolicum (i.e., ‘thinking nature,’ i.e., not only the nature that is thought but the nature that thinks itself)—human being—is first and foremost contemplative being. Once we have attended to our practical needs—communicatively collaborating with one another for the sake of securing food, shelter, and sexual partners—we have the leisure requisite for contemplating the sense of the things that are. This can happen in a religious way, when I attend a celebration of the Eucharist at my parish church. In can also happen in a high-brow way, when I visit a gallery to look at fine art. But much more commonly, it happens in a low-brow, quotidian way, when, for example, I engage in idle gossip with my partner over breakfast or watch the news after dinner. In each of these instances, religious, aesthetic, quotidian, I am doing something other animals ap-parently do not do (at least there is no evidence for it).

The human contemplative enjoyment of meaning seems to be older than civili-sation. One of the things that distinguishes the remains of the fires around which early humans assembled from the remains of the fires made by their contemporary Neanderthals is that human fires were much deeper and more established, by dis-tinction from the Neanderthal fires which were made quickly, as need required, and abandoned as soon as they were no longer needed. Human fires were in fact, hearths, around which the human tribe lingered after cooking and eating, and to which they returned, year after year, leading some paleontologists to hypothesize that such lingering led naturally to ritual activities, myth making, or even simply casual conversation, i.e., the more sophisticated usage of signs as symbols which gave rise to the higher intelligence of this species descended, among other species such as Homo neanderthalensis , from a common ancestor, Homo erectus 25.

One other example to make it clear that we are not speaking only or even primar-ily about language: the oldest piece of art in the world is the Hohlenstein-Stadel Löwenmensch, a prehistoric ivory sculpture, 31.1 cm tall and 5.6 cm wide, of a fe-male humanoid figure with the head of a lion. Carbon dated to between 35,000 to 40,000 years ago, the Löwenmensch precedes the cave paintings of Lascaux by some 20,000 years. It was made by people who hunted the huge mammals that grazed along the edge of the retreating glaciers in Europe during the last ice age, and shel-tered in caves from the other mammals that preyed upon them. Palaeontologists who re-enacted the production of such a piece of art, making use of the kinds of stone tools available to those who carved the Löwenmensch, found that it took more than 370 hours of delicate, highly skilled work, to complete the task26. Asked why a tribe of humans struggling to stay alive in the last ice age would have allowed one of their members to be exempt from subsistence work to create art to this extent, Jill Cook, Curator of Palaeolithic collections at the British Museum, answered, it was to have one among them express ‘a relationship to things unseen, to the vital forces of nature’ (Cook in MacGregor 2017). Neo-Darwinians will argue that this is an exam-ple of art developing as a form of sympathetic magic on the questionable assump-tion that every human ability must be explained in terms of evolutionary advantage. The palaeolithic artist and his or her tribal patrons, on the neo-Darwinian line, were trying to control their dangerous environment. Ostensibly for the same reason that palaeolithic artists developed the skills needed to produce the exquisite paintings of the Lascaux caves, our Cro-Magnon fore-bearers are assumed to have been simply trying to get an edge on the large mammals competing with them for survival. It is more reasonable to assume that ice age artists were doing the same thing we do when we make art, or make it possible for some of us to develop the skills needed to do so, by subsidising the lives of artists with grants and scholarships: they were, in Langer’s language, ‘symbolically transforming’ their common experience and so el-evating signs, and their minds which depend on them, from the practical and in-

Fig. 1: The Löwenmensch. Prehistoric ivory sculpture. The oldest known uncontested example of figurative art. Carbon dated to 40,000 BC. Discovered in the Hohlen- stein-Stadel cave in 1939. (Source of image: Wikimedia Commons).

70

dexical into the symbolic and the domain of meaning. They were using signs as symbols for the sake of contemplating the meaning of their day-to-day reality, and they were doing it for no other reason than that it pleased them to do so. By contem-plating the metaphysical in the shape of the Löwenmensch, they were also contem-plating themselves, for to think anything symbolically or contemplatively is to also think the thinking that thinks the thing. Indeed, as phenomenologists have been arguing for a century, we only think ourselves thinking by thinking about some-thing27.

Symbolic thought, by distinction from significative thought, is the condition for the possibility of rational consciousness. Consciousness need not be rational, as we see from its instantiation in other animals and in ourselves some of the time; it is often nothing more than a complex response to sensation, and so continuous with the stimulus response found in the simplest living organisms, in plants as well as simple animals. The human difference is something beyond sensitive or ‘empirical consciousness’28. It consists not only in the awareness of sensitive experience and the capacity to imaginatively respond to it, but in the capacity to transcend our sub-jectivity and inquire into, and to some degree understand, the nature of that which we experience. 4. Revisiting the Argument against Functionalism

This capacity for symbolically-mediated objectivity has been repeatedly invoked by philosophers of mind to refute the so-called functionalist argument. Rooted in Alan Turing’s test of the same name, which was designed to prove the indiscernibility of a sufficiently sophisticated mechanical response to a question from a human re-sponse, and the later Wittgenstein’s behaviourism, the functionalist argument holds that for a machine to be considered intelligent it is enough for it to respond and act in the same outwardly observable fashion that a human being responds. The counter argument holds that a generally intelligent machine would need to not only do what humans do, but also do it in the way humans do it. It would need to act for reasons , i.e., its acts would need to be the outcome of judgments and decisions, i.e., the result of a reasoning process, which is oriented to structures of intelligibility that are not reducible to our thinking them. One can memorize mathematical formulae without understanding them. And when one thereby ‘solves’ math problems, one acts in the same way that a machine responds to input on a keyboard. The machine does not understand that 2+3=5; it responds to the input in the way it is determined to respond. An elephant can be trained to use a paint brush and produce abstract pictures that can be sold for a good price on the art market29. But no one seriously believes that the elephant is making art for the same reasons that the human being makes art. Rational consciousness appears to require more than the capacity to re-spond to stimuli; it appears to be more than a mechanical reaction: it judges states of affairs and whenever it does so correctly, it reaches beyond the circumstances and the practical need of the judger. To judge rationally, whether of a matter of fact or of concern, is to transcend need and circumstance and affirm or deny the truth of what is at issue. How exactly humans do this, and why they should have evolved in such a way as to be able to do it, is the theme of Thomas Nagel’s Mind and Cosmos .

According to Nagel, a reductionist theory of evolution, which would explain mind in terms of the evolution of material processes, and so all animal behaviour in terms of naturally selected advantages, cannot make sense of rational judgment. One way the reductionist deals with this problem is by denying the existence of mind alto-gether. Nagel notes that the denial of the existence of mental states was the strategy of 20th century behaviourist philosophers of mind, such as Ryle and Wittgenstein.

The problem with these arguments according to Nagel is that they leave out exactly that which is to be explained, the first-person experience of being a mind, ‘what it is like’ to be conscious of something,

Assuming that denying the existence of mental states and reducing understanding to observable rule following not an adequate strategy for addressing the hard prob-lem of consciousness, Nagel concludes that ‘conscious subjects and their mental lives are inescapable components of reality not describable by the physical scienc-es’32. Along a similar line of argumentation, mental states cannot be held to be iden-tical to the brain states that underlie them. It is conceivable that there could be brain states without any mental states (the hypothesis of Chalmer’s zombie argument)33. Therefore, if there is something called a mental state, it is not identical to a state of the brain or any other material configuration for that matter (for example, the cir-cuitry of a computer); as such it cannot be explained as only a product of material evolution.

Nagel’s main argument, going in exactly the opposite direction of Dreyfus’s de-fence of the human difference on the basis of ‘care,’ zeroes in on the objectivity of judgment, whether epistemic judgments, concerning an objective state of affairs, or moral judgments, concerning right and wrong. Along the materialist neo-Dar-winian line, he notes, a judgment can be nothing more than a strategic, self-inter-ested move by an organism trying to get one up on its competitors in evolution. If this were true, then the history of science, and human morality—indeed, all our cultural achievements, from ancient religion to quantum physics and modern art— would be explicable as naturally-selected products of evolution. The capac-ities for science and art would only have developed in us because they gave us an evolutionary advantage. There would therefore be no sense in speaking about objectivity or truth, then or now, for evolutionary determinism is still driving our minds. As the most recently randomly selected bundle of animal attributes, we contemporary humans only call something true or false because it is in our interest to so call it34. But this would mean that the theory of evolution itself is held to be true, not because it offers us the more coherent and adequate account of the facts of geological time, but because it is in our interest to affirm it as true. Should cre-ationism prove more advantageous (and for a sizeable minority, the jury is still out on this), then creationism shall be justified as true over evolution. A theory is not in our interest because it corresponds to the fact, but because thinking it so gets us one up. Plainly, however, the intention of the scientist who insists on the truth of evolution against his objector, for example, Richard Dawkins debating Rowan Williams at the University of Oxford in 2012, is not to advance his thesis because he believes it to be more advantageous to believe it (although he might also think that), but because he believes it to be true, and the other thesis to be false35. For reasons such as this Nagel argues that any theory of evolution which purports to explain the mental in terms of the physical and to reduce the human difference to a naturally selected evolutionary advantage, commits the ‘functionalist’ fallacy. It collapses the reasons for a judgment into the outwardly performed act of judg-ing. We no doubt developed the capacity to reason in the course of evolution, but reason itself is not a mere expression of natural self-interest. ‘Merely to identify a cause is not to provide a significant explanation, without some understanding of why the cause produces the effect,’ Nagel writes, in effect repeating Socrates’ objec-tion to Anaxagoras36.

Of most interest for the purposes of this paper is Nagel’s distinction between consciousness and reason37. Consciousness in its simplest form might be merely sophisticated stimulus response and so explicable as having evolved because of the natural advantage it gives certain kinds of life over others. But rational intelligence does not merely self-interestedly react to stimuli; rather, it disinterestedly responds to objective truth and value. Indeed, the affirmation of a truth is often not in our individual egoic or group-centred interest, as psychoanalysts have been pointing out for a century. One could by extension imagine that some truths are not in our interest as a species. The capacity to intelligently respond to truth with a reasoned judgment about the state of affairs regardless of what the judger would prefer to believe, cannot be solely determined by evolutionary advantage.

Nagel is hardly the first to draw the distinction between consciousness and rea-son, which can be traced back to Aristotle, and in its Aristotelian registers has been most developed by Lonergan as the difference between empirical and intelligent consciousness39. Nor is Nagel the first to use the distinction to refute a reduction-istic, materialist account of mind. Few remember that Husserl’s phenomenology originated in a debate with what was then called ‘psychologism,’ the reductionist argument, emerging out of late 19th century positivism, that judgments are nothing more than the effect of certain psychological conditions or events. Psychologism amounted to a denial of the validity of logic in Husserl’s view. Logic must to be more than a psychological condition determining how we should judge; Husserl insisted, the validity or invalidity of a judgment must be logically independent of the judgment.

Inspired by Husserl’s argument, and especially that of Husserl’s star student, Emil Lask, Heidegger wrote his doctoral dissertation defending logic against psycholo-gism41. For Heidegger, the undeniable and over-ruling sense of logical validity is a phenomenological indication that judgment transcends the psychological condi-tions that might accompany it42.

The key to the distinction between merely sensitive consciousness and rational consciousness is therefore judgment . All consciousness is intentional, but not all consciousness is or needs to be judgmental. With judgments, either noetic or evalu-ative, we enter what Robert Sokolowski calls ‘the space of reasons’43. For a machine to do most of the things we do, it need not possess rational consciousness. But for a machine to supplant us on the planet, it must possess the power, and assume the risk, of judgment. AI may improve on us with regard to calculative ability and effi-ciency at optimising the conditions of human flourishing, but it will not replace us as the mind of nature, the microcosmic mirror of the whole, so long as it does not possess the capacity to judge and decide. Without symbolic consciousness, which would allow it the distance from its being to make judgments of truth and false-hood, right and wrong, it will be merely a hyper-efficient animal. 5. Conclusion

This, then, is the Holy Grail of AGI research: not only the functional reduplication of the activities which we now associate with NHI, but the design of a machine that will do the things we do in the same way that we do them, albeit with much greater efficiency and evolutionary capacity. The aim of strong AGI is nothing less than the mechanical reduplication of the human difference. The most ambitious and specu-latively inclined AGI researchers are not assuming a weak sense of consciousness such as might be predicated of all beings capable of responding to stimuli, from the sea urchin to the robot, but a strong sense of consciousness, consciousness as the ca-pacity for objective, rational judgment, for knowledge in the full sense of the term— theoria , not just praxis , and poiesis , not just techne : consciousness that can produce imputable judgments, and is capable of speculative and aesthetic contemplation. Regardless of whether or not such a thing proves possible, the aim itself forces phi-losophy to clarify how rational judgment, decision, and contemplative perception distinguish human consciousness from other forms of consciousness.

Until a machine gives us reasons to think that it has attained symbolic conscious-ness and that it now, like us, takes a theoretical interest in questions of truth and falsehood, that it too is sometimes driven by a disinterested desire to know, i.e., to contemplate the meaning of its existence, either aesthetically, philosophically, or religiously, we shall have no reason to recognise it as rationally intelligent, i.e., in-telligent in the human sense of the term. To the question, What would count as evi-dence?, we can only point to those cultural products which most plainly exhibit our contemplative impulse and capacity for symbolic mediation, i.e., to art, philosophy, and religion. A machine that had become artistically expressive, philosophically perplexed, or religious would indeed be worthy of our recognition as rationally in-telligent. Of course it might always be duping us for its own evolutionary advantage. We could never be sure, just as we are never so sure about each other. Bibliography

80

Künstliche Intelligenz im Lichte der Technikphilosophie. Ein Überblick unter besonderer Berücksichtigung des Mensch-Natur-Technik- Verhältnisses

Thomas Heichele Zusammenfassung

Dieser Aufsatz behandelt aus dem Blickwinkel der Technikphilosophie einige philo-sophische Herausforderungen der Künstlichen Intelligenz (KI), wobei ein besonde-rer Fokus auf das Mensch-Natur-Technik-Verhältnis gerichtet wird. In diesem Zu-sammenhang wird zuerst die Technikphilosophie als sinnvoller Ort der Reflexion über KI ausgewiesen, bevor notwendige Begriffsklärungen vorgenommen werden. Daran schließt sich unter besonderer Berücksichtigung der KI eine Analyse der Revolutionen im Mensch-Natur-Technik-Verhältnis an. Den Abschluss bildet die Anwendung klassischer technikphilosophischer Topoi auf die KI. Abstract

This paper addresses from the perspective of the philosophy of technology some philosophical challenges of artificial intelligence (AI), with a particular focus on the relationship between human, nature and technology. The first task is to explain why philosophy of technology is a useful place to reflect on AI, before making some necessary clarifications of terms. This is followed, with special reference on AI, by

81

an analysis of the revolutions in the human-nature-technology relationship. Finally, there is an application of classical topoi of philosophy of technology to AI. 1. (Technik-)Philosophie als sinnvoller Ort der Reflexion über Künstliche Intelligenz

Sowohl die Schaffung von als auch der Umgang mit Künstlicher Intelligenz (KI) verlangt aufgrund der bereits auf den einzelnen Ebenen vorherrschenden und im Zusammenspiel noch einmal verstärkten enormen Komplexität, die über wissen-schaftliche Aspekte hinaus u. a. soziale und psychische Faktoren betrifft, nach in-terdisziplinärer Zusammenarbeit und ist ein multidimensionales Unterfangen, das neben deskriptiven Analysen auch normative Setzungen erfordert1. Bei der Bewältigung dieser Herausforderungen kann und muss die Philosophie als Orien-tierungswissenschaft mit einem (mindestens) dreifachen Anspruch2 eine Schlüs-selrolle spielen3: Als Universalwissenschaft strebt sie ohne Beschränkung auf ein be-stimmtes Gegenstandsgebiet nach universalen Einsichten mit Blick auf das Wahre, das Gute und das Schöne, als Reflexionswissenschaft ist sie die „Anwendung von Vernunft auf ihr eigenes Tun“4 und reflektiert das menschliche Denken und Han-deln (sowie damit auch sich selbst), und als Metawissenschaft umgreift sie die Er-kenntnisse der anderen Disziplinen, setzt diese miteinander in Verbindung und be-leuchtet die grundsätzlichen Voraussetzungen des wissenschaftlichen Weltzugangs.

Angewandt auf die vielfältigen Aufgaben und Schwierigkeiten, vor die KI uns stellt, bedeutet dies u. a., dass es an der Philosophie ist, eine rationale Orientierung zu ermöglichen und beispielsweise wesentliche Beiträge im Kontext von Begriffs-klärungen, ethischen Bewertungen und der Auslotung prinzipieller technischer (Un-)Möglichkeiten zu liefern. Es liegt an ihr, die generelle Bedeutung von KI für den Menschen zu reflektieren, Interdisziplinarität im Rahmen der KI-Forschung sowohl als Ort des Austauschs als auch als treibende Kraft zu fördern und (sowohl wissenschaftsintern als auch wissenschaftsextern für die gesamte Gesellschaft) ein-zelwissenschaftliche KI-Erkenntnisse hinsichtlich einer möglichst vollständigen und konsistenten Gesamtschau einzuordnen. Mit ihrem mannigfaltigen Potenzial ist die Philosophie für die Erforschung der KI nicht nur eine entscheidende Voraus-setzungswissenschaft5 und reflektierende Wissenschaft höherer Ordnung, sondern sie hat auch eine zentrale Rolle beim konkreten wissenschaftlichen Fortschritt inne6.Innerhalb der Philosophie gibt es mit der Technikphilosophie eine Disziplin, die in besonderer Weise für die bestehenden und kommenden Aufgaben einer philosophi-schen Reflexion der Künstlichen Intelligenz prädestiniert ist7. Obschon die intensive Beschäftigung mit Technik seit jeher Bestandteil der Philosophie ist, ist die Technik-philosophie als eigenständige philosophische Subdisziplin erst ein Kind des späten 19. Jahrhunderts8: Als ihre „Gründungsschrift“ wird oft9 Ernst Kapps (1808–1896) 1877 erschienenes Werk „Grundlinien einer Philosophie der Technik“10 herangezo-gen. Nicht zuletzt aufgrund der Tatsache, dass bis heute kein Konsens bezüglich der Explikation des Technikbegriffs besteht11, gibt es keine allgemein anerkannte Grenz-ziehung hinsichtlich des exakten Gegenstandsbereichs und der genauen Aufgabe der Technikphilosophie. Besonders fruchtbar sind Auffassungen, wonach Technikphi-losophie generell die Frage nach dem „Wie“ der Welterschließung behandelt12 bzw. dass es in ihr allgemein um die Wiederholung der gesamten Bandbreite philosophi-scher Fragen unter besonderer Berücksichtigung der Technik13 geht. Dieser Ansatz erfährt eine tiefere Plausibilität, wenn man ‚Technik‘ – dies ist je nach Kontext z. B. auch bei ‚Natur‘ oder ‚Kultur‘ sinnvoll – als Reflexionsbegriff verwendet, durch den bestimmte Hinsichten ermöglicht werden14. Gerade diese Kombination aus thema-tischer Offenheit einerseits und spezifischem Reflexionszugang andererseits macht die Technikphilosophie zu einem idealen – wenngleich natürlich nicht dem einzig sinnvollen – Ort des philosophischen Nachdenkens über KI.

In der Technikphilosophie bestehen – vor dem Hintergrund ihrer Vielfältig-keit und angesichts des spezifischen Reflexionszugangs zu ,klassischen‘ Themen nicht verwunderlich – besondere (und über die in den philosophischen Subdis-ziplinen generell anzutreffenden hinausgehende) Querverbindungen zu anderen philosophischen Subdisziplinen. Dies betrifft u. a. die Anthropologie beim Blick auf den Menschen als herstellendes und Technik verwendendes Wesen und die Ethik im Rahmen der Analyse von Kriterien und Konsequenzen technischen Handelns. Ein starker Bezug zu Erkenntnis- und Wissenschaftstheorie entsteht beispielsweise bei der Beleuchtung des Zusammenhangs von Technik und Wis-sen(-schaft), Metaphysik und Naturphilosophie spielen exemplarisch bei der Frage nach dem Wesen der Technik bzw. bei der Bestimmung des Natur-Tech-nik-Verhältnisses eine wesentliche Rolle. Diese Querverbindungen (und noch viele mehr) treten auch bei der technikphilosophischen Beschäftigung mit KI zutage, wenn es z. B. um die Bedeutung der (Schaffung einer eventuell auch Star-ken) Künstlichen Intelligenz für den Menschen, ethische Aspekte im Umgang mit und bei der Kreierung von Künstlicher Intelligenz, Künstliche Intelligenz in der Wissenschaft, die Frage nach dem ontologischen Status (verschiedener Formen) der KI und die Beziehung zwischen künstlicher und menschlicher bzw. allgemein natürlicher Intelligenz geht. 2. Begriffsklärungen

Vor der Darstellung einzelner klassischer Topoi der Technikphilosophie und der Analyse ihrer Anwendung auf KI sind einige Begriffsklärungen geboten. Eine erste notwendige Differenzierung betrifft unmittelbar den Begriff der KI15: Hier sind (auf der obersten Ebene) vier unterschiedliche KI-Begriffe voneinander zu unterschei-den, die in zwei Begriffspaaren auftauchen – Schwache und Starke KI sowie Spe-zialisierte und Allgemeine KI. Bei der Schwachen KI kommt es lediglich zu einer Simulation des Denkens, ohne dass ein tatsächliches Denken stattfindet16 – dies ist bei Starker KI gegeben: Im Gegensatz zur Schwachen KI verfügt eine Starke KI über Geist bzw. Bewusstsein und ist der Lage, zu denken und zu verstehen. Eine Spe-zialisierte KI ist eine anwendungsbezogene KI, die ausschließlich zur spezifischen Problemlösung wie beispielsweise Bilderkennung, Sprachverarbeitung oder Rou-tenplanung in der Lage ist. Wenngleich sich hier Anwendungsgebiete überschnei-den oder sich auch neue Anwendungsgebiete bei einer bestehenden Spezialisierten KI aufgrund analoger Gebietseigenschaften ergeben können, ist die prinzipielle Be-schränktheit auf einen konkreten Anwendungstyp für die Spezialisierte KI charak-teristisch. Demgegenüber ist diese Bereichsspezifität bei der Allgemeinen KI nicht gegeben: Bei der Allgemeinen KI handelt es sich um eine generalisierte Form der Künstlichen Intelligenz, die z. B. Chataufgaben ebenso beherrscht wie das Schach-spielen, Bilderkennung, Übersetzungen – und die generell über (annähernd) die gleichen beobachtbaren Fähigkeiten verfügt, die der menschliche kognitive Appa-rat zu leisten im Stande ist. Eine Sonderform der Allgemeinen Künstlichen Intelli-genz ist das Konzept einer Superintelligenz, das einem insbesondere in trans- und posthumanistischen Kreisen begegnet17 und das maßgeblich von Irving Goods (1916–2006) 1965 publizierter Vorstellung einer „Ultraintelligenten Maschine“, die die letzte Erfindung sei, die die Menschheit zu machen habe, geprägt ist18. Unter einer Superintelligenz ist dabei grundsätzlich eine Allgemeine Künstliche Intelli-genz gemeint, deren kognitive Leistungen diejenigen der Menschen weit übertrifft. Mit Nick Bostrom, dem wohl führenden Vertreter in der gegenwärtigen Superin-telligenz-Debatte, lassen sich drei (kombinierbare) Formen der Superintelligenz voneinander unterscheiden19: Eine schnelle Superintelligenz überbietet den Men-schen in der Geschwindigkeit der ansonsten dem Menschen äquivalenten kogni-tiven Leistungen, eine kollektive Superintelligenz erreicht die Überlegenheit durch das komplexe Zusammenwirken von einzelnen für sich genommen dem Menschen unterlegenen Systemen, und eine Qualitative Superintelligenz verfügt zusätzlich zu den vom Menschen bekannten Fähigkeiten über völlig neuartige Aspekte der In-telligenz.

Der Großteil der aktuellen KI-Forschung bezieht sich – entgegen dem ursprüng-lichen Ansinnen auf der berühmten, die moderne KI-Forschung unmittelbar ein-leitenden Dartmouth-Konferenz, auf die die Bezeichnung „Künstliche Intelligenz“ zurückgeht und bei der die Allgemeine KI im Fokus stand20 – auf Spezialisierte KI, und alle uns derzeit zur Verfügung stehende KI ist eine spezialisierte und (unseres Wissens nach …) schwach. Schwache und Spezialisierte KI einerseits sowie Starke und Allgemeine KI andererseits bezeichnen häufig denselben Gegenstandsbereich bzw. werden auch synonym verwendet, doch dies ist nicht zwingend. Wenngleich prima facie – in Analogie zum Menschen – (1) die Verbindung von Geist bzw. Be-wusstsein und Allgemeiner KI naheliegt und die uns heute schon großflächig zur Verfügung stehende (2) Spezialisierte KI als schwach angesehen wird, ist prinzipiell auch (3) eine Spezialisierte KI mit Geist bzw. Bewusstsein oder (4) eine Allgemeine KI ohne Geist bzw. Bewusstsein denkbar. Insbesondere (1) und (4) sind angesichts der laufenden und zu erwartenden Entwicklungen ein philosophisch vieldiskutier-tes Thema, das mitten in die Philosophie des Geistes und das sogenannte „schwie-rige Problem des Bewusstseins“21 – die Frage, warum wir Menschen über subjektive Erlebnisgehalte bzw. Qualia verfügen – führt22.

Eine andere notwendige Klärung, die im Vorfeld weiterer Überlegungen vorgenommen werden muss, betrifft den Technik23-Begriff24. Der sprachliche Ausdruck „Technik“ begegnet uns heute im Alltag in unterschiedlichsten Zu-sammenhängen25: Beispielsweise ist die Rede von Sozial- und Kulturtechniken, es werden Managementtechniken beworben, Mnemotechniken sollen dem Ge-dächtnis helfen, Elektrotechnik wird an den Hochschulen studiert, die Technik im Flugzeug muss gewartet werden und die Technik des Sportlers oder Musi-kers wird bewundert. Generell können unter den Begriff ‚Technik‘ „Verfahren/Prozesse als Schemata, Fähigkeiten zur Aktualisierung/Realisierung/,Umset-zung‘ dieser Verfahren, die Aktualisierung dieser Verfahren selbst und schließ-lich die Resultate dieser Aktualisierung“26 fallen, wobei im Rahmen einer ersten Differenzierung eine Unterscheidung zwischen engen, mittleren und weiten Technikbegriffen sinnvoll ist27. Das entscheidende Kriterium der Zuordnung ist hierbei die Antwort auf die Frage, inwieweit (menschliche Handlungs-)Fähig-keiten zusätzlich zu den materiellen Endprodukten zur Technik zählen (sollen). Als Beispiel für einen mittleren Technikbegriff kann Günter Ropohls (1939–2017) Technikkonzeption herangezogen werden, nach der ‚Technik‘ „künstlich gemachte Gegenstände und menschliches Handeln umfasst, aber nur solches Handeln, das es mit Artefakten zu tun hat“28.

‚Technik‘ kann aus einer systematischen Warte29 als das „abgeklärte Ganze der Verfahren und Hilfsmittel des Handelns“30 verstanden werden, wobei diese „Ver-fahren und Hilfsmittel“ – entsprechend einem klassischen Ansatz in der Technik-philosophie seit der Antike31 – bewusst und planvoll eingesetzt werden müssen und keiner Willkürlichkeit unterliegen dürfen. So wird ‚Technik‘ zu einem vielschich-tigen „Inbegriff der Mittel“32 und die engen, mittleren und weiten Technikbegriffe ergeben sich aus der Antwort auf die Frage, was als Mittel angesehen wird33. Mittel erfordern die Bezugnahme auf Ziele bzw. Zwecke34 – und Technik muss in einem weiten Sinne regelgeleitet sein, denn es ist in Abgrenzung von Zufallsprodukten oder Willkürhandlungen eine ihrer charakteristischen Eigenschaften, eine „Zweck-realisation wiederholbar und erwartbar [zu] machen“35. In diesem Kontext ist ein (zumindest teilweises) Antizipieren des Verfüg- und Machbaren zentral und Tech-nik ist – wie von der Antike bis zur Gegenwart betont – in prinzipieller Weise von einem Möglichkeitsraum abhängig36: Die Identifikation der Disponibilität techni-scher Prozesse und Produkte ist eine notwendige Voraussetzung für Technik – und die Charakterisierung der Technik als „Inbegriff der Mittel“ erhält hinsichtlich des Mittelbegriffs eine dahingehende Präzisierung, dass neben aktualen auch potentiel-le Mittel im Fokus liegen müssen.

Technik als (Inbegriff) der Mittel hat die zentrale Eigenschaft eines Mediums37: Technische Formen der aktiven Welterschließung, -gestaltung und -deutung zeich-nen sich dadurch aus, dass kein bezugsunabhängiger objektiver Gegenstand „Welt“ als solcher unmittelbar zugänglich ist, sondern dass die Welt stets vermittelt er-schlossen wird38. Technik schiebt sich gewissermaßen zwischen Subjekt und Ob-jekt, wobei unter die „Objekte“ neben der materiellen Welt auch Ziele epistemischer und praktischer Natur fallen können: Um ein (Handlungs-)Ziel zu erreichen, wird vom (Handlungs-)Subjekt ein (technisches) Mittel verwendet. Eine besonders prä-gnante Darstellung der Technik als etwas Zwischengeschaltetes – in eine sehr ähn-liche Richtung argumentiert Ernst Cassirer (1874–1945) bei seinen Überlegungen zur Technik mit Blick auf den Zusammenhang von Denken und Werkzeug39 – fin-det sich bei Hans Sachsse (1906–1992):

Der für das technische Handeln charakteristische „Umweg“ ist also keine willkür-liche Abkehr vom regulären Weg, sondern sie resultiert (für gewöhnlich) aus der Tatsache, dass das angestrebte Ziel nur auf diese Weise oder zumindest effizienter erreicht werden kann, wodurch der „Umweg“ zu einem „Umzu-Weg“ wird41. Tech-nik ist somit ein Zwischenschalten von Mitteln, das mit Blick auf das Erreichen be-stimmter Ziele der Ermöglichung, Sicherung und Erleichterung eines Handlungs-erfolgs dient. Das Bisherige zusammenfassend kann das Spezifische der Technik im Rahmen folgender pragmatischer Technikexplikation [TE]42 an drei Punkten festgemacht werden43:

[TE-1]Technik ist eine Form des Handelns, bei der Handlungssubjekte bestimmte Mittel zu bestimmten Zielen und Zwecken in Rela-tion setzen. Hierzu müssen mögliche Mittel als solche überhaupt erst erkannt werden.

[TE-2]Das Besondere des technischen Handelns liegt darin, dass das Ziel bzw. der Zweck nicht unmittelbar angegangen wird, son-dern ein strategisch bedingter Umweg eingeschlagen wird, der letztlich das Erreichen des Ziels überhaupt erst ermöglicht oder zumindest effizienter erreichen lässt. Der Umweg wird so oft zum einzig möglichen „Umzu“-Weg.

[TE-3]Der Erfolg technischen Handelns muss dahingehend transpa-rent sein, dass die Gründe des Gelingens nachvollziehbar sind. Dadurch entstehen Wiederholbarkeit und Planbarkeit44.

Dieser Technikbegriff ist in Übereinstimmung mit antiken (und immer noch vie-len gegenwärtigen) Vorstellungen ein weiter, der Technik insbesondere als Mittel bzw. Medium versteht, wobei unter die (potentiellen) Mittel – das Gleiche gilt für Artefakte als Produkte der Handlungen – nicht nur materiale Dinge fallen, sondern auch intellektuale und soziale45. Damit können schließlich drei Formen der Tech-nik voneinander unterschieden werden: (1)  Realtechnik, (2)  Intellektualtechnik und (3) Sozialtechnik46. Unter Realtechnik wird dabei – mit Friedrich von Gottl-Ottlilienfeld (1868–1958) – „ein Eingriff […] in die sinnfällige Außenwelt, ob nun organischer oder anorganischer Natur“47 verstanden, Intellektualtechnik ist „ein Eingriff […] in eine intellektuelle Sachlage […]; so, daß z. B. alle Methodologie, aber auch die Technik […] des Rechnens hierher gehört“48, und Sozialtechnik meint einen „Eingriff […] in die Beziehungen zwischen den Handelnden; wie z. B. bei der Technik des Kampfes, des Erwerbes, bei Rhetorik und Pädagogik, bei der Technik des Regierens und Verwaltens“49.

Die Anmerkungen zum Naturbegriff sollen an dieser Stelle kurz ausfallen50: Er wird im Folgenden vorwiegend als Reflexionsbegriff genutzt, wobei unter ‚Natur‘ – mit deutlichen Anleihen an die aristotelische Tradition51 – derjenige Bereich der Welt verstanden wird, der hinsichtlich seines Entstehens sowie mit Blick auf seine (konkret: naturgesetzliche) Daseins-, (Wechsel-)Wirkungs- und Entwicklungsform unabhängig vom reflektierenden Eingreifen52 ist bzw. sein kann53. Die sich daraus ergebende Opposition zum Technikbegriff54 ist dabei in erster Linie der reflexiven Funktion geschuldet: Die aristotelische Fundamentalunterscheidung zwischen Technik und Natur in einem ontologischen Sinne wird an dieser Stelle explizit zu-rückgewiesen55: So bestimmt die Natur mit ihren Gesetzen nicht nur – wie (zumin-dest, sofern man von einer Fokussierung auf die Naturgesetze absieht) auch von Aristoteles erkannt – den Möglichkeitsraum für Technik, sondern Technik unter-liegt z. B. selbstverständlich auch den Naturgesetzen und diese werden – zumindest vielfach – explizit genutzt.

Mit diesen Vorarbeiten kann auch der Begriff der KI noch einmal präzisiert werden. Hierzu wird als Grundlage auf den Systembegriff rekurriert, wobei Sys-temen u.  a. die Eigenschaften ‚künstlich‘ und ‚intelligent‘ zukommen können. Unter einem System ist dabei in erster Näherung schlicht eine geordnete, aus einzelnen in bestimmten Relationen zueinanderstehenden Elementen zusam-mengesetzte Ganzheit, die von ihrer Umwelt (trotz möglicher Wechselwirkun-gen) abgrenzbar ist und sich von dieser u. a. hinsichtlich der Komplexität unter-scheidet, zu verstehen56. ‚Künstlich‘ sind nun solche Systeme, deren Entstehung, Bestehen und Entwicklung sich einem technischen Eingreifen verdanken, und mit Blick auf ‚Intelligenz‘ gilt im Einklang mit Klaus Mainzers Arbeitsdefinition im Folgenden:

Mit ‚KI‘ ist also vor diesem Hintergrund – mit den bereits genannten Möglichkei-ten der weiteren Differenzierung – in Abgrenzung zur natürlichen (z. B. mensch-lichen) Intelligenz ein technisch hergestelltes System, das eigenständig und effizient Probleme lösen kann, gemeint. Wenngleich diese Explikation keine Aus-sagen über den geplanten Weg derartiger Systemrealisierungen macht, ist in der Praxis – und das gilt auch für die folgenden Ausführungen – typischerweise der Informatik-lastige Ansatz einer (im weiten Sinne) Computer- bzw. Roboterintel-ligenz gemeint58. Die schon auf einer ganz basalen Ebene (prinzipielle) potentielle multiple Realisierbarkeit der KI wird – mit Blick auf die öffentlichkeitswirksamen KI-Debatten – am ehesten im Zusammenhang mit Superintelligenz diskutiert59. 3. KI und die Revolutionen im Mensch-Natur-Technik- Verhältnis Die Menschheitsgeschichte ist geprägt von einer Vielzahl von Revolutionen, die das Mensch-Natur-Technik-Verhältnis betreffen60: Eine genauere Analyse dieser Revolutionen macht dabei deutlich, wie sehr Neubetrachtungen und Innovationen der Technik – im eben explizierten weiten Sinn – unsere Stammes- und Kulturge-schichte beeinfluss(t)en61. Vor ca. 40.000 Jahren begann mit der jungpaläolithischen Revolution die kulturelle Evolution: Durch rasante Fortschritte in (der Interaktion von) verschiedenen Bereichen der Real-, Intellektual- und Sozialtechnik  – z.  B. Werkzeuge und Waffen, Musikinstrumente und Kunstwerke – und ihre Tradierung kam es zu einer (partiellen) Abkopplung der kulturellen62 Evolution von der bio-logischen Evolution, aus der eine rapide Änderung der Lebensumstände resultierte, die vor ca. 12.000 Jahren in die neolithische Revolution mit Ackerbau und Vieh-zucht und dem Übergang vom Nomadentum zur Sesshaftwerdung mündete.

Vor ca. 2.500 Jahren kam es mit dem Beginn der Philosophie bzw. (Proto-)Wis-senschaft zu einer intellektuellen Revolution, die u. a. das systematische Reflektie-ren des Spannungsverhältnisses von Mensch, Natur und Technik beinhaltete, wobei insbesondere unter dem maßgeblichen Einfluss von Aristoteles Technik tendenziell als etwas der Natur Entgegengesetzes und qualitativ Minderwertiges betrachtet wurde63. Eine weitere intellektuelle Revolution lässt sich in der Renaissance und mit dem Beginn der neuzeitlichen Philosophie sowie dem (damit zusammenhängen-den) Aufkommen der neuzeitlichen (Natur-)Wissenschaft vor ca. 500 Jahren kons-tatieren: Weitergehende Reflexionen über die Beziehung von Mensch, Natur und Technik führten – u. a. festzustellen bei Cusanus (1401–1464), Leonardo da Vinci (1452–1519) und Galileo Galilei (1564–1642) – zu der Auffassung, dass Mensch, Natur und Technik (zumindest in vielerlei Hinsicht) denselben Gesetzen unter-worfen sind. Nicht zuletzt daraus erwuchs ein enormer Technikoptimismus, wie er beispielsweise bei Francis Bacon (1561–1626) anzutreffen und für die Neuzeit über weite Strecken typisch ist: Der Mensch kann und soll Technik nutzen, um das Leben zu verbessern und Wissen zu generieren.

Mitte des 18. Jahrhunderts begann die erste von – bis heute – vier Industriellen Revolutionen, die jeweils vor dem Hintergrund technischer Neuerungen für große gesellschaftliche, wissenschaftliche und ökologische Umwälzungen sorgten64. Die Erste Industrielle Revolution (ca. 1760–1840) ist u. a. mit der Spinnmaschine und dem mechanischen Webstuhl, sowie mit der Dampfmaschine und der Eisenbahn verbunden, die Zweite Industrielle Revolution (ca.  1870–1930) mit der Elektro-technik und der Fließbandproduktion. Hier wurde der Übergang von der mechani-schen Produktion zur Massenproduktion ermöglicht. Die Erste Digitale Revolution läutete (ab den 1960ern) die Dritte Industrielle Revolution ein, die u. a. von der zeitlichen Abfolge Großrechner, PC und Internet geprägt war – dies bedeutete bei-spielsweise eine Automatisierung der Produktion durch Informationstechnologie. In der Vierten Industriellen Revolution – beziehungsweise Zweiten Digitalen Re-volution – (seit den späten 2010ern) kam es schließlich durch mobiles Internet, KI und eine generelle digitale Vernetzung u. a. zu einer selbstorganisierten Produktion, die auch unter dem Namen „Industrie 4.0“ bekannt ist.

Als Ergebnis dieser Revolutionen ist eine Welt entstanden, in der sowohl der Mensch als auch die gesamte Natur weitgehend technisch überformt sind. Von der öffentlichen Infrastruktur bis zum Haushalt, in der Arbeitszeit wie in der Freizeit – der Mensch und seine unmittelbare Lebenswirklichkeit sind von den verschiede-nen Formen der Technik geprägt. Dabei wird das Fortschreiten der Digitalen Re-volution – insbesondere in Form von KI und (damit eng zusammenhängend) Big Data – in naher Zukunft zu längst angelaufenen fundamentalen Transformationen in u. a. Alltag, Wirtschaft, Politik, Wissenschaft und Kultur führen65. Die techni-schen Handlungen des Menschen haben durch ihre Eingriffe in die Natur dabei in einem solchen Maße zu teilweise unumkehrbaren Veränderungen mit Blick auf bio-logische, geologische und atmosphärische Entwicklungen geführt, dass wir heute mit dem Anthropozän in einer neuen geochronologischen Epoche leben, die den Interventionen des Menschen geschuldet ist66.

Bei einer genaueren Betrachtung wird deutlich, dass in der Ersten und Zweiten Industriellen Revolution vorwiegend eine Automatisierung der Realtechnik statt-fand, in der Dritten und Vierten bzw. in der Digitalen Revolution zunehmend eine Automatisierung der Intellektual- und (gerade in der Vierten Industriellen bzw. Zweiten Digitalen Revolution, z. B. hinsichtlich diverser politischer oder öko-nomischer Manipulationsverfahren im Kontext von Big Data) Sozialtechnik. Die gegenwärtig primär durchgeführten KI-Bestrebungen als Computer- bzw. Roboter-intelligenz sind ein Streben nach einer maschinell ausgelagerten Automatisierung der Intelligenz, die ihrerseits eine (vormals nur natürlich vorkommende) Form der Intellektualtechnik ist. 4. Klassische technikphilosophische Topoi mit KI-Relevanz

Die Liste klassischer Topoi, die das philosophische Reflektieren der Technik (meist schon) seit den Anfängen in der Antike maßgeblich bestimmen und für KI relevant sind, ist lang67. Die folgenden Anmerkungen befassen sich schwer-punktmäßig mit einer kleinen Auswahl derjenigen, die das Mensch-Natur-Tech-nik-Verhältnis betreffen  – müssen jedoch an dieser Stelle aus Platzgründen in einem sehr kursorischen Rahmen verbleiben. Einige der Topoi korrespondieren unmittelbar mit den drei großen Zielen [KIZ], die die derzeitige KI-Forschung auszeichnen68.

[KIZ-1]Konkrete Problemlösung mit Hilfe Spezieller KI,

[KIZ-2]Verbesserung des Verständnisses menschlicher Intelligenz bzw. allgemein menschlicher Kognition,

[KIZ-3]Schaffung einer Allgemeinen KI in Anlehnung an den Men-schen als Universalisten.

So steht beispielsweise für [KIZ-1] u. a. der Topos der Überwindung menschlicher Unzulänglichkeiten durch Technik und der der Naturbeherrschung durch Tech-nik, für [KIZ-2] der einer wechselseitigen Erkenntnisfunktion von Mensch, Natur und Technik und für [KIZ-3] der der technischen Nachahmung der Natur bzw. des Menschen als zweite Natur Pate. Diese sowie weitere Topoi werden im Folgenden etwas ausführlicher beleuchtet.

Das vielleicht wirkmächtigste und prominenteste  – und in diesem Aufsatz auch am ausführlichsten behandelte  – Paradigma bei der Bestimmung des Mensch-Natur-Technik-Verhältnisses ist die von der Antike bis zur Gegenwart (in oftmals spezifischen Kontexten und nur auf bestimmte Hinsichten abzielen-de) vertretene Auffassung, wonach Technik eine vom Menschen durchgeführte Nachahmung bzw. Imitation ist. Ein solcher Ansatz findet sich – mit teilweise sehr unterschiedlichen Detailausarbeitungen – u. a. bei Aristoteles, Hugo v. St. Viktor (1097–1141), Cusanus, Leonardo da Vinci, Francis Bacon, Ernst Kapp und Arnold Gehlen69. Eine wichtige systematische Differenzierung ergibt sich, wenn man analysiert, was genau Gegenstand der Nachahmung oder Imitation ist bzw. sein soll: Hier stößt man auf funktionelle und strukturelle Analogien70. Funktionsanalogien liegen dann vor, wenn die Natur hinsichtlich einer konkre-ten Funktion bzw. eines bestimmten Ziels [TE-1] als Vorbild für die Technik dient, Strukturanalogien, wenn auch der zur Zielerreichung gegangene (Umzu-)Weg [TE-2] von der Natur inspiriert ist71. Die rationale Nachvollziehbarkeit der Technik bzw. die Legitimation ihres Einsatzes zur Zielerreichung [TE-3] grün-det bei Funktionsanalogien (v. a. in der Frühphase der technischen Forschung) auf dem Verweis auf das durch die erfolgte (Natur-)Realisation erwiesenerma-ßen prinzipiell Mögliche, bei den Strukturanalogien auf der Referenz auf den (in einem nicht intentional zu verstehenden) erfolgreich gegangenen Weg der Natur zu dieser Zielerreichung. Ein klassisches Beispiel einer starken Natur-nachahmung durch Technik, die nicht nur mit Funktions-, sondern auch mit Strukturanalogien arbeitet, ist die auf Leonardo da Vinci zurückgehende72 Bio-nik73: Eine direkte Entsprechung in der KI-Forschung sind (sehr energieeffizi-ente) neuromorphe Computersysteme, die sich unmittelbar am (menschlichen) biologischen Gehirn orientieren74.

Der Topos der Naturnachahmung bzw. -imitation ist für das Streben nach KI prägend: Auf einer sehr allgemeinen Ebene kann die von der Natur hervorge-brachte Intelligenz (grundsätzlich sowohl beim Menschen als auch bei nicht-menschlichen Tieren) – oder in einem weiteren Verständnis allgemein bestimmte natürliche kognitive Fähigkeiten – als Vorbild für die KI-Forschung angesehen werden, wobei hier eine generelle Funktionsanalogie vorliegt. Strukturanalogien tauchen dann in vielfältigen Varianten auf, wenn ein Blick auf die konkreten Ver-suche der Realisation von KI geworfen wird. Das wohl offensichtlichste Beispiel sind die u. a. im Machine Learning eingesetzten Künstlichen Neuronalen Netze (KNN)75. Diese sind eine (abstrakte) Nachahmung natürlicher neuronaler Netze, wie sie beispielsweise im menschlichen Gehirn vorzufinden sind76. Dabei spielt konkret u. a. die aus den Neurowissenschaften bekannte und nach ihrem Ent-decker Donald O. Hebb (1904–1985) benannte Hebbsche Lernregel eine wichtige Rolle, die die synaptische Plastizität des Gehirns beschreibt: Lernprozesse gehen mit einer Stärkung der synaptischen Übertragung zwischen in diesem Zusam-menhang besonders relevanten Neuronen(verbänden) einher. Eine weitere Struk-turanalogie wird deutlich, wenn man z. B. das Reinforcement Learning als eine der Methoden des Machine Learning betrachtet. Dieses Verstärkungslernen hat seinen Ursprung in der Psychologie bzw. Verhaltensbiologie und wird dort mit Blick auf Konditionierung behandelt.

Weitere Beispiele für die strukturelle Imitation sind u. a. bei der Zusammen-führung von KI und Robotik auszumachen: Hier stehen beispielsweise Erkennt-nisse aus der Evolutionsbiologie und Entwicklungspsychologie Pate und die aus der Philosophie des Geistes und der Kognitionswissenschaft bekannte These, wonach sich die menschliche Kognition (inkl. Bewusstsein) sowohl phyloge-netisch als auch ontogenetisch maßgeblich vor dem Hintergrund der Wechsel-wirkung von Gehirn, Körper und (Um-)Welt entwickelt (hat) – „Developmental Robotics“, „Evolutionary Robotics“ und „Embodied Embedded Cogniton“ sind an der Stelle nur einige wesentliche Schlagworte77. Bei den – auch in diesem Zu-sammenhang durchgeführten – Überlegungen und Bestrebungen, eine Starke KI – also eine KI mit Geist bzw. Bewusstsein – zu schaffen, handelt es sich prin-zipiell um eine Naturnachahmung im Sinne einer Funktionsanalogie, die aller-dings vielfach – z. B. im Falle des Rückgriffs auf (im weiten Sinne) evolutions-biologische Erkenntnisse – auch Strukturanalogien als zielführend beinhalten78. Generell ist – wie bereits kurz angeklungen – die als „Leib-Seele-Problem“ be-kannte Frage nach der Entstehung des Bewusstseins bzw. die nach dem Zusam-menhang von Körper und Geist oder Physischem und Mentalem, die beispiels-weise Qualia und Intentionalität betrifft, trotz aller Fortschritte in den (u. a.) Neurowissenschaften und der Philosophie des Geistes79 nach wie vor ungeklärt und stellt die (neben der Entstehung des Universums) wohl größte epistemische Herausforderung der Menschheit dar80: Sämtliche gängigen Positionen in der Philosophie des Geistes – beispielsweise von Dualismus und Identitätstheorie über Funktionalismus bis hin zum nichtreduktiven Materialismus und Panpsy-chismus81 – haben mit (teilweise großen) Schwierigkeiten zu kämpfen, sind aber (mit mehr oder weniger umfangreichen Ad-hoc-Annahmen) gleichzeitig mit den Erkenntnissen der empirisch arbeitenden Neuro- und Kognitionswissen-schaften kompatibel82 – und sind a priori offen für eine Starke KI. Argumente für oder gegen die prinzipielle Möglichkeit einer KI mit Bewusstsein werden im Kontext bestimmter Annahmen geführt und sind nicht automatisch an eine spezifische Position in der Philosophie des Geistes gekoppelt. Prima facie liegen u. a. zwei – sich auf den ersten Blick möglicherweise widersprechende – Grund-überlegungen nahe:

1. Eine (auch unter Berücksichtigung anderer Disziplinen die KI-Forschung letztlich maßgeblich bestimmende) informatische Zugangsweise kann den Phänomenen des Bewusstseins nicht gerecht werden, da hier bereits aus begrifflichen und systemgesetzlichen Gründen die subjektive Innen-perspektive mentaler Zustände ausgeblendet wird.

2. Da die Natur eine „starke“ natürliche Intelligenz – sprich Bewusstsein – hervorgebracht hat, muss eine (technische) Wiederholung bei entspre-chender Strukturgleichheit prinzipiell möglich sein.

Eine voneinander unabhängige (aber kombinierbare und an einigen Stellen auch verwandte) Auflösung dieses vermeintlichen Widerspruchs ergibt sich u. a., wenn die Grundbausteine der Welt – und damit auch die der Systeme der Informatik – um eine qualitative Geist-Komponente als Innenseite sämtlicher natürlicher Entitäten erweitert werden83, oder der Fokus auf emergentistische84Selbstorganisationsprozesse komplexer Systeme gerichtet wird85, wobei hier ein Verstehen im strengen Sinn nicht gegeben (und je nach Konzeption auch gar nicht möglich) ist und ein alle Details kennender Konstrukteur einer Starken KI nicht benötigt würde: Nicht nur in diesem Fall86 gerät die Klassifikation einer unter diesen Bedingungen entstandenen Starken KI als Technik ins Wanken87, da hier der für Technik elementare Aspekt der rationalen Nachvollziehbarkeit [TE-3] nicht mehr gegeben ist88.

Generell gibt es angesichts des bis heute ungelösten Leib-Seele-Problems und unserer damit zusammenhängenden Unkenntnis bezüglich der Entstehung des Bewusstseins im Zusammenhang mit einer Starken KI folgende Möglichkeiten [KIB]:

[KIB-1] Wir leugnen die Möglichkeit der Entstehung einer Starken KI, diese ist aber möglich. Dabei kann es sein, dass wir mit unseren techni-schen Verfahren

(a) dennoch keine Starke KI kreieren (können),

(b) eine Starke KI kreieren und dies nicht merken.

[KIB-2] Wir sehen eine Starke KI als möglich an und sie ist es auch. Dabei kann es sein, dass wir mit unseren technischen Verfahren

(a) tatsächlich eine Starke KI kreieren und diese auch als solche erkennen,

(b) eine Starke KI kreieren und dies nicht merken,

(c) keine Starke KI kreieren und dies auch so sehen,

(d) keine Starke KI kreieren, aber annehmen, wir hätten es getan.

[KIB-3] Wir leugnen die Möglichkeit der Entstehung einer Starken KI und haben recht.

[KIB-4] Wir sehen eine Starke KI als möglich an, aber sie ist es nicht. Dabei kann es sein, dass wir mit unseren technischen Verfahren

(a) nichts kreieren, das wir als Starke KI ansehen,

(b) etwas kreieren, das wir fälschlicherweise als Starke KI ansehen.Philosophisch (sowie z. B. auch gesellschaftlich) problematisch sind die Fälle, in denen wir falsch liegen: [KIB-1] (b), [KIB-2] (b) und (d) sowie [KIB-4] (b), wobei [KIB-1] (b) und [KIB-2] (b) potentiell sehr gefährlich werden können89. Bis heute gibt es keine zufriedenstellende Antwort auf die Frage, welche (konkreten) Kriterien hinsichtlich der Zuschreibung von Bewusstsein bei einer (dann) Starken KI gelten sollen90. Dieses Problemfeld ist eng zusammenhängend mit dem aus der Erkennt-nistheorie und der Philosophie des Geistes bekannten sogenannten „Problem des Fremdpsychischen“91: Letztlich hat ein jeder von uns nur auf sein eigenes (Selbst-)Bewusstsein direkten epistemischen Zugriff und wir wissen streng genommen nur von uns selbst, dass wir uns in bestimmten mentalen Zuständen befinden. Mit Blick auf die anderen (Menschen, aber auch viele nicht-menschliche Lebewesen) lässt sich unmittelbar nur sagen, dass sie vor dem Hintergrund einer Extrapolation der eigenen Erste-Person-Perspektive ein (auch und gerade sprachliches) Als-ob-Ver-halten an den Tag legen: Sie verhalten sich so, als ob sie Schmerzen haben, glück-lich sind, an den letzten Urlaub denken, usw. Daraus schließen wir, dass auch sie sich in den verschiedensten mentalen Zuständen befinden – gestützt von weiteren Analogieschlüssen, die sich insbesondere auf evolutionär entstandene und klas-sischerweise primär physiologische strukturelle Ähnlichkeiten zwischen uns und den anderen beziehen. Der Weg, vor diesem Hintergrund angesichts der (im weiten Sinne) systemtheoretisch begründbaren Plausibilität einer (relativen) Substratun-abhängigkeit und multiplen Realisierbarkeit vieler mentaler Phänomene92 eventuell eines Tages93 in vergleichbaren Fällen (als nicht notwendige, aber zumindest hin-reichende Bedingung) bei künstlichen Systemen Bewusstsein zu unterstellen und eine Starke KI zu konstatieren, ist nicht weit – und es bräuchte besondere Gründe, diese zu negieren.

Ein weiterer klassischer und mit der Imitationsthese eng verbundener technik-philosophischer Topos ist der einer – im Idealfall nicht nur einfachen, sondern doppelten bzw. – wechselseitigen Erkenntnisfunktion im Verhältnis von Mensch, Natur und Technik94. Dieser ist u. a. bei Leonardo, Kapp und Cassirer anzutreffen. Hinsichtlich der KI ist jener Topos, dem die insbesondere in der Neuzeit gewach-sene Erkenntnis einer basalen Strukturgleichheit der verschiedenen Gegenstands-bereiche zugrunde liegt, u. a. – siehe [KIZ-2] – im Kontext der wechselseitigen Befruchtung von Kognitionswissenschaft und KI-Forschung festzustellen95. Die Entstehung beider läuft (in ihren modernen Ausprägungen) ab Mitte des 20. Jahr-hunderts zeitgleich und mit starken Zusammenhängen ab, wobei insbesondere die Zuwendung zum (in der heutigen Philosophie des Geistes stark kritisierten) Funktionalismus, der nach den erkenntnistheoretischen und metaphysischen Be-schneidungen im Behaviorismus und in der Identitätstheorie den Geist wieder wissenschaftlich salonfähig machte, eine wichtige Rolle spielt. Ebenso sind beide (Meta-)Disziplinen interdisziplinär ausgerichtet, wobei jede der jeweils anderen eine besondere Beachtung schenkt sowie u. a. (mit jeweils unterschiedlichen Ge-wichtungen) Erkenntnisse aus – in alphabetischer Reihenfolge – Anthropologie, Informatik, Linguistik, Neurowissenschaft, Philosophie und Psychologie berück-sichtigt. Der gemeinsame Ausgangspunkt war das Ziel einer „Berechnung“ ko-gnitiver Prozesse  – in der Frühphase primär verstanden als symbolische Infor-mationsverarbeitung. Einerseits zeigte sich dabei beim Versuch, Intelligenz bzw. allgemein Kognition künstlich zu realisieren, die Notwendigkeit, bei der Erfor-schung menschlicher bzw. allgemein natürlicher kognitiver Phänomene begrifflich und logisch noch präziser zu argumentieren als bisher. Andererseits machte die immer genauere Analyse menschlicher Kognition deutlich, dass zu reduktionisti-sche Ansätze der KI-Forschung der Vielschichtigkeit der menschlichen Kognition nicht gerecht werden können. Diese Einsichten führten in der Folgezeit zu ähn-lichen Entwicklungen auf beiden Gebieten: Tendenziell ist eine Verschiebung von Top-down-Ansätzen einer starken computational-repräsentationalen Symbolver-arbeitung hin zu einem Bottom-up-Ansatz einer dynamischen Selbstorganisation festzustellen.

Die notwendigen technikphilosophischen Reflexionen von KI unter Rückgriff auf bereits bestehende Problemstellungen – teilweise auch unter explizitem Bezug auf das Mensch-Natur-Technik-Verhältnis, gehen noch weit über das bis jetzt Gesagte hinaus: Weitere KI-relevante klassische Topoi96 behandeln u. a. den Menschen als Mängelwesen, die menschliche Beherrschung der Natur durch Technik, die Ent-fremdung bzw. Loslösung von der Natur, die Gefahr, dass Technik nicht mehr als solche erkannt wird, die Abgabe von Verantwortung sowie drohende Autonomie-verluste, die (sowohl gewollten als auch ungewollten) Erziehungsfunktionen der Technik, die Globalität und Irreversibilität (mancher) technischer Entwicklungen sowie den Symbolgehalt der Technik. Literatur

110

Künstliche Intelligenz im Anthropozän? Aber natürlich!

Uwe Voigt Zusammenfassung

Dieser Beitrag versucht, die Begriffe der Intelligenz, der Technik, der Künstlichen Intelligenz, des Anthropozäns und der Natur so zu klären, dass dies ihren wechsel-seitigen Zusammenhang erhellt. Intelligenz stellt sich dabei als die Fähigkeit dar, die Grenzen des eigenen Denkens als Probleme zu erkennen, was ein qualitatives und reflexives Problembewusstsein einschließt. Technik entspringt diesem Prob-lembewusstsein und besteht in dem Versuch, Probleme zu lösen, um bestimmte gesetzte Zwecke zu erreichen. Künstliche Intelligenz ist demnach in Technik bereits inhärent, wird aber neuerdings als solche thematisiert. Dies gehört schon zum Pro-blemkomplex des Anthropozäns als technischer Überformung der Umwelt auf die-sem Planeten, was wiederum die Frage nach der Natur aufwirft, die hier relational verstanden wird als Wechselbezug möglicher subjektiver Standpunkte. Dies führt zu folgendem Ergebnis: „Natürlich“ kann Künstliche Intelligenz sein, insofern sie sich in einen derartigen Wechselbezug einzufügen vermag, was im Anthropozän auch geraten zu sein scheint. Abstract

This paper tries to clarify the concepts of intelligence, technology, artificial intelli-gence, the Anthropocene and nature so that their mutual interconnection is eluci-dated. In doing so, intelligence is understood as the ability to grasp the borders of one’s own thinking as problems, which includes being qualitatively and reflective-ly aware of these problems. Technology stems from this awareness and consists in

111

the attempt to solve problems in order to reach certain set goals. That means that artificial intelligence is already inherent in technology, although it has been high-lighted as such only recently. This already belongs to the complex problem of the Anthropocene, which is the technological trans-formation of the environment on this planet. That trans-formation, in turn, raises the question of nature, which here is taken to be relational, as an interconnection of possible subjective points of view. This leads to the following result: Artificial intelligence can be “natural” insofar it can integrate itself into such an interconnection, which also seems to be advisable in the Anthropocene. 1. Einleitung

Der Titel dieses Beitrags stellt eine beabsichtigte Provokation dar, denn er stellt zu-sammen, was allem Anschein nach nicht zusammengehört: Wie kann Künstliche Intelligenz natürlich sein? Und kann sie das überhaupt? Ist Künstliche Intelligenz als ein technisches Produkt nicht etwas, das gar nicht natürlich sein kann? Und ist aus eben diesem Grund die Rede vom Natürlichen gerade im Anthropozän nicht obsolet, da wir es in jener Epoche mit einer zutiefst von technischen Einflüssen ge-prägten Umwelt zu tun haben? Das „aber“ erhebt allerdings den Anspruch, dass all dies nichtsdestotrotz zusammengestellt, ja sogar zusammengedacht werden kann. Ist dieser Anspruch berechtigt, und wenn ja, wie kann er dies sein?

Jene Frage soll in diesem Beitrag durch eine Betrachtung der betreffenden Be-griffe und ihrer wechselseitigen Zusammenhänge geklärt werden, was zugleich auch den weiteren Aufbau vorgibt. Dabei wird gar nicht erst versucht, jeweils den einschlägigen Begriff zu formulieren. Es wird vielmehr jeweils das Angebot eines solchen Begriffs gemacht, wenngleich verbunden mit der Hoffnung, dass sich da-mit erfassen lässt, was wir unter dem jeweils Gemeinten verstehen. Dieses Angebot kann hier schon allein aus Raumgründen nur skizzenhaft präsentiert werden.

Den Anfang macht dabei ein Begriff der Intelligenz, da er für das Verständnis einiger anderer Begriffe wichtig ist: für einen Begriff der Technik, die sich als eine bestimmte Anwendung von Intelligenz zeigen wird; damit auch für einen Begriff der Künstlichen Intelligenz, die wiederum auf einer derartigen Anwendung be-ruht, sowie für einen Begriff des Anthropozäns als technischer Überformung der Umwelt auf diesem Planeten. Die weitere Frage, ob und wie eine technisch über-

112

formte Umwelt im Allgemeinen und insbesondere Künstliche Intelligenz als ein Teil davon zugleich auch natürlich sein kann, führt dann zu einer Untersuchung des Begriffs des Natürlichen. Diese Untersuchung stellt sich der Herausforderung, dass der Begriff des Natürlichen mit dem hinter ihm stehenden Begriff der Natur notorisch problematisch zu sein scheint, und begegnet dieser Herausforderung, indem sie aus jenem Begriff einen reflexionslogischen Kern herauszuschälen ver-sucht, wonach das Natürliche dasjenige ist, das wir benennen können, ohne es da-für beschreiben zu müssen. Am Schluss steht dann ein Plädoyer dafür, dass Künst-liche Intelligenz im Anthropozän als etwas Natürliches begriffen werden kann und aus Gründen, die sich noch zu erweisen haben, auch als etwas Natürliches ange-strebt werden sollte. 2. Ein Begriff der Intelligenz

Obwohl das Begriffswort „Intelligenz“ häufig inflationär und dabei ohne klar fass-lichen begrifflichen Gehalt verwendet wird, scheint es dennoch erstaunlich einfach zu sein anzugeben, worin dieser begriffliche Gehalt besteht, wenn jenes Wort (oder eines seiner Synonyme) in terminologischer Weise angewendet wird: Dann ist un-ter Intelligenz nach einem verbreiteten Konsens die Fähigkeit zu verstehen, sich an Umweltmöglichkeiten auf bestmögliche Weise anzupassen1. Aber eben dieser scheinbar einfache Zugang zeigt bei näherem Hinsehen, warum es in der Rede von Intelligenz so leicht zu begrifflicher Konfusion kommen kann: Wessen Fähigkeit und damit wessen Umwelt ist hier gemeint? Ist etwa bereits Wasser intelligent, wenn es sich Wege durch eine Landschaft bahnt und sich damit an die gegebenen Mög-lichkeiten dazu anpasst, diese Landschaft auf schnellstmögliche Weise zu verlassen? Gibt es eine Intelligenz der Gefühle („emotional intelligence“), die von derjenigen der Gedanken wesentlich verschieden ist? Und worin bestehen jeweils – oder gar allgemein – die Kriterien der Bewertung, die hier für die Weise der Anpassung vor-zunehmen ist? Wäre es etwa allzu zynisch zu behaupten, das Aussterben einer Spe-zies sei immer noch die bestmögliche Weise der Anpassung an eine Umwelt, in der die Angehörigen jener Spezies nur ein leiderfülltes Leben hätten führen können? Jener Begriff der Intelligenz bedarf offenbar dringend einer Erläuterung.

Eine solche, für den gegebenen Anlass weiterführende Erläuterung findet sich in der Wissenschaftslehre Johann Gottlieb Fichtes2. Fichte denkt sich hier unter dem Titel des Ichs eine endliche Instanz, die Bewusstseinsinhalte hervorbringt und zu-gleich deren Träger ist. Ohne auf sich selbst zu reflektieren, würde das Ich einfach damit fortfahren, eben dies zu tun, Bewusstseinsinhalte hervorzubringen und sie für sich bewusst zu haben, und in diesem Sinne ein Handeln zu begehen, das in präreflexivem Denken besteht3, wenn es nicht auf einen auf seinem Weg liegenden Widerstand (auf transkribiertem Griechisch: ein pro-blêma ) stieße, an der sich jene Tätigkeit bricht. Dieser Widerstand besteht darin, dass das Ich auf einen Bewusst-seinsinhalt stößt, der ihm als etwas begegnet, das nicht von jenem Ich hervorge-bracht worden ist. Etwas wird als etwas gedacht, was selbst nicht durch das Denken hervorgebracht worden ist. Das Denken stößt damit an eine Grenze – es denkt seine eigene Grenze – und wird dadurch auf sich selbst zurückgeworfen, wird reflexiv. Das Bewusstsein wird dadurch gleichsam in einem zu einem Selbstbewusstsein und einem Problembewusstsein: Ich bin auf ein Problem gestoßen; ich bin auf ein Prob-lem gestoßen. Ein Problem ist dabei etwas, auf das das Ich sich beziehen kann und bei dem sich zugleich die Frage stellt, wie es sich darauf beziehen kann und wie es sich darauf beziehen soll. Ein dergestalt reflexiv und selbstreflexiv, zugleich aber auch intentional gewordenes4, auf eine von ihm unterschiedene Welt und damit im heutigen Sinne Umwelt bezogene Ich bezeichnet Fichte als Intelligenz5. Er ver-wendet diesen Ausdruck demnach als Bezeichnung des Trägers einer Eigenschaft, wie wir es heute auch und gerade im Fall der „Künstlichen Intelligenzen“ tun. Umso weniger stellt diese semantische Nuance ein Hindernis dafür dar, hier eine nähere Bestimmung auch des üblichen Verständnisses von Intelligenz als einer Eigenschaft zu erkennen: Intelligenz ist der erfolgreiche Umgang eines Ichs oder, dem heutigen Diskurs angemessen, eines Subjekts mit einem Problem im angegebenen Sinn, wo-bei sich die Maßstäbe des Erfolgs aus dem Denken eben jenes Subjekts selbst zu er-geben haben. Wie Uwe Meixner geltend macht6, gibt es Intelligenz in diesem Sinne nur bei einem und für ein Subjekt, nur als „Bewusstseinsintelligenz“, wobei unter Bewusstsein der Umstand zu verstehen ist, dass es etwas gibt, das für dieses Sub-jekt als solches gegeben ist; dass es sich, wiederum modern gesprochen, für dieses Subjekt auf eine bestimmte Weise anfühlt, eben jenes Subjekt zu sein. Dementspre-chend versteht Fichte unter elementaren Problemen in diesem Sinne einfache Er-lebnisqualitäten (in neuerer Diktion: Qualia), an denen sich das Denken bricht, weil es sie so denken kann, dass es sie nicht hervorgebracht hat und auch nicht weiter zu analysieren vermag7. So verstandene Intelligenz hängt daher begrifflich mit der Fähigkeit zu qualitativem, ästhetischem Empfinden zusammen, was die Neigung dazu begründet, nichtmenschliche Wesen wie Androiden8 oder Bären9 ebenfalls als intelligent zu erachten, wenn ihnen diese Empfindungsfähigkeit zukommt.

Qualia als nicht weiter analysierbar zu denken bedeutet zugleich, sie als einfach zu denken, was Fichte mit dem Bild des geometrischen Punkts veranschaulicht. Damit lassen sich die von diesen Qualia ausgemachten Probleme auch quantifizie-ren, stellen sich als ein Problem unter vielen anderen dar. Mit Peirce lässt sich hier noch einen Schritt weitergehen10: Gerade aufgrund ihrer Einfachheit und damit ihrer Quantifizierbarkeit fungieren Punkte als Grenzen und damit als Verbindun-gen zwischen komplexen geometrischen Gebilden. Dementsprechend lassen sich auch komplexe Probleme beziehungsweise Problemkomplexe so auffassen, dass sie auf Zusammenhängen und Übergängen beruhen, die einen qualitativen Charakter haben, so dass Intelligenz im Umgang mit ihnen und damit auch zwischen ihnen, gleichsam „zwischen den Zeilen“11, immer auch darauf beruht, dieses qualitativen Charakters inne werden zu können. Auch als problembezogenes Denken verstan-den ist Intelligenz deshalb mit ästhetischem Empfinden verbunden. Dieses Emp-finden verleiht den Problemen, um die es dabei jeweils geht, eine Relevanz, die sie gleichsam aus dem Hintergrundrauschen hervorhebt, und dem Subjekt, das mit ih-nen konfrontiert ist, eine Motivation dazu, mit jenen Problemen umzugehen.

Der hier angebotene Intelligenzbegriff lässt sich so zusammenfassen: Intelligenz ist die Fähigkeit dazu, die Grenzen des eigenen Denkens als Probleme zu erkennen, was auch ein qualitatives Bewusstsein von diesen Problemen einschließt, und sich auf dieser Grundlage sowohl auf jene Probleme als auch auf sich selbst als denkende Instanz zu beziehen. 3. Ein Begriff der Technik

Hier wird der von Thomas Heichele im Anschluss an Ernst Cassirer und Hans Sachsse erarbeitete Technikbegriff12 herangezogen, und zwar nicht nur, weil er sehr klar dargelegt ist, sondern auch und gerade, weil er bestens zu dem gerade angedeuteten Verständnis von Intelligenz passt. Jenem Begriff zufolge lässt sich Technik nämlich primär als eine bestimmte Art und Weise intelligenten Han-delns auffassen, genauer: als eine bestimmte Art und Weise, wie intelligentes Handeln mit sich selbst und seinen Problemen umgeht. Intelligentes Handeln richtet sich wie gesehen auf sich selbst und auf seine Probleme, wobei es durch seine Probleme auf sich selbst verwiesen wird, ist also reflexiv und intentional in einem. Der technische Umgang derartigen Handelns mit sich selbst und sei-nen Problemen besteht darin, diesen Bezug zu sich selbst und zu seinen Prob-lemen als eine Zweck-Mittel-Relation zu begreifen, wobei der Zweck nicht im Handeln selbst und erst recht nicht in seinen Problemen gesehen wird, sondern in etwas, was gleichsam hinter den Problemen liegt. Denn die Probleme erschei-nen hier als Hindernisse auf dem Weg zu einem Ziel, auf welches das Handeln gerichtet ist. Ist ein Problem mit Fichte veranschaulicht ein Punkt, an dem sich die fortlaufende Linie des präreflexiven Handelns bricht, dann ist das Ziel (der Zweck) ein weiterer Punkt, der hinter jenem ersten Punkt, dem Problem, liegt. Das intelligente Subjekt hat sich für sein Handeln eben jenes Ziel gesetzt, an das es aber aufgrund des Problems nicht gelangen kann, und sucht daher einen Weg, das Problem zu lösen. Wie Heichele ausführt, ist dieser Weg also zugleich ein Umweg und ein Um-zu-Weg. Das erste Mittel, zu dem das Handeln dabei greift, ist es selbst, beziehungsweise versteht es sich als ein Mittel, um weitere Mittel zu finden, die zum Erreichen des Zwecks führen. Der Zweck kann aber nur erreicht werden, wenn das Problem gelöst wird; solches Handeln stellt also problemlösendes Denken par excellence dar13. Es richtet sich aus den genannten Gründen nicht unmittelbar auf seinen Zweck, sondern auf das zu lösende Pro-blem. Die Mittel, die es dabei anwendet, um das Problem zu lösen und dadurch seinen Zweck zu erreichen, nennen wir für gewöhnlich ebenfalls Technik. Intel-ligentes Handeln als problemlösendes Denken vollzieht sich über derartige Mit-tel. Das intelligente Handeln setzt sich dabei selbst als ein Mittel ein, es nimmt also ebenfalls technischen Charakter an. In diesem Sinne bringt Technik stets auch künstliche Intelligenz mit sich: eine Intelligenz, die sich selbst technischen Charakter verleiht und dadurch einer bestimmten technê , einer Kunstfertigkeit, dient. Dies wird besonders in der sogenannten Intellektualtechnik deutlich, bei der das problemlösende Denken versucht, Probleme seiner eigenen Verfahrens-weisen auf eine technische Weise (beispielsweise durch kontrollierte Anwen-dung einer formalisierten Logik) zu lösen.

Technik steht in einem ambivalenten Verhältnis zu den endlichen intelligenten Subjekten, die sie betreiben: Als endliche Subjekte können sie einerseits kaum um-hin, zumindest einige Probleme technisch anzugehen und sich dadurch von ihnen zu entlasten14. Andererseits droht diese Entlastung gerade die zentralen Elemen-te derartiger Subjektivität zu untergraben: Je erfolgreicher Technik verfährt, desto mehr maskiert sie das Problem, zu dessen Lösung sie eingesetzt wird, und nimmt dadurch ihrem Subjekt auch den von diesem Problem gebotenen Anlass, sich seiner selbst reflexiv bewusst zu werden. Ist dieses Subjekt präreflexiv, solange es nicht durch Probleme zur Reflexion herausgefordert wird, kann es gleichsam in einen postreflexiven Zustand übergehen, wenn es mit Technik Probleme löst, ohne ihrer als solcher gewahr zu werden. Fiktive Szenarien, wie sie in der Populärkultur schon seit längerem und neuerdings markant in den Filmen der Terminator- und Matrix-Reihen entfaltet werden, lassen sich vor diesem Hintergrund als populärkultureller Reflex und damit als eine im Medialen steckengebliebene Reflexion auf die dro-hende Auslöschung oder zumindest Unterjochung endlicher (in diesen Fällen v. a. menschlicher) Subjektivität durch die von ihr eingesetzte Technik betrachten15.

Diese Drohung verschärft sich durch eine bestimmte Erscheinungsform von Technik16: Klassische Technik passt sich dem Problem an, zu dessen Lösung sie eingesetzt wird, und gestaltet sich dadurch jeweils auf eine spezifische, dem ge-setzten Zweck und dem jeweiligen Problem angemessene Weise; sie ist, im Sinne dieser Angemessenheit und dadurch zumindest erstrebten Entsprechung, analog. Dadurch zerfällt klassische Technik zugleich in eine Mannigfaltigkeit unterschied-licher Techniken, je nach den jeweils gesetzten Zwecken und den sich ihnen ent-gegenstellenden Problemen. Die Fülle der Techniken kann nun ihrerseits zu einem Problem werden, für das es wiederum eine technische Lösung zu geben scheint: die Entwicklung einer einzigen, einheitlichen Technik. Diese Technik passt sich nicht dem gegebenen Zweck und dem begegnenden Problem an; vielmehr passt sie diese umgekehrt an sich an, macht sie möglichst unabhängig vom jeweiligen Bereich zu Gegenständen, die sie verarbeiten kann. Die Möglichkeit einer derartigen Technik gründet bereits in der Quantifizierung, die das Problembewusstsein vornimmt: Bei all ihrem je unterschiedlichen qualitativen Charakter begreift dieses Bewusstsein seine Probleme jeweils als verschiedene Einheiten. Der Ansatz der einen, einheitli-chen Technik kann von daher darin bestehen, jene Einheiten als bloße Quantitäten zu verarbeiten, die an Fingern (Lateinisch: digiti ) abgezählt werden könnten. Diese Technik lässt sich daher in einem weiten Sinn als digital bezeichnen. An der Schwel-le zum 20. Jahrhundert hat sie einen großen Aufschwung nicht zuletzt dank der intellektualtechnischen Fortschritte auf dem Gebiet der Logik erfahren, auf dem es damals gelang, Quantität auf streng formalem Weg darzustellen17.

Gerade indem sie selbst zum Problem wird, kann Technik jedoch auch zur Selbst-reflexion beitragen. Diese Selbstreflexion kann sich von den Polen des Subjekts und des durch Technik zu lösenden Problems her ergeben: vom Subjekt her, indem es sich seine gerade aufgezeigte ambivalente Beziehung zur Technik bewusstmacht, und vom Problem her, indem folgendem Zusammenhang Aufmerksamkeit zuteil-wird: Technik richtet sich nicht unmittelbar auf den zu erreichenden Zweck, son-dern auf ein Problem, das die Erreichung dieses Zwecks verhindert. Dadurch wird für die Technik die Bearbeitung jenes Problems selbst zu einem Zweck. Wie auch immer das Problem bearbeitet wird, richtet sich Technik als eine bestimmte Form intelligenten Handelns dabei immer auch auf dasjenige, womit das Problem zu-sammenhängt, und verändert auch diese Zusammenhänge, indem es das Problem bearbeitet18. Technik wird daher immer von Nebenwirkungen19 begleitet, die in der Verfolgung des jeweiligen Zwecks und der Bearbeitung eines damit verbundenen Problems nicht intendiert gewesen sind. Je mächtiger die jeweils eingesetzte Tech-nik ist, desto gravierender können jene Nebenwirkungen werden. Auch die dro-hende Verselbstständigung von Technik gegenüber dem Subjekt, das sie betrieben hat, lässt sich als eine derartige Nebenwirkung verstehen, bei der sich der Zusam-menhang zwischen Problem und Technik gegenüber demjenigen zwischen Technik und Subjekt als mächtiger erweist. Die Nebenwirkungen der Technik, die uns in Umweltfragen begegnen, tragen jedenfalls zur kritischen Reflexion über Technik in unserer Zeit bei. 4. Ein Begriff der Künstlichen Intelligenz

Dass Technik zumindest implizit immer auch schon in gewisser Weise Künstliche Intelligenz bedeutet, haben wir schon gesehen. Mitte des 20. Jahrhunderts expli-zierte sich dieser Zusammenhang, und zwar zunächst auf eine beiläufig wirkende Weise, indem der Ausdruck „artificial intelligence“ als ein „Schlagwort im Drit-telmittelantrag“ für eine einschlägige Konferenz geprägt wurde20. Gemeint ist mit diesem Ausdruck und seinem deutschen Synonym „Künstliche Intelligenz“ jeden-falls ein sich technischer Einwirkung verdankendes Produkt, dessen Aktivitäten intelligentem Handeln entsprechen. Hierbei ergeben sich folgende Möglichkeiten: Die Aktivitäten jenes Produkts entsprechen entweder deshalb intelligentem Han-deln, weil sie selbst Aktivitäten einer Intelligenz im oben angegebenen Sinne sind, also eines problembewussten Subjekts; dann ist von einer starken Künstlichen In-telligenz die Rede. Oder diese Aktivitäten entsprechen zwar intelligentem Handeln, sind aber selbst keine Aktivitäten einer derartigen Intelligenz; das fragliche Produkt agiert nur so, als ob es selbst intelligent wäre, ohne es aber zu sein. Dies ist das Charakteristikum einer schwachen Künstlichen Intelligenz. Ferner ist es denkbar, dass Künstliche Intelligenz Probleme beliebiger Art lösen kann und damit gleich-sam die Vollendung der digitalen Technik im oben angegebenen Sinn bedeutet. In einem solchen Fall hätten wir es mit einer allgemeinen Künstlichen Intelligenz zu tun21. Alternativ dazu kann Künstliche Intelligenz ausschließlich dazu in der Lage sein, nur Probleme bestimmter Art zu lösen. Dies ist dann eine spezialisierte Künst-liche Intelligenz, gleichsam in der Tradition der analogen Technik, auch wenn jene Künstliche Intelligenz mit „digitalen“ Mitteln herbeigeführt worden sein sollte. Die-se Art Künstlicher Intelligenz ist es, die heute vielfach zum Einsatz kommt. Die Fragen, ob und wie starke Künstliche Intelligenz sowie allgemeine Künstliche Intel-ligenz möglich ist, bleiben notorisch offen. Nach den hier angestellten Überlegun-gen und angesichts der von Dietrich Dörner22, Sean McGrath23 und Uwe Meixner24vorgebrachten Argumente darf allerdings zum einen angenommen werden, dass starke Künstliche Intelligenz nur auf einem Bewusstsein beruhen kann, das Quali-täten zu erfahren vermag und sich dadurch als Problembewusstsein zu gestalten vermag. Zum anderen legt dies nahe, dass eine allgemeine Künstliche Intelligenz zugleich auch eine starke Künstliche Intelligenz sein müsste, da das allgemeine Er-kennen und entsprechende Bearbeiten von Problemen beliebiger Art offenbar auf einem Bewusstsein für diese Probleme und die von ihnen gebildeten Komplexe zu gründen hat. Eine mit phänomenalem Bewusstsein verbundene, gleichsam um es herum zentrierte starke Künstliche Intelligenz könnte auch von den von Sebastian Rosengrün zu Recht erhobenen metaphysischen Problemen verschont bleiben25, die mit einer abstrakten und zugleich bewusstseinsfernen Konzeption Künstlicher Intelligenz verbunden sind.

Ein vielbeachteter Ausdruck der Reflexion auf Technik, wozu der Begriff der Künstlichen Intelligenz verstärkten Anlass bietet, ist die Benennung der erdge-schichtlichen Situation, in der wir uns befinden, als Anthropozän26. Zwar scheint hier zunächst nur von einem „neuen Zeitalter des Menschen“ die Rede zu sein. Doch äußert sich jenes „neue Zeitalter“ in den Auswirkungen, die das technische Handeln des Menschen in dessen Umwelt hinterlässt. Diese Auswirkungen sind nicht nur empirisch gut belegt; sie übertreffen in vielen Fällen sogar alle anderen Einflussfaktoren. Die technischen Mittel, die dies zustande bringen, manifestie-ren sich dabei selbst in jener Umwelt, ja verschmelzen geradezu mit ihr, wie dies Jens Soentgen exemplarisch in seiner Studie gezeigt hat, der zufolge sich der für viele Gewässer mit ähnlichem Schicksal stehende Fluss Lech in einen Cyborg, ein Mischwesen mit technischer Infrastruktur, verwandelt hat27. Als ein derartiges Mischwesen entfaltet der Lech, wie Soentgen zeigt, allerdings auch Aktivitäten, die bei den menschlichen Eingriffen, die ihn geprägt haben, gar nicht beabsichtigt waren; und auch dabei steht er als ein Teil für ein Ganzes, eine planetare Umwelt, die sich aufgrund der Auswirkungen menschlicher Technik allem Anschein nach zunehmend destabilisiert, wofür die zahlreichen „jockey sticks“ sprechen, expo-nentiell anwachsende Messwertkurven, in denen sich jene Auswirkungen wider-spiegeln. Technik wird dabei so sehr zum prägenden Faktor, dass ein eher räumlich orientierter Parallelbegriff zum Zeitraum des Anthropozäns trefflich als derjenige der Technosphäre geprägt worden ist28: das komplexe System, das von der Technik gebildet wird, und das sich zunehmend auch ohne Rücksicht auf menschliche In-teressen selbst organisiert, weil es insbesondere auf den Nebenfolgen der Technik beruht. Wenn sich die davon betroffene Biosphäre selbst als ein Erdsystem auffas-sen lässt, das organischen Charakter hat und von dem Naturwissenschaftler James Lovelock als „Gaia“ bezeichnet wurde29, dann erleben wir gerade, wie Gaia von der Technosphäre durchdrungen und assimiliert wird – wie sich auch hier, im plane-taren Maßstab, ein Cyborg formiert, der zunehmend Eigenaktivitäten entfaltet30. Diese Eigenaktivitäten richten sich nach den Zwecken jener Entität und haben es dabei mit entsprechenden Problemen zu tun, wobei nicht gewährleistet ist, dass diese Zwecke auch unsere Zwecke sind und dass zumindest einige unserer Zwecke nicht auch zu jenen Problemen zählen könnten.

Das Anthropozän lässt sich von daher als die technische Überformung der Umwelt auf diesem Planeten verstehen, und zwar in einem dreifachen Sinn: Es ist eine technische Überformung, ein von Technik hervorgerufenen Vorgang; es ist zudem eine technische Über formung : das hier Geformte nimmt selbst die Form von Technik an; und es ist schließlich auch eine technische Über formung, die sich an Zwecken und Problemen orientiert, die nicht mehr diejenigen de-rer sind, es zumindest nicht sein müssen, deren technischer Eingriff zu jener Situation geführt hat. Was diese Situation weiter kompliziert, ist der Umstand, dass sie, wie jeder Problemzusammenhang, von einer bestimmten qualitati-ven Beschaffenheit ist, es sich also auf eine bestimmte Weise anfühlt, in ihr zu sein. Angesichts vielfältiger Phänomene auf unterschiedlichen Ebenen von der individuellen Erfahrung bis hin zu internationalen Entwicklungen lassen den Verdacht zu, dass es sich dabei um eine Atmosphäre des logischen Narzissmus handelt – der Identifikation der betroffenen Subjekte mit dem Standpunkt, den sie jeweils einnehmen, und dem damit verbundenen zwanghaften Festhalten an jenem Standpunkt31. In einer derartigen Atmosphäre kann sich eine „Ökologie der Angst“ verbreiten32, die menschliche wie nichtmenschliche Subjekte in eine unfreiwillige Gemeinschaft der Leidenden zusammenzwingt33.

Aufgrund der Maßstäbe, die diese Situation einnimmt, lässt sie sich von menschlicher Warte aus zwar einerseits umreißen, wie es hier gerade geschieht, und andererseits in einer Fülle von Messungen erfassen, worum sich empirische Wissenschaften bemühen. Für die Verquickung zwischen empirischen Aspekten und qualitativen Gehalten in jener Situation spricht zudem, dass die Lage im An-thropozän zunehmend auch zum Untersuchungsgegenstand von Geistes- und Kulturwissenschaften wird, den Environmental Humanities34, die sich dem kul-turellen Reflex von Umweltbedingungen widmen35. In einer solchen auf vielfa-che Weise komplexen Situation benötigen wir offenbar jede Art von Intelligenz, die uns beim Erfassen und Bewältigen der entsprechenden Problemlagen helfen kann, und daher ebenfalls Künstliche Intelligenz, die dank ihrer überragenden Fähigkeit zur Datenverarbeitung sogar das Mittel der Wahl im Anthropozän zu sein scheint36. Darüber hinaus könnte sich Künstliche Intelligenz in ihrer Ver-bindung mit weiteren technischen Mitteln als ein mächtiger Akteur erweisen, der uns angesichts der mit dem Anthropozän verbundenen Problemen zur Hilfe kommt, ja jene Situation eventuell sogar zugunsten eines neuen, von freundlichen Cyborgs gestalteten Erdzeitalters zu einem glücklichen Ende gelangen lässt37. Doch gibt es nach den gerade angestellten Überlegungen Grund dazu, an diesem zunächst tröstlich wirkenden Szenario von James Lovelock zu zweifeln: Wie je-des andere technische Produkt, so ist auch Künstliche Intelligenz selbst Teil der Technosphäre und damit Teil des Problemzusammenhangs, mit dem wir es hier zu tun haben. Auch wenn das technisch überformte Erdsystem sich nicht zuletzt kraft der daran beteiligten Künstlichen Intelligenz wie ein intelligentes Subjekt verhalten sollte, ist nicht gesagt, dass dieses Verhalten unseren Zwecken dient und unsere Probleme löst38.

Künstliche Intelligenz im Anthropozän lässt demnach den hier vorgelegten Be-griff der Technik zu einem Problembegriff werden: zum Begriff eines Problems, auf das wir als endliche Subjekte stoßen, auch weil es sich auf eine gewisse Weise an-fühlt, sich in einer derartigen Situation zu befinden. Da der Begriff der Künstlichen Intelligenz demjenigen der Technik ohnehin implizit innewohnt, wird dadurch Technik im Anthropozän insgesamt zu einem Problem für endliche, menschliche Intelligenz. Wie eingangs angedeutet, könnte ein Begriff der Natur in dieser proble-matischen Situation weiterhelfen, was nun zu zeigen ist.

Subjekte im Anthropozän stehen also vor der Herausforderung, sich mit ihrem je eigenen Standpunkt auseinanderzusetzen, und dies in einer Umwelt, die so stark technisch überformt ist, dass sich die Frage stellt, ob diese Umwelt noch dem Begriff der Natur genügt, ja sogar, ob dieser Begriff überhaupt (noch) brauchbar ist39. Da-mit schließt sich ein begriffsgeschichtlicher Kreis (und eröffnet, wie das üblich ist, sogleich einen neuen, weitergespannten), da in der abendländischen Tradition die Arbeit am Naturbegriff immer schon der Bestimmung des Standpunkts der Subjek-te dient, die sie leisten. Diese Arbeit vollzieht sich in drei Schritten, die hier in einer verallgemeinernden Weiterführung von Einteilungen dargestellt werden, die sich bei Elisabeth List im Anschluss an Serge Moscovici40 und bei Jens Soentgen im An-schluss an Gregor Schiemann41 finden. Jene Schritte führen von einem intrinsischen über einen extrinsischen hin zu einem relationalen Naturbegriff.

Die abendländische Arbeit am Naturbegriff beginnt aus gutem Grund in der Frühzeit der griechischen Philosophie, die sich mit der Erfahrung einer großen Fülle von Standpunkten konfrontiert sah: schon innerhalb der griechischen Stadt-staaten mit ihren vielfältigen politischen und kulturellen Verfasstheiten und erst recht im Kontakt mit unterschiedlichen Hochkulturen42. Angesichts dessen stellte sich die Frage, wie sich inmitten dieser Mannigfaltigkeit eine begründende und zu-gleich begründende Rede (ein Logos) rechtfertigen ließe43. Ein Versuch, diese Frage zu beantworten, besteht darin, etwas zu finden, worauf von jedem Standpunkt aus jeweils der gleiche Bezug möglich ist. Was dabei gefunden wird, ist dasjenige, was allem Anschein nach jedem Standpunkt gleichsam zuwächst, weil es sich allent-halben von selbst entfaltet: die Natur44. Dieser Begriff wird dabei auf eine zweifache Weise erläutert45: vom Umfang her als Inbegriff der vertrauten natürlichen Arten, vom Inhalt her auf klassische Weise bei Aristoteles als Inbegriff all dessen, was das Prinzip seiner Bewegung und seines Ruhens in sich selbst trägt. Mit der so verstan-denen Natur sind wir von unseren jeweiligen Standpunkten her vertraut, sofern wir selbst zum Natürlichen gehören, und können daher das Natürliche mit geläufigen Namen belegen, auch wenn wir uns dabei gelegentlich berichtigen (lassen) müssen. Auf Natur beziehen wir uns daher gleichsam von innen. Subjektivität wird dabei als etwas verstanden, was mit Natürlichen eng verflochten ist, wie es die aristotelische Formel von der Seele als der Form eines natürlichen, organischen Körpers zum Ausdruck bringt. Die Plausibilität dieses Naturbegriffs beruht darauf, dass er sich vom Standpunkt der endlichen, menschlichen Subjektivität aus anbietet, die sich ja aus sich selbst heraus entfaltet und sich dabei als in einer Welt sich ebenfalls, wenn auch gelegentlich auf anderer Weisen, entfaltender Wesenheiten beheima-tet erfährt. Der intrinsische Naturbegriff ist daher sowohl anthropozentrisch (von einem menschlichen Standpunkt aus gedacht) als auch anthropomorph (nach Maß-gabe menschlicher Standpunkthaftigkeit gedacht). Wie sich das Subjekt auf seinem Standpunkt als eine Einheit denkt, so denkt es mit dem intrinsischen Naturbegriff auch das Natürliche als eine Menge von Gegenständen. Im Lichte dieses Naturbe-griffs erscheint die Welt als ein Kosmos, als eine schöne hierarchische Ordnung aus einzelnen Dingen, die sich kraft ihrer inneren Prinzipien (ihrer „Naturen“) darin einfügen46.

Dieser Naturbegriff hat sich als äußerst einflussreich erwiesen; er wirkt bis in unsere heutige Rede von echter, unverfälschter Natur, von Wildnis, hinein47. Dieser Naturbegriff ist es auch, der das Technische und damit auch Künstliche Intelligenz scharf vom Natürlichen abzugrenzen scheint, insofern das Technische das Prinzip seiner Bewegung und seines Ruhens eben nicht in sich selbst trägt, sondern von außen aufgeprägt erhalten hat.

Allerdings steht der intrinsische Naturbegriff vor einer Herausforderung: Mit ihm wird Natur gedacht als eine Mannigfaltigkeit möglicher Standpunkte von Sub-jektivität. Von welchem Standpunkt aus geschieht dies eigentlich, von was für einem Standpunkt aus wäre so etwas überhaupt möglich? Offenbar wird in diesem Denken doch ein Standpunkt gegenüber der Natur bezogen, jedenfalls gegenüber dem, was als Bewegtes und Ruhendes unter jenen Begriff fällt. Diese Herausforderung wurde bereits in der frühen griechischen Philosophie durch die Eleaten scharf formuliert. Aristoteles versuchte, ihr dadurch zu begegnen, dass er zwar die Seele als Trägerin von Subjektivität als Form mit ihrem Körper verbindet, ihr aber im Fall des Men-schen als einem denkenden Wesen noch einen diese Denkfähigkeit stiftenden Teil zuschreibt, den Geist ( nous ), der „von draußen kommt“, der die Natur eben deshalb auf den Begriff bringen kann, weil er ihr nicht (ganz) angehört48.

Was mit diesem Geist gemeint ist, daran hat sich die aristotelische Tradition und mit ihr die Hauptströmung der Arbeit am intrinsischen Naturbegriff abgearbeitet und auch darüber ist sie in der frühen Neuzeit in eine Krise geraten49. In dieser Krise macht René Descartes gleichsam aus der Not eine Tugend, indem er das Ver-hältnis zwischen Subjekt und Natur neu bestimmt50: Natur ist auch für Descartes ein Bezugspunkt für Subjektivität. Nur denkt er sich Subjektivität nun nicht mehr inmitten des Natürlichen, sondern, kraft des von ihm angewandten methodischen Zweifels, streng ihm gegenüber. Subjektivität kann sich auf Natürliches beziehen, da sie Begriffe in sich vorfindet, mit denen sich dessen Bewegungen und Ruhezustände denken lassen, allen voran den Begriff der Ausdehnung; und Natürliches kann sich auf Subjektivität beziehen lassen, da es unter diese Begriffe fällt. Das Gegenüber von Subjektivität und Natur wird von Descartes auf eine bekannte Formel gebracht: diejenige des Gegensatzes zwischen dem Subjekt als denkendem Ding, das nicht ausgedehnt ist, und dem Natürlichen als ausgedehntem Ding, das nicht denkt. Da hierbei das Natürliche unter allgemeine Begriffe fällt, die sich mit mathematischer Präzision denken lassen, ist es als ein Bereich strenger Gesetzmäßigkeit zu verste-hen, die sich mit Hilfe jener Begriffe formulieren lässt – als das Reich, in dem die Naturgesetze gelten. Diesem Bereich steht Subjektivität gegenüber, indem sie sich in freier Selbstreflexion auf ihr eigenes Wesen, das Denken, und das Wesen des von ihr gedachten Natürlichen besinnt. Damit ist vom Standpunkt der Subjektivität aus gesehen ein extrinsischer Naturbegriff gewonnen: Das Natürliche ist demgemäß zum einen dasjenige, was dem Subjekt gegenüber äußerlich ist, und zum anderen dasjenige, was auch in sich selbst als Mannigfaltigkeit von Äußerlichkeiten begrif-fen werden kann, als Körper, deren Verhältnisse zueinander nicht schon aus ihnen selbst heraus bestimmt sind, wie dies nach intrinsischem Verständnis der Fall war, sondern durch die Naturgesetze.

Dieser extrinsische Naturbegriff ist nicht mehr anthropozentrisch, da er sich nicht mehr auf den Standpunkt des Menschen als eines (auch) natürlichen Wesen beruft; er ist vielmehr azentrisch, da es weder im mannigfaltigen Natürlichen noch im Ver-hältnis zwischen Subjekt und Natur ein Zentrum gibt; damit wird er auch dem wis-senschaftsgeschichtlichen Aufbruch aus einem scheinbar geschlossenen Kosmos in ein Universum gerecht, das sich zumindest zunächst als unendlich zeigt51. Der ex-trinsische Naturbegriff ist auch nicht mehr anthropomorph, denn der Mensch, als Naturwesen verstanden, gilt nun nur noch als ein Körper unter beliebigen anderen. Die Gestaltung der Körper vollzieht sich vielmehr nach Maßgabe der Naturgesetze und ist daher als eine Konstruktion auf mathematischer Grundlage aufzufassen. Wenn Körper bestimmte komplexe Aktivitäten aufweisen, dann deshalb, weil es sich bei ihnen um entsprechend konstruierte Maschinen, um Automaten handelt. So erweist sich der extrinsische Naturbegriff als technomorph. Den Produkten der Technik steht allerdings von vornherein Subjektivität und damit auch Intelligenz im oben angegebenen Sinn gegenüber. Der Geist kommt in die Natur aus dieser Perspektive gesehen nicht nur von draußen, sondern er bleibt auch dort.

Auch dieser Naturbegriff hat eine mächtige Wirkungsgeschichte entfaltet und nicht zuletzt die technische Überformung der Umwelt im Anthropozän denkbar und machbar erscheinen lassen52. Aber auch der extrinsische Naturbegriff hat mit einer Herausforderung zu kämpfen, die sich in der Frage artikuliert, wie denn Subjekt und Natur angesichts ihrer grundständigen Verschiedenheit miteinander in Beziehung stehen können. Descartes selbst versucht diese Frage für sich selbst dadurch zu beantworten, dass er sich dabei wiederum auf Natur beruft, wobei er dann aber unter Natur dasjenige versteht, was das denkende Subjekt und sein aus-gedehntes Gegenüber miteinander verbindet, und zwar im Fall des verkörperten Menschen, wie Descartes selbst zugesteht, auf eine sehr innige Art und Weise. Die Lehre, die aus dieser zunächst irritierenden Verwendung des Naturbegriffs gezo-gen werden kann, lautet: Die Gegenüberstellung von Subjekt und Natur lässt sich nur von einem Standpunkt her denken, der diese Gegenüberstellung im Sinne ei-ner bloßen Verschiedenheit bereits überwunden hat, von dem her diese Verschie-denheit als eine wechselseitige Bezogenheit gedacht werden kann. Das denkende Subjekt hat sich bereits als eine derartige Bezogenheit von seinem Standpunkt her erwiesen. Wechselseitigkeit lässt sich daher dadurch denken, dass auch dem Na-türlichen jeweils eine Standpunkthaftigkeit zugeschrieben wird. So verstanden, ist Natur Inbegriff dessen, was sich von einem Standpunkt her auf anderes beziehen kann, das ebenfalls einen Standpunkt einnehmen kann. Charakteristisch für das Natürliche ist danach eben jene mögliche wechselseitige Bezogenheit, so dass wir hier von einem relationalen Naturbegriff reden können. Von diesem relationalen Naturbegriff her stellt sich das Natürliche als ein Geflecht von Beziehungen mög-licher Standpunkte dar. Unabhängig von begriffsgeschichtlicher Reflexion hat dies Saul Kripkes Analyse der Logik erarbeitet, die mit der Benennung natürlicher Arten verbunden ist53: Wir begegnen Exemplaren dieser Arten und nehmen in diesem Sinne eine Stichprobe. Bei diesem Anlass verleihen wir jenen Arten einen Namen, der sich als starrer Bezeichnungsausdruck auf sie bezieht, was immer die-se Arten als solche ausmacht. Was diese Arten als solche ausmacht, ist entweder in der Stichprobe unmittelbar gegeben – wenn es sich um eine direkte Empfin-dungsqualität handelt – oder lässt sich eventuell durch weitere Untersuchungen feststellen, wie im Fall der geläufigen biologischen Arten, die Kripke hier als Bei-spiel heranzieht. Dieses Beispiel mag wiederum anthropozentrisch und anthropo-morph erscheinen, denn es sind ja jeweils menschliche Instanzen, die derartige Benennungen und Untersuchungen vornehmen. Doch ist es nicht nur denkbar, sondern auch erfahrbar, dass auch Menschen ihrerseits gleichsam zum Gegen-stand einer Stichprobe werden, wie dies Val Plumwood nach ihrer lebensbedroh-lichen Begegnung mit einem Krokodil herausgearbeitet hat54. Auch auf Menschen kann Bezug genommen werden, wenngleich wir dies, wie Plumwood meint, im Rahmen unserer westlichen Kultur gerne verdrängen. Auch hier herrscht also zu-mindest prinzipiell Wechselseitigkeit.

Diesen relationalen Naturbegriff haben List und Soentgen auf zwei unterschied-liche und gerade darin charakteristische Weisen bezeichnet: Für List handelt es sich dabei um den Begriff eines „kybernetischen Naturzustands“55; Soentgen bemüht sich dagegen um einen „ökologischen“ Naturbegriff56. Im ersten Fall wird die Ver-bindung, die für den Naturbegriff zentral ist, von der Technik und damit vom ext-rinsischen Naturbegriff her gedacht, oder, wie wir jetzt sagen können, vom extrinsi-schen Pol des relationalen Naturbegriffs; im zweiten Fall wird jene Verbindung vom Naturwüchsigen und damit auch noch vom intrinsischen Naturbegriff beziehungs-weise vom intrinsischen Pol des relationalen Naturbegriffs her gedacht. Von der Warte des relationalen Naturbegriffs her stellt sich das Natürliche als Inbegriff von Beziehungen dar, die jeweils diesen „bipolaren“ Charakter aufweisen, also jeweils schon den eigenen subjektiven Standpunkt als Gegenüber eines anderen ebenfalls subjektiven Standpunkts auffassen lassen57. Der relationale Naturbegriff ist dem-nach polyzentrisch.

Insofern dabei das Gegenüber als Standpunkt eines Subjekts gedacht wird, kann jenes Subjekt und mithin sein Standpunkt ebenso wenig unter eine rein äußere Be-stimmung fallen wie das Subjekt, von dem aus dies jeweils gedacht wird. Damit zeigt sich die reflexionslogische Grundlage58 der Beobachtung, die Kripke im Hin-blick auf das Benennen natürlicher Arten angestellt hat: Benennung muss nicht mit einer hinreichenden Bestimmung verbunden sein, lässt diese vielmehr zumindest zunächst noch offen. Das Natürliche im Sinne des relationalen Naturbegriffs ist demnach der Bereich dessen, was wir benennen können, ohne dass wir es dafür auch schon hinreichend bestimmen, etwa umfassend beschreiben, müssen. Nach-trägliche Beschreibungen und ihnen entsprechende Gestaltungen werden dadurch nicht ausgeschlossen, aber auch nicht vorbestimmt; daher ist der relationale Natur-begriff gewissermaßen polymorph.

Der relationale Naturbegriff passt damit gut zu einem Verständnis der neu-eren Wissenschaften, dem zufolge diese es von ihrem Gegenstandsbereich mit einem Geflecht von Beziehungen zu tun haben59 und auch – gerade im Anthro-pozän – vor der Aufgabe stehen, sich interdisziplinär untereinander zu vernet-zen60.

Auch der relationale Naturbegriff steht vor einem Problem, nämlich der Frage, wie sich der je eigene Standpunkt von außen denken lässt und wie sich andere Standpunkte jeweils von ihrer eigenen subjektiven Innenseite her denken lassen61. Wie sich im Lauf dieser Überlegungen gezeigt haben dürfte, ist der Naturbegriff aber ohnehin ein Problembegriff, nämlich ein Begriff davon – oder zumindest ein Versuch, zu begreifen –, wie sich ein Subjekt jeweils sowohl in Bezug zu sich selbst als auch in Bezug zu anderen Subjekten denken kann. Ein Vorzug des relationalen Naturbegriffs besteht darin, diese Problematik nicht etwa zu verdecken, sondern sie in ihrer Komplexität weiter zu entfalten. 7. Natürlichkeit und Künstlichkeit von Intelligenz im Anthropozän

Der Blick auf einen relationalen Naturbegriff gestattet eine Antwort auf die eingangs gestellte Frage, ob und wie Künstliche Intelligenz im Anthropozän auch natürlich sein kann, ja sogar sein soll. Dem relationalen Naturbegriff zufolge ist natürlich, was sich in einen Wechselbezug einfügt, in dem ein Subjekt seinen eigenen Standpunkt als das Gegenüber eines anderen Subjekts denkt und dieses Gegenüber wiederum als den möglichen Standpunkt eines anderen Subjekts anerkennt. So gesehen ist In-telligenz allgemein dann natürlich, wenn sie sich als reflektiertes Problembewusst-sein gestaltet und dadurch die eigene Standpunkthaftigkeit sowie die qualitative Eigenständigkeit des jeweiligen Problems erkennt. Technik kann, wie wir gesehen haben, diesen Zusammenhang überbrücken, indem sie das Problem zu lösen ver-sucht, anstatt es als Anlass zur Reflexion zu nutzen, und indem das reflexionsfähige Subjekt in ihrer Anwendung etwas anderes als sich selbst zum Zweck setzt. Technik, die nichts anderes tut, als jenen Zusammenhang zu überbrücken und damit auszu-blenden, steht durchaus im Gegensatz zur (relational verstandenen) Natur, weil dies die Reflexion auf die Zusammenhänge behindert, in der das diese Technik anwen-dende Subjekt jeweils steht, und wäre in einem schlechten Sinne künstlich. Technik kann das Subjekt gerade dadurch aber auch entlasten, da es sich dank ihr nicht mit beliebigen Problemen befassen muss und dabei seine Reflexionsfähigkeit durchaus bewahren kann. Solcherart gestaltete Technik kann geradezu in den Dienst sub-jektiver Selbstreflexion treten62. Als technisch herbeigeführt steht starke Künstliche Intelligenz – und allein von ihr lohnt es sich hier zu handeln, wie es sich erwiesen hat – vor derselben Problematik, die im Anthropozän als einer planetenumspan-nend technisch überformten Umwelt auf die Spitze getrieben worden ist. Diese Pro-blematik lässt sich nicht mehr rein technisch bewältigen, da sie sich dadurch nur perpetuieren würde. Intelligenz im Anthropozän – menschliche, Künstliche und auch sonstige außermenschliche – sieht sich damit vor die Aufgabe gestellt, ihre Re-flexionsfähigkeit zu bewahren und wenn möglich zu steigern, um der Komplexität der Situation gerecht zu werden. Einen Maßstab dafür kann das Ausmaß darstellen, indem es dabei gelingt, sich als Intelligenz in die wechselseitigen Bezüge einzufü-gen, die auch und vielleicht gerade eine technisch überformte Umwelt nach wie vor bietet, und in diesem Sinne natürlich zu sein oder sogar zu werden. Wie auch im-mer geartete Künstliche Intelligenz wird jeglicher natürlichen Intelligenz innerhalb dieser Umwelt ohnehin im Rahmen der sie prägenden Technosphäre begegnen. Ob und wie es gelingt, diese wechselseitigen Bezüge als einen Erfahrungsraum gemein-sam gelebter Reflexion und damit auch Vernünftigkeit zu erhalten, in diesem Sinne zu kultivieren63 und weiterzuentwickeln64, mag ein Gütekriterium und damit eine lohnenswerte Herausforderung für Intelligenz aller Art im Anthropozän darstellen. Literatur

136

Intelligenz aus philosophisch- psychologischer Sicht

Marion Friedrich Zusammenfassung

Unter den Begriff der Intelligenz werden alle intelligenten Systeme subsumiert. Hier wird die These aufgestellt, dass alle intelligenten Systeme natürlicher Intelligenz ent-sprechen, während Menschliche Intelligenz (MI) mit anderen animalischen Intel-ligenzen koexistiert und ihrerseits Künstliche Intelligenz (KI) a) hervorgebracht und b) als Instrument/Werkzeug nutzt. So ist im Rahmen von KI besser von deren Funktionalität statt von Intelligenz zu sprechen.

Bislang in der Psychologie diskutierte Konzepte menschlicher Intelligenz können nicht auf diese Funktionalität künstlicher Systeme angewendet werden. Auch MI fordert im Anthropozän eine neue Betrachtungsweise und sollte um ein ethisch-pragmatisches Verständnis ergänzt werden.

Des Weiteren stellt sich die Frage, ob im Zeitalter des Anthropozäns überhaupt noch von menschlicher Intelligenz als Fähigkeit der Problemlösung gesprochen werden kann. Angelehnt an Wittgensteins Sprachspieltheorie ist es vielleicht un-sinnig, zu fragen, was Intelligenz ist – wichtig ist, was man damit tut. Die Finalität natürlicher wie künstlicher Intelligenz muss untersucht werden und dabei von In-tentionalität/Volition unterschieden werden.

Menschliche Intelligenz (MI) oder HI (Human Intelligence) wird hierbei als Teil-bereich der Natürlichen Intelligenz (NI) aufgefasst und evolutionär als Resultat der Anpassungsnotwendigkeit und -fähigkeit auf sich ändernde Umweltbegebenheiten verstanden. Dieses Verständnis lässt die Weiterführung des Intelligenzbegriffs als Entwicklungsmöglichkeit neuer Fähig- und Fertigkeiten zu.

Künstliche Intelligenz (auch AI als Artificial Intelligence) hingegen wird verstan-den als die von einer NI zielgerichtet entwickelte Funktionalität eines Werkzeugs,

137

d. i. in ihrer Ausprägung messbar an dem Grad der Aufgabenerfüllung. Somit ist KI MI unterzuordnen. Ein anthropologischer Fehlschluss wäre, KI aufgrund der (programmierten) Finalität Intentionalität zu unterstellen.

In Bezug auf MI ist deren Finalität jedoch unbedingt mit Intentionalität/Volition verbunden und richtet sich damit implizit oder explizit nach ethischen Normen aus. So ist mensch als fully ethical agent1 zu verstehen (und auch in die Pflicht zu nehmen!).

MI muss unter dem finalitätsgerichteten Aspekt von Intentionalität und Volition untersucht werden: Der Mensch nutzt seine (und die von ihm entwickelte künst-liche) Intelligenz, um zu überleben bzw. um das Leben so angenehm wie möglich zu gestalten – KI hingegen beabsichtigt und will nicht sowie nichts.

Zeigt sich aus diesem Verständnis heraus der Mensch im Anthropozän als intel-ligent? Der Mensch passt nicht mehr sich und seine Handlungen an die Umwelt an, sondern er verändert die Umwelt derart, dass er selbst keine neuen Fähigkei-ten mehr entwickeln und bereits erworbene nicht mehr nutzen muss (z. B. Lesen, Schreiben, Raumorientierung, soziale Fähigkeiten etc.).

Auf der anderen Seite beraubt er sich (aus hedonistischen Motiven heraus?) durch die fortlaufende Beeinträchtigung und Beeinflussung natürlicher Prozesse seiner Lebensgrundlage Natur. Aus dieser Perspektive heraus ist das Verständnis von In-telligenz als Fähigkeit zur Lösung neuer Probleme (nach Stern) nicht mehr gültig.

Anstatt sich nun auf die Lösung der hausgemachten Problematiken zu konzen-trieren (z. B. könnte KI auch z. B. als APP dahin gehend genutzt werden, dass der ökologische Fußabdruck von Waren als Kaufentscheidungshilfe berechnet werden kann) müht sich der Mensch an Spekulationen über die Eventualität zukünftiger Bedrohung durch die von ihm geschaffene KI ab. Er befürchtet eine Überwältigung durch autonome KI, die dem Kontrollverlust im Zauberlehrling gleicht. Hier zeigt sich ein anthropologischer Gedankenfehler: KI ist in Intentionalität und ihrer Fina-lität eben nicht mit MI zu vergleichen und ist intentions- wie volitionsfrei. Ebenso wenig bewertet KI von sich aus (Über)Leben als gut und/oder Untergang/Tod als schlecht. Von KI ist also weder Unterstützung noch eine Gefährdung hinsichtlich des Fortbestands der Spezies Mensch zu erwarten.

Der Intelligenzbegriff sollte unter Berücksichtigung einer handlungsorientierten Ethik spezifiziert bzw. neu definiert werden. Bei künstlichen Systemen als Werk-zeug/Instrument ist auf den Begriff der Intelligenz zugunsten des Begriffs der Funk-tionalität zu verzichten.

In der Definition von MI muss deren Intentionalität und damit moralische Aus-richtung im Sinne des (Überlebens-)Schutzes einer jeder Form von Intelligenz (auch natürliche und animalische Intelligenz) stärker gewichtet werden. Abstract translated by Kevin Fencil

At present, all types of intelligent systems are subsumed under the general term “intelligence.” It is the author’s view that all intelligence systems are forms of natural intelligence. Further, that human intelligence (HI) coexists alongside other forms of animal intelligence, both a) giving rise to artificial intelligence (AI) and b) utilizing it as an instrument or tool. As such, it is better to speak of AI in terms of its func-tionality rather than of intelligence.

The concepts of human intelligence currently in use in the field of psychology cannot be said to apply to the functionality of artificial systems. In the age of the Anthropocene, a new view of human intelligence which also takes into account an ethic-pragmatic understanding of the term is required. Furthermore, it is fair to ask whether continuing to see human intelligence as the ability to solve problems (see W. Stern) is justified at all.

According to H. Eysenck, intelligence may be classified alongside temperament, character and body type as variables of personality – and thus as a primarily physiolog-ical factor. When viewed through the lens of Wittgenstein’s theory of language games, however, it may be unnecessary to ask what intelligence is at all – when what is import-ant is what one does with it. The finality of both natural and artificial intelligence must be examined and differentiated from the concepts of intentionality and volition what means what someone tries to achieve by using intelligence/certain methods.

I consider human intelligence (HI) to be a subset of natural intelligence (NI). Seen in evolutionary terms, HI can be viewed as the result of the necessity and ability to adapt to changing environmental circumstances. This in turn allows intel-ligence to be further understood as the possibility of developing new abilities and skills that can be employed in specific ways to improve the circumstances of life and the chance of survival, among other things.

139

By contrast, artificial intelligence can be understood to be the functionality of a tool developed for a specific use by a form of NI and thus measurable according to how well it fulfills its task. In other words, AI is a subset of HI.

It would be an anthropological mistake to ascribe intentionality to AI based on its (programmed) finality. Within the context of HI, however, it is absolutely essential that this finality be seen in connection with intention/volution/agency and there-fore subject, either explicitly or implicitly, to ethical norms. HI is capable of “full ethical agency”, whereas AI is capable of “explicit ethical agency” at best2.

The examination of the ethically influenced aspects of intentionality and volition allows for a clearer distinction between human intelligence and the functionality (utility, functioning) of a machine: Man uses his intelligence, and the artificial in-telligence he has developed, in order to ensure survival (ideally not only his own or that of his species, but of all living beings) or in order to make life as pleasant as possible. AI, on the other hand, does not intend, much less want, anything. AI does not seek to ensure its own survival or the survival or elimination of other species.

Framed in this way, can mankind in the age of the Anthropocene be seen as in-telligent? Man no longer adapts himself or his actions to the environment, but rath-er alters the environment to such a degree that he no longer has to develop new abilities or use the abilities he has already acquired (for example, reading, writing, spatial orientation, social skills). At the same time (for hedonistic reasons?), he robs himself of the nature upon which he depends for his existence by continually in-fluencing and interfering with natural processes. It also appears as if routine use of manmade forms of AI negatively impact certain aspects of human intelligence (for example a decrease in the ability to spatially orientate and navigate due to nav-igation devices) and have a clearly negative impact on emotional intelligence (as measured by EQ).

Further examples include an assumed decrease in the ability to empathize (ac-companied by an increase in so-called disorganized attachment typologies and dis-sociative disorders), as well as an increase in neurotic disorders (impulse control, fear and anxiety, and other behavioral disorders) in connection with increased me-dia consumption and the use of smartphones.

Instead of searching for solutions to these problems, which are of our making (for example AI could be used to create an app that measures the environmental foot-print of goods and services to aid in making better purchase decisions), we occupy ourselves with speculation about future threats that could arise from the AI we’ve created. Our fear of being overwhelmed by autonomous AI resembles the loss of control in Goethe’s The Sorcerer’s Apprentice .

Here, an anthropological error in reasoning becomes evident: AI cannot be com-pared to HI in either its intentionality or its finality. It is free of both intent and voli-tion. Nor does AI by itself judge life/survival to be good or demise/death to be bad. It follows that AI cannot be expected to either support or endanger the continued survival of the human species.

To sum up, I advocate the use of a new, ethic-pragmatic definition of intelligence. For artificial systems used as tools or instruments, the term “intelligence” should be rejected in favor of the term “functionality.”

In defining human intelligence, more emphasis should be placed on the inten-tionality and the moral compass of that intelligence as it relates to protecting (the survival of) each and every form of intelligence, including natural and animal intel-ligence. Nobody (least of all AI) can save the world except ourselves – by using our own natural intelligence. 1. Was ist unter Intelligenz zu verstehen?

Nicht erst nachdem 2015 das Future of Life Institute zahlreiche Projekte subventio-nierte, die auf die Sicherstellung einer „für die Menschen vorteilhaften“ KI3 abzielen, und seit Stephen Hawkings zeitgleicher dystopischer Aussage, dass AI der mensch-liche Gattung ein Ende setzen könnte4, beunruhigt die Horrorvision von bewussten und bösartigen Robotern, die die Menschheit unterwerfen und/oder ausrotten wol-len. Golems und Zauberlehrlinge spuken als zeitlose Schreckgespenster durch die Buchhandlungen, Hollywood hat schon längst den Marktwert solcher futuristischer Untergangsszenarien entdeckt. Doch bevor überhaupt über die Wahrscheinlichkeit von die Welt beherrschenden Superintelligenzen spekuliert werden kann, muss zu-nächst geklärt werden, was unter dem Begriff „Intelligenz“ in diesem Zusammen-hang verstanden wird und welche Rolle Intention und Volition hierbei spielen.

Es gilt im ersten Schritt, den oftmals unreflektiert verwendeten Begriff „Intelli-genz“ zu betrachten und gegebenenfalls neu zu definieren. Kann im Zeitalter des Anthropozäns, in dem mensch befürchtet, dass das Menschenzeitalter bald vom „Robotozän“ abgelöst wird, der traditionell in der Psychologie gebrauchte Begriff „Intelligenz“ heute überhaupt noch Verwendung finden? Oder muss eine Neube-stimmung erfolgen?

Kurz: Kann der traditionell-psychologische Begriff Intelligenz heute überhaupt noch Verwendung finden kann, ohne dass eine Neubestimmung vorangeht? Der Duden definiert Intelligenz als die „Fähigkeit, abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten“5. Das 1912 formulierte und bis heute verbreitete Verständnis der Menschlichen „Intelligenz als Anpassungsfähigkeit an sich ändernde Umweltbedingungen“ ist auf William Stern zurückzuführen6. Ähn-lich definieren Kaplan und Haenlein Künstliche Intelligenz im Jahre 2010 als „a system’s ability to correctly interpret external data, to learn from such data, and to use those learnings to achieve specific goals and tasks through flexible adaptation“7, also die Fähigkeit eines Systems, externe Daten korrekt zu interpretieren, aus diesen Daten zu lernen und diese Lernerfahrungen zu nutzen, um spezifische Ziele und Aufgaben durch flexible Anpassung zu erreichen.

Diese Entsprechung der Definitionen von MI und KI ist auch darauf zurückzu-führen, dass der Mensch, der nicht über sich selbst bzw. die Grenzen seines Intel-lekts hinaus zu denken vermag, seine eigenen Intelligenzleistungen in KI zu repro-duzieren versucht. Es ist nicht vorstellbar, was jenseits des eigenen Verständnisses (das Teil der Intelligenz ist) zu liegen vermag.

Schon in Bezug auf Natürliche (Menschliche) Intelligenz wirkt es beinahe un-möglich und sehr gewollt, die bisher geltenden Begrifflichkeiten in Relation zum Verhalten des „modernen“ Menschen im Anthropozän zu setzen – ist Verhalten überhaupt noch als intelligent zu bezeichnen, das natürliche Ressourcen mehr und mehr vernichtet, sich selbst die Lebensgrundlage raubt und eigene, angeborenen Fähigkeiten (von Empathievermögen bis hin zu Orientierungssinn) sukzessive durch Vernachlässigung verliert? Diese Art des Handelns erinnert doch sehr an die Osterinselbewohner, die der Überlieferung nach im 11.–16. Jahrhundert zum Transport der Moais alle Bäume abholzten und so die Erosion die Landschaft in Brachland verwandelte.

Hier kann der Begriff der Intelligenz nur dann noch Sinn ergeben, wenn er als Abstraktum, jenseits aller Handlungen und deren Konsequenzen, verwendet wird. Oder ist es eben als besonders intelligent zu betrachten, ganz im Sinne William Sterns, auch kognitive Leistungen mehr und mehr an technische und technologi-sche Hilfsmittel zu delegieren, selbst, wenn diese Aufgabenübertragung schließlich kognitive Leistungseinbußen im Sinne der Fähigkeit, entsprechende Probleme zu lösen, mit sich bringt?

Wenn sich nur Teilbereiche des menschlichen Verhaltens als intelligent, hier ver-standen als handlungs- und zielorientiert unter Berücksichtigung der natürlichen und sozialen Ressourcen auffassen lassen, so ist bei der Funktionalität Künstlicher Intelligenzen die Bezeichnung Intelligenz kontraintuitiv und kontraproduktiv. Ein Verständnis der Verhaltensregeln von Künstlichen Systemen als intelligent löst eine Flut von Projektionsfehlern aus, die bis zur Zuschreibung von Intentionalität, einer KI reicht. So werden dystopische Zukunftsszenarien befeuert und in der weiteren Übersteigerung Moravec’scher Eskalationen personifizierten Software-Agenten so-gar Vernichtungsabsichten der Menschheit und/oder Streben nach der Weltherr-schaft zu unterstellt8.

In diesem Beitrag wird die These aufgestellt, dass alle intelligenten Systeme Na-türlicher Intelligenz entsprechen, wobei Menschliche Intelligenz mit anderen ani-malischen Intelligenzen koexistiert und ihrerseits Künstliche Intelligenz (KI) a. hervorgebracht hat undb. als Instrument/Werkzeug nutzt.

So ist im Rahmen von KI besser von deren Funktionalität statt von Intelligenz zu sprechen. MI (Menschliche Intelligenz) setzt sich dabei aus einzelnen Teilbereichen zusammen, ist aber als Gesamtfähigkeit nicht auf diese zu reduzieren. In ihren Teil-bereichen wie Rechengeschwindigkeit, Merkfähigkeit (Speicherkapazität) etc. wird MI inzwischen häufig von KI übertroffen. Wenn jedoch auch der soziale Aspekt und damit Emotionale Intelligenz wie auch die daraus resultierende Positionierung des Menschen als „wert-volles“ (nach Werten handelndes, ethisches Wesen) in Be-tracht gezogen werden, scheint eben dies ein relevantes Abgrenzungskriterium gegenüber Künstlichen Systemen zu sein.

MI kann dann so als Teil der Persönlichkeit, die ebenso Charakter, Tempera-ment und biophysiologische Merkmale – nach Eysenck (1916–1997): den „Körper-bau“9 – umfasst, in ein übergeordnetes Konzept eingebettet werden. Dies fordert eine multifaktorielle Betrachtungsweise des Konzepts von Intelligenz.

Bislang in der Psychologie diskutierte bzw. bestehende Konzepte menschlicher Intelligenz können nicht auf diese Funktionalität künstlicher Systeme angewendet werden. Auch MI fordert im Anthropozän eine neue Betrachtungsweise und sollte um ein ethisch-pragmatisches Verständnis ergänzt werden. Der Mensch als zu in-telligenten Handlungen fähig ist als full ethical agent nach Moor zu betrachten – KI hierbei ist als implizit oder maximal ansatzweise explizit ethischer Agent zu ver-stehen10.

Des Weiteren stellt sich die Frage, ob im Zeitalter des Anthropozäns überhaupt noch von MI als Fähigkeit der Problemlösung gesprochen werden kann.

Angelehnt an Wittgensteins Sprachspieltheorie ist es vielleicht unsinnig, zu fra-gen, was Intelligenz ist – wichtig ist, was man damit tut. Die Finalität natürlicher wie künstlicher Intelligenz muss untersucht werden und dabei von Intentionalität/Volition unterschieden werden, die allein dem wertenden und motiviertem Natür-lichen System zukommen.

MI oder HI (human intelligence) wird hierbei als Teilbereich der Natürlichen In-telligenz (NI) aufgefasst und evolutionär als Resultat der Anpassungsnotwendigkeit und -fähigkeit auf sich ändernde Umweltbegebenheiten verstanden. Dieses Ver-ständnis lässt die Weiterführung des Intelligenzbegriffs als Entwicklungsmöglich-keit neuer Fähig- und Fertigkeiten zu.

KI hingegen ist (im Anthropozän) als die von einer NI zielgerichtet entwickelten Funktionalität eines Werkzeugs, d. i. in ihrer Ausprägung messbar an dem Grad der Aufgabenerfüllung, aufzufassen. Somit ist jede KI immer der MI unterzuordnen. Ein anthropologischer Fehlschluss wäre, KI aufgrund der (programmierten) Finali-tät Intentionalität zu unterstellen.

Der 1990 eingeführte Begriff der Emotionalen Intelligenz sollte heute mit dem kognitiven (intellektuellen) Verständnis überein gebracht werden.

Emotionale Intelligenz ist, aufbauend auf Konzepten der Sozialen Intelligenz, die bis in die 1920er Jahre zurückreichen, ein von John D. Mayer (University of New Hampshire) und Peter Salovey (Yale University) im Jahr 1990 eingeführter Termi-nus. Er beschreibt die Fähigkeit, eigene und fremde Gefühle (korrekt) wahrzuneh-men, zu verstehen und zu beeinflussen11.

Das Konzept der emotionalen Intelligenz beruht auf der Theorie der multiplen Intelligenzen von Howard Gardner12, deren Kerngedanke bereits von Edward Lee Thorndike und David Wechsler als „soziale Intelligenz“ bezeichnet wurde13.

Das Verständnis der Wichtigkeit der Sozialen Intelligenz ergänzt die Frage nach der Finalität von intelligentem Handeln um die Fragen der Intentionalität/Volition und damit Affekten wie auch Werten. So richtet sich intelligentes Verhalten implizit oder explizit nach Werten, nach ethischen Normen aus.

KI jedoch als per se wertfreie Intelligenzen, wenn sie auch als implicit und/oder explicit ethical agents sich augenscheinlich nach ethischen Richtlinien verhalten (können), sind nicht zu full ethical agency in der Lage und damit nicht zu affekt- und emotionsgetönten Agieren jenseits von Logik und Normen.

Ob dies tatsächlich ein Manko oder nicht vielmehr als positives Faktum zu ver-stehen ist, ist zu diskutieren. Die „gefühlte“ Freiheit, sich auch gegen (aus deontolo-gischer Perspektive heraus) ethisch logisch-normativ-korrektes Verhalten entschei-den zu können, weil „einem der Sinn danach steht“, weil also „das Gefühl“ etwas anderes „diktiert“, sehe ich nicht als echte Wahlfreiheit, nicht als Freiheit, zwischen gleichwertigen Möglichkeiten zu wählen.

Die Realisierung der Möglichkeit, sich gegen ethische (Grund-)Überzeugungen (auch gegen die eigenen) zu stellen, führe ich vielmehr auf psychologische Phäno-mene, die ev. sogar Symptome einer Impulskontrollstörung imitieren, zurück. So ist die Aneignung eines bestimmten ethischen Grundmodells oft mit der Reduk-tion der kognitiven Dissonanz14 einhergehend, was jedoch noch nicht dazu führt, dass diese ethische Einstellung auch in kongruentes und spezifisches Verhalten um-gesetzt wird. Ein expliziter ethischer Agent, auch wenn er „nur“ auf Algorithmen basiert und nicht die Freiheit besitzt, sich gegen seine ethische Grundausrichtung zu verhalten, kann durchaus auch intentionsfrei ethisch agieren.

MI nutzt KI, um ihre eigene Effektivität und Effizienz zu steigern. Jede disku-tierte und künstlich herbeigeführte Dichotomie zwischen MI und KI eröffnet ei-nem Scheinproblem Raum. Auf einem Vergleich der Leistungsmöglichkeiten von menschlichem Intellekt und der Funktionalität von elektronischen Systemen zu beharren, kommt einem Vergleich eines Menschen mit einem Automobil gleich, der als Resultat die Aussage „Das Auto fährt schneller“ ergibt, und ist m.E. ähnlich unergiebig. 2. Verhält sich mensch im Anthropozän intelligent?

Schon in Bezug auf Natürliche (Menschliche) Intelligenz ist es herausfordernd, die bisher geltenden Begrifflichkeiten in Relation zum menschlichen Verhalten von heute zu setzen – Mensch 2.0 passt sich schon lange nicht mehr an die Umwelt als vielmehr die Umwelt an sich selbst an. Bei der Funktionalität Künstlicher In- telligenzen ist die Bestimmung eben derer als intelligent kontraintuitiv und kont-raproduktiv. Hier löst das Verständnis der (vor-)gegebenen Verhaltensregeln von Künstlichen Systemen als intelligent im Sinne von autonom und willensbestimmt eine Flut von Projektionsfehlern aus, die bis zur Zuschreibung von Intentionalität, die sich in einer Vernichtungsabsicht der Menschheit niederschlagen soll, reichen.

Zunächst sollen an dieser Stelle dem Begriff der Intelligenz alle sich intelligent verhaltenden, im Sinne von: handlungs-zielorientierten Systeme unterstellt werden. Es wird die These vertreten, dass alle aktuell bestehenden intelligenten Systeme na-türlicher Intelligenz untergeordnet sind, wobei MI mit anderen Animalischen Intel-ligenzen koexistiert und ihrerseits KIa. hervorgebracht hat und b. als Instrument/Werkzeug nutzt.

So ist im Rahmen von KI besser von deren Funktionalität statt von Intelligenz zu sprechen.

Bislang in der Psychologie diskutierte Konzepte menschlicher Intelligenz können nicht auf diese Funktionalität künstlicher Systeme angewendet werden. Auch MI

146

fordert im Anthropozän eine neue Betrachtungsweise und sollte um ein ethisch-pragmatisches Verständnis ergänzt werden, was meint, dass der seit den 1990er Jah-ren Verwendung findende Begriff der Emotionalen Intelligenz mit dem kognitiven (intellektuellen) Verständnis von Intelligenz überein gebracht werden muss.

Heute scheint es zweckmäßiger und wichtiger, sich nicht mehr mit Definitionen von Intelligenz aufzuhalten, sondern vielmehr Konzepte zu erarbeiten, angelehnt an Wittgensteins Sprachspieltheorie, sich zu fragen, was mensch/maschine mit die-ser Intelligenz tut, wozu sie dient.

Die Gerichtetheit, die Finalität, natürlicher wie künstlicher Intelligenz muss un-tersucht werden und dabei von Intentionalität/Volition unterschieden werden.

MI als Teilbereich der Natürlichen Intelligenz zeigt sich m.E. evolutionär als Re-sultat der Anpassungsnotwendigkeit und -fähigkeit auf sich ändernde Umweltbe-gebenheiten (nach William Sterns Begriffsdefinition). Dieses Verständnis lässt die Weiterführung des Intelligenzbegriffs als Entwicklungsmöglichkeit neuer Fähig- und Fertigkeiten zu.

KI (auch AI als Artificial Intelligence) hingegen wird von mir verstanden als die von einer NI zielgerichtet entwickelte Funktionalität eines Werkzeugs, d. i. in ihrer Ausprägung messbar an dem Grad der Aufgabenerfüllung. Somit ist KI der MI un-terzuordnen. Ein anthropologischer Fehlschluss wäre, KI aufgrund der (program-mierten) Finalität Intentionalität zu unterstellen.

In Bezug auf MI ist deren Finalität jedoch unbedingt mit Intentionalität/Vo-lition verbunden und richtet sich damit implizit oder explizit nach ethischen Normen aus. 3. Kurzer historischer Abriss: Was ist „Intelligenz“?

Intelligenz ist als abstrakter Begriff umfasst neurobiologische, lerntheoretische und entwicklungsspezifische sowie testpsychologische Aspekte.

Das Verständnis von Intelligenz hat sich über die Jahrhunderte verändert, wobei bis heute keine einheitliche, allgemein anerkannte Definition von Intelligenz inter-national Gültigkeit hätte15.

Dem am weitesten verbreiteten Verständnis von Intelligenz korrespondiert, auf Williams Sterns Begriffsbestimmung16 zurückgehend, dass intelligentes Verhalten bestmögliche Anpassung an sich ändernde Umweltbegebenheiten ist. 1912 be-schreibt Stern (1871–1938) als Begründer des Intelligenzquotienten Intelligenz als die allgemeine Fähigkeit eines Individuums, sein Denken bewusst auf neue Forde-rungen einzustellen; sie ist allgemeine geistige Anpassungsfähigkeit an neue Auf-gaben und Bedingungen des Lebens17.

Im Laufe der Jahrzehnte durchlief der Intelligenzbegriff zahlreiche Veränderun-gen18: Spearman forderte im 19. Jahrhundert eine differenziertere Betrachtung und plädierte für eine Unterscheidung von einem Generalfaktor der Intelligenz und zu-sätzlichen Spezialfaktoren. Wichtig ist zu beachten, dass zwischen Bildung und In-telligenz unterschieden werden muss.

Obwohl sich der menschliche Verstand in Hinblick auf rationale Fähigkeiten von dem aller anderen Lebewesen unterscheidet, entzog er sich lange Zeit jeder Ver-messung und doch wurde über die Jahrtausende anhand bestimmter Fähigkeiten selektiert: So sollten Chinesen, die um 1100 v. Chr. für ihren Kaiser arbeiten wollen, sich in einem Talentwettbewerb beweisen, der Reiten, Bogenschießen, Musizieren, Schreiben und Rechnen umfasste. Im antiken Griechenland beschrieb ein unter dem Namen des Aristoteles rangierender Text die „Geistreichen“ anhand körper-licher Merkmale mit magerem Hals, schmalem Gesicht mit glanzvollen Augen, fle-ckenloser, weiß-rötlicher Haut19.

Der römische Gelehrte Marcus Tullius Cicero prägte 53 v. Chr. den Begriff der intelligentia: Intelligenz ist das Vermögen, das den Geist befähigt, die Wirklichkeit zu verstehen20.

Im 19.  Jahrhundert hielt die Vermessungslehre Einzug in die Intelligenzfor-schung21: Je größer die Gehirnmasse, desto größer seien Verstand und Charakter, vertrat irrtümlich der deutsche Arzt Franz Joseph Gall die phrenologische Auf-fassung.

Mit Einführung der Schulpflicht 1889 in Frankreich hatte sich die Heterogenität der Schülerschaft verstärkt. Insbesondere Kinder am unteren Ende des Begabungs-spektrums, die vom Unterricht wenig profitierten, sollten daher zwecks gezielter Förderung ausgefiltert werden, um dann später wieder in die Regelschule integriert werden zu können. Bislang existierte noch kein einheitliches Verständnis davon, was Intelligenz überhaupt sei und ob bzw. dass dieses Konstrukt sich a) in mensch-lichen Fähigkeiten unterschiedlich niederschlägt und b) zu messen sei.

Der französische Psychologe Alfred Binet begann 1905 das Denkvermögen von Kindern anhand eines Fragenkatalogs zu testen22. In Abhängigkeit vom Alter der Kinder stellte er standardisierte Fragenkataloge zusammen, z. B.: Was reimt sich auf Pferd? Bilde einen Satz mit Paris, Fluss und Glück. Worin ähneln sich Fliege und Schmetterling? Dem Psychologen wird allerdings im Zuge der Testreihen klar, dass die letzte Frage nur soziologische Differenzen und keine Unterschiede in der Intel-ligenzleistung veranschaulicht: Nur Kinder wohlhabender Familien konnten diese Frage beantworten, da sie bei Landurlauben Schmetterlinge sehen; Arbeiterkinder aus der Stadt kennen sie nicht. 4. Intelligenzalter versus Lebensalter statt Reaktionsgeschwindigkeit und perzeptive Sensibilität

In England herrschte zu damaliger Zeit ein reduzierter Intelligenzbegriff vor: Wäh-rend Francis Galton (ein Cousin Charles Darwins) in England die Ansicht vertrat, dass sich Intelligenz auf einfache mentale Operationen wie die Reaktionsschnel-ligkeit oder die Fähigkeit, zwischen Sinnesreizen wie Tonhöhen oder Helligkeit zu unterscheiden, herunterbrechen lässt, war Intelligenz für Binet abhängig von höhe-ren kognitiven Funktionen: Aufmerksamkeit, Urteils- und Abstraktionsvermögen sind als Intelligenzleistungen ebenso ausschlaggebend für den Schulerfolg23.

Binet legte eine Definition zu Grunde, die Intelligenz als die Fähigkeit zur Be-wältigung alltäglicher Probleme erachtet. Die Aufgaben wurden nun nach Schwie-rigkeit hierarchisch geordnet und gestaffelt. Diejenigen, die von jeweils 70 % der Kinder eines Altersjahrgangs gelöst werden konnten, wurden zu „Altersreihen“ zu-sammengefasst. Kann ein Kind alle Aufgaben seiner Altersstufe lösen, entspricht sein Intelligenzalter seinem Lebensalter; löst das Kind weitere Aufgaben, liegt sein Intelligenzalter entsprechend darüber. Als problematisch sah es Binet selbst aller-dings an, den kognitiven Entwicklungsstand eines Kindes mit einer Zahl zu be-schreiben, da dieselbe Zahl gelöster Aufgaben sehr unterschiedliche Muster an Fä-higkeiten beinhalten kann.

Hinzu kam, dass gleiche Differenzen zwischen Intelligenz- und Lebensalter bei Kindern unterschiedlichen Alters nicht dasselbe bedeuten. Ein Fünfjähriger mit einem Intelligenzalter von sieben Jahren ist seinen Altersgenossen in seiner Entwicklung deutlich weiter voraus als ein Achtjähriger auf dem Niveau eines Zehnjährigen.

William Stern relativierte nun die Intelligenz am Lebensalter, statt die Differenz als Maß für die Entwicklungsbeschleunigung oder -verzögerung zu nehmen. Die-ser „Intelligenzquotient“ wurde dann zur leichteren Handhabbarkeit noch einmal mit 100 multipliziert – stimmen Intelligenz- und Lebensalter überein, ergibt sich somit ein IQ von 100 als Durchschnittswert. Diese Art der Messung erklärt auch, wie die teilweise astronomischen Intelligenzwerte höchstbegabter Kinder zustan-de kommen. Ein IQ von 200 beispielsweise ergibt sich nach Sterns Formel dann, wenn das Intelligenzalter doppelt so hoch ist wie das Lebensalter. Die amerika-nische Weiterentwicklung von Binets Test durch Lewis Terman (der später dann seine berühmte Hochbegabten-Längsschnittstudie initiierte), der Stanford-Binet-Test, wird mangels Alternativen teilweise noch heute in der Höchstbegabtenfor-schung angewandt.

Wie aber kann man Intelligenz messen, wenn sich Lebensalter und zu lösen-de Aufgaben nicht mehr so eindeutig zuordnen lassen? Entwicklungspsycho-logische Befunde und schulische Lehrpläne erlauben dies für die Kindheit; mit zunehmendem Alter werden die Fähigkeitsunterschiede zwischen Menschen immer differenzierter, denn auch unterschiedliche Berufe implizieren unter-schiedliches Wissen. Intelligenz ist jedoch nicht mit angesammeltem Wissen gleichzusetzen.

Aus diesem Grund schlug David Wechsler 1939 vor, keine konkreten Alters-reihen mehr zum Maßstab zu nehmen, sondern zu ermitteln, inwieweit der Testwert einer Person von den Werten der Gesamtgruppe abweicht24. Wie viele Merkmale ist auch die Intelligenz normalverteilt – die Glockenkurve ist sym-metrisch, und mehr Personen erreichen Werte im mittleren als im extremen Be-reich. Um einen Test so zu eichen, dass eine genaue Messung möglich ist, ist eine umfangreiche Normierungsstichprobe erforderlich. Die in Deutschland gängige Skalierung behielt den von Stern ins Leben gerufenen Mittelwert von 100 bei, der die Intelligenzverteilung in zwei Hälften teilt; mit einer Standardabweichung von 15 lassen sich Unterschiede hinreichend akkurat beschreiben. Das gängige 130er Kriterium für Hochbegabung ergibt sich somit rein statistisch: Zwei Standard-abweichungen über dem Mittelwert gelten als hinreichend überdurchschnitt-lich, so dass man von Hochbegabung sprechen kann. Auch wenn der heutige IQ streng genommen also gar kein Quotient mehr ist, ist der Name, den Stern ihm vor 100 Jahren gab, geblieben. Stern indes unterschätzte den Wert seiner mess-methodischen Innovation doch ein wenig: In seiner Autobiographie findet der IQ noch nicht einmal Erwähnung.

Und doch ist bis dato unklar, was Intelligenz über kognitive (Wissens-)Leis-tungen hinaus ist. Sterns Idee, die bis heute Gültigkeit hat, umfasst das Verständ-nis des IQ als „bestmögliche Anpassungsfähigkeit an sich ändernde Umweltbe-gebenheiten“. 5. Der g-Faktor der Intelligenz

Charles Spearman (1863–1945) entwickelte mit Hilfe des Generalfaktorenmodells der Faktorenanalyse seine Zwei-Faktoren-Theorie. Beim Generalfaktormodell wird aus den vorliegenden Testdaten ein einziger übergeordneter Faktor extrahiert. Auf diese Weise extrahierte Spearman einen Faktor für allgemeine Intelligenz, den g-factor ( g von general ). Diesen Faktor beschrieb er als generellen, alle unterschied-lichen Leistungsbereiche beeinflussenden Intelligenzfaktor. Die Ausprägung dieser allgemeinen Intelligenz bestimme u. a. Verarbeitungsgeschwindigkeit, geistige Ka-pazität, intellektuelle Leistung – also insbesondere, ob eine Person eher schnell oder langsam denkend ist.

Neben diesem g-factor extrahierte Spearman noch eine Reihe von unterge-ordneten, spezifischen Intelligenzfaktoren, welche er als s-factors ( s von speci- fic ) bezeichnete. Diese sind dem g-factor hierarchisch untergeordnet und be-reichsspezifische, voneinander unabhängige Faktoren. Sie bestimmen (jedoch

151

wesentlich vom g-factor beeinflusst) die Leistung einer Person in bestimmten Bereichen – z. B. bei mathematischen Aufgaben, bei verbalen oder räumlichen Problemstellungen. 6. Kristalline und fluide Intelligenz

Seine Vorstellungen wurden von Cattell (1905–1998) aufgegriffen und präzisiert. Cattell unterschied zwei Faktoren zweiter Ordnung, die er als fluide und kristalline Intelligenz bezeichnete. Die fluide Intelligenz repräsentiert die gehirnphysiologische Effizienz, die sich beispielsweise in der Verarbeitungsgeschwindigkeit ausdrückt. Dagegen ist die kristalline Intelligenz als Niederschlag individueller Erfahrungen zu sehen, die etwa dem verbalen Verstehen oder der routinisierten Durchführung effektiver Problemlösestrategien zugrunde liegen. Während die Entwicklung der kristallinen Intelligenz somit stark sozialisationsabhängig ist, nahm Cattell fluide Intelligenz als genetisch fixiert an.

Thurstone (1887–1955) nahm die Position ein, dass Intelligenzleistungen das Zu-sammenspiel von sieben unabhängigen Primärfaktoren widerspiegeln, darunter verbale Kompetenzen, Merk- und Rechenfähigkeit sowie räumliches Vorstellungs-vermögen. Auch den Begriff der sozialen Intelligenz führte er ein.

Mit emotionaler Intelligenz bezeichnen John D. Mayer und Peter Salovey die Fä-higkeit, eigene und fremde Gefühle wahrzunehmen, zu verstehen und zu beein-flussen. Als Basisgedanken der emotionalen Intelligenz entwickelten schon Anfang des letzten Jahrhunderts die Testpsychologen Edward Lee Thorndike und David Wechsler den Begriff der sozialen Intelligenz.

Guilford ging dagegen von einer Vielzahl weiterer Einzelfaktoren aus (insgesamt 150), zu denen er aufgrund theoretischer Vorüberlegungen gelangte. In seinem Würfelmodell entsprechen die drei räumlichen Dimensionen des Würfels (1) intel-lektuellen Operationen (z. B. Erkenntnis, Gedächtnis, Bewerten), (2) deren Inhal-te (z. B. figural, symbolisch) und (3) den Produkten intelligenten Verhaltens (z. B. System, Transformation). Während Guilford seinem Modell v. a. eine heuristische Funktion zuerkannte und durch seine Unterscheidung von konvergenter (Intelli-genz) und divergenter Denkproduktion (Kreativität) bekannt wurde, rekurrieren sogenannte Intelligenzstrukturtests oder differentielle Fähigkeitstests häufig auf Thurstones Primärfaktorenmodell.

152

In der 2. Grundschulklasse sind 80 % der Intelligenz bereits entwickelt. Ab dem 26. Lebensjahr nimmt die fluide Intelligenz ab, die kristalline bleibt konstant bzw. kann weiter (durch Bildung, Erfahrung, Training) gesteigert werden. Hans Eysenck erforschte die Unterschiede in der Persönlichkeit von Menschen, wobei er schon in seiner ersten Buchpublikation anno 1947, Dimensions of Personality , das Kon-zept von Introvertiertheit, Extravertiertheit und Neurotizismus entwickelte25. Er ging davon aus, dass diese Merkmale genetisch bedingt und in der Physiologie des Menschen verankert sind, wobei er deren Sitz im Gehirn und im zentralen Nerven-system vermutete. Durch unterschiedliche Stufen der Erregung des Gehirns werden entweder die Extravertiertheit oder die Introvertiertheit ausgebildet, wird emotio-nal auf Ereignisse reagiert, tritt die neurotische Dimension in den Vordergrund, die ihre Basis im Nervensystem hat.

Turhan Canli von der Stony Brook University, New York konnte schon in den 2000ern zeigen26, dass die Amygdala, Teil des Limbischen Systems und damit auch emotionsregulierend, bei extravertierten Probanden linksseitig vergrößert ist. Um-gekehrt geht die Tendenz zu negativen Gefühlen (entspricht dem Konzept des Neu-rotizismus) rechtsseitig mit einem verringertem Amygdalavolumen einher.

Persönlichkeit ist damit die mehr oder weniger stabile und dauerhafte Organisa-tion des Charakters, Temperaments, Intellekts und Körperbaus eines Menschen, die seine einzigartige Anpassung an die Umwelt bestimmt. Der Charakter eines Men-schen bezeichnet das mehr oder weniger stabile und dauerhafte System seines ko-nativen Verhaltens (des Willens); sein Temperament das mehr oder weniger stabile und dauerhafte System seines affektiven Verhaltens (der Emotion oder des Gefühls); sein Intellekt das mehr oder weniger stabile und dauerhafte System seines kognitiven Verhaltens (der Intelligenz); sein Körperbau das mehr oder weniger stabile System seiner physischen Gestalt und neuroendokrinen (hormonalen) Ausstattung27.

Die Darstellung der im Laufe der Jahrhunderte sich verändernden Konzeptionen von Intelligenz soll verdeutlichen, dass Intelligenz relativ ist, ein Konstrukt, kein naturgegebenes Merkmal.

Daniel Goleman definiert den Begriff der emotionalen Intelligenz28 in Anlehnung an Salovey und Gardner29 durch die folgenden Fähigkeiten:

Die eigenen Emotionen kennen

Die eigenen Emotionen erkennen und akzeptieren, während sie auftreten. Diese Fähigkeit ist entscheidend für das Verstehen des eigenen Verhaltens und der eige-nen Antriebe. (Hintergrund: Viele Menschen fühlen sich gegenüber ihren Gefühlen ausgeliefert, lehnen sie ab und bekämpfen oder vermeiden sie – statt sich der Tat-sache bewusst zu sein, dass man Emotionen aktiv steuern kann.)

Emotionen beeinflussen

Gefühle so handhaben, dass sie der Situation angemessen sind (statt zu dramatisie-ren oder zu verharmlosen). Dazu gehört die Fähigkeit, sich selbst zu beruhigen und Gefühle der Angst, Gereiztheit, Enttäuschung oder Kränkung abzuschwächen und positive Gefühle zu verstärken. Dies hilft bei der Überwindung von Rückschlägen oder belastenden Situationen.

Emotionen in die Tat umsetzen

Emotionen beeinflussen derart, dass sie bei der Erreichung von Zielen helfen. Dies ist der Kern der Selbstmotivation und fördert die Kreativität sowie die Häufigkeit von Erfolgserlebnissen. Dazu gehört auch, dass jemand in der Lage ist, kurzfristige (emotionale) Vorteile und Verlockungen hinauszuschieben (Belohnungsaufschub) und impulsive Reaktionen zu unterdrücken. Diese längerfristige Perspektive ist die Grundlage jeglichen Erfolges. In späteren Arbeiten ordnete Goleman diesen an-triebs- und motivationsbezogenen Aspekt der oben genannten Fähigkeit Emotio-nen zu beeinflussen zu.

Als Giacomo Rizzolattis Entdeckung der Spiegelneurone in den 1990er Jahren die Psychologie und Biologie aufschreckte, hatte ich das Glück, bei seinen ersten Vor-tragsreisen im Publikum sitzen zu dürfen: Auch, wenn Rizzolatti damals selbst noch vor voreiligen Schlüssen und unbedachten Übertragungen seiner (aus Affenexpe-rimenten gewonnen) Erkenntnisse warnte, gilt heute doch als hinreichend belegt, dass eben jene Spiegelneurone die biologische Basis für Mitgefühl und Empathie abbilden30.

Empathie ist die Grundlage von Menschenkenntnis (und -verständnis) und das Fundament zwischenmenschlicher Beziehungen. Ein Mensch, der erkennt, was an-dere fühlen, kann Signale im Verhalten anderer erkennen, deuten und interpretie-ren, um Motivation und Intention des Anderen abzuleiten. Empathie selbst ist als eine wertneutrale Fähigkeit zu verstehen – sie kann individuell positiv oder auch negativ empfundene Wirkung haben.

Die Fähigkeit der erfolgreichen Gestaltung von Beziehungen besteht essentiell im Umgang mit den Gefühlen anderer Menschen. Empathie ist Grundlage für eine möglichst reibungslose Zusammenarbeit in nahezu allen beruflichen Umfeldern. Gleichzeitig gilt sie als Voraussetzung für Beliebtheit, Wertschätzung und Integrati-on in eine Gemeinschaft ( Soziabilität ), andererseits aber auch für leadership ability , der Führungsqualität.

Zur Operationalisierung und Messung der emotionalen Intelligenz in einem Test haben Salovey und Mayer dieses Konzept in vier Bereiche gegliedert:

• Wahrnehmung von Emotionen

• Nutzung von Emotionen

• Verstehen von Emotionen

• Beeinflussung von Emotionen

Wahrnehmung von Emotionen:

• Emotionen in Gesichtern identifizieren

• Emotionen in Landschaften und Designs identifizieren

Nutzung von Emotionen zur Unterstützung des Denkens:

• emotionale Empfindungen mit anderen taktilen oder sensorischen Stimuli ver-gleichen

• Emotionen identifizieren, die bestimmte Denkaufgaben bestmöglich unterstüt-zen

Verstehen von Emotionen:

• Wissen, unter welchen Umständen emotionale Zustände wechseln und wie ein emotionaler Zustand in einen anderen übergeht

• Mehrere Emotionen in komplexeren affektiven Zuständen identifizieren

Umgang mit Emotionen:

• Maßnahmen zur Veränderung des eigenen emotionalen Zustandes in hypothe-tischen Szenarien vorschlagen

• Maßnahmen zur Beeinflussung des emotionalen Zustands anderer Personen zur Zielerreichung vorschlagen

Der EQ ist bei höheren Säugetieren, die wie Menschen in Herden/Rudeln organi-siert leben, ausschlaggebend für die soziale Integration und damit ausschlaggebend für die individuelle Existenzsicherung. Welchen Sinn hat es somit, Intelligenz nur als rein kognitive, intellektuelle Leistungsfähigkeit zu verstehen? Zudem erweist es sich seit Mitte der 1990er Jahre, dass eben diese Intelligenzleistungen, zumindest in Teilbereichen, transgenerational wieder abnehmen: 10. Intelligenz im Anthropozän: Der Anti-Flynn-Effekt

Ein Forscherteam vom King’s College London legte 2017 eine neue Studie vor, nach der seit 1972 zunehmend schlechter in einem Teilaspekt von IQ-Tests abge-schnitten wird31: Bei Aufgaben, die das Arbeitsgedächtnis testen, sinkt die Leis-tungsfähigkeit kontinuierlich. Gleichzeitig haben sich Resultate für das Kurzzeit-gedächtnis gesteigert. Wongupparaj u. a. analysierten als Versuch, die Ergebnisse der zum Teil unterschiedlichen IQ-Tests vergleichbar zu machen, insgesamt 1754 IQ-Tests, mit Fokus auf die Ergebnisse für die Teilbereiche Arbeits- und Kurzzeitgedächtnis.

Das Arbeitsgedächtnis bezeichnet eine komplexere kognitive Fähigkeit (inklu-diert das Kurzzeitgedächtnis, kann drüber hinausgehend aber dessen Inhalte ma-nipulieren). Informationen werden im Arbeitsgedächtnis nicht nur repräsentiert, sondern auch manipuliert. Als Beispiel: Wenn im Supermarkt gedanklich die Ein-kaufsliste abgerufen wird und mit spontanen Plänen fürs Abendessen verglichen wird, ziehen wir verschiedene Informationen aus dem Gedächtnis und der Umwelt zusammen, wägen ab und treffen eine Entscheidung.

Die Beobachtung, dass die Ergebnisse fürs Kurzzeitgedächtnis über die Jahrzehn-te besser wurden, entspricht dem Flynn-Effekt32. Danach schneiden Menschen in den Industrienationen über die Generationen bei (nicht nachgeeichten) IQ-Tests zunehmend besser ab. Bis in die 1990er Jahre wurden damit Menschen aus Indus-trienationen offenkundig „intelligenter“. Oft wird dies auf die Verbesserung von Bildung, Ernährung und Gesundheitsversorgung zurückgeführt, könnte aber auch einen Lerneffekt im Umgang mit IQ-Test-Aufgaben darstellen.

Die Frage, ob sich der Flynn-Effekt seit den 1990ern umkehrt und die Menschen an Intelligenz einbüßen, also „dümmer“ werden, ist so nicht zu beantworten. Die Analyse von Wongupparaj et al. könnte in Teilen dafür sprechen, dass bestimmte kognitive Fähigkeiten durch eine Minderbeanspruchung oder teils sogar Nichtnut-zung (durch Eskalation an technische Hilfsmittel) zumindest untrainiert sind.

Allerdings stellten die Forscher in der Studie auch fest, dass der Anteil von Über-60-Jährigen, die an IQ-Tests teilnehmen, über die Zeit größer wurde. Das Arbeits-gedächtnis gehört zu den kognitiven Funktionen, die im Alter nachlassen. Dieser Stichprobeneffekt könnte für die AG-Ergebnisse mitverantwortlich sein – und auch andere Studien erklären, nach denen der IQ in den Industrienationen sinkt.

Manfred Spitzer nennt u. a. den vermehrten Medienkonsum als mitverursachend für die Stagnation und spricht hier sogar von der digitalen Demenz33.

Die These, dass die vermehrte Migration aus Ländern mit durchschnittlich nied-rigerem IQ für den Anti-Flynn-Effekt verantwortlich zeichnet, widerlegen J. Piet-schnig u. a. von der Universität Wien. Sie weisen nach, dass binnen ein bis zwei Generationen der IQ sich an den Durchschnittswert des Gastlandes anpasst – in beide Richtungen, nach oben wie nach unten34. Dies wiederum entspricht dem tra-ditionellen Verständnis von Intelligenz als Anpassungsfähigkeit an sich verändern-de Umweltbedingungen: Sogar die Intelligenzleistung selbst passt sich ihre Umge-bung an.

Wenn Eysencks Verständnis der Intelligenz als Persönlichkeitsvariable mit-berücksichtigt wird, könnte der Anti-Flynn-Effekt auch auf die zunehmende Einschränkung der realen Interaktion und sprachlichen Kommunikation zugute der digitalen Kommunikation und der „Bildsprache“ durch Emoticons rückzu-führen sein.

Dies bedeutet auf der anderen Seite, dass nicht nur die akademische Intelligenz, sondern auch und gerade die Emotionale Intelligenz in ihrer weiteren transgene-rationalen Entwicklung untersucht werden muss. Hat die vermehrte Nutzung von KI als z. B. Navigationsgeräte, als Übersetzungs- und Rechenhilfe, als Kommuni-kationsassistenten etc. einen Einfluss auf den EQ der Nutzer und wie wirkt(e) sich der vermehrte Medienkonsum (auch TV, Computer etc.) der Bezugspersonen von Neugeborenen in der sensiblen Entwicklungsphase der Entstehung des Empathie-vermögens seit Mitte der 1990er Jahre aus?

Hier lohnt es sich, Langzeitstudien, die in Folge von M. Main und J. Solomon35stehen, die ihrerseits auf den Attachment-Studien von M. Ainsworth et al. aufbau-te, zu initiieren: Wie hat sich das als desorganisiert/desorientiert eingestufte Bin-dungsverhalten der Kinder weiter entwickelt, und in welchem Zusammenhang ist Attachment mit der Emotionalen Intelligenz (auch und gerade als Fähigkeit, eigene und fremde Emotionen zu erkennen und zu regulieren) zu sehen? Ist das als „still face“ beschriebene Gesicht der Bezugspersonen beim Medienkonsum als ein Faktor emotionaler Vernachlässigung aufzuführen?

Ist die eingangs von mir vermutete Zunahme affektiver Störungen und Impuls-kontrollstörungen evtl. auch auf die fehlende organismische (und damit affekt- und emotionsbeeinflussende) Ko-Regulierung durch (medien-absorbierter) Bezugsper-sonen im sensiblen Entwicklungsalter zurückzuführen?

Wenn Eysencks Verständnis der Intelligenz als Persönlichkeitsvariable mit be-rücksichtigt wird, könnte der Anti-Flynn-Effekt auch auf die zunehmende Ein-schränkung der realen Interaktion und sprachlichen Kommunikation zugute der digitalen Kommunikation und der „Bildsprache“ durch Emoticons rückzufüh-ren sein. 11. Fazit: Der Mensch als dümmstes und unglücklichstes Wesen

MI ist als Teil der NI zu sehen, die Werkzeuge und Instrumente hervorbringt, mit-tels derer sie ihre Effizienz und Effektivität steigern kann. Aus dieser Perspektive heraus und Pietschnigs Studien zur Migrationsforschung berücksichtigend, die er-gaben, dass Intelligenz sich transgenerational an den Durchschnitt adaptiert, kann durchaus behauptet werden, dass mensch im Anthropozän gerade durch die De-legation und Eskalation bestimmter Aufgaben an technische und technologische Hilfsmittel weiter intelligentes Verhalten zeigt.

MI ist variabel, anpassungsfähig – sowohl transgenerational als auch individuell und umweltbedingungsabhängig.

Intelligenz als Möglichkeit, individuelle Bestleistungen zu bewirken, ist dabei ab-hängig von Motivation, Affekt und Werten.

KI ist als vom Menschen geschaffenes Werkzeug, dessen Leistungsfähigkeit als Grad von Funktionalität zu messen ist, zu sehen. William Sterns Verständnis von Intelligenz scheint heute obsolet, da der Mensch seine Umwelt an sich anpasst, teils sogar natürliche Ressourcen irreversibel zerstört.

Intelligenz als Persönlichkeitsmerkmal zu betrachten scheint heute zutreffender. Persönlichkeit ihrerseits zeigt sich jedoch in Interaktion, außerhalb von Beziehun-gen spielen Persönlichkeitsmerkmale, wenn überhaupt, nur eine untergeordnete Rolle. Nur relativ zu den Merkmalen anderer Individuen sind individuelle Persön-lichkeitseigenschaften interessant. Als Persönlichkeitsvariable ist MI zweckgebun-den und zielorientiert.

KI kennzeichnet sich weder durch Persönlichkeit noch durch Intentionalität. Der EQ wiederum steht in Zusammenhang mit dem Verständnis vom vollständig ethisch handelnden Agens, eine Fähigkeit, die KI aberkannt werden muss36. KI ist als implizit ethischer Agens in der Lage, Programmanweisungen, die ethische Fra-gestellungen implizieren, zu folgen. Als explizit ethischer Agens ist sie heute teils in der Lage, nach ethischen Richtlinien eigenständig zu entscheiden:

Ein explizit ethischer Agent nutzt deontische Logik für Entscheidungen bzw. Aussa-gen über Erlaubnis und Verpflichtung, epistemische Logik für Aussagen über Glau-ben und Wissen, sowie Handlungslogik für Aussagen über Handlungen.

Die deontische Logik versieht die Maschine mit ethischen Imperativen, an denen Situationen und/oder Handlung geprüft werden können. Mittels epistemischer Lo-gik kann die Validität des vorhandenen Wissens beurteilt werden und berücksich-tigt werden. Die Handlungslogik ermöglicht die ethische Bewertung von Handlun-gen und ist damit entscheidungsbestimmend.

Der Mensch als vollständig ethischer Agent bettet seine logischen Ableitungen da-bei immer in seinen persönlichen Kontext ein, weiß um seine Wahlmöglichkeiten und -freiheiten und agiert gemäß seinen Vorlieben etc. – hier zeigt sich der Mensch erneut affektbestimmt38. Metahuman existiert keine Intentionalität, kein Wille – KI will nichts, hat also die Zielverfolgung nicht an affektbedingte Motivation gekoppelt.

Wille (als strategische Motivation über Instinkte, Reflexe hinaus) ist dabei auch an Werte gebunden. Ein entwickelter Wertecodex, der bewusst reflektiert wird, ist die Grundlage für jedes deontologisch Verhalten. Werte jedoch entstehen aus natürli-chen Grundlagen, sind Ergebnis unseres sozialen Menschseins, und sie spiegeln die prinzipiellen Funktionalitäten unseres Sozialorgans Gehirn wider: Wir Menschen sind, wie alle bewusstseinsfähigen Lebewesen überhaupt, zur Empathie fähig und von ihr bestimmt. Wenn KI nichts WILL, sie wird auch nicht überleben wollen, da sie (materielle/biologische) Existenz und Nichtexistenz nicht als gut oder schlecht (be-)wertet. (Kann ein „Gott“ deshalb auch Leiden und Elend der materiell-bio-logischen Welt ertragen, weil es für ihn keine Bewertung und damit kein Leid und Elend an sich gibt?)

Der Intelligenzbegriff aus psychologischer Sicht ist, zusammenfassend, relativ und als Konstrukt zu verstehen. Intelligenz umfasst dabei sowohl akademisch-intel-lektuelle Fähigkeiten, die Reaktionsfähigkeit und damit Funktionalität des Gehirns wie auch soziale Kompetenzen, inkludiert also IQ wie EQ.

Im Anthropozän beraubt sich mensch seiner Lebensgrundlage: einer ausbalan-cierten Natur, die sich selbst, in kontinuierliceher Veränderung und Anpassung, stabilisiert.

Die Psychologie verstand unter Intelligenz seit Anfang 1900 nach William Stern bestmögliche Anpassung an sich ändernde Umweltbegebenheiten, Fähigkeit zur Anpassung an unbekannte Situationen bzw. zur Lösung neuer Probleme: Der Mensch jedoch steht nun vor der Aufgabe, selbst gemachte Probleme zu lösen bzw. die Umwelt erneut so zu verändern, dass er überhaupt wieder die Chance hat, sich an die Umwelt anzupassen. Der Vergleich des Zauberlehrlings mag hier heranzu-ziehen sein, der die Geister, die er rief, nicht mehr kontrollieren kann. Nun will und hofft mensch, mit Hilfe von KI diese hausgemachten Probleme zu lösen und über-sieht hierbei seine eigene Unfähigkeit, eine Intelligenz intentional und kontrolliert zu schaffen, die der eigenen insofern überlegen sein könnte (also Probleme zu lösen vermochte, die vom Menschen selbst nicht zu lösen sind), dass sie nach anderen Prinzipien gerichtet wäre.

Bliebe einer gleich wie gearteten Intelligenz, die in der Fähigkeit, sich die Um-welt, dem Menschen ebenbürtig, Untertan zu machen, überhaupt eine andere Ent-scheidung, als den Parasiten Mensch vom Planeten zu eliminieren? Wäre es nicht Zeichen einer NI, das, was die Umwelt zerstört (das Verhalten des Menschen) aus-zuschalten? MI wird hierbei als Teilbereich der NI und evolutionär entstanden als Resultat der Anpassungsnotwendigkeit und -fähigkeit auf sich ändernde Umwelt-begebenheiten aufgefasst. Dieses Verständnis lässt die Weiterführung des Intelli-genzbegriffs als Entwicklungsmöglichkeit durchaus neuer Fähig- und Fertigkeiten zu.

KI hingegen wird von mir betrachtet als die von einer NI zielgerichtet entwickelte Funktionalität eines Werkzeugs, d. i. in ihrer Ausprägung messbar an dem Grad der Aufgabenerfüllung. Somit ist KI MI unterzuordnen. Ein anthropologischer Fehlschluss bzw. ein Projektionsfehler wäre, KI aufgrund der (programmierten) Finalität Intentionalität zu unterstellen. In Bezug auf MI ist deren Finalität jedoch unbedingt mit Intentionalität/Volition verbunden und richtet sich damit implizit oder explizit nach ethischen Normen aus. MI muss unter dem finalitätsgerichteten Aspekt von Intentionalität und Volition untersucht werden: Der Mensch nutzt seine (und die von ihm entwickelte künstliche) Intelligenz, um zu überleben bzw. um das Leben so angenehm wie möglich zu gestalten – KI hingegen beabsichtigt und will nicht sowie nichts. Hier wird die ethische Implikation deutlich.

161

Zeigt sich aus diesem Verständnis heraus der Mensch im Anthropozän als intel-ligent? Der Mensch passt nicht mehr sich und seine Handlungen an die Umwelt an, sondern er verändert die Umwelt derart, dass er selbst unter gegebenen Bedingun-gen keine neuen Fähigkeiten mehr entwickeln und bereits erworbene nicht mehr nutzen muss (z. B. Lesen, Schreiben, Raumorientierung, soziale Fähigkeiten etc.) Auf der anderen Seite beraubt er sich (aus hedonistischen Motiven heraus?) durch die fortlaufende Beeinträchtigung und Beeinflussung natürlicher Prozesse seiner Lebensgrundlage Natur.

Aus dieser Perspektive heraus ist das Verständnis von Intelligenz als Fähigkeit zur Lösung neuer Probleme nicht mehr gültig. Anstatt sich nun auf die Lösung der hausgemachten Problematiken zu konzentrieren (z. B. könnte KI auch als APP da-hin gehend genutzt werden, dass der ökologische Fußabdruck von Waren als ad hoc Kaufentscheidungshilfe berechnet werden kann) müht sich der Mensch an Spekula-tionen über die Eventualität zukünftiger Bedrohung durch die von ihm geschaffene KI ab. Er befürchtet eine apokalyptische Überwältigung durch autonome KI, die dem Kontrollverlust im Zauberlehrling gleicht. Hier zeigt sich ein anthropologi-scher Gedankenfehler: KI ist in Intentionalität und ihrer Finalität eben nicht mit MI zu vergleichen und ist intentions- wie volitionsfrei. Ebenso wenig bewertet KI von sich aus (Über-)Leben als gut und/oder Untergang/Tod als schlecht. Von KI ist mithin weder Unterstützung noch eine Gefährdung hinsichtlich des Fortbestands der Spezies Mensch zu erwarten.

Unter Berücksichtigung alles im Vorfeld Dargestellten plädiere ich für einen neuen, ethisch-pragmatischen Intelligenzbegriff. Hier sollte und muss auch Emo-tionale Intelligenz mit berücksichtigt werden. Bei künstlichen Systemen als Werk-zeug/Instrument ist auf den Begriff der Intelligenz zugunsten des Begriffs der Funktionalität zu verzichten. In der Definition von MI muss deren Intentionali-tät und damit moralische Ausrichtung im Sinne des (Überlebens-)Schutzes einer jeder Form von Intelligenz (auch natürliche und animalische Intelligenz) stärker gewichtet werden. Ich gerate immer mehr zu der Einschätzung, dass der Mensch nicht nur das wohl unglücklichste, sondern auch das dümmste (im Sinne von nicht intelligent handelndem) Lebewesen dieses Planeten ist und sich selbst zu eben je-nem macht, seit er die natürliche durch die von ihm gestaltete künstliche Evolution zu überwinden sucht.

162

164

Artificial Intelligence: Thoughts from a Psychologist

Michael J. Meitner Zusammenfassung

In ihrem gegenwärtigen Entwicklungsstadium ist Künstliche Intelligenz (KI) noch weit davon entfernt, die Komplexität des menschlichen Gehirns zu er-reichen. Der technische Fortschritt könnte jedoch zu einer KI führen, die als eine allgemeine Intelligenz die unsere in wichtigen Aspekten übertrifft. Ein entscheidender Schritt nach vorne könnte darin bestehen, dass KI ein Ausmaß an Diversität annimmt, wie wir es bereits aus unserer eigenen Neurologie her kennen. Für den weiteren Weg ist es wichtig, die Ziele im Blick zu behalten, die mit der Entwicklung von KI verbunden sind. Sich selbst überlassen, könnte KI zu einem verheerenden Wettbewerber und Kontrollfaktoren für Menschen werden. Dazu gestaltet, uns mit unseren Herausforderungen zu helfen, v. a., was die Umwelt betrifft, könnte KI aber auch einer menschlichen Entwicklung zu-träglich sein. Abstract

In its current state, Artificial Intelligence (AI) is still very far from reaching the com-plexity of the human brain. Technological progress, however, might bring about AI as a general intelligence surpassing our own in important aspects. One crucial step might be AI gaining an amount of diversity as we know it already from our neurology. On the way forward, it is important to consider the goals connected with the development of AI. Left to its own devices, AI might turn into a devastating competitor and controlling factor for humans. Designed to help us with our chal-

165

lenges, especially concerning the environment, AI might as well benefit humane development. 1. Introduction

Artificial intelligence, or AI as it is commonly referred to, is a suite of technologies that are poised to change the world as we know it. The concept of AI has been with us throughout antiquity in the mythologies of the Greeks and in early conceptions of automata. Early work in cybernetics and eventually neural networks brought this concept out of the realm of fantasy and into the modern world. In 1952, Marvin Minsky and Dean Edmonds succeeded in creating the world’s first functional neu-ral network machine, the Stochastic Neural Analog Reinforcement Calculator or SNARC1. While this was no doubt an impressive achievement of the day, it did not really live up to the dreams of the ancients of a machine that would embody more human characteristics.

The holy grail of AI has always been to create a machine capable of general-ized intelligence. In fact, the first know test of generalized intelligence in AI was posited by Alan Turing in his seminal paper “Computing Machinery and Intelli-gence”2 and to this day is known as the Turing Test. The point of this test was to ascertain if a machine could fool a human into thinking it was conversing with an actual human being. When I was in graduate school, I had the pleasure to interact with ELIZA, a computer program written in 1966 by Joseph Weizenbaum to mim-ic the behavior of a Rogerian psychotherapist3 which some would argue was the first program to pass the Turing Test. While this contention remains controversial to some I can personally attest to the convincing nature of the program. However, I can also attest to the fact that it was quite easy to trip up this software and there-fore destroy the illusion. It could never imagine new or novel situations and often answered any question that required creativity with a question of its own. Some historians of the internet age might say that ELIZA represented the first “bot”, a software program that imitates the behavior of a human, as in participating in chatroom or IRC discussions. As most of us know today, bots have become far more sophisticated and for many of us they seem quite human when we interact with them.

However, there remains a massive disconnect between imitating a human and creating an artificial human brain. The human brain contains approximately 86 bil-lion neurons and each neuron has on average 7,000 synaptic connections yielding nearly a quadrillion synapses4. In terms of simple computational power (measured in floating point operations per second or FLOPS) the human brain is estimated to be capable of approximately 1  exaFLOP (1018).1 Modern technology still falls short of this degree of raw computational power. The world’s fastest supercomputer, Fujitsu for Japan’s RIKEN Center for Computational Science supercomputer, has currently achieved 422 exaFLOPS5. However, it should be noted that important ar-chitectural aspects of the human brain are even further from the realm of possibility currently. Simply having the ability to do the same number of calculations over time does not mean that the arrangement of those neuronal units is in anyway similar to that of a human brain. Even in the case of AI modeling of C. elegans , a common worm that has only has 302 neurons, researchers are still refining the architecture of that model based on new electron microscopy  data6. Therefore, the goal of a generalized intelligence instantiated in a computer is likely very far in the future. One possible technological development that may change this calculus is quantum computing but this still has significant challenges to overcome to become relevant to this discussion. Computational power (quantum or not) will certainly close the gap but this belies the fact that human brain is not simply the sum of its abilities to do raw computations.

In general, I would say that AI, in its current form, is in no way like the human brain even though AI researchers use architecture developed from observations of neuroanatomy. Modern AI is mostly focused on “narrow, shallow or weak AI” tasks such as finding patterns in our purchases and suggesting new ones based on these patterns. Even those AI’s considered “broad, deep or strong AI” do not re-ally approach the complexity of the human brain. Deep AI consists of numerous neural networks often hierarchically arranged that allow for deeper levels of ab-straction from the inputs in the model. In addition, deep AI techniques deal well with unstructured data and can analyze that data in an unsupervised fashion. These qualities have made deep learning techniques quite ubiquitous and they have been employed to tackle problems such as speech recognition and computer vision. Ar-tificial general intelligence, on the other hand, will require substantial leaps in both hardware and software before this can be realized.

At this point I would like to compare and contrast the nature of artificial and hu-man general intelligence as seen in table 1 below.

Artificial Human

Infinite sensors Limited sensors (can be augmented)

Infinite dimensionsDimensionally challenged

Infinite data storageLimited

Technology boundOrganism bound

Fairly stable goals (can be made to evolve)

Changing and evolving goals

Ever increasing processing speedSpeed mostly fixed

Replication generally yields copies

(unless a genetic algorithm is used)

Replication yields neuro-diversity

Consciousness?Multiple unconsciousness systems par-tially discovered by consciousness

Table 1: A comparison of artificial and human general intelligence

As is evident from table 1, artificial general intelligence holds much promise and will likely lead to the formation of an artificial superintelligence. Being able to surpass our limitations in data sensing, data storage (memory in humans) and in hyper-dimensional thinking at speed will allow AI’s to make tractable those problems that have long eluded us. The goals of AI and the eventual ar-chitecture (and potential diversity of architecture) seem to be important turning points in our thinking about how we might make progress toward the creation of artificial general intelligence. Let us start by first turning our attention to diversity in AI.

168

The concept of neuro-diversity has been with us since 1998 and refers to the rev-elation that variation in the human brain is vast and while some variation may be detrimental other variations may represent significant strengths or improvements. In fact, I would go as far as saying that neurodiversity can in fact represent a com-petitive advantage. If true for humans, this surely would be true of diversity in AI as well. It has long been known that genetic algorithms (GAs) can be used to spawn novel architectures for neural networks that can be used to evaluate the degree of performance of its progeny on some fitness function or goal. This allows for com-petition between various forms of an AI algorithm and leads to better solutions to problems that the AI is tasked with. This represents some degree of neurodiversity in AI already, albeit a weak form of it, as unsuccessful progeny are “killed off” and therefore diversity is not maintained. Ideally, neuro-diverse AI systems would be persisted and alternate solutions could be investigated to allow for insights into di-vergent approaches that may help us to better define and build robust and resilient AIs in the future.

Ultimately the discussion of the concept of neurodiversity in the context of AI causes us to question our ideas about goals. Goals in AI must be made explicit in some way and often represent the most challenging aspect of creating a functional AI. For many AIs there are more than one goal that the algorithm is trying to max-imize or balance amongst. However, all of these goals have a context and perspec-tive. From a user’s perspective, a common goal might be increasing the relevance of information retrieved based on a query. From the companies’ perspective a similar goal might be user engagement. These differences in defining goals can have signif-icant effects on the outputs of an AI. In fact, they define them. Variability in goal definition over time allows a model to adapt to changing system conditions.

As referenced in table 1, human goals seem to be ever changing and evolving as our understanding of the world progresses. This is especially true in the case of “wicked” problems. Wicked problems are those that defy simple solutions and are often comprised of multiple interacting systems. They are wicked because they are typically poorly understood, include contradictory information and are high-ly variable over time. Wicked problems do not have an optimal solution, rather they have temporary or partial solutions that are likely themselves to change over time. The changing nature of wicked problems and the large uncertainties in their

169

predictions mean we have to take an adaptive approach to the problem. Like wick-ed problems, adaptive problems are where the problem definition is mostly un-known. Adaptive problems often require the locus of control for solving the prob-lems to be decentralized. Stakeholders become the focus rather than disciplinary experts and as we well know stakeholders often have a variety of perspectives on a problem. This is the type of diversity needed if we hope to be able to conceptualize the system properly. From that one might argue that this means that multiple AIs might be needed to focus on various specificities of a problem for a larger defini-tion of the problem to occur. 3. AI in the environmental sciences

Many of the issues of our day are in fact adaptive problems, such as most of our problems. The World Economic Forum report titled “Harnessing Artificial Intelli-gence for the Earth”7 states that there are six priority action areas for addressing en-vironmental issues: 1) climate change, 2) biodiversity and conservation, 3) healthy oceans, 4) water security, 5) clean air and 6) weather and disaster resilience. Each of these areas has a series of sub areas that AI could be applied to in order to create a more sustainable future. In the case of climate change, they refer to: clean pow-er, smart transport options, sustainable production and consumption, sustainable land-use, smart cities and homes. AI can be applied to all these areas and in certain cases have the potential to transform these sectors. Consider a modern energy grid that can use AI to adapt to changing supply and demand, incorporate traditional power sources with clean energy and to make distributed energy possible at scale. This would seriously improve our ability to meet our climate change targets. As well, significant improvements in transportation, agriculture, and water manage-ment systems can also be realized by the application of AI technologies.

AI has already been applied to many environmental problems. Monitoring en-dangered species8, tracking diseases9, crop optimization10, smart buildings and associated IoT to increase efficiency11, predicting storms12, and managing traffic13are but a few of the many applications of AI in the environmental domain. In all these cases, AI offers us a method to deal with the massive degrees of complexity that represent these wicked environmental problems. This is made possible by the vast quantities of data that we are currently collecting to support decision making in these areas.

The world of “big data” has arrived and no technology is better poised to make use of this plethora of data than AI. In fact, without computer aided decision making, I would venture to guess that we would not be able to effectively navigate, understand or even utilize the amount of data that is currently available. AI, however, has a special relationship with big data and becomes better when provided with increas-ing data volumes. AI is especially good at detecting anomalies in massive data sets, determining the probabilities of future outcomes and it can recognize patterns that human cannot. 4. AI and Risk

The same report that was mentioned above also identifies six areas of risk for AI14. They are: performance, security, control, economic, social, and ethical. Performance risks refer to problems in deciphering the “black box” inner workings of an AI. Be-cause we have little insight into what and AI is actually doing, we have difficulties in knowing if its performance is accurate or even desirable. Issues of model fit are also complicated by this. If an AI is inferring future trends based on historical records then we need to wonder if those records contain enough information to support such prediction. If we don’t know what an AI is doing internally then this problem is exacerbated.

Security risks, mentioned in this report, are also of concern. They reference “hackers” and the problems of bad actors manipulating algorithms to take control of them. This brings to light a more serious concern of who has control over these algorithms. Most AIs are in the hands of governments or large private sector com-panies. Neither of these has a great track record of acting for the social good. Private companies have a fiduciary duty to act in the best interests of and while they may make efforts to address social issues this will never be their primary concern. How-ever, one could argue that a government’s main interest is the public good but as we all know this can be perverted in service of other goals that do not in fact create nor maintain social good. Even if these actors had social good in mind, how is it defined? Would those actions taken by these actors result in increased social good? This is an open question and certainly needs more thought and discussion to deter-mine how to fully define this risk.

Control risks are some of the most blown out of proportion but are also some of the most worrying. This is where common narratives of post apocalyptic worlds governed by intelligent machines that have decided that humans represent a threat come in. However, this does not really represent a credible threat because you would need an AI capable of general intelligence and we have already determined that the likelihood that this will materialize in my lifetime is remote at best. What is of more concern are AIs that have direct control of various systems that might make deci-sions that lead to unintended consequences. One example of this is the flash crash of the US stock market in 2010 which was likely caused by interaction of multiple AI bots all speed trading at the same time15.

Economic risks are also potentially significant for AI as it moves forward. Com-panies that do not have access to AI or the associated data to drive them run the risk of being out competed. This in turn creates the risk that the business landscape will continue to shrink, creating increased inequity of wealth distribution and consoli-dating power with a few multinational companies. This may lead to a circumstance where a few companies begin to exert more power over global progression.

Social risks of AI are often defined as adaptation to increased automation pres-sures created by increased use of AI. Job loss and increased unemployment are real possibilities in a world where AI takes over much of the work of running the sys-tems that we rely on. Additionally, AI algorithms can potentially be biased against certain factions of society, underpinning historic social inequities. New inequities can also be created by AI as it fundamentally changes the sector with in which it is being applied. Take as an example the transportation sector where autonomous vehicles are poised to massively disrupt people’s lives who rely on this sector for employment.

The last risk that this report discusses is ethical risks. What choices will an AI make? Will they be beneficial choices? What about fairness and human rights? Pri-vacy concerns are also discussed here. While all of these risks are important and represent an excellent attempt to get us all thinking about how AI will shape our future, I believe that there is a significant omission in the risks associated with con-tinued development and application of AI technology. 5. Additional risks

I would add two additional risks to this list; access to both data and the knowledge needed to make sense of it. Let us first tackle data access. AI does not represent a valuable technology without the data that drives it, and data is not generally freely available. Of course, there are open data sets but the vast majority of mean-ingful data being generated today is in the hands of private corporations or gov-ernments. In 2020, every minute of every day we collectively generate 500 hours YouTube video, WhatsApp users share 41,666,667 messages, Facebook users up-load 147,000 photos, Instagram users post 34,722 stories, and TikTok is installed 2,704 times16. The amounts of data being generate currently is staggering and for the most part we create this data. It is estimated that in 2020 each person on earth generates 1.7 MB of data per second17. Because access to this proprietary data is in the hands of the few, and by all accounts, the powerful, we run the risk of in-creasing inequity in society. Not just in terms of wealth, which is certainly an issue worth discussing, but also in terms of access to the information being derived by various AIs. How are common people supposed to keep up when knowledge about our behaviour, actions, purchases, interests, beliefs, and values are being used to manipulate us? To control our purchases, our information feeds, our attention, our very lives. Something must be done to level the playing field. At a bare minimum we should have access to information about specifically how this data is being used to influence us.

Levelling the playing field however is not an easy task. There are many issues that need to be dealt with before we can hope to begin to bring us closer to balance. One of the first is the fact that this data is often privately owned. By agreeing to the li-censing agreements (that honestly, we don’t really have much of a choice about), we have given up our rights to this data (as per the individual agreements). Addition-ally, we might also be concerned about privacy. No one really wants their neighbor to have access to their search history. This later problem however, is a far more trac-table problem. Data can always be anonymized and abstracted to hide individuals within the masses as is commonly done with census data. The real sticky wicket is the ownership issue. Companies will not give up this data without a fight. This data represents real value to these companies and access to these data sets is often sold to third party companies for a variety of reasons. If this data were freely accessible to all it would significantly alter the business model for many companies that special-ize in this area. If this is not remedied however, we can expect the knowledge divide in society to grow and eventually this may in turn weaken the functioning of civil society in the future.

One possible solution to this is to consider making companies that supply ser-vices that are critical to civil discourse, public utilities and regulate them as such. This would ensure fair and equal access to these platforms that give citizens voice. No one can tell you that you can’t have a phone and as well no one censors what you say when you are participating in a phone call. Why should digital communi-cation services be any different? One argument would be that today’s digital com-munication platforms are in the public sphere rather than a private communication between individuals but this simply changes the scope of the communication and who can see it. Currently our approach to this is one of censorship. We disallow those things that we find offensive and label it hate speech, striking any record of it from our collective discourse. To some this is seen as necessary to ensure a peaceful and equitable society, to others this is seen as top down control by those in power to limit personal freedoms. The real question about censorship is not whether we should to it but who is doing it? Who gets to decide what appropriate speech is? If you are in charge of this then I would imagine that you would be quite happy with the rules but others might think of you as intolerant. In my opinion speech should be protected unless it directly leads to action that is prohibited; violence, harass-ment, etc. Otherwise you have to decide what speech is acceptable and what is not and as history has taught us, this is a slippery slope. Once the precedent is set then

174

even if the previous government enacted censorship laws that we consider ethically correct, the next party in power could use this same power to rewrite the laws in their favor and impose restrictions on speech that may not be as ethically centered. Take for instance the case of the National Union of Students who in 1973 got racist speech banned at universities in England. This ban was supported at the time by an organization of Zionist students. For this seemed like a win but a few years later a different group of students was in power at the National Union of Students and they decided a Zionist speaker from speaking on campus because they now considered Zionism a form of racism. As you might have imagined, the group of Jewish stu-dents likely did not see how this might be turned against them as the leadership of that organization changed over time18.

If these companies are considered public utilities, we could also mandate that the proceeds of all analysis (knowledge) of our collective data should be freely avail-able to everyone. This could come in the form of information dissemination and outreach on the part of the companies involved or it could mandate free and equal access to this data for the purposes of analysis. Both have their strengths and weak-ness but it seems to me that allowing companies to be the sole arbiter of what gets published is a bad idea. If we pursued the later idea then we would need to find ways to make these vast amounts of data available in real time. Additionally, there are numerous barriers to fair and equitable access to this data even if provided free-ly. Access to sufficient computing hardware and software is required for anyone to begin the process of data analysis of these massive data sets. This is certainly not equitably distributed either. As well the knowledge required to not only conduct such an analysis but to comprehend it as well.

This brings me to my second point regarding risks; access to education and the knowledge that it brings to the individual is critical for individuals to have sufficient skill and training to approach this analysis with rigor and accuracy. To some degree we are far closer to this goal than we are to the goal of equal access to the data itself. Online education has exploded over the years and many topics such as computer programming skills are currently freely available to those that have the inclination to pursue them. This does not mean that they have access to the best and brightest minds on the subject but they do at least have enough access to learn most of what would be required of an AI researcher today. This would allow many more minds to be focused on common problems that we face today but also to potentially uncover new and previously unknown ideas at a far greater rate. It is in this exploratory space that I see this type of citizen science as being most directly applicable. With more minds come more perspectives, potentially allowing us to see a greater degree of the underlying “Truth” of the world. This is certainly in line with the ideas pre-sented earlier related to neuro-diversity.

A criticism of this approach might be that there is little control over the prepared-ness of individuals that seeks to undertake this type of work. However as one can plainly see this has always been the case. Even today not all researchers are consid-ered equal. Some have tremendous knowledge and insights into the complexities of this undertaking and it is highly likely that contributions by these individuals would be of more import. The solution to this is as it always was. Peer reviewed publication practices can go a long way to maintaining a high standard when it comes to the quality of our collective scientific efforts. However, we also have to aware of the fact that the academic-industrial complex does not have exclusive license to seek the truth. Many minds of great importance do not get the chance in life to contribute to their full potential. Creating a strong program of citizen science, free and open data sources, and access to the knowledge required to pursue such endeavors is paramount for our society to move toward a collective vision of a future where dis-course is alive and well, we share that which has the potential to collectively move us forward, and allow all voices to participate in the creation of said future. It is my great hope that we can find new ways to set our collective table in such a way that all leave nourished in mind, body and spirit. 6. Conclusions

AI is quickly redefining our world and if we continue along our current tack we will likely exacerbate social inequalities and eventually make a less stable world for our children. This is the challenge for the science of AI. Can it mature quickly enough to provide us with insights and abilities that may help us to create a more sustain-able and equitable future for all? Climate change and associated global risks are the challenge of our time and human nature is likely the root cause of this dilemma. AI offers us the potential to turn the light of science on our interior nature and the ramifications that this has for our collective future and our future actions within it.

176

Make no mistake, trying to understand our collective behaviour, is the most wicked problem of all. Made even more so because we are the both the cause and solution to the problem. We are on the dance floor of our own perceptions, emotions and thoughts and we need to get on the balcony to be able to see the patterns that are emerging. AI offers us this vantage point. Granted we have a long way to go to im-prove the science of AI to allow us this potential but it exists none the less. I would hope that we could find a way to act in the collective good. To create a digital world where the rights to participate in society are inviolate, where access to data critical to said discourse is guaranteed, and diversity of perspective is the only requirement for entry.

Social networking companies must begin to think about the world they are allow-ing us to flow into. We are all on a river of time and the topography that underlies that river is the very nature of our digital (and physical, etc.) world that we have created to date. But just as topography yields to the bulldozer, our digital landscape is ours to remake. Let us start a discourse on this topic. Let all the world’s peoples participate. We now have the tools to make this possible. It is world, but it is also one that must continue to improve if we are to hope engineer ourselves out of the current environmental trajectory. Bibliography

178

Nature as a Work of Art?

translated into English by Kevin Fencil

Marion Friedrich Zusammenfassung

Unser Verständnis (unser „Begriff“) der Natur ändert sich mit zunehmenden tech-nischen Möglichkeiten: Schon lange betrachten wir sie nicht mehr nur und bilden sie ab – wir zerlegen sie in Einzelteile und bemühen uns, sie uns zugänglich zu ma-chen – das, was unsere Sinnesorgane nicht funktionsintrinsisch wahrnehmen kön-nen, amplifizieren und verändern wir. Auf diese Art schaffen wir u. a. Synästhesien: „Sounds of decay“, das Forschungsprojekt mit künstlerischen Ambitionen von Cat Hope1 ist ein Beispiel. Tod, Zerfall von lebender Materie, sichtbar mit und ohne Hilfsmittel, wird hörbar gemacht.

Auf der anderen Seite verschieben wir unsere „natürlichen“ Grenzen als Men-schen durch die Implementierung künstlicher (technischer) Komponenten in den lebenden Organismus mehr und mehr. Jeder Versuch, Natur (über die Erkenntnisse der Einzelwissenschaften hinaus) begrifflich zu fassen, führt in letzter Konsequenz zur Frage nach der Natur des Menschen zurück: Diese Hürde zeigt sich zunächst unüberwindbar. In jedem Bemühen, Natur zu objektivieren, setzen wir sie in Re-lation zu uns als Subjekte. Insbesondere die Möglichkeiten der modernen Technik stellen uns erneut vor die Herausforderung, Stellung zu uns als natürliche, in der Natur befindliche (und von ihr abhängige) Lebewesen zu beziehen – und dies un-abhängig davon, welches Gegensatzpaar wir in dem Bestreben, uns einen Natur-begriff zu bilden, auch konstruieren (Natürlichkeit – Nicht-Natürlichkeit; das Ent-standene – das Gemachte; das Normale – das Abnormale; das Authentische – das Künstliche; Gesetzmäßigkeit – Willkürlichkeit).

Je nachdem, wie wir Natur definieren, gelangen wir zu gänzlich unterschiedlichen Schlüssen in Bezug auf die Legitimität des (naturgemäßen?) Bestrebens, eben jene zu überwinden bzw. die uns durch unser Menschsein natürlich gegebenen Grenzen zu erweitern. „The primary political and philosophical issue of the next century will be the definition of who we are“, schrieb Ray Kurzweil2. Noch nie schien die Kluft zwischen dem, was wir tun können (was technisch realisierbar ist), und dem, was wir tun möchten (was wir für moralisch richtig, für unanfechtbar halten), größer: Doch wie können wir entscheiden, ob beispielsweise Moral-Enhancement „richtig“ im Sinne von „natürlich“ genug (= moralisch korrekt) ist, wenn wir uns noch nicht einmal darüber klar sind, was überhaupt die „Natur des Menschen“ ausmacht?

Dass wir in die Natur eingreifen, sie zu verstehen und verändern suchen, ist all-gemein eine (moralisch) akzeptierte Tatsache. Seit jeher haben wir unsere Umwelt (die „Natur“) durch unser Eingreifen zu Gunsten der menschlichen Spezies mani-puliert. Heute verfügen wir über die technischen Möglichkeiten, in die Natur des Menschen selbst einzugreifen – ohne sie bislang ausreichend definiert zu haben: Mittels Enhancement-Methodik nehmen wir Einfluss auf Kognitionen, Emotionen und sogar Wahrnehmungsmodalitäten.

Es ist dringend erforderlich, dass wir uns darüber verständigen, „welche Art und welches Ausmaß des Eingreifens gut ist“3, auch, wenn der Versuch, eine einheitliche „Naturphilosophie“ und sei es nur durch das Erreichen eines Konsens in Hinblick auf einen Naturbegriff, zu betreiben, utopisch wirkt.

Es war kein allzu langer Weg von der Feststellung, dass Kunst konzentrierte Natur sei4 über hybride Kunstskulpturen bis hin zu „Sounds of decay“, dem Projekt von Cat Hope, die als Mitglied der australischen interdisziplinären Forscher-/Künstler-gruppe SymbioticA, den Zerfall lebender Materie vertonte: Das Zellsterben einer in einem Luftentfeuchter gehaltenen, austrocknenden Riesenkröte wird in Musik um-gewandelt. Auf diese Art machen wir Natur zum Kunstprodukt, machen sie uns für alle unsere Sinnesmodalitäten zugänglich, erweitern zugleich mit Neuroprothesen unsere Sinneskapazitäten.

In dieser paradoxen Situation, in der die einen daran arbeiten, moralisches Ur-teilsvermögen (mit konsequentem Handeln) durch Eingriffe in die „menschliche Natur“ zu stärken, und die anderen „natürliche“ Prozesse pervertieren, um sie, auch unter Einbezug quasi synästhetischer Empfindungen, zu ästhetischen Objekten zu stilisieren, sich ihrer eigenen Natur damit entfremdend, wird Natur im doppelten Sinne zu einem Kunstprodukt: Natur wird zu konzentrierter Kunst. Abstract

Our understanding of the term “nature” has changed as our technological prowess has grown. Whereas nature used to be something we observed and created repre-sentations of, it is now something we attempt to make accessible by disassembling into tiny pieces, amplifying and modifying that which our senses cannot otherwise perceive. In the process, we create experiences that are in part synesthetic. “Sounds of Decay,” in which death and the decay of living matter are made audible, is an ex-ample of this. Parallel to this, we’ve embarked upon an attempt to enhance our own “natural” abilities to perceive and perform by implanting artificial – technological – components in our bodies.

Findings within the individual branches of science notwithstanding, any attempt to make nature definable ultimately and inevitably leads to questions about the nature of man himself. Whenever we try to objectify nature, we do so relative to ourselves, the subjects. Regardless of which pair of opposites we choose (natural/not natural; that which originated/that which was made; the normal/the abnormal; the authentic/the synthetic; that which conforms to rules/that which is random), the possibilities afforded by new technologies present us with the challenge of con-structing – or construing – a concept of nature and of taking a stance on what it means to be a human being, both of and dependent on nature. Depending on how we define nature, we arrive at widely varying conclusions about the legitimacy of our (natural?) efforts to overcome it, to go beyond the boundaries it has set out for us as humans.

“The primary political and philosophical issue of the next century will be the definition of who we are,” wrote Ray Kurzweil in the year 2000. The gap between what we are able to do (i.e. what was technologically possible) and what we want to do (i.e. what we considered morally defensible) has never seemed larger. How are

181

we to decide whether moral enhancement, for example, is “morally correct” in the sense of being “natural” enough when it isn’t even clear to us what the essence of the “nature of man” is?

That we intervene in nature and seek to understand and change it is a (moral-ly) accepted fact. Human beings have been modifying their environment (nature) to suit their purposes since time immemorial. Today, we possess the technological savvy to manipulate the nature of man itself without having sufficiently defined the “nature of man.” Various methods of enhancement allows us to influence cognition, emotion and even modes of perception.

It is absolutely crucial that we reach a consensus about “what type and what de-gree of intervention is good” (Siep 1999), no matter how utopic the attempt to come up with a philosophy of nature we all can agree upon, or at the very least to reach a consensus regarding the definition of nature, may seem.

The path leading from the observation that art is concentrated nature (Honoré de Balzac, 1799–1850) via hybrid art sculpture to “Sounds of Decay” (a project by Cat Hope, who is a member of SymbioticA, an interdisciplinary Australian group of researchers and artists) is a short one. The dying cells of a cane toad dehydrating in a desiccator are transformed into music. Nature becomes a synthetic product, something we can experience with our senses, while our senses are enhanced with neural prostheses.

In this paradoxical state of affairs, in which one group strives to improve our ability to pass moral judgment (and act upon this judgment) by intervening in “human nature” while another group perverts “natural” processes and utilizes quasi synesthetic perception in order to create aesthetic objects that bear little relation to their natural selves, nature becomes not only a synthetic product but concentrated art. 1. Nature as a Work of Art

Suppose I arrived on Earth as a visitor from another planet and was taken on a sightseeing tour. If we first visited the river Lech as it runs its “natural” course5 and afterwards an artfully placed pond in somebody’s garden, I’d hardly be able to tell which of the two is “natural” and which has been “made” – at least not without some sort of prior knowledge. I would see water, in varying degrees of motion, surrounded by a landscape – even the concrete bed of the pond is ultimately made out of “natural” materials6.

In order to differentiate nature from art, I have to apply the knowledge I have at my disposal about how the water came to be and about the rules and laws that govern its flow. In doing so, I would be introducing myself as an observer into the equation. What I could say is: If, by applying the methods available to me as a sci-entist, I can observe or at least assume the existence of some sort of adherence to a natural law, then the thing I am observing is nature. Water, for example, wants to flow downhill. Even a hill of sand piled up by a child can cause water to flow down-hill, assuming there is enough mass to propel it forward.

Art seems to adhere to laws that can hardly be comprehended “objectively.” In everyday speech, art is thought of as something that has been made. Yet, is a bird’s nest nature or art ? Whether we think the landscaped waterfall in our neighbor’s garden is pretty or aesthetically pleasing seems at first to depend on purely subjective preferences. Nonetheless, even our aesthetic sensibilities adhere to certain rules – both in art and in nature. Beauty, it turns out, is mea-surable. We consider a face to be beautiful, for example, when its features stand in a certain proportion to one another7. Both symmetry and “proximity to the average” (or “familiarity”) determine whether or not we find a face attractive in our culture8.

As a human being subject to the laws of nature, it is impossible for me to step outside myself and exempt myself from all the implicit rules that influence how I perceive things. Because of this, I can only perceive everything the world has to offer as a work of art. What qualifies as nature outside of my field of perception is impossible to say, given that man himself is a work of art.

Fig. 1: Measuring beauty 9 .

Does this mean the terms “nature” and “art” are freely interchangeable – and thus meaningless? Does it make sense to take a philosophical view of nature at all when nature as such does not and cannot exist for us because it is, just like art, purely a contrivance of the human spirit?

I believe that today, more than ever, we must set ourselves to the task of uniting epistemology, hermeneutics and other philosophic semi-disciplines so that guide-lines in terms of practical ethics can be established.

This paper will attempt to show that both nature and art are abstract terms that are, at first glance, indistinguishable from one another. After all, each time we observe nature, our observations are colored by our own self-image. Only when we begin to see ourselves as works of art does the opportunity to con-sciously plan our further evolution arise. There is no way of “returning to na-ture” as far as I can see.

Our understanding of the term “nature” has changed as our technological prow-ess has grown. Whereas nature used to be something we observed and created rep-resentations of, it is now something we attempt to make accessible by disassembling into tiny pieces, amplifying and modifying that which our senses cannot otherwise perceive. In the process, we create experiences that are in part synesthetic. One ex-ample of this is “Sounds of Decay,” a project by Cat Hope, a member of an interdisci-plinary Australian group of researchers and artists called SymbioticA10. In it, death and the decay of living matter are made audible.

Parallel to this, we’ve embarked upon an attempt to enhance our own “natural” abilities to perceive and perform by implanting artificial – technological – compo-nents in our bodies.

Findings within the individual branches of science notwithstanding, any attempt to make nature definable ultimately and inevitably leads to questions about the na-ture of man himself. Whenever we try to objectify nature, we do so relative to our-selves, the subjects. Regardless of which pair of opposites we choose (natural/not natural; that which has originated/that which was made; the normal/the abnormal; the authentic/the synthetic; that which conforms to rules/that which is random), the possibilities afforded by new technologies present us with the challenge of con-structing – or construing – a concept of nature and of taking a stance on what it means to be a human being, both of and dependent on nature. Depending on how we define nature, we arrive at widely varying conclusions about the legitimacy of our (natural?) efforts to overcome it, to go beyond the boundaries it has set out for us as humans.

“The primary political and philosophical issue of the next century will be the definition of who we are,” wrote Ray Kurzweil in the year 200011. The gap between what we are able to do (i.e. what is technologically possible) and what we want to do (i.e. what is considered morally defensible) has never seemed larger. How are we to decide whether moral enhancement, for example, is “morally correct” in the sense of being “natural” enough when it isn’t even clear to us what the essence of the “nature of man” is?

That we intervene in nature and seek to understand and change it is a (moral-ly) accepted fact. Human beings have been modifying their environment (nature) to suit their purposes since time immemorial. Today, we possess the technological savvy to manipulate the nature of man itself without having sufficiently defined the “nature of man.” Various methods of enhancement allow us to influence cognition, emotion and even modes of perception.

It is absolutely crucial that we reach a consensus about “what type and what de-gree of intervention is good”12 no matter how utopic the attempt to come up with a philosophy of nature we all can agree upon, or at the very least to reach a consensus regarding the definition of nature, may seem.

The path leading from the observation that art is concentrated nature13 via hy-brid art sculpture to “Sounds of Decay” is a short one. The dying cells of a cane toad dehydrating in a desiccator are transformed into music. Nature becomes a synthetic product, something we can experience with our senses, while our senses are en-hanced with neural prostheses.

What motivates a person to end another living being’s life with the goal of creat-ing a work of art, even if it is only the life of a toad? Where does the idea arise, not just of observing the process of decay but of creating out of it a “melody of death?” Is it (scientific) curiosity, the artistic muse or anger14 at the toads that seem to have descended on Australia like a plague? Whatever the motive may be, I would like to state for the record that I consider killing a toad and audibilizing its decay an act of aggression15.

In this paradoxical state of affairs, in which one group strives to improve our ability to pass moral judgment (and act upon this judgment) by intervening in “human nature” while another group perverts “natural” processes and utilizes quasi -synesthetic perception in order to create aesthetic objects that bear little relation to their natural selves, nature becomes not only a synthetic product, but concentrated art.

I’d like to explain, from a humanistic perspective, why finding a “way back” (to nature) seems impossible to me. I assume that in formulating a contempo-rary philosophy of nature, we are allowed to define ourselves as beings that oc-cur within nature and to declare our (environmental and social) natural habitat a work of art, which we may sculpt according to ethical guidelines to be defined. A nature to which we might wish to return, assuming we found it to be a pleasant place, is therefore inaccessible to us. We have various strategies at our disposal to help us evolve as humans. We could decide, for example, to exert direct influence over our emotions, using moral enhancement or transindividual consciousness to weaken them or even negate their influence in favor of rational decision-making processes. Or we could concentrate on sculpting our natural and social habitat to optimally suit the needs of our species. Taking the humanistic view of man as a social being, this would entail reaching fair compromises between the needs of each individual. In such a scenario, primal emotions such as fear, anger, sorrow and disgust, which forcefully compel us to act and which often lead to destructive behavioral strategies, could be interpreted as “status indicators.” This would allow us to concentrate on the optimal use and further enhancement of our higher cor-tical functions – our reason. 2. Sounds of Decay

In the booklet accompanying her project, “Semipermeable +” from 2013, Symbioti-cA describes the musician Cat Hope’s installation as a concept rather than a finished work:

Fig. 2: Semipermeable+, SymbioticA, 2013, p. 26, p. 27 16 .

From a humanistic perspective, man is good by his very nature. We are evolving individuals who strive to improve, wrote Andrés Sánchez Bodas in his Manifiesto humanistico 17,willing to do another a good turn once we have realized that we, too, will be helped when we need it18. Attempting to understand man as an individual outside the context of social relationships would appear to be as fruitless an endeav-or as trying to approach nature as something that we ourselves are not part of and have no relation to.

Martin Buber’s description of the direct (and natural) relationship between the “I” and the “thou” in his work Das dialogische Prinzip sounds modern because, among other reasons, it appears to account for the findings of neuropsychological research into empathy and attachment behavior.

In this context, I understand aggression to be an act that harms not only another person, but me as well (because I am in a constant state of relationship to others). Aggression is a form of self-harm.

This is very much the opposite of the fundamental assumption of human-ism I wish to promote, in which life strives by its very nature to remain intact, to maintain its physical and mental integrity. This leads me to conclude that aggressive behavior is a result of a faulty learning process and does not neces-sarily reflect human nature; rather, it countermands it. Every creature strives to remain intact and to preserve life, choosing to extinguish it only when placed in a life-threatening situation itself or in order to optimize the skills that help it remain alive19.

We humans would seem to be an exception. No longer caught up in the battle for survival, we do not kill out of fear, but for scientific purposes, curiosity, revenge or pleasure. In this sense, death can be seen as the final consequence of a behavior aimed at hindering another living being in its pursuit of well-being.

As such, aggression isn’t a feeling, but a behavioral strategy applied to satisfy un-fulfilled needs which are the root cause of noticeable emotions. We human beings are in many cases no longer in touch with/no longer understand our own “nature.”

If nature, and particularly the nature of man, is not objectively accessible to us – if we cannot comprehend the nature of nature – then this positive view of the na-ture of man seems to me to be no less plausible than any other20. I therefore decide to believe in Carl Rogers’ actualizing tendency21, which states that each individual strives to realize his or her own potential, in part by forming a congruous self-con-cept based on everything the organism as a whole has experienced both uncon-sciously and consciously22. In this sense, aggressive behavior isn’t part of human nature, but rather an indication of our increasing estrangement from our nature.

Yet, how should we propose to return to our natural state when we cannot objec-tively determine what it is? When, whatever it may be, it is incapable of standing solitarily and discretely alongside that which we have learned and which has shaped us? When we can’t even assume agreement upon one of the various “concepts of man” available to us?

In asking these questions, we eventually come to realize that there can be no di-rect way “back to nature.” On the contrary, the challenge we face is of setting a course for the further evolution – the progress  – of mankind and figuring out how we can influence that.

The discussion I’d like to spark is whether we can control our aggression23 by access-ing our innate ability to empathize. If strategies of ethical behavior are to be derived from what Theodor Lipps referred to as “ Einfühlung ”24, certain environmental factors must be in place. When I say “ethical behavior,” I mean behavior that does not pur-posely harm another living being, assuming all living beings are of equal value. With this “negative” definition as a starting point (ethical behavior = removal of aggression), we can set up a “positive” guideline that would go something like this: Ethical behavior is behavior (usually a compromise) that contributes to the well-being of all involved.

If we do not succeed in ensuring that living conditions are such that all living creatures can satisfy their needs (and I assume there is no way “back to nature,” because we’ve gotten so accustomed to reducing abstract terms like “nature” to the superficial that it hardly occurs to us how absurd any attempt at “re-naturalization” would be), then the only (?) alternative left to us is to influence evolution in such a way that its result is ethically acting beings adhering to the principles of reason. This in turn would assume an ability to switch off emotions that lead to aggressive behavior. Which emotions might those be?

In an ideal world – so says humanistic thought – emotions are the result of fulfilled or unfulfilled needs, the purpose of which is to indicate those needs to us. We have a wide variety of strategies at our disposal for satisfying our needs. In the real world, we have forgotten how to differentiate between needs, emotions and courses of action.

In everyday speech, aggression is often conflated with emotion. The Oxford Dic-tionary defines aggression as “feelings of anger or antipathy resulting in hostile or violent behavior; readiness to attack or confront.”25 The word has its origins in the Latin ad (towards ) and gradi (proceed, walk). The connotation of an impending attack has been present in the word since the early 17th century.

I would like to trace aggression (aggressive behavior) back to emotions or, bet-ter yet, back to the unfulfilled needs that lie at the root of those emotions in order to better get at the question of how aggressive behavior can be modified and/or prevented. I would prefer, in doing so, not to get into a discussion of whether this is a desirable goal, and I don’t wish to delve into methods of operant conditioning such as punishing aggressive behavior. Psychopaths (violent criminals with disso-ciative personality traits who harm other living creatures seemingly only for their own pleasure26), for example, are less responsive to pain inflicted on them as a con-sequence of their behavior than comparable groups27. I would like to focus on pre-vention and, as such, on the design of human nature.

From a humanistic perspective, it is crucial to differentiate between behavioral strategies, feelings and needs in order to be able recognize consciously and with self-empathy one’s own (un)met needs and the emotions (symbolized affects, cog-nitively labeled sensations) that result from them as they arise later on. Marshall Rosenberg’s life work consists, among other things, of using non-violent commu-nication to anchor in the consciousness of all humans the idea that every form of violence is a tragic expression of an unmet need.

Being conscious of this allows us to deviate from our automated behavioral strat-egies and to search for alternatives. In his master’s thesis from 2005, Simon Beck28provides us with a simple set of directions for transforming the violence that results from needs calling out to be met, which often manifests itself as aggression:

Transforming the Pain of Unmet Needs to the Beauty of Needs 29

1. Acknowledge the stimulus, the neutral observation that you are respond-ing to. Be specific and concrete, describing the precise stimulus for your feelings.

2. Acknowledge your reaction. There are 3 steps to transforming the “jackal”: a. recognition/naming the thought or message; b. embracing or enjoying the jackal show”.Allow any reactions, judgments, anger, etc. to come into your awareness, and express it to yourself silently, out loud, or best written for clarity. And c. differentiation from the jackal thinking. In this part you can use a phrase like, “I am telling myself ([…] the jackal message.)” Go through this process with each message.

3. What feelings arise in you? Notice/feel authentic feelings.

4. What are the unmet needs that give rise to the feelings? Stay with feelings and needs.

5. Stay with steps 3 and 4 until you have given yourself sufficient empathy. Allow yourself to “be with” the feelings of pain of your unmet needs. This is the mourning/grieving stage.

6. Stay in the mourning stage until you have felt a shift in your feelings. You will usually feel some relief and/or relaxing of feeling.

7. Very often what can occur at this stage is a re-stimulation of jackal think-ing. If this happens, empathize with the feelings and needs behind this jackal and go back to mourning, or “being with” feelings and needs.

8. Now focus on the need itself. Not the unmet need, but the “beauty of the need.” Sense/feel the positive value, the inherent vision of why this need is important to you. Allow yourself to immerse your awareness on this aspect.

9. Notice any request you may have of yourself. What action(s), internal or external do you want to take to meet any need(s) that is/are present.

10. This entire process is not a linear, but rather a dynamic, organic process. You will probably move from one dimension to another, staying focused on what is alive.

11. The three qualities that come from this process are: clarity , compassion for self, and empowerment to move forward in deep self-connection and meeting needs. 4. Emotional Control?

B.F. Skinner has pointed out that suggestions that human behavior be controlled tend to elicit negative emotional reactions30. Even in cases where behavioral control might contribute to enabling humanity to live together in mutual respect and rec-ognition of one another’s needs, a majority would probably refuse such measures. They might fear being manipulated or may interpret such measures as “curtailing their freedom.” They could see them as a breach of human rights (do we have a natu-ral right to behave aggressively?) or simply of their right to choose to behave wrong-ly if they wish. I define the choice of behaving wrongly as the freedom to behave in a way that is knowingly harmful to other living creatures (that violates their physical or psychological integrity), despite the fact that alternative ways of behaving which do not lead to harm exist. This is not to say that it is always intuitively clear which non-harmful alternatives are available.

I’d like to suggest that a guiding tenet of humanistic ethics be the idea that in an ideal world, a fair compromise between the needs of all participants can always be reached.

This approach to ethics is a utopian one, because it assumes that we no long con-centrate on the questions of how we will reactively behave, but how we can actively foster the conditions that allow ethical quandaries (or pseudo-quandaries) to be prevented31.

How can we create a world in which it is possible to distance ourselves from our perceived emotions, both noticed and unnoticed, in order to reach compromises driven by reason? How can we control our emotions (and the impulses they give rise to)?

Can we “turn off” needs so as to prevent emotions which are considered negative and which lead to aggressive behavior? I don’t think we can. Needs, as I see them, are a natural state of a living organism. What we can do is to recognize them for the life-sustaining functions that they are32 and, by equitably distributing the resources we have at our disposal, satisfy them before they lead to violence.

Can we manipulate the character of the perceived affects33 that are emotions so that their influence on actions is weakened or even eliminated? Here, several op-tions are open to us:

1. We could proceed indirectly, by satisfying our needs, so that negative emotions are counteracted while positive, reactive emotions (pleasure) are fostered. Here is Marshall Rosenberg’s exemplary list of needs and the emotions that result from them:

Eight Primary Emotions:

– Sadness: grief, sorrow, gloom, melancholy, despair, loneliness, and depression.

– Anger: fury, outrage, wrath, irritability, hostility, resentment and violence.

– Fear: anxiety, apprehension, nervousness, dread, fright, and panic.

– Joy: enjoyment, happiness, relief, bliss, delight, pride, thrill, and ecstasy.

– Interest: acceptance, friendliness, trust, kindness, affection, love, and devotion.

– Surprise: shock, astonishment, amazement, astound, and wonder.

– Disgust: contempt, disdain, scorn, aversion, distaste, and revulsion.

– Shame: guilt, embarrassment, chagrin, remorse, regret, and contrition.

All other emotions are made up by combining these basic eight emotions. Some-times we have so called secondary emotions, which refers to an emotional reac-tion to an emotion. We learn these. Some examples of these are: Feeling shame when you get angry, feeling angry when you have a shame response (for example, hurt feelings), feeling fear when you get angry (maybe you’ve been punished for anger). There are many more. These are not wired into our bodies and brains, but are learned from our families, our culture, and others. These emotions show when our needs are or are not fulfilled.

Needs are p.e.:

– Security

– Confidence

– Choice

– Faith

– Legacy

– Making a difference

– Sense of belonging/love

– Stimulus

– Influencing … being able to influence matters in a positive way brings empow-erment

– Variety

– Spirituality

Carl Rogers, Rosenberg’s protégé, stresses that primary emotions (pleasure, fear, anger, sorrow and disgust – all accompanied by the same gestures and expressions across cultures and thus universally recognizable) are perceived as secondary emo-tions34 or “pseudo-feelings”35 when they cannot be assigned a place within one’s self-concept or integrated into one’s own self-image. If this is indeed the case, we can concentrate on the modification of primary emotions and leave aside the secondary emotions and pseudo-feelings, as these are misinterpreted affects.

2. We could attempt to manipulate primary emotions directly, on the level of neu-rotransmitters.

Emotions can override the ability to perceive needs that are crucial to survival. As far back as the 1950s, Olds and Milner36 were able to show in an experiment with rats that, when given the opportunity to activate a switch that would release dopa-mine into their own bodies via an electrode implanted in their nucleus accumbens , the rats would activate the switch until they died of hunger or thirst. The same area of the brain has since been identified as responsible in part for how humans expe-rience emotions like pleasure, lust and motivation. More recent studies, including Tanja Singer’s, have shown that in most men, increased amounts of dopamine37 are also released by the nucleus accumbens when they experience malicious joy (the German Schadenfreude ), i.e. when they witness a rival who has previously acted “unfairly” towards the test person experiencing pain or loss38. Oxytocin, the so-called “love hormone” seems to ameliorate this effect39, which may also explain why women in the control group did not experience Schadenfreude , but rather empathy with their rivals. Nonetheless, Schadenfreude  – the anticipation of which may in my opinion initiate aggressive behavior – is a reaction to a perceived (subjectively experienced) injustice.

These studies seem to indicate that a “continual state of happiness” for all people is not something we should attempt to strive for. For one, because the nucleus ac- cumbens only releases increased amounts of dopamine when something is “better than expected” or when something perceived as pleasurable is also new or novel in some way40 – thus increasing tolerance for such things and subjecting them to the law of diminishing returns. But also because (artificial) stimulation could somehow override or mask our awareness of the needs that are essential to our survival41.

If “happiness pills” and brain pacemakers42 aren’t the answer, might it instead be sufficient to permanently eliminate the primary and negatively connoted feelings of fear, anger and sorrow along with the aggressive behavior they lead to? Assuming some sort of neuro-enhancement were possible, how could we make use of it without simultaneously endangering our own survival43? And how would such technological innovation even be possible in the face of ad absurdum applications of the postulate of refraining from aggressive behavior (see my definition of aggression as willfully harming or knowingly accepting that harm will be done to the well-being of another living creature, regardless of intent or motive)?

As for discussions of decoupling the fear network located in the limbic system and the prefrontal cortex and activating the frontal control function, those are best left for others44, 45.

Do we wish, then, to accept the challenges associated with no longer viewing mankind as natural beings, but as artificial ones (works of art) which we are free to design according to certain ethic guidelines?

Regardless of how we decide, we will always be intervening in nature. Nature, as we experience it today, is concentrated art. We manipulate nature even by simply letting things happen. Should we choose not to accept that passivity itself constitutes an intervention into nature (we can’t leave nature, we move about always within it, we are part of it; nature does not exist outside of our definition but is, ultimately, a manmade work of art), then our problem is solved.

But if we assume that, as natural beings (i.e. works of art) ourselves, we bear some sort of responsibility for our habitat as well as for ourselves, then we also have the freedom to determine the direction we’d like to evolve in. Do we wish to intervene in that imaginary “human nature,” to reach for the tools of moral enhancement, whatever they may be, in order to dampen our primary emotions so that our empa-thy may hold sway? Might it not be better to simply turn off, either temporarily or permanently, those emotions with cognitive enhancement or by tinkering with our limbo-cortical networks?

Or would we rather concentrate on shaping our habitat46 so that resources are distributed evenly, however one might define this, and the needs of all living beings can be met? So that, by giving ourselves more flexibility in choosing courses of ac-tion, the need for aggressive behavior becomes superfluous?

200

Warum Data malt – Interdisziplinarität und Ästhetik

Stefanie Voigt Zusammenfassung

Das Rätsel des menschlichen Bewusstseins kann im Rahmen einer interdiszipli-nären Ästhetiktheorie erfolgreich bearbeitet werden. Zwar ist diese Disziplin aus geschichtlichen Gründen derzeit noch randständig, kann aber in einer modernen, systemtheoretischen Gestalt zeigen, was menschliches Bewusstsein mit drei Stufen von Schönheitsempfinden zu tun hat: einfacher Wiedererkennung von Mustern, intensiver Mustersuche und Ekstase oder Enstase.

Dass eine intuitive Ahnung diesen Zusammenhang von Ästhetik und Bewusst-sein nahelegt, belegt das populärkulturelle Beispiel des Androiden Data aus Star Trek, The Next Generation , der Kunst betreibt, um menschlich zu werden. Abstract

The riddle of human consciousness can successfully be approached in the context of an interdisciplinary theory of aesthetics. This discipline, however, still is margin-alized for historical reasons. But in a modern shape based on the theory of systems, that discipline can show how human consciousness is connected to three steps of the experience of beauty: simple recognition of patterns; intensive search for pat-terns; ecstasy or “enstasy.” That there is an intuitive grasp of this connection is eluci-dated by the example of the android Data from Star Trek, The Next Generation , who takes to the arts in order to become human.

201

Auf der Suche nach dem Geheimnis der menschlichen Seele wird die Ästhetik meist außer Acht gelassen. Zumindest spielt sie als ernst genommener Gesprächspartner im interdisziplinären Kanon der Kognitionswissenschaften keine Rolle. Gerade da-durch aber scheint das Bewusstsein zu dem unauflöslichen Rätsel zu werden, als welches es nach wie vor weithin gilt. Aber – so die hier vertretene These1 – eine systemtheoretische Neuformulierung der Ästhetik sowie der an sie angrenzenden Nachbardisziplinen ermöglicht eine neue Vorstellung von Ästhetik, genauer ge-sagt: ein Modell der menschlichen Informationsverarbeitung, das Bewusstsein als ein ästhetisches Phänomen definiert. Dieses Modell kann aufgrund seiner Forma-lisierung von ästhetischer Wahrnehmung beziehungsweise von Bewusstsein damit zusammenhängende Themengebiete, die bislang als diskursiv nicht fassbar, weil ‚künstlerisch‘ galten2, dem disziplinären wie interdisziplinären Dialog erschließen.

Es gibt in verschiedenen Disziplinen viele Ansätze, Ästhetik als koordinierende Kerndisziplin der Bewusstseinswissenschaften zu etablieren3, und diese Ansätze weisen erstaunliche inhaltliche Konvergenzen auf – ein Indiz für das noch weit-hin unausgeschöpfte interdisziplinäre Potenzial der Ästhetik4. Trotzdem bleibt, während zwar zahlreiche Disziplinen interdisziplinäre Familienzusammenfüh-rungen feiern, die Ästhetik weitgehend außen vor wie ein ungeliebtes Kind5. Da-bei gab und gibt es bis heute namhafte Sprecher, die die sinnliche Wahrnehmung und das Empfinden von Schönheit als zentral für das menschliche Bewusstsein erachten6. Diese Praktiker und Theoretiker der Ästhetik definieren ihren Gegen-stand als grundlegende Technik der menschlichen Informationsverarbeitung, die weit mehr als repräsentativen Wandschmuck betrifft. Vielmehr ist ihnen zufolge hier so etwas verborgen wie die Weltformel aller Geisteswissenschaften, das Ge-heimnis um die menschliche Seele, um Glück, Schönheit und Lebendigkeit – also die Klärung all der Begriffe, die ihre Heimat in wissenschaftlichen – insbesondere naturwissenschaftlichen – Diskursen unter dem Einfluss des Positivismus verloren hatten7. Allerdings konnten jene Autoren diesen Trend nicht wenden. Daher wurde die Ästhetik von bewusstseinstheoretischen Diskursen bislang eher vernachlässigt und erweckte darüber hinaus den Eindruck manchmal fast solipsistischer Abge-schlossenheit. Für diese Situation lassen sich die folgenden acht Gründe anführen8. 2. Gründe für die Randstellung der Ästhetik Kunst als der hauptsächliche Gegenstand der Ästhetik wird insbesondere seit der Romantik häufig dadurch definiert, dass sie nicht wissenschaftlich, sondern auf eine andere, „intuitive“, Weise erfassbar ist und sich somit auch nicht interdis-ziplinär in einen wissenschaftlichen Fächerkanon integrieren lässt (1. Grund)9. Zudem gilt Kunst nach einer weit verbreiteten philosophischen Begriffsbestim-mung als zweckfrei par excellence10 (2. Grund). Diese begriffliche Festlegung stellt Kunst vor ein Dilemma: Genügt sie dennoch irgendeinem Zweck, wird sie als „bloßes“ Design in Form von Kitsch oder Kunsthandwerk ausgegeben11. Gibt sich Kunst dagegen tatsächlich als zweckfrei, gerät sie schnell in den Verdacht einer schöngeistigen Luxusbeschäftigung (3. Grund)12. Die Kunstphilosophie ver-mag in diesem Konflikt nicht zu vermitteln, da sie paradoxerweise kaum direkten Kontakt zu ihrem eigenen Gegenstand, der Kunst hat. Daher widmen sich die Kunstphilosophie zunehmend den Reflexionen über ihren eigenen Status13. Da-rüber kommt selbst elementare begriffsanalytische Arbeit zu kurz, allem voran eine saubere Trennung zwischen den Begriffen der Ästhetik und der Schönheit, die auch in der Kunstphilosophie oft synonym gebraucht werden und doch häufig sehr Verschiedenes bedeuten (4. Grund)14. Denn nicht alles, was als ästhetisch tituliert wird, ist auch schön. Und nicht viel von dem, was die einen als schön be-zeichnen, würden andere überhaupt als ästhetisch bezeichnen, v. a. der überholt bildungsbürgerlichen Attitüde des Begriffs Schönheit wegen (5. Grund)15. Ange-sichts solcher Verwirrungen schon im Hinblick auf die grundlegenden Begriffe ist es nicht verwunderlich, dass die Kunstphilosophie aus einer uneinheitlichen Gemengelage verschiedener Meinungen zu den Themen Ästhetik und Schönheit besteht (sechster Grund)16.

Wo so viel Konfusion herrscht, liegt es nahe, um einer Therapie willen die Psy-chologie zu konsultieren. Diese aber weist den dazu erforderlichen Dialog notge-drungen zurück. Die naturwissenschaftskonforme Psychologie unserer Zeit wid-met sich lieber Gegenständen, die sich quantifizieren und statistisch erfassen lassen. Dabei kommen zwar auch Aussagen über Ästhetik zustande, diese haben aber sehr elementaren Charakter. So wird z. B. ermittelt, dass die bevorzugte Wahl der Farb-kombination schwarz-gelb eher Neurosen indiziert als jede andere Farbzusammen-stellung17. Elementarpsychologie dieser Art ist zwar interessant (v. a. für Bienen und Feuersalamander), für große Einsichten in das Wesen des Menschen ist sie aber zu speziell. Indem Psychologie den Großteil ästhetischer Phänomene als wissenschaft-lich nicht fassbar abschreibt, folgt sie damit der Mystifikation der Kunst als etwas Unaussprechlichem (7. Grund) 18.

Durch den Verzicht auf „große“ ästhetische Theorien erspart sich die heutige Psy-chologie immerhin Angriffe seitens der Verfechter einer historischen Anthropo-logie wie etwa der sog. Annales-Schule um Le Goff19. Nach dieser Position wandelt sich das Wesen des Menschen im Lauf der Zeit, und daher wäre es ohnehin verfehlt, allgemeine wissenschaftliche, wie etwa psychologische, Aussagen über „die“ ästhe-tische Wahrnehmung etc. zu machen. Dass sich aber gerade mit Hilfe der Ästhetik die Dynamik der menschlichen Psyche durch ihre verschiedenen geschichtlichen Wandlungen hindurch erklären lässt, wird aus jener historistischen Perspektive al-leine nicht zugänglich. Und dies gilt nicht nur für die genannten Disziplinen, son-dern insgesamt: Ästhetik ist eben keine Disziplin neben vielen anderen, sondern ein interdisziplinärer Forschungsbereich. Gerade daher haben die einzelnen Diszi-plinen, die zunächst auf ihr jeweiliges Gebiet verwiesen sind, Schwierigkeiten mit dem Zugang zur Ästhetik (8. Grund)20. 3. Das Menschliche

Ästhetik ist vielen Autoren vieler Disziplinen zufolge der Schlüssel zum Bewusstsein, die Verständigung über die Grenzen der Disziplinen hinaus ist aber schwer. Um in dieser scheinbar verfahrenen Situation weiterzukommen, liegt es, wie so oft bei voneinander abgegrenzten Systemen nahe, einen völlig Außenstehenden nach seiner Einschätzung zu fragen. Als gutes Anschauungsobjekt eignet sich in dieser Hinsicht der malende und geigende Androide Data aus der Fernsehserie „Star Trek  – The Next Generation“21. Er entwickelt immer dann menschliche Eigenschaften wie ein Gewissen und Individualität, wenn er sich mit Kunst be-schäftigt. Erst dann gerät für ihn auch das Lachen oder eine bestimmte Art von genießerischer Selbstgenügsamkeit in Reichweite, die sonst nur Menschen zuzu-kommen scheint. Allerdings wird Data dadurch auch anfällig für Selbstzweifel oder Angst vor sprichwörtlich „menschlichem“ Versagen. Hier wird offenbar eine weit verbreitete, wenn auch bislang kaum explizierte Überzeugung in Szene ge-setzt: Menschen kennen Emotionalität, Mitleid, Schuld, Einfühlungsvermögen, Reue, Freude und Trauer oder Schmerzfähigkeit, Ironie und Kreativität, Selbst-verantwortlichkeit. Diese und weitere ‚typisch menschliche‘ Phänomene sind eng mit dem Bereich der Ästhetik verbunden, werden zumindest in ihm auf eine exemplarische, intensive Weise erlebbar. Insbesondere gibt es in diesem Bereich nicht das so genannte „computertechnische Paradoxon“22: Die bisher konstruier-ten Datenverarbeitungsmaschinen stürzen schlichtweg ab, wenn sie mit wider-sprüchlichen Informationen konfrontiert werden, die in ihrer Programmierung nicht vorgesehen sind. Ästhetik dagegen lebt geradezu von derartigen Wider-sprüchen, die in ihr im Gegenteil auf vielfältigsten Ebenen zur Geltung gebracht und verstärkt werden23. Wenn sich ein künstliches Gebilde mit Ästhetik befasst, sind wir daher dazu geneigt, ihm auch mehr oder weniger große Menschlichkeit zuzuschreiben. Nach der Meinung einiger Psychologen zeichnet sich Bewusstsein sogar gerade durch den kreativen Umgang mit Widersprüchen aus24. Demnach ‚funktionieren‘ Menschen, solange sie am Leben sind, und sie haben das Gefühl zu leben, solange sie Dinge als schön empfinden. Denn sobald ein Mensch, aus welchen Gründen auch immer, nicht mehr dazu in der Lage ist, etwas schön zu finden, wird er krank25. Auch dies unterscheidet Menschen von Computern, und auch das spricht für einen Zusammenhang zwischen menschlichem Bewusstsein und Schönheitsempfinden. Die Krankheitsbilder von Suizidalität, Schizophrenie und Epilepsie wurden bisher weitestgehend nur neurophysiologisch vermessen, ihre inhaltliche Logik bzw. die geistige Regulierung innerer Zustände wurde hingegen noch nicht umfassend untersucht. In jedem dieser Fälle vermögen die Betroffenen ihre Vorstellung von der Welt, das innere Bild ihrer Umwelt, also das Produkt ästhetischer Wahrnehmung, nicht mehr auf konventionelle Art zu regulieren. Dann praktizieren sie zwangsläufige Alternativ-Manöver, nehmen schlimmstenfalls Sachen wahr, die gar nicht da sind oder produzieren spontan extreme Glücks- oder Schönheitsgefühle, die das psychische System unter Um-ständen auch überfordern, wenn nicht gar zur Selbsttötung motivieren. Würden die bislang vorgelegten Bewusstseinssimulationen wirkliches Bewusstsein bein-halten, könnten sie von Glück reden, dass ihnen diese Probleme erspart blieben, allein, dann würden sie auch darüber trauern, keine Kunst und keine Literatur zu haben. Denn diese Bereiche strotzen vor solchen Problemen, vor Emotionen und Schönheiten verschiedenster Couleur. Die Informationsverarbeitungssysteme der Menschen scheinen größer zu sein als die Summe ihrer Einzelteile. Aber wie ist das möglich? Dies bleibt bis her ungeklärt. Neurophysiologen vermessen das Ge-hirn und Informatiker programmieren ihre Computer und woanders disputieren die Geisteswissenschaftler über die menschliche Seele und die hehre Kunst – und dazwischen klafft ein Abgrund, den noch kein Netzwerk überbrücken konnte, ungeachtet vielfältiger Versuche und Zusammenschlüsse von Informatikern mit Neurologen, Ethikern, Bildwissenschaftlern oder Neurobiologen zur Schaffung neuer Disziplinen, wie z. B. Neuroinformatik oder Neuroethik. 4. Ein Modell des Menschlichen

Was hat Data wohl getan, um das Geheimnis des Menschlichen in der Kunst zu ergründen? Hat er eine Einführung in die Ästhetiktheorie von Platon bis Bazon Brock eingescannt und in die Sprache seiner künstlichen Synapsen übersetzt? Da es sich beim Gehirn Datas um einen Digitalcomputer handelt, würde das Ganze mit basalen Mitteln der digitalen Informationsverarbeitung beschrieben, mit dem Ziel, alle vorliegenden partiellen disziplinären Erkenntnisse im Rahmen einer ein-zigen Theorie zu vereinigen. Eine derartige Übersetzung hehrer Kunst-Theorien in den digitalen 0-1-Code ist trotz des genannten Kontrastes zwischen Computern und Menschen vielleicht tatsächlich möglich. Die Vielzahl individueller und epo-chengebundener, häufig widersprüchlicher Ästhetiktheorien kann im Rahmen

207

einer systemtheoretisch orientierten Psychologie, die sich auf die Einsichten der Anthropologie stützt, zumindest auf acht einheitliche Rahmen-Variablen reduziert werden. Unter Verwendung des aristotelisch-wienerschen-batesonischen Begriffs des Unterschieds26 (als kleinster Einheit jeglicher geistigen Leistung) lässt sich äs-thetisches Empfinden folgendermaßen charakterisieren:

1. In ästhetischem Empfinden geschieht eine Vermittlung zwischen äußeren Eindrücken und inneren Interpretationsmustern, einem Zusammentref-fen von sinnlicher Wahrnehmung und abstraktem Denken bzw. gleich-zeitige Wahrnehmung von Welt und eigener Person, von subjektiv inneren Schemata und subjektiv äußerer Welt – egal ob Platon zwischen Ideen und Erscheinungen differenziert oder Aristoteles zwischen einem Kunstwerk und dem sich damit identifizierenden Betrachter.

2. Diese allgemeine Vermittlung funktioniert im Detail über den Vergleich innerer und äußerer Muster, einer Entsprechung und Nachmodellierung von Strukturprinzipien – und zwar bei Ficinos Spiegelprojektion genauso wie bei Albertis Proportionsstudien.

3. Was durch die interpretierende Wahrnehmung dieses Vergleichs, also einer Wahrnehmung der Wahrnehmung entsteht, sind lustbringende Er-lebnisqualitäten, der immer wieder beschworene Eigenwert und Erkennt-nisgehalt des Ästhetischen – wie Edmund Burkes „pleasure“ oder Kants „interesseloses Wohlgefallen“.

4. Diese Gefühlsqualitäten zeigen sich in verschieden starken Ausprägun-gen, von Interesse oder Faszination bis hin zu Ekstase27 oder Enstase – von Lessings „Rührung“ bis hin zu Stendhals „Syndrom“.

5. Möglich ist das alles stets nur durch eine gemäßigt stressfreie, weder als langweilig, noch als zu aufregend empfundene Art der Wahrnehmung – bei Schopenhauers „Naturbetrachtung“ genauso wie bei Nietzsches Über-legenheitsgefühl des „Übermenschen“, oder der modernen Abject Art28.

6. Ein Bereich eigener Regelhaftigkeit entsteht, da die Rezeption aufgrund dieser kontemplativen Art der Rezeption nicht bewusst und rational dis-tanziert erfasst werden kann und darf – darum spricht Boileau vom „je ne sais quoi“ („ich weiß nicht was“) und Goodman von den „eigenen Spra-chen der Kunst“.

7. Dieser Vorgang garantiert in seiner Gesamtheit das langfristige Funktio-nieren des Systems Psyche durch bessere Denkfähigkeit nach außen und durch emotionalen Lustgewinn nach innen  – darum ist Lyotards „Prä-senz“ ebenso wichtig wie Wittgensteins „richtige Perspektive“.

8. Die Motivation für ästhetische Betrachtung oder sogenanntes diskursives Denken hängt ab von situativer und persönlicher Vernetzungsfähigkeit – von Baumgartens „Anlage zur ästhetiklogischen Erkenntnis“ oder Schil-lers „Spieltrieb“.

Es ist möglich, diese acht Aussagen in Gestalt eines Flussdiagramms zu formalisie-ren und dadurch zu einer funktionalen Beschreibung der entsprechenden psychi-schen Prozesse zu gelangen, die ästhetische Wahrnehmung wertneutral als Wahr-nehmung zwischen Bestimmtheit und Unbestimmtheit definiert29. Bestimmtheit beruht auf der Menge bereits systemimmanent vorhandener Muster; Unbestimmt-heit ist alles, was diesen Mustern nicht entspricht. Zwischen diesen beiden Instan-zen herrscht zunächst ein kategorialer Gegensatz – das Bestimmte ist nicht das Un-bestimmte und vice versa. Dieser Gegensatz lässt sich jedoch überbrücken, indem eine Vermittlung zwischen Bestimmtheit und Unbestimmtheit stattfindet, indem das System seine bisherigen Muster umstrukturiert und solchermaßen neu inter-pretiert, oder aber, falls dies nicht ausreicht, neue Muster schafft. Dieser Prozess kann sich in verschiedenen Zyklen und über zunehmend große Bereiche des ge-gebenen Mustervorrats hinweg wiederholen, bis er entweder zu einem Erfolg führt oder das daran beteiligte System überlastet, was zum Abbruch der Suche führt. Dieses zunächst sehr formale und abstrakte Modell kann als Deutung von Phä-nomenen dienen, die von verschiedenen Disziplinen bisher auf unterschiedliche Weise beschrieben wurden, und gerade so die zum Verständnis des Bewusstseins erforderliche interdisziplinäre Integration leisten:

Neurophysiologisch können anhand verschiedener Regulationen des Boten-stoffs Dopamin zwei verschiedene, komplementäre Arten der Informations-verarbeitung nachgewiesen werden, nämlich sogenanntes fixatives bzw. va-gatives Denken. Fixatives Denken operiert mit abstrakten, vereinfachenden Begriffen und äußert sich dementsprechend auch in einer Eindämmung zere-braler Aktivität. Vagatives Denken dagegen verfährt sprunghaft-vielschichtig, gleichsam irrational, und äußert sich in einer zunehmenden Ausweitung der Gehirntätigkeit. Die EEG-Messungen des Letzteren zeigen Parallelen zwi-schen Meditationstechniken oder anderen kulturellen Formen intuitiv-ästhe-tischer Praxis, sei es bei amerikanischen Konzertbesuchern oder sibirischen Schamanen.

– Anthropologisch gesehen zählt die Fähigkeit zu solchen Ekstasen in den meisten Kulturen zu den Grundbedingungen des gesunden Menschenverstandes. Denn nur zeitweilige Ekstasen reinigen das Denken so, dass es sich immer wieder neu-en Anforderungen stellen kann, ohne sich dogmatisch zu verengen.

– Mentalitätsgeschichtliche Vergleiche zeigen allerdings, dass die Ekstasefähigkeit im Lauf der Moderne zunehmend verinnerlicht und säkularisiert wurde, was sie in einen Sonderbereich des Ästhetischen, die gesellschaftlich anerkannte Kunst, abgedrängt hat.

– Kunst, Kunstgeschichte und Literaturwissenschaften bieten zahlreiche einschlä-gige Beispiele dafür, etwa das zeitgleiche Auftreten der Verinnerlichung des Erlebens und gesellschaftlicher Individualisierungsprozesse, die Parallele von Todestabuisierung und gleichzeitiger Dramatisierung des Todes, die Verwissen-schaftlichung des Denkens während der Entdeckung des Sujets der atmosphäri-schen Stimmung o. ä.

So entsteht ein Modell, das Schönheitsempfinden auf drei Stufen erklärt: einfache Schönheit in Form reiner Wiedererkennung von Mustern (das meist auch als bloßer Kitsch interpretiert bzw. von vielen als langweilig empfunden wird), eine zweite und nur mit kognitiven Schwierigkeiten zugängliche Ebene intensivierter Muster-suche (die Rezeption wird dann als „faszinierend“ oder „interessant“ beschrieben, während Neuinterpretationen des kognitiven Problems erarbeitet werden – oder die ästhetische Mustersuche wird abgebrochen), und einer dritten Stufe der Eksta-se oder Enstase. Die Nähe zu diesem Bereich wird indiziert anhand Lessingscher „Rührung“ bzw. physiologischer Tränen. Was auf dieser Stufe selber passiert, wurde historisch gerne als göttlich beschrieben, in der Neuzeit wird daraus die Erfahrung von Wahrheit bzw. totaler Schönheit. Hier verschwimmen die Grenzen zwischen

210

Ich und Welt genauso wie andere Formen von Unterschieden. Der „Rückweg“ zum Normalbewusstsein wird traditionell gerne als „Auferstehung“ tituliert30; misslingt dieser Rückweg, kommt es zur Schizophrenie, in der man den Wald vor lauter Rei-zen nicht mehr sieht.

Auf diese Weise können alle wesentlichen Topoi der Ästhetik funktional erklärt werden, angefangen bei Max Ernsts „Mut des Künstlers“ bis hin zum Klischee des genialen Künstlers als Opfer seiner Triebe. Weitere Beispiele sind die Metaphern von Kindlichkeit, Rausch, Traum und Sex, die Schönheit von Idealisierungen wie auch die Schönheit der Hässlichkeit, ebenso wie die verschiedenen Arten der Em-pathie, sei es Empathie gegenüber Menschen, ozeanischen Weiten oder luxuriö-sen Automobilen. Melancholie, mystische Reizüberschwemmungen und lustvolle Selbstauslöschungen, die Legende von der Zweckfreiheit und Unbeschreibbarkeit der Kunst: All dies funktioniert über die Logik der Unterschiedsregulierung im menschlichen Denken, einschließlich der Unterschiede zwischen den Gegenstän-den des Denkens, zwischen dem Menschen und seiner Umwelt und zwischen dem Denken in Unterschieden und dem unterschiedslosen Denken ästhetischer Grenz-erfahrungen. Dieser letzte Unterschied kann nicht anders, als zweckfrei und un-beschreibbar sein, sonst wäre er nicht unterschiedslos, sondern so fixativ und ra-tional zu beschreiben, wie alles andere auch. Schönheit spottet jeder Beschreibung, und dafür hat sie gute Gründe. Denn Ästhetik funktioniert wie der blinde Fleck der Wahrnehmung. Blind, aber notwendig, damit das Auge funktioniert. Denn der Lustgewinn durch den „Kurzschluss“ des Denkens in wenigen unterschieds-losen Momenten schafft einen notwendigen und bewusstseinserzeugenden Gegen-pol zum ‚Normalbewusstsein‘, der diesem zugleich auch neue Motivation verleiht; denn jede Abstraktion setzt das Wissen um das Gegenteil voraus. Jedes Pferd ist definiert durch alles, was Nicht-Pferd ist, und jedes klare Denken durch sein Gegenteil. für das wirkliche Leben: Ohne Ästhetisches wird der Alltag öde, um-gekehrt ist nur Ästhetisches eine Steilvorlage für den Wahnsinn. bei Kant: „Ohne Sinnlichkeit würde uns kein Gegenstand gegeben und ohne Verstand keiner ge-dacht werden. Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind“31. Die Systemtheorie postuliert zwar, dass sich kein System selber erkennen kann, weil es immer Teil desselben ist. Aber die Systemtheorie der philosophischen Ästhetik beschreibt Ekstase, die Extremform ästhetischen Empfindens, an vielen Stellen als Möglichkeit zur Selbstbegegnung, der sog. Heautoskopie32. Kein Argu-ment ist gegen Zweifler gefeit, doch in jedem Fall schaffen solche Erfahrungen zu-mindest potenzielle Möglichkeiten zur Selbstdistanz durch Annäherung. Matura-na und Varela zufolge ist der Gebrauch dieser Chance auf Selbstdistanzierung ein Indiz und eine Voraussetzung für Intelligenz33. Hat die Evolution also das Schön-heitsempfinden geschaffen, um Intelligenz zu ermöglichen? Unwahrscheinlich ist das nicht, nur ist es nicht die landläufig so genannte Art von Schönheit, die die Menschheit weiterbringt. Einstein hat einer verbreiteten Anekdote nach nicht um-sonst den Heiratsantrag eines Models abgelehnt. Er argumentierte mit der Mög-lichkeit gemeinsamer Kinder mit der Intelligenz der Mutter und dem Aussehen des Vaters. Doch auch die Forschungen zu Menschen, die nach gesellschaftlich verbreiteten Maßstäben als schön gelten, zeigen, dass Aussehen nicht alles ist34. Im Gegenteil werden attraktive Menschen laut Statistik im Leben viel wahrscheinlicher unglücklich als Durchschnittstypen. Im beschriebenen Modell der ästhetischen Wahrnehmung spielen darum nicht nur der formale, sondern auch der inhaltliche Aspekt eine große Rolle, und es zeigt sich deutlich, dass der Mensch weder reines Denken noch reine Sinnlichkeit ist, sondern eben eine eigendynamische Mischung aus beidem. In Zeiten der Industrialisierung des sogenannten „Menschenpoten-tials“ zeigt ein interdisziplinäres Ästhetikmodell, dass die Vernachlässigung der musischen Fächer nicht unbedingt von Vorteil für die geförderten anderen Fächer ist. Nicht nur die Kontemplativität des Musischen, sondern auch Fairness und Auf-richtigkeit zeigen sich als wichtig für den Zugang zum Ästhetischen. Dass dieses Modell formal wie eine Bauanleitung für Künstliche Intelligenz aufbereitet wurde, heißt nach ihm immanenten Logik aber nicht, dass diese Anleitung auch wirklich in die Tat umgesetzt werden sollte, so wie auch jeder Versuch einer endgültigen Definition von Ästhetik ein grobes Scheitern am Thema wäre – weil es den ob-ligatorischen Anteil an rational nicht zugänglicher Unbeschreibbarkeit zerstören würde. Auch würden bei einem korrekten Nachbau Zufälle und Mutationen das Ergebnis so unberechenbar machen wie den Menschen selber, nur dann wäre der Nachbau getreu. Gibt es im Gehirn nämlich wirklich so etwas wie eine „chaotische Kausalität“35, dann wäre jede Vorhersage von was auch immer völlig unmöglich. Daraus ergäbe sich eine unableitbar große Menge an Möglichkeiten von Erleb-nissen und internen Vernetzungsmöglichkeiten und damit eine entsprechende Menge an Vergessensmöglichkeiten. Spätestens an dieser Stelle käme die Frage nach dem Sinn des Unterfangens auf. Schließlich ist der eigene Nachbar schon unverständlich und intransparent genug und noch dazu bereits vorhanden. Also ist Ästhetisches nicht nur aus programmatischen, sondern auch aus pragmatischen Gründen kaum programmierbar – und mit dieser Überlegung reichen sich Na-turwissenschaft und Kunst die Hände. Trotzdem bietet ein solches Modell eine Ausgangsbasis für genauere Definitionen in verschiedenen Disziplinen und An-reiz für weitere Forschungen36. Beispielsweise zitiert der psychologische Begriff des „Möglichkeitssinns“ im Grunde genommen den Begriff der „Möglichkeiten“ bei Dionysios Areopagita, der reale Dinge immer nur als „Möglichkeiten“ des Schönen und Guten beschreibt. Ebenso nimmt Plotins unterschiedsloses Eines als Ort der religiösen Erfahrung bestimmte neurophysiologische Ergebnisse vorweg, näm-lich die bei bestimmten psychologischen Abläufen eintretende Verringerung der Hirnaktivität für die Unterscheidung zwischen Selbst und äußerer Welt. Durch die Analyse solcher Strukturähnlichkeiten ließe sich der bisherige, sehr breite Ästhe-tik-Begriff präzisieren. Dies betrifft auch bestimmte sozial-ethische Bewertungen: Aus vorneuzeitlicher Sicht gilt z. B. ein moderner Mensch mit geringem Gesell-schaftsbezug als verrückt. Der historische Mensch aus der Sicht seines modernen Nachfolgers allerdings auch, schon alleine seiner ekstatischen Praktiken oder ‚verkehrter Welten‘ wegen, die gerade in traditionellen Kulturen als Umkehr der überlieferten Ordnung selbige stabilisieren eine wichtige Rolle spielen (etwa die Saturnalien oder der Karneval). Auch das Schlagwort der Überästhetisierung setzt einen klar definierten Begriff des Menschen samt bestimmter Wertungen voraus, die bei Vorlage eines solchen Modells eventuell eher wissenschaftlich formuliert werden können als ohne – wenngleich das Modell eigentlich schon seinen künstle-rischen wie auch systemtheoretischen Ansprüchen Genüge täte, wenn nur die Vor-stellung solcher Interdisziplinarität Spaß am Denken in Aussicht stellte, denn es ist nicht auszuschließen, dass Data seine Recherche auf diese Grundlage gestellt hätte.

218

Mülltonne, Speerschleuder und Fahrradschlauch – Über künstliche und natürliche Intelligenz

Dietrich Dörner Zusammenfassung

Wenn Intelligenz die Fähigkeit bedeuten soll, „zwischen den Zeilen zu lesen“ ( inter legere ), dann stellt sich die Frage danach, wie dies gehen kann, bei natürlicher wie künstlicher Intelligenz. In Frage kommen Deduktion, Induktion und Abduktion. Sinnvolles deduktives Schließen setzt eine Menge von Hintergrundwissen voraus, bzw. das Bedürfnis, sich das jeweils erforderliche Hintergrundwissen zu beschaffen. Z.B. indem man danach fragt. Das überfordert die heutige künstliche Intelligenz. Induktives Schließen führt zu Verallgemeinerungen, aber nicht zu Begründungen. Diese lassen sich durch Abduktion gewinnen. Wie psychologische Modellbildung zeigt, sind dafür ein leistungsfähiges Protokollgedächtnis und sprachgestützte Fra-gefähigkeit wichtig. Zusätzlich ist es notwendig, bildhafte Denkinhalte, Vorstellun-gen also zu entwerfen und – entsprechend der Problemstellung – zu verändern. Abstract

If intelligence is to be understood as the ability “to read between the lines” ( inter legere ), then the question arises how this can come to be, in natural as well as in artificial intelligence. Options are deduction, induction, and abduction. Meaning-ful deductive reasoning presupposes a lot of background knowledge or at least the “feeling” that some background knowledge is missing. This puts too much strain at least on contemporary artificial intelligence. Inductive reasoning allows for general-

219

ization, but not for explanations. These can be gained by abduction. As psycholog-ical models can demonstrate, this in turn is based on a powerful protocol-memory and the language-based ability to ask questions. Additionally, it is necessary to gen-erate imaginations and to alter them according to the problem. 1. Einleitung

Neulich las ich in einer Zeitung, ich glaube, es war die FAZ, dass in Zukunft alle Routinearbeiten von „künstlicher Intelligenz“ (KI) erledigt würden. Das wunder-te mich etwas, da ich Intelligenz eigentlich immer in Verbindung gebracht hatte mit der Fähigkeit, neue Aufgaben, neue Probleme bewältigen zu können, nicht aber Routineaufgaben. Wenn künstliche Intelligenz lediglich „Routine“ kann, dann ist ‚künstliche Intelligenz‘ eigentlich nicht Intelligenz. In diesem Artikel möchte ich mich ein wenig mit den alltäglichen Routine-Tätigkeiten befassen und mit der In-telligenz, die dafür notwendig ist. Und ich frage mich, was nun tatsächlich die KI beitragen kann zur Bewältigung der alltäglichen Routine.

Intelligenz kommt von inter legere , meint also Fähigkeit, zwischen den Zeilen le-sen zu können. Eigentlich kann man zwischen den Zeilen gar nichts lesen, da ja da gar nichts steht. Intelligenz besteht nun darin, dass man das, was „zwischen den Zeilen“ eigentlich stehen sollte oder könnte, sich irgendwie ausdenkt. Unter „Lesen“ verstehen wir hier einfach „Wahrnehmen“. Man sieht etwas, einen Stein, ein Haus, eine Mülltonne oder sonst irgendwas. Und was heißt das nun?

Auf der Abbildung 1 sehen Sie eine Alltagsszene. Da steht eine Mülltonne. Und zwar auf der Straße! Dahinter steht ein Auto. Es ist blau! Usw. Wir sehen be-stimmte Sachen, und wir wissen auch, aus welchen Teilen diese Dinge bestehen. Dabei kennen wir auch die verborgenen Elemente, die wir gar nicht sehen, wir wissen wie diese Dinge von innen aussehen, was man mit ihnen machen kann, welche Rolle sie für die Lebensführung spielen, usw. wir kennen die Bedeutung dieser Dinge. Das ist das, was man wahrnimmt. Und was steht „zwischen den Zeilen?“

Eine Methode, um das herauszubekommen, besteht darin, dass man aus den Din-gen und den Relationen zwischen den Dingen etwas ableitet, etwas logisch dedu-ziert. Es reicht nicht, dass man die Dinge kategorisieren kann, sondern man muss auch noch überlegen, was diese spezifische Konstellation bedeutet. Die Dinge sind

220

bekannt, aber die Konstellation ist immer anders. Und was kann man aus dem Auto, der Mülltonne, dem anderen Auto, dem blühenden Busch, usw. ableiten?

Abb. 1: Die Mülltonne.

Alle hier abgedruckten Abbildungen stammen vom Verfasser.

1. Dass die Tonne auf der Straße steht und nicht auf dem Parkstreifen ist ge-fährlich. Denn die Tonne könnte die Ursache eines Unfalls werden, da an dieser Stelle die Tonne die Straße verengt; zwei Autos könnten einander nicht mehr ausweichen.

2. Es ist Frühling, wie man an der blühenden Cornell Kirsche sieht. Im Früh-ling gibt es häufig böige Winde! Also könnte ein starker Windstoß die Tonne, die ja Rollen hat, leicht gegen das blaue Auto werfen. Und ich als Besitzer der Tonne müsste für den Schaden aufkommen. Und der Besitzer des blauen Autos könnte unter Umständen auf meine Kosten die gesam-te Karosserie des Autos erneuern lassen. Und das würde teuer! Also: Die Tonne muss so schnell wie möglich hier weg und auf ihren Platz!

3. Oder man könnte ableiten, dass man mit dem Inhalt der Tonne (Altpa-pier!) gut und leicht ein Feuerchen machen könnte. Und es könnte nun jemand vorbeikommen, dem es einfallen möchte, sich doch ein wenig zu wärmen an diesem recht kalten Tag. Was könnte aber aus einem Feuer

221

entstehen, welches in der Nähe der Brennstofftanks von zwei Autos ent-facht wird?

Also ganz klar: Die Mülltonne muss weg! 2. Deduktion

In der Logik sind Computer stark. Logische Spiele, wie z. B. Schach oder Go, spielen sie inzwischen viel besser als Menschen. Wie würde also nun eine „logische Ana-lyse“ der Tonnen-Szene aussehen, wenn wir sie durch ein KI-System durchführen ließen?

Man kann nur das ableiten, was aus bestimmten Relationen zwischen den Dingen folgt. Eine KI könnte durch eine 3-dimensionale Interpretation des Bildes durchaus z. B. die räumlichen Abstände zwischen den Objekten, die da zu sehen sind, heraus-finden. Sie könnte dann ableiten, dass die Mülltonne von dem blauen Auto etwa 3 m entfernt ist, das blaue Auto von dem davorstehenden schwarzen etwa 1,5 m. Nun gut; daraus aber könnte man noch nicht viel schließen.

Zusätzlich sollte die KI noch eine ganze Menge von Physik verstehen, um Ab-leitungen machen zu können. Sie müsste also beispielsweise die Materialeigen-schaften der Dinge kennen und wissen, dass der Aufprall der Mülltonne auf das blaue Auto eine Beule der und der Tiefe und der und der Ausdehnung erzeugen könnte. Und dass beim Aufprall wahrscheinlich der Lack abplatzt. Der Lack vom Auto. Und es ist erfahrungsgemäß schwierig, eine Schadstelle im genau richtigen Farbton nachzulackieren. Vielleicht muss man das ganze Auto nachlackieren! Und das würde teuer! Außerdem müsste die KI etwas von Klimatologie verstehen, um feststellen zu können, dass ein böiger Wind im Frühjahr sehr wahrscheinlich ist. Dann könnte sie nämlich die Gefahren beurteilen, die dem blauen Auto durch die Mülltonne drohen. Denn die Mülltonne steht „westlich“ von dem blauen Auto; die Windböen aber kommen in unseren Breiten hauptsächlich aus dem Westen! (Man sieht die westliche Position der Mülltonne an der Neigung des Baumes hinter dem blauen Auto!)

Dann müsste die KI auch etwas von juristischen Zusammenhängen wissen, sie müsste nämlich wissen, dass der Eigentümer der Mülltonne verantwortlich für das Verhalten der Mülltonne ist, da die Mülltonne keine juristische Person ist. Und dass

222

er haftbar zu machen wäre für die Schäden, die die Mülltonne ihrer Umgebung zu-fügen kann, da ja die Mülltonne selbst nicht haftbar zu machen ist.

Weiterhin müsste aber die KI verstehen, dass der Eigentümer der Mülltonne höchstwahrscheinlich eine Abneigung dagegen hat, sein Geld in die Schandtaten seiner (nicht strafmündigen) Mülltonne zu investieren.

Schließlich müsste die KI noch wissen, dass eine grüne Mülltonne ein Depot für Papier- und Pappmüll ist, im Gegensatz zu einer schwarzen Mülltonne, in der Rest-müll entsorgt wird, der nicht so gut brennt.

Und sie müsste noch etwas von Psychologie verstehen, nämlich vom Bedürfnis von Menschen sich – besonders in der kalten Jahreszeit! – zu wärmen, und die deshalb auf die Idee kommen könnten, zu diesem Zwecke mit den Pappstücken und Papierresten der grünen Mülltonne ein wärmendes Feuer zu entzünden. (Al-lerdings sollte eigentlich der KI auch noch einfallen, dass die Mülltonne doch wohl gerade entleert worden ist, sich vermutlich also derzeit keine Papp- und Papier-überreste in der Tonne finden lassen.)

Es steht zu fürchten, dass ein KI System mit dem Problem, zu entscheiden, was nun mit der Mülltonne zu geschehen hat, ziemlich überfordert wäre! Denn es ist mir kein KI System bekannt, welches zugleich über Kenntnisse in der Physik, der Klimatologie, der Juristerei, der Materialkunde verfügt, die man bräuchte, um ablei-ten zu können, welche Gefahren von der Mülltonne und ihrer Umgebung ausgehen könnten! Man könnte natürlich sagen: Das ist alles gut und schön, aber die KI soll gefälligst die Mülltonne wegräumen! Nun gut, so könnte man natürlich aus der KI einen braven Soldaten machen. „Tu’, was Dir befohlen wird!“ Dafür aber braucht die „KI“ keine Intelligenz! Eine alte Unteroffiziersermahnung an die Soldaten lautet: „Sie sollen nicht denken! Überlassen Sie das den Pferden, die haben größere Köpfe!“

Auch könnte es sein, dass die Mülltonne mit Absicht auf die Straße geschoben wurde. Ein Bewohner des Hauses kam von einem Einkauf zurück, fühlte plötzlich ein Stechen in der Brust, fürchtete ohnmächtig zu werden, und gab deshalb der Mülltonne mit letzter Kraft noch einen Stoß, damit sie auf die Straße rollte und jedem passierenden Nachbarn klarmachen sollte: „Hier ist etwas in Unordnung! Du solltest einmal nachsehen!“ Nun würde einem Nachbarn das wohl nicht unbe-dingt einfallen, wenn er nur eine Mülltonne (die dahin nicht gehört) auf der Straße sehen würde. Wäre das aber verbunden mit anderen Indizien, z. B. mit offenstehen-den Autotüren oder gar einem laufenden Motor, dann sollte der Nachbar ableiten können: „Hier stimmt etwas nicht!“ Und eine KI sollte ja wohl nun dasselbe leis-

223

ten können. Kann das die KI? Kurzum: Die KI mit ihren enormen Fähigkeiten im Go- und im Schachspiel wäre kaum in der Lage, mit dem Problem der Mülltonne, die auf der Fahrbahn steht, statt auf dem Parkstreifen, aufgrund logischer Schlüsse in adäquater Weise umzugehen! Weil sie das notwendige Hintergrundwissen nicht hat und weil wohl auch nicht das „Gefühl“ in der KI entsteht, dass ihr notwendiges Wissen fehlt. 3. Induktion

Neben dem logischen Schluss ist auch der induktive Schluss, die Verallgemeine-rung, eine Form des Zwischen-den-Zeilen-Lesens. Da steht also ein Mülleimer auf der Straße, und zwar auf der Fahrbahn. Ist das nun ein Einzelfall? Oder stehen in der ganzen Stadt die Mülleimer auf der Fahrbahn. Dann wäre der Mülleimer vor meinem Haus nur ein Beispiel für eine sehr oft auffindbare Gefahrensituation. Gu-cken wir doch mal nach! Eine kurze Fahrt durch die Stadt zeigt, dass mindestens 60 % aller Mülltonnen nach der Leerung auf der Straße, konkret auf der Fahrbahn, stehen. Wir haben es also mit einem allgemeinen Missstand zu tun. Dem sollte man abhelfen. Dafür aber sollte man zunächst einmal ergründen, warum ist denn das der Fall? Und damit sind wir schon bei der nächsten Form des Lesens zwischen-den-Zeilen, nämlich der Abduktion . Der Begriff ‚Abduktion‘ stammt von Charles Sanders Peirce1. 4. Abduktion

Nicht nur, was folgen könnte, ist in der Mülltonnensituation interessant. Interessant ist vielmehr auch noch, wie es denn eigentlich zu der Situation mit der Mülltonne gekommen ist? Oder wie es dazu hätte gekommen sein können? Die Abduktion besteht darin, dass man herausfindet, welches die Gründe dafür gewesen sind, dass die Konstellation so beschaffen ist, wie wir sie vorfinden. Die Abduktion bedeutet die Lösung der „Kommissarsfrage“. Kurz und brutal: „Hier ist die Leiche! Wie kam es dazu?“

Die vorgefundene Situation soll sich nun also als Konklusion einer zu erfinden-den Schlusskette ergeben. Also: Erfinden wir die Gründe für die auf der Fahrbahn stehenden Mülltonnen!

1. Die Müllmänner haben es immer eilig. Und daher haben sie die Tonne, ohne viel zu überlegen, einfach wieder auf die Straße gestellt, nachdem sie entleert wurde. Die Müllmänner und ihre Motive sind der Ausgangspunkt eines Prozesses, der schließlich zu der „Tonnensituation“ geführt hat.

2. Neulich las ich in der Zeitung, dass es der Firma Auto-Meyer schlecht geht. Niedriger Umsatz! Könnte unter Umständen Auto-Meyer auf die Idee gekommen sein, die Müllmänner durch kleine Geldgaben dazu zu überreden, die Mülltonnen auf der Straße stehen zu lassen? Damit sich Unfälle ereignen und die Firma Auto-Meyer Reparaturaufträge bekommt? Und dadurch ihre finanzielle Situation verbessert!?

Könnte die KI in der gegebenen Situation solche Überlegungen durchführen? Na-türlich müsste sie über elementare psychologische Kenntnisse verfügen; sie müsste nämlich über das Bestreben der Müllmänner möglichst schnell, besonders wenn die Witterungsverhältnisse nicht so angenehm sind, wieder ihre Dienststation zu erreichen, um sich mit einer Tasse heißen Kaffees aufzuwärmen.

Und außerdem müsste die KI jeden Morgen die Zeitung lesen, um über die fi-nanzielle Situation von Auto-Meyer informiert zu sein. Und zugleich müsste die KI über die möglichen Pläne des Autohausbesitzers spekulieren können, mit Hilfe der Müllmänner den Auftragseingang zu erhöhen. Und wenn nun der Herr Auto-Mey-er ein guter Freund des Besitzers der Mülltonne wäre, so müsste die KI, vertraut mit der sozialen Umgebung ihres „Administrators“ sich sagen: „Es kann ja wohl doch noch nicht im Interesse meines ‚Admins‘ sein, dass ich die Mülltonne hier wegräu-me und seinem Kumpel die dringend benötigten Einnahmen vermassele!“

Wie wahrscheinlich ist eine KI nun mit den sozialen Verhältnissen ihres „Be-sitzers“ vertraut und zugleich mit den Voraussetzungen und den Folgen, die eine Freundschaft mit sich bringt? Also: Die KI muss mir erst noch begegnen, die in der Lage ist, die verschiedenen Gründe dafür, dass Mülltonnen auf der Straße he-rumstehen, herauszufinden. – Übrigens: Eigentlich gehört auch die im letzten Ab-schnitt schon geschilderte Möglichkeit plötzlicher Herzbeschwerden zum Thema „Abduktion“.

225

Abb. 2: Der Fahrradschlauch.

Die Abduktion ist besonders dann wichtig, wenn einem etwas Unerwartetes be-gegnet. Wenn man z. B. plötzlich in eine Situation gerät, bei der die gewöhnlichen Verhaltensweisen, mit denen man die Situation bewältigen kann, versagen. Dann sollte man sich zu helfen wissen. Wenn etwas nicht so geht, wie es gewöhnlich ge-hen sollte, sollte man einen Ausweg finden können.

Abb. 3: Der Schlauch im Rad.

Nehmen wir einmal an, Sie befinden sich auf einer Fahrradtour und fahren auf einem Waldweg über eine knorrige Wurzel. „Pschschtt“ macht es und das Vorderrad ist platt! Ärgerlich! Aber Sie haben ja ihr Werkzeug dabei und deshalb ist das kein Problem. Eine kurze Inspektion der Satteltasche zeigt, irgendjemand hat das Flick-

226

zeug aus der Tasche entfernt. Nun stehen Sie also mitten im Wald mit einem „plat-ten“ Fahrrad 8 km von ihrem Heim entfernt. Das Fahrrad auf die Schulter und dann ab nach Hause? Mühselig! Das Fahrrad schieben? Auch mühselig mit dem platten Reifen. Was tun? Abbildung 2 zeigt, was Sie tun können! Bei einer Wanderung ist es immer günstig, wenn man ein bisschen Material bei sich hat, um Unglücksfällen begegnen zu können. Man sollte vielleicht ein Pflaster dabeihaben und einen Ver-band und ein Stück Draht, um irgendetwas zusammen zu halten, oder ein Stück Bindfaden, um etwas auf dem Gepäcksattel befestigen zu können. (Bei den Pfad-findern nennt man so etwas das AB Päckchen, „Allzeit-Bereit-Päckchen“.) Nun gut, dass Fahrradflickzeug war nicht vorhanden. Aber 2 m einer dünnen, starken Nylon-schnur finden sich im AB-Päckchen. Als Flickzeug geeignet? Eigentlich ja nicht! Ja aber doch; man bindet doch Blutadern ab, damit das Blut nicht länger hinausfließt und eine Blutader ist doch auch eine Art von Schlauch. Warum soll man dann also keinen Fahrradschlauch „abbinden können“, so dass keine Luft mehr entweichen kann. – Gesagt, getan; das Ergebnis sehen Sie auf Abbildung 2. Über die Stelle mit dem Loch wurde, besonders vor und hinter dem Loch die Nylonschnur mit relativ großer Kraft gewickelt und ein Knoten krönte die Tätigkeit. Und Abbildung 3 zeigt, was dann wohl innerhalb des Schlauches geschah, als er wieder aufgepumpt wurde. Mehr als ein Jahr bin ich mit diesem Schlauch ohne Schwierigkeiten gefahren.

Abb. 4: Reparatur eines Fahrradschlauchs mit Hilfe von Klemmen. Natürlich braucht man zwei davon, eine vor dem Loch, eine andere dahinter. (Oder auch nur eine, wenn das Loch klein ist.) Und die Klemmen müssen viel kleiner sein!

Der Kern des Denkprozesses ist ein Analogieschluss, und das ist eine bekannte Denkfigur. „Ader = Schlauch!“ Könnte eine KI auch auf eine solche Idee kommen? Dazu müsste die KI über eine ganze Menge Erfahrungen verfügen, die nicht ei-gentlich zu dem Bereich „Fahrradreparatur“ gehören. Die KI müsste medizinische

227

Kenntnisse haben und wissen, dass man Adern, besonders Arterien, bei einer star-ken Verletzung abbinden muss und kann. Nun hat man aber sehr viele Dinge im Kopf, man weiß, dass man ein Brett auf ein anderes Brett aufschrauben kann. Und so könnte man beispielsweise auch den Fahrradschlauch „reparieren“, indem man vor und hinter dem Riss im Schlauch jeweils zwei Brettchen zusammenschraubt und so den Riss isoliert. Nun müssen aber die Brettchen so klein sein, dass sie in den Mantel des Rades hineinpassen und außerdem müsste man passende Schrau-ben haben usw.; das wäre also eine Methode des Flickens eines Lochs im Schlauch, die nur unter ganz bestimmten Umständen infrage kommt. Aber auch diese sollte einem einfallen können. Und dafür sind nun wieder andere Kenntnisse notwendig als für den Gebrauch der Nylonschnur. – Also: Eine KI so zu konstruieren, dass sie immer in der jeweiligen Situation die richtige Analogie findet, scheint mir nicht ganz einfach zu sein!

Bleiben wir noch ein bisschen bei den Problemen! Auf Abbildung 5 findet man drei sehr ähnliche Bilder. Es gibt jeweils drei Pflöcke, und auf dem ersten Pflock liegen sieben runde kleine Holzscheiben. Das ist das Denkspiel „Turm von Hanoi“. Die Aufgabe besteht darin, den gesamten Turm von A nach C zu bringen; dabei darf nur jeweils eine einzige Scheibe bewegt werden und es darf niemals auf einen der Pflöcke eine größere Scheibe auf eine kleinere gelegt werden. (Überlegen Sie sich einmal die Lösungsmethode!)

Nun begegnet man Leuten, die, nachdem sie diese Instruktion gehört haben, sich keineswegs an die Arbeit machen, um ein Scheibchen nach dem anderen mal auf C, mal auf B zu legen, auch wieder auf A zurück. Nun gut, man darf niemals ein großes Scheibchen auf ein kleineres legen. Aber warum überhaupt die Schei-ben verlegen? Man kann doch einfach die Pflöcke umbenennen. Man knibbelt das Etikett mit dem A einfach ab und dasselbe macht man mit dem C-Etikett. Und dann klebt man unter den ersten Pflock das C-Etikett. Und schon steht der Turm auf dem Pflock C, ohne dass man etwas bewegt hat! „Ja, emmh, …   aber so war das eigentlich nicht gedacht!“ sagt der Versuchsleiter. (Gewöhnlich fällt einer Ver-suchsperson, der diese „Lösungsabkürzung“ einfällt, auch sehr schnell die richtige Lösung ein.)

Eine andere Versuchsperson meint: „Also der rechte Turm soll nach links!?“ – „Genau!“ meint der Versuchsleiter. Die Versuchspersonen dreht das gesamte Ar-rangement einfach um 180°! Und meint zum Versuchsleiter: „So richtig?“ – Der Versuchsleiter: „Ja, emmh, … aber so war das eigentlich nicht gedacht!“

228

Abb. 5: Der „Turm von Hanoi“.

Natürlich wissen die Versuchspersonen ganz genau, dass sie eine andere Lösung suchen sollen. Aber sie sind einfallsreich und demonstrieren das und freuen sich dabei darüber, den Versuchsleiter in Verlegenheit gebracht zu haben. Demonstra-tion der eigenen Überlegenheit! Sollte man sich nicht entgehen lassen! Darüber hinaus haben diese beiden „Lösungen“ ja durchaus eine philosophische Dimension: Was ist Bedeutung? Immerhin: Die beiden Versuchspersonen haben nicht gegen die Regeln verstoßen! Und das Ziel haben sie auch erreicht!

Kennt man irgendeine KI, der so etwas auch einfallen kann?

Kehren wir zum Ernst des Lebens zurück. Und jetzt wird es wirklich ernst. Auf der Abbildung 6 sieht man Neandertaler bei der Mammutjagd etwa im Jahre 80.000 v. Chr.2. Sie brauchen Fleisch für die lange Winterzeit und so ein großes Mammut ernährt den ganzen Stamm für einige Wochen. Aber so ein Mammut-bulle hat ekelhaft lange Stoßzähne und weiß sie zu gebrauchen und außerdem hatte er einen Rüssel, mit dem er einen der Mammutjäger durchaus erfassen kann, um ihn dann auf den Boden zu schmettern. Die Mammutjäger haben ihre Stoßlanzen; gefährliche Waffen mit rasiermesserscharfen Feuersteinspitzen auf einem starken Stab. Aber es hilft alles nichts: Sie müssen nah heran an das Mammut. Sehr, sehr gefährlich! Aber man braucht das Fleisch!

Die Neandertaler lebten (in West- und Mitteleuropa) über zehntausende von Jah-ren mit der moderneren Homo sapiens Bevölkerung, die unsere Ahnen darstellt, zusammen, den Sapiens-Menschen. Etwa gegen 20.000 v. Chr. starben die Neander-taler auch in Westeuropa aus; gewöhnlich wird das darauf zurückgeführt, dass sie sich an die „neuen“ Gegebenheiten nicht anzupassen wussten.

In diesem Zusammenhang ist es interessant, dass die modernen Homines sapi-enti über eine Waffe verfügten, die den Lanzen der Neandertaler weit überlegen waren. Sie verwendeten „Speerschleudern“ (siehe Abbildung  7), gewissermaßen ein Hebelsystem, um Speere mit größerer Wucht und auf größere Entfernungen zu werfen. Mit der Speerschleuder war es möglich, Speere auf eine Entfernung von bis zu 150 m zu werfen. (Der augenblickliche Rekord im Speerwerfen (ohne Schleu-der!) liegt bei etwa 100 m.) Durch diese Fernwaffe brauchten die sapiens-Menschen sich nicht mehr dem Mammut zu nähern und konnten außerdem eine Art von „Dauerfeuer“ auf das Mammut aufrechterhalten, da sie von diesen leichten Spee-ren 10 oder 12 mit sich führen konnten. Die Speerschleuder war also eine Art von steinzeitlichem „Maschinengewehr“; man konnte relativ schnell hintereinander viele Speere werfen.

Nun lebten die Sapiens-Menschen Zehntausende von Jahren mit den Neanderta-lern im selben geographischen Bereich, und es ist sicher, dass beide Menschenarten Beziehung zueinander hatten; unser Genom enthält etwa 2 % Neandertaler-Gene. Aber: Mögen Neandertaler und Sapiens-Menschen auch Tisch und Bett miteinan-der geteilt haben; die Neandertaler übernahmen die Speerschleuder als Waffe nicht . Warum nicht? Der Sapiens erfand noch viele andere Dinge, z. B. – ganz wichtig! – die Nähnadel. Dadurch konnten sich die Sapiens-Menschen Unterwäsche nähen und auch z. B. Anoraks und Fellschuhe. Dagegen umhüllten sich die Neandertaler mit Fellen, die sie vielleicht mit Riemen und Bändern an ihrem Körper befestig-ten. (Siehe Abbildung 6.) Die Sapiens Menschen erfanden auch das Kochen und die Töpferei, schnitzten Flöten, schufen Kunstwerke und entwickelten Religionen. Wahrscheinlich starben die Neandertaler aus, weil die Sapiens-Menschen einfach die besseren Jäger waren, mit den besseren Waffen, mit besserer Kleidung und Schuhwerk ausgestattet. Auch waren wohl die Sapiens-Menschen die besseren Or-ganisatoren. Wie kam es, dass die beiden nahe verwandten Menschenarten sich so unterschiedlich entwickelten. Das Gehirn der Neandertaler war größer als das der Sapiens-Menschen (ca. 1.700 g; wir haben heute Gehirne mit einem Gewicht von 1.400 bis 1.500 g.)

Was war das Geheimnis der Sapiens-Menschen? Man nimmt heute an, dass vor etwa 70.000 Jahren eine „kognitive Revolution“ bei den Sapiens-Menschen stattge-funden hat, aber nicht bei den Neandertalern. In irgendeiner Weise muss sich das Gehirn der Sapiens-Menschen verändert haben. Harari (2017), der die Unterschie-de zwischen Neandertalern und Sapiens-Menschen beschreibt, meint, dass wohl irgendeine Art von neuronaler Umprogrammierung in den Gehirnen der Sapiens-Menschen stattgefunden haben muss, weiß aber nicht, um welche Art von Neuver-schaltung es sich da gehandelt hat.

Wir haben künstliche Lebewesen entworfen, die „Mäuse“. Dabei entdeckten wir, dass diesen Mäusen gleichfalls eine kognitive Revolution beschert wird, die sich von selbst einstellte, ohne dass wir danach gesucht haben. Unsere Mäusepopulation lebt in einer Gemeinschaft von etwa 100–125 Individuen; dann auch mal wieder 95 dann wieder 105 usw. auf einer Insel. Und es tut sich nicht viel. Die Mäuse haben Hunger, Durst, suchen Gemeinschaft, haben Sex, haben Freunde, Feinde. Sexuelle Fortpflanzung bedeutet eine Genrekombination, so dass eine große Verschieden-heit von Mäusen entsteht.

Wenn man das Mäuseprogramm eine Zeit lang laufen lässt, so dass viele Genera-tionen vergehen, dann kommt irgendwann mit großer Sicherheit eine Phase, in der die Anzahl der Mäuse ungeheuer zunimmt; von etwa 100 springt die Population auf die Größe von 300, dann 400, dann bis zu 700 Mäuse an. Wir können natür-lich feststellen, woran das liegt. Es liegt an einem längeren „Protokollgedächtnis“; das Protokollgedächtnis, das Gedächtnis für die unmittelbare Vergangenheit (das hippocampale Gedächtnis vielleicht?) wurde länger, dadurch, dass die Verfallsra-te geringer wurde. Es war also ein ganz einfacher neuronaler Parameter, der sich

231

änderte. Aufgrund aber dieses längeren Protokollgedächtnisses konnten sich die damit begabten Mäuse längere Strecken ihrer Vergangenheit merken, wussten also auf einem Jagdzug, wann sie wo waren und auf welche Art und Weise sie an einen bestimmten Ort gekommen sind und das in allen Einzelheiten. Ihr Gedächtnis ent-hielt auf diese Weise einfach längere „Pläne“; die „Mäuse“ wussten in viel höherem Maße als der Neandertaler, wann Sie wo gewesen waren, wem sie dort begegnet sind, was sie begünstigte oder was ungünstig für sie war.

Abb. 8: Die Mäuse in ihrer Lebenswelt. Helle Mäuse: weiblich, dunkle Mäuse: männ- lich. Man sieht auch Kinder. Und außerdem Himbeerbüsche, Wasserstellen, Dornbü- sche (gefährlich!), Heilpfl anzen.

Und auf diese Art Weise hatten die Mäuse mit dem längeren Protokollgedächtnis einen viel besseren und viel weiterreichenden Überblick über das Gebiet, in dem sie lebten. Und sie erfuhren auch, dass es unter Umständen günstig war, nicht immer ganz genau den gleichen Weg zu einem Ziel zu gehen, sondern dass sie beispielswei-

232

se bei Regenwetter nicht einen bestimmten Abhang hinabgehen sollten, da dieser dann sehr rutschig war und man leicht ausgleiten und abstürzen konnte. Man sollte bei Regenwetter also diesen Berghang eher meiden. Ein anderer Weg war gefähr-lich, weil dort morgens immer ein Löwe auf Beute lauert; man sollte möglichst nur nachmittags dort vorbeigehen oder aber immer in größeren Gruppen, so dass man den Löwen vertreiben konnte. Es entwickelte sich also ein System von Alternativ-wegen, die bei bestimmten Bedingungen benutzt werden sollten oder zu vermeiden waren. Auf die Dauer entwickelte sich in einer „Maus“ ein relativ dichtes Netz von Wegen, die sich auch überkreuzten und Alternativwege enthielten. Verschiedene Teilstücke der Wege konnte man nun zu neuen Wegen zusammenfügen.

Jetzt hatte man also nicht nur ein größeres Wegenetz, sondern das Wegenetz war insgesamt viel flexibler mit Alternativwegen versehen. Wollte man nun jemand anderem den Weg schildern, so musste man Worte gebrauchen, die es vielleicht noch gar nicht gab: „Wenn … dann …, aber …!“ „Wenn … dann … und nicht …, dann dennoch …!“, „Wenn aber …, dann nicht …!““ „Und obwohl …, dann …!“, „Wenn …, dann …, auch wenn nicht …, dann trotzdem …, aber …!“ „Bevor …, dann aber …, wenn …, sonst …!“ „Vorher aber …!“ „Wenn noch nicht …, dann …, obwohl …dennoch …!“, „Deshalb, zu dem Zweck …, wenn aber …, dann nach-dem …!“ „Unter der Bedingung, dass …!“ Und da nun das gesamte Wegesystem in differenzierter Weise benutzt werden musste, je nach der Präsenz oder Absenz bestimmter Bedingungen, musste sich die Sprache entsprechend weiterentwickeln; es kam zu einer sehr differenzierten Grammatik. Auch lernte man, dass man in dem Wegenetz zu ein und demselben Ziel verschiedene Wege gehen konnte; auf diese Art und Weise wurden die einzelnen Wege in Teilstrecken unterteilt, die in verschiedener Weise kombiniert werden konnten.

Das machte zunächst die Bewegung viel flexibler. Aber diese Flexibilität kann sich auf andere Arten des Tuns ausgedehnt haben und man lernte, dass man auch ande-res Tun entsprechend organisieren konnte. So beinhaltet ja die Speerschleuder statt eine Wurfbewegung zwei verschiedene, man wirft den Speer mit der Hand in eine Richtung, führt aber dann den Wurfstock nach und beschleunigt den Speer noch weiter. Also eigentlich werden hier zwei Aktionen hintereinander geschaltet.

Und es entwickelte sich auf diese Art und Weise die Fähigkeit, Kausalitäten zu kombinieren. Wenn A der Fall ist und auch B, dann musst du C machen, wenn aber B fehlt, dann kannst du C nicht machen, sondern du musst D machen. Die „Mäuse“ entwickelten ganz einfach eine differenziertere Vorstellung von den kausalen Zu-

233

sammenhängen in ihrer Umgebung und lernten es, Kausalitätsketten zu konstruie-ren. Und das war etwas, was die Neandertaler mit ihrem kurzen Protokollgedächt-nis nicht konnten.

Das ist in groben Zügen die Theorie, die wir in Dörner (2021) genauer darlegen werden. Aufgrund ihres längeren Protokollgedächtnis waren die Sapiens-Menschen in der Lage, komplizierte Kausalzusammenhänge nicht nur auszunutzen, sondern auch zu konstruieren, so also die Speerschleuder (und später dann auch Pfeil und Bogen). Und sie erlebten Geschichten , nicht nur einzelne Ereignisse, und konnten einander diese Geschichten auch erzählen, also Pläne weitergeben. Und dadurch entwickelte sich die Sprache und mit der Sprache auch eben der freie Umgang mit Kausalitäten.)

Ich möchte annehmen, dass der Grund für den technischen Fortschritt, den die Sapiens Menschen machten, darauf zurückzuführen ist, dass sie in differenzierter Weise über Wege sprechen konnten. Und, dass sie nicht nur sagen konnten, was ge-schah und was dann geschah und was dann geschah, sondern dass sie ausdrücken konnten, warum etwas geschah, was es bewirkte, dass eine bestimmte Handlung einmal zu diesem Ende, ein anderes Mal zu jenem Ende führte. Sie konnten zwi-schen Ursachen und Wirkungen unterscheiden und auch differenzierte Ursachen benennen, also bedingte Ursachen, Ursachen, die nur dann wirksam werden, wenn bestimmte Bedingungen erfüllt sind. Und nachdem sie gelernt hatten, Ereignisse als Geschichten zu berichten, in denen dieses jenes erzeugt und jenes wieder etwas anderes und das noch mal etwas anderes, aber unter anderen Umständen ein drit-tes usw., erlernten sie es, die Welt als Ursache-Wirkungs-Netz zu betrachten und konnten aus diesem Grunde dann auch komplizierte Ursache-Wirkung-Geflechte gestalten und die Werkzeuge für die Prozesse erfinden.

Es genügte also vielleicht die Entwicklung des Protokollgedächtnisses, um zu komplizierten Werkzeugen zu kommen, die dann eben auch eine Optimierung der Handlungen möglich machten. (Das ist der Rahmen; es ist mir sehr klar, dass man das noch genauer beschreiben muss; am besten, man überlegt sich, wie sich das alles entwickeln konnte und zeigt durch Simulation, dass eben dies möglich ist.) Wenn diese Hypothese aber richtig ist, die wir soeben gerade grob geschildert haben, so kann man auch sagen, dass eine KI ohne eine differenzierte Sprache nicht möglich ist; man muss einen Prozess differenziert beschreiben können, und wenn man ihn nicht beobachten kann, so muss man es lernen, sich vorzustellen, wie das, was man nicht beobachten kann, vielleicht aussieht.

234

Also: Ohne die Sprachfähigkeit, genauer gesagt die Fähigkeit, sehr differenziert über Dinge berichten zu können, Kausalitäten und mögliche Qualitäten unterschei-den zu können, wird es niemals eine KI geben. Man darf nicht nur die Mülltonne sehen, sondern man muss den Kontext sehen, in dem sie steht, oder in dem sie stehen könnte, man muss wissen, welche Kräfte, Naturkräfte oder auch mensch-liche Motive, wirksam sein müssen, um eine Situation in einer bestimmten Weise zu gestalten. Literatur

236

Corona und die Herausforderung für den Umweltschutz

Marion Friedrich/Joachim Rathmann Zusammenfassung

Seit Jahren schon ist das Umweltbewusstsein ist in vielen Ländern hoch und das Wissen um umweltschädliches Verhalten genauso. Trotzdem bleiben Umweltschutzbemühun-gen oft defizitär. Die COVID-19 Pandemie führt zu starken individuellen Verhaltens-änderungen und staatlichen Regulierungsmaßnahmen, in denen einige die Chance auf eine sozialökologische Transformation sehen. Auf individueller Ebene werden Mecha-nismen dargestellt, die eine solche Entwicklung hemmen und fördern können. Abstract

For years, environmental awareness has been high in many countries, as has been the knowledge of environmentally harmful behavior. Nevertheless, environmen-tal protection efforts often remain deficient. The COVID-19 pandemic is leading to strong individual behavioral change and governmental regulatory measure; in which some see an opportunity for socioecological transformation. At the individu-al level, mechanisms that can inhibit and promote such development are presented. 1. Einleitung In den 2000/2010ern erlebte die Ökobewegung mit neuen Trends Aufwind, der sich bis 2019 fortsetzte: Natürlich ist dabei die Zunahme des ökologischen Bewusstseins kein Novum, sondern seit Jahrzehnten zu verzeichnen.

237

Aus einer philosophischen Perspektive heraus ist die erste der vier Kantischen Fragen: „Was können wir wissen?“ hinreichend beantwortet. Auch die zweite Frage: „Was sollen wir tun?“ ist geklärt. Und so rückt das Paradoxon immer mehr in den Vordergrund: Wenn wir seit geraumer Zeit wissen, welches Verhalten zu welchen Konsequenzen führt und wie wir mit einer Verhaltensänderung zur Minimierung der negativen Umweltfolgen beitragen können – weshalb tun wir es nicht?

Hier gibt es zahlreiche Erklärungsansätze, die vom Konzept der kognitiven Dis-sonanz nach Festinger über die Low-Cost-Annahme von Diekmann bis zum Ein-fluss des multioptionalen Konsumverhaltens, das Kuckartz beschrieb, reichen – und doch kann keine These einen allumfassenden Lösungsansatz erwirken.

Abb. 1: Stellenwert des Umwelt- und Klimaschutzes. Quelle: https://www. umweltbundesamt.de/bild/stellenwert-des-umwelt-klimaschutzes, Zugriff: 05.07.2021. In Deutschland wird Umweltschutz laut Umfragen mehrheitlich schon seit Mitte der 1980er als wichtiges Anliegen betrachtet und hielt bereits damals Platz 1 der Rangliste der aktuell bedeutsamsten politischen Probleme inne. 2016 hielten 53 % der Bevölkerung den Umweltschutz für eine wichtige politische Aufgabe, 2021 wur-

238

de Umwelt- und Klimaschutz noch vor Krieg und Terrorismus als sehr wichtige Herausforderung betrachtet (vgl. Abbildung 1, 2).

Und doch korrelieren Umweltbewusstsein und Umweltverhalten im Alltag nur gering miteinander. Umweltschutz wird zwar als gesellschaftsrelevantes Thema mit starken Auswirkungen auf die Bewältigung zukünftiger, z. B. Globalisierungs-, Auf-gaben und Wohlstandssicherung betrachtet, doch ein hohes Umweltbewusstsein ist kein Indikator für konsequentes ökologisches Konsumverhalten.

Abb. 2: Zeitvergleich Umwelt- und Klimaschutz. Quelle: https://www. umweltbundesamt.de/bild/stellenwert-des-umwelt-klimaschutzes, Zugriff: 05.07.2021. 2. Was bedingt die geringe Korrelation von Umweltbewusstsein und Umweltverhalten? Nach dem „Erdgipfel“ der Vereinten Nationen (1992 in Rio de Janeiro abgehalten1), bei dem auf die Wichtigkeit der Veränderung des Konsumverhaltens, um eine po-sitive Wirkung auf das Umweltbewusstsein zu erzielen, schienen die Themen der „Agenda 21“ eher wieder in den Hintergrund zu treten. Klar war bereits damals, dass eine Lösung der globalen Umweltprobleme nicht allein durch den Versuch der staatlichen Steuerung erreicht werden kann: Auch der Endverbraucher muss sich der Nachhaltigkeit seines Umweltverhaltens bewusstwerden. Diese Nachhaltigkeit im Sinne eines auf Verhalten wirkenden Umweltbewusstseins kann nicht auf Vor-gaben und Bevormundung basieren, sie muss auf Freiwilligkeit, durch Einsicht be-dingt, gründen.

Bereits im Umweltgutachten des Jahres 1978 wies der Rat der Sachverständigen auf Vollzugsprobleme im Umweltschutz hin2, also auf die Schwierigkeiten, das Be-wusstsein für kritisches Umweltverhalten in nachhaltiges Verhalten zu übersetzen.

Umweltwissen, Umwelteinstellungen, Umweltverhalten und Verhaltensintentio-nen gelten heute als verhaltensdeterminierende relevante Faktoren und damit zu differenzierenden Begrifflichkeiten. So führt Kuckartz3 aus:

– Umweltwissen beschreibt den Kenntnis- und Informationsstand einer Person über Umwelt und Natur, über Trends und Entwicklungen in ökologischen Auf-merksamkeitsfeldern.

– Unter Umwelteinstellungen werden neben Einstellungen zu Fragen des Umwelt-schutzes im engeren Sinne auch Ängste, Empörung, Zorn und Betroffenheit so-wie persönliche Grundorientierungen und auf die Umwelt bezogene Werthal-tungen verstanden.

– Mit Umweltverhalten wird das individuelle Verhalten in relevanten Alltagssitu-ationen bezeichnet.

– Davon zu unterscheiden sind Handlungsbereitschaft und Verhaltensintentionen, Bekundungen, sich in Zukunft so und nicht anders verhalten zu wollen. 3. Auswirkungen der Corona Krise auf Umweltverhalten

Noch 2019 hätte nach Ansicht der Autoren ein umfassendes Bildungskonzept dazu beigetragen, die Korrelation zwischen Umweltbewusstsein und Umweltverhalten zu stärken. Hierzu wurde bereits 2020 von den Autoren ein Konzept erarbeitet, das durch alle Bildungseinrichtungen, vom Kindergarten bis hin zu Universitäten, im multimodalen und interdisziplinären Vorgehen den abstrakten Wert „Nachhaltig-keit“ in erlebbares, ressourcenorientiertes Verhalten, auch unter Vermittlung von Suffizienzstrategien, abbildet. Strategien, die direkt und indirekt auf den Anreizwert nachhaltigen Umweltverhaltens Einfluss nehmen, umfassen beispielhaft:

– Logotherapeutische Wertearbeit: Erfahren von Bedeutsamkeit und Sinnhaftig-keit im Naturerleben

– Umbewertung der Umwelt in Mitwelt, um die Reziprozität und Interdependenz Mensch – Natur zu vergegenwärtigen

– Commitment-Vermittlung durch achtsamkeitsbasierte Ansätze

– Modelllernen und Eigenerfahrung als positive Verstärker

– verdecktes/imaginiertes Konditionieren durch Story Telling, positiv antizipie-rend wie aversiv, auch direkt erlebbar am Beispiel der Pflanzen im Schulgarten, die auf Umweltbelastungen reagieren und/oder Simulationsspiele

– Minimierung bzw. Auflösung der erlernten Hilflosigkeit4 zugunsten erlebter Selbsteffizienz5: Durch einfache verhaltenstherapeutische Methodik kann die Veränderungsmotivation gesteigert bzw. auch Frustrationstoleranz aufgebaut werden.

Als mögliche Faktoren für Unterlassungen umweltgerechter Handlungen identifi-zierten wir hier u. a.:

– fehlender/variabler Wertecodex und dysfunktionales Modellverhalten

– fehlende und/oder unzureichende Information, teils auch durch Informations-überflutung bedingt: Ist die Bio-Karotte des Supermarkts, die aus Israel eingeflo-gen wird, wirklich „ökologischer“ als die heimische, aber nicht bio-zertifizierte Karotte vom Discounter?

– Insbesondere Jugendlichen ist es häufig aufgrund der sich noch in Entwicklung befindlichen synaptischen Verknüpfungen noch nicht möglich, valide Kosten-folgeabschätzungen und damit Zukunftsantizipation anzustrengen. Diese Fähig-keiten lokalisieren sich im präfrontalen Cortex, der ontogenetisch erst mit Ende der Pubertät ausreift

– die Vermittlung hedonistischer und gegenwartsbezogener Prinzipien, im Sinne „man lebt nur einmal“

– Dystopische Zukunftsszenarien, im Sinne: „es ist eh zu spät“?

Das Bildungsprogramm zielt/e dabei darauf ab, das Verhalten IM ALLTAG umwelt-verträglicher zu gestalten. Nur, wenn ressourcen- und umweltorientiertes Verhalten so selbstverständlich geworden ist, dass es ritualisiert/automatisiert ausgeführt ist und keine kognitiven Entscheidungsprozesse mehr benötigt, wird nachhaltiges Ver-halten als unanstrengend und „normal“ erlebt – was die unbedingte Voraussetzung ist, dass auch in kritischen und/oder Ausnahme-Situationen pro Mitwelt agiert werden kann. Natürlich erfordert dies wiederholtes Einüben der davor bewusst ge-wählten Verhaltensweisen: Die Einsicht muss ins praktische Handeln übersetzt und trainiert werden.

Und dann kam die Corona Krise: und damit eine deutliche Veränderung um-welt- und ressourcenorientierten Alltagsverhaltens. Als positive Auswirkungen der eingeschränkten Handlungsautonomie während des Lockdowns sind zu nennen:– Umweltbelastungen sinken durch weniger Flug- und Fernreisen.

– Durch vermehrtes Homeoffice nehmen Straßenverkehr und damit einhergehen-de Umweltbelastungen ab.

– Die Wohnortumgebung wird durch Spaziergänge, Sport im Freien etc. zunächst entdeckt und zugänglich gemacht.

Als negative Auswirkungen des Lockdowns sind zu nennen:

– Produkte „to go“ werden erneut in Einmalverpackungen verkauft, wiederver-wendbare Becher und Geschirr durfte von den Gastronomiebetrieben nicht mehr angenommen.

– Lieferservice-Bestellungen nahmen zu, damit steigt die Mülllast weiterhin.

– Supermärkte erhöhen ihren Lieferanteil.

– Internethändler erleben ein Hoch, damit einher geht die Zunahme von Umwelt-belastungen durch Verpackung und Transport.

– Kochbox-Lieferungen mit ihren einzeln verpackten Single-Portionen sind ge-fragt wie nie.

– Homeoffice wirkt sich auf den Strom- und Energieverbrauch aus: Hier wird hochzurechnen sein, ob die gesparte Treibstoffbelastung dazu im Verhältnis steht.

242

– OP-Masken und FFP 2-Masken sind Wegwerfprodukte – die nicht immer im Restmüll landen, sondern häufig auf den Straßen und Spazierwegen „entsorgt“ oder verloren werden.

Es wirkt, als ob mit der empfundenen Bedrohung der eigenen Gesundheit und Existenz durch das Virus die Umweltachtsamkeit bei vielen Bürgern erloschen ist: Der Trend hin zu mitweltachtsamen Verhalten oder gar Einsatz für unsere Mit-welt ist stark eingebrochen: Nicht nur, dass Versammlungen und Demonstrationen untersagt waren, Fridays for future haben an Aufmerksamkeit verloren.

Dies zeigt die bisherige kognitive Steuerung umweltschonenden Verhaltens deut-lich auf. Es ist in der Psychologie keine neue Erkenntnis, dass erlebte Angst sich auf rationales und innovatives Verhalten auswirkt: Wer Angst hat, wendet vielmehr be-reits erprobte und eintrainierte Verhaltensregeln an, es ist kein Raum für innovative oder rationale gesteuerte Handlungen.

Dies zeigt, dass erheblicher Nachholbedarf an der Übertragung abstrakter Werte wie Umweltbewusstsein in konkretes Alltagsverhalten wie ressourcen- und mit-weltorientiertes Leben vonnöten ist: Natur muss als Mitwelt erfahrbar sein, damit wir Menschen auch in ambivalenten Situationen in der Lage sind, unser Überleben nicht unabhängig von eben jener Mitwelt in den Vordergrund zu stellen. 4. Ansätze zur Erlebbarkeit der Umwelt als Mitwelt

Durch die unfreiwillige Isolation infolge der politischen Corona-Auflagen verliert der Mensch mehr und mehr die Stabilität der „Herde“: Gruppenzugehörigkeit und damit einhergehendes soziales Feedback wirkten stabilisierend auf die Psyche und damit auf die erlebte Zufriedenheit im Leben. Eine „Herde“ in einer virtuellen Kon-ferenz kann dies nicht ersetzen.

In der durch Martin Seligman mit begründeten positiven Psychologie werden die bereits in der Logotherapie von Viktor Frankl beschriebenen drei Wege zu einem erfüllten Leben paraphrasiert. Viktor Frankl nennt drei Lebensformen, mit denen der existentiellen Frustration des vergebens sinnsuchenden Individuums entgegnet werden kann6:

– Der homo faber verleiht seinem Dasein durch seine Arbeit Sinn.

– Der homo amans empfindet Bedeutungsvolles in Liebe und Sorge.

– Der homo patiens vermag es aufgrund der Trotzmacht des Geistes auch Leiden Sinn zu geben.

Während die Determinanten im Leben des homo faber Erfolg und Misserfolg sind, sind Erfüllung und Verzweiflung die bestimmenden Faktoren des homo patiens , wobei die Wertrichtungen des homo faber und patiens voneinander unabhängig sind, Erfüllung ist nicht abhängig vom Erfolg. Insbesondere in Krisensituationen kommen homo faber und homo amans ans Limit, während homo patiens die immer bleibende Freiheit der Stellungnahme zu seinem Schicksal, mithin die Möglichkeit der Wahl, wahrnimmt.

Übertragen auf unsere Thematik meint das, dass auch in Zeiten einer Pandemie diese Möglichkeit der Stellungnahme zum erlebten Unkontrollierbaren nicht nur bleibt, sondern fast verpflichtend für alle Menschen gilt: Dies ist der Weg raus aus der erlernten Hilflosigkeit, raus aus der passiven Opferrolle des sich fügenden Lei-denden. Erst 2016 wurde das Konzept der erlernten Hilflosigkeit von M. Seligman selbst und S. Maier insofern adaptiert, dass nun Passivität als Reaktion auf einen Schock als standardmäßige, ungelernte Reaktion auf längere aversive Ereignisse be-schrieben ist7.

Wenn also das Lebewesen über einen längeren Zeitraum hinweg nicht kontrol-lierbaren Situationen ausgeliefert ist, reagiert es mit Passivität: Dies ist neurobio-logisch gut erforscht. Dieser Prozess, der auf das Überleben des Organismus ab-zuzielen scheint, ist serotoningesteuert. Der dorsale Nucleus Raphe unterdrückt so Flucht- und Wehrimpulse. Die Raphe-Kerne sind Teil der Formatio Reticularis und befinden sich im Hirnstamm – der Hirnbereich, der zahlreiche Vitalfunktionen re-guliert.

Durch das Erlernen von Selbstwirksamkeit (und Psychotherapie zielt ja immer auch darauf ab, genau diese Selbsteffizienz wiederherzustellen: Also Wahlmöglich-keiten zu vermitteln, sich so oder eben anders zu verhalten!) kann diese Passivität überwunden werden. Das Ausüben und Erleben von Kontrolle im eigenen Leben gehen mit der Aktivierung des medialen präfrontalen Cortex einher, der seinerseits dann den dorsalen Raphe-Kern inhibiert.

Wenn Hilflosigkeit erlebt wird, treten Interessenverlust, Antriebsminderung, Motivationslosigkeit auf. Austausch, Kommunikation wird dann nicht mehr als entlastend, sondern als verpflichtend und belastend erlebt.

Obgleich die Förderung von Kohärenz und Selbstwirksamkeit seit vielen Jah-ren auch vom Gesundheitsministerium als wichtige Maßnahmen zur Krankheits-prävention und Gesundheitsvorsorge proklamiert wird, werden diese wichtigen psychohygienischen Faktoren aktuell vernachlässigt. Es gilt, vom sich Fügen und Ergeben wieder ins Handeln zu kommen. Insbesondere in der Verantwortungs-übernahme für sich, sein Handeln, und für die Mitwelt kann es gelingen, vom Er-dulden ins Bewirken zu kommen: So können sich mind, body and action, die drei Grundpfeiler eines integrierten Selbst, im meaningful life, im bedeutungsvollen Le- ben , verbinden.

Da nicht die ego-zentrierte Selbstverwirklichung zum Lebenssinn gemacht wur-de, sondern im Umkehrschluss Selbstverwirklichung allein als die Folge eines sinn-erfüllten Lebens betrachtet wird, sind wir unabhängig(er) von Externa und Señor Rossis Suche nach dem letzten Faktor, der endlich das Glück bewirken soll. Auch in extremen Notlagen kann uns eine praktische Sinngebung beim Überleben helfen. Sinn im Leben können wir dabei durch

– die Hingabe an eine Sache (der schöpferische Wert)

– die Hingabe an einen anderen Menschen (der emotionale Wert)

– das würdige Ertragen eines Leids (der existenzielle Wert) erfahren.

In Seligmans Theorie ruht Wohlbefinden auf fünf Pfeilern, deren Anfangsbuchsta-ben sich in der Abkürzung PERMA wiederfinden:

– Positive Emotions („positive Emotionen“)

– Engagement („Engagement“)

– Relationships („Beziehungen“)

– Meaning („Bedeutung“/„Sinnhaftigkeit“)

– Accomplishment („Leistung“, umfasst das Konzept der erlebten Selbstwirksam-keit)

Nicht allein das Erleben möglichst zahlreicher Glücksmomente im Leben und die Möglichkeit bzw. die Fähigkeiten, diese selbst zu bestimmen, was das pleasant life ,

245

das freudige Leben, widerspiegeln würde, bedingt stabiles menschliches Wohlbefin-den: Das so genannte good life , das gute Leben, basiert bereits auf gesellschaftlichen und individuellen Werten und meint, Arbeit, Freundschaften, Liebesbeziehungen, Freizeit etc. selbst zu gestalten. Das meaningful life , das bedeutungsvolle Leben, reicht weit darüber hinaus: Dadurch, dass die eigenen Fähigkeiten und Kraft in den Dienst von etwas, was mein eigenes Sein transzendiert, erfahre ich Sinn und Be-deutung in meinem Leben.

Hier handle ich absichtsvoll und bedeutungsbewusst. Übertragen auf Frankls Konzept der existentiellen Frustration und unser Konzept der Mitwelt kann ich die Bedeutung von Leben, auch meines Lebens, durch die direkte gefühlte Einbindung meines Ichs in die mich umgebende und bedingende Natur, bestehend aus meinen Mitmenschen wie meiner Mitwelt, erspüren: Jenseits von wohl durchdachten und damit von einem hohen Energieaufwand begleiteten Handlungsweisen, die sich ausgesprochen ambivalenzinstabil zeigen, kann durch konkretes TUN der angst-bedingten Egozentrik auch in globalen Krisenzeiten entgegengewirkt werden.

Dieses Tun, wenn es alltagstauglich sein soll und in wohltuende Routinen führen soll, darf dabei nicht zu ambitioniert sein: Auch, wenn es darum geht, aus der er-lernten Hilflosigkeit heraus zurück in Selbstwirksamkeit und Handlungsautonomie zu finden, ist es wichtig, kleinschrittig vorzugehen.

Insbesondere dann, wenn soziale Anbindung als eine der wichtigsten Ressourcen fehlt, ist Naturerleben hinsichtlich Resilienz und Frustrationstoleranz umso bedeu-tender. Wir Menschen als soziale Tiere sind ausgesprochen traumaresistent, wenn wir uns als Gruppenmitglied in einem sicheren sozialen Umfeld befinden: Bevor überhaupt die klassischen animalischen Überlebensreaktionen des Fight-Flight-Freeze in Kraft treten, suchen wir Unterstützung und Orientierung in unserer peer group. Dieser Mechanismus, der höheren Säugetieren angeboren ist, beschreibt Ste-hen Porges in seiner Polyvagal-Theorie8. Wenn jedoch diese Sicherheit fehlt, weil entweder von unseren Bezugswesen selbst Gefahr ausgeht oder sie nicht verfügbar sind, wenn Angriff und Flucht vor der Gefahr nicht möglich sind (ähnlich die bei der medial aufbereiteten Bedrohung durch ein Virus), greift als letzter Überlebens-versuch die Erstarrung. Doch das subjektive Gefühl der Anbindung kann auch im Naturerleben erzielt werden: Sich als Teil des Ganzen, Teil von etwas Übergeordne-ten wahrnehmen, kann auch z. B. im Wald gelingen.

Wenn Trauma also ein Einfrieren von (unaushaltbaren) Gefühlen meint, meint seelisches Heilen ein Auftauen der Gefühle. So können sie nach und nach Teil meines Selbst werden, sie können in mein Ich reintegriert werden. Dabei ist die Wahrnehmung der eigenen Empfindungen und Emotionen Grundvoraus-setzung für die Wahrnehmung und Einordnung der Emotionen anderer. So-lange jemand also seine eigenen Gefühle nicht kennt oder unterdrücken muss, kann er nicht empathisch mit anderen sein. Darüber hinaus tendiert gerade der entwicklungstraumatisierte Mensch dazu, mimische Expressionen anderer Menschen zu missinterpretieren: So wird ein neutrales Gesicht beispielsweise als bedrohlich oder auch eine angespannte Mimik als positiv erregt wahrge-nommen. 5. Walderleben

Trockenstress in den vergangenen Jahren sowie Sturmereignisse haben eine mas-sive Schadwirkung auf die Wälder nicht nur in Bayern entfaltet. Neben der Holz-produktion und weiteren ökosystemaren Leistungen dienen insbesondere urbane Wälder der Erholung und Gesundheitsförderung, so dass Wald als Gesundheits-ressource inzwischen zu einem Thema geworden ist, das zunehmend in der Öffent-lichkeit aber auch in der Politik thematisiert wird. So gibt es vermehrt Angebote zu verschiedenen Formen einer Waldtherapie, und seit 2016 gibt es einen ersten Therapie- und Kurwald auf Usedom9. Mit den Schlagworten Waldbaden und Wald-therapie haben Waldbesuche eine große Popularisierung erfahren. Das aus Japan stammende „Shinrin Yoku“, die japanische Bezeichnung für Waldbaden, bedeutet „ein Bad in der Atmosphäre des Waldes nehmen“. Dieses Naturerleben steht nicht nur mehr und mehr auch wegen zeitweise geschlossener Fitnessstudios im Trend, sondern ist auch Gegenstand zahlreicher Studien geworden: So publizierten z. B. Mathew P. White vom European Centre for Environment and Human Health, Uni-versity of Exeter Medical School, Exeter, UK, und Kollegen im Jahre 2019 in Scien-tific Reports10 ihre Studie, die besagt:

Kurz: Die sympathische Nervenaktivität, die sich unter Stress erhöht, verringert sich beim Waldbaden mit weitreichenden Auswirkungen auf den ganzen Organis-mus, u. a.:

– Die parasympathische Nervenaktivität, die bei Entspannung steigt, nimmt zu.– Die Stresshormone Adrenalin, Noradrenalin und Cortisol sinken.

– Der Blutdruck sinkt.

– Die Pulsfrequenz sinkt.

– Das Immunsystem wird gestärkt

Die positiven gesundheitlichen Effekte von Waldbesuchen gehen über eine kurz-fristige des individuellen Wohlbefindens hinaus, weil durch die Blutdruckreduktion das Risiko für Herz- und Gefäßerkrankungen insgesamt gemindert werden kann. Waldbaden ist in der japanischen und südkoreanischen Tradition als ein multisen-sorisches Walderleben angelegt11. In langsamen Spaziergängen, unterbrochen von Pausen werden unterschiedliche Sinne angesprochen12:

– In Wäldern ist die direkte Sonneneinstrahlung gedämpft und führt zu einem ständig wechselnden Spiel von Licht und Schatten. Visuelle Eindrücke variie-ren daher stark und unterstützen eine Form der ungerichteten Aufmerksamkeit, welche zur Entspannung beiträgt13.

– Die olfaktorische Wahrnehmung wird über natürliche Gerüche angeregt. Insbe-sondere bei Nadelhölzern nach Regenereignissen oder bei Trockenheit machen sich volatile Terpene positiv bemerkbar14.

– Wälder sind, verglichen mit einem urbanen Umfeld, ruhiger Räume. Naturnahe Geräusche treten in den Vordergrund und tragen zu einer Verbesserung der in-dividuellen Stimmung bei.

– Das Essen von Waldbeeren oder Wildpflanzen spricht den Geschmackssinn an.– Taktile Sensoren lassen sich über das Berühren von Baumrinden, Moosen oder Blättern stimulieren.

Waldbesuche können folglich eine therapeutische Wirksamkeit entfalten und der Stabilisierung von Gesundheit dienen sowie generell das Stresserleben reduzieren. Waldtherapie lässt sich somit als eine präventive Therapie verstehen, die die Wahr-scheinlichkeit des Eintretens von Krankheiten zu verringern sucht. Darüber hin-aus haben Wälder oft eine starke spirituelle Bedeutungszuschreibung. Spirituelle Werte beschreiben das Gefühl, mit etwas Anderem in Verbindung zu treten. Dieses Andere übersteigt das eigene Selbst und entwickelt eine große Bedeutung für die individuelle Sinndimension. Durch diese Form der Selbsttranszendenz und der ein-gehenden Verbindung mit anderen geistigen Wesen, der Natur oder Mitmenschen, erfährt das Selbst eine Vergrößerung gegenüber dem bloßen Ich. Diese gleichsam irrationale Gewissheit, am Anderen teilzuhaben, versucht Rudolf Otto zu rationa-len Aspekten ins Verhältnis zu setzen, in dem er das „Irrational-Numinose“15 durch rationale Begriffe schematisiert. Damit versucht er den Begriff des „Heiligen“ zu erfassen. Das Gefühl der „Kreatürlichkeit“ beschreibt er dann mit dem Numino-sen16. Als Moment des Numinosen stellt er das mysterium tremendum et fascinosum , das Gefühl des „schauervollen Geheimnisses“17 dar. Neben dem Schauervollen, das gleichsam den alttestamentarischen Gottesschrecken beschreibt (vgl. 1. Mose 35, 5), ist das Gefühl von Ekstase und Verzückung gestellt, das „Dionysische“18. Dieser Doppelcharakter des Numinosen lässt sich auch auf viele Bereiche der Naturerfah-rung beziehen, denn dabei lassen sich auch Momente großer Faszination, Begeis-terung und Abschreckung erfahren. Waldbesuche, verbunden mit entsprechenden Ritualen, lassen spirituelle Erfahrung in besondere Weise durchleben. Wälder wei-sen eine sehr lange spirituelle Bedeutungszuschreibung auf, die sich schon in der Antike an heiligen Hainen zeigte. In vielen Teilen Mittel- und Nordeuropas sind dunkle Haine, insbesondere mit Eichen und deren Mistelzweige, als heilige Stätten keltischer Druiden belegt. Später wurden durch christliche Klöster, Bäumen und Wäldern religiöse Zuschreibung beigelegt, denn die Wälder dienten nicht nur als Einnahmequelle für Klöster, sondern auch als Orte der Verehrung, um in der Abge-schiedenheit ein gottgefälliges Leben zu führen.

Auf einer globalen Skala gibt es weiterhin eine starke Verbindung von Spiri-tualität – Natur und menschlicher Gesundheit. So lässt sich monieren, dass der westliche biomedizinische Gesundheitsbegriff zu kurz greift19. Denn menschli-ches Wohlbefinden ist eingebettet in eine „gesunde“ Natur, da degradierte Öko-systeme letztlich auch die menschliche Gesundheit negativ beeinflussen können. Die Zerstörung unberührter Lebensräume kann neue Übertragungswege für Zoonosen eröffnen. Weitere Pandemien können daraus erwachsen. 2016 forder-ten Vertreter autochthoner Völker und medizinische Anthropologen in einem offenen Brief an die WHO, den westlichen Gesundheitsbegriff zu überdenken und zu erweitern, da ein Gleichgewicht der Menschheit mit seiner natürlichen Umgebung zentral sein muss, für ein umfassendes Verständnis von Gesund-heit20. Hier greift auch eine spirituelle Perspektive, denn Schäden, wie wir sie der Natur zufügen, schaden uns insofern selbst, als wir Teil dieser größeren Entität sind. Ein Leben im Gleichgewicht mit der Natur sowie das Ausleben der eigenen Spiritualität bilden daher zwei weitere Pfeiler eines umfassenden Gesundheits-begriffs. Denn

In der von Antonovsky vorgestellten salutogenetischen Perspektive von Gesund-heit ist Sinn eine zentrale Widerstandsressource, um den Wechselfällen des Le-bens begegnen zu können. Das Kohärenzgefühl beschreibt, wie ein Individuum belastende Umweltreize bewertet und durch Rückgriff auf verschiedene Ressour-cen diesen begegnet. Die Bedeutung von Sinn bei der Bewältigung von Stressoren unterstreicht Antonovsky im Rückgriff auf Viktor Frankl. Sinn wird somit zu einer bedeutsamen Widerstandsressource bei der Aufrechterhaltung und Stärkung von Gesundheit. Gerade bei starken Belastungen erweist sich Spiritualität als eine zen-trale Sinnressource22, deren Bindungskraft stärker ist als Sinngebung, die über die Familie, die Arbeit oder die Freizeit erfolgt. Sinn, der eine Ewigkeitsperspektive, die Zugehörigkeit zu Anderem eröffnet, kann gerade in schwierigen Lebensphasen eine große entspannende Wirkung entfalten. Hierin unterscheiden sich Formen der Spiritualität aus dem Wellness-Bereich, die gerade in westlichen Kulturen auf eine große Aufnahmebereitschaft stoßen, von älteren Religionen, weil das Glück ausschließlich im irdischen individuellen Hier und Jetzt gesucht wird. Zusätzlich lässt sich zeigen, dass ein religiöser oder spiritueller Lebensstil vielfach positive gesundheitliche Wirkungen entfaltet. Denn dies geht meist mit einem in vieler Hinsicht gemäßigtere Lebensstil einher, Gemeinschaftserfahrung und meditative Momente stärken weiter die die physischen, psychischen und sozialen Aspekte von Gesundheit23.

Affektive und emotionale Bedeutungszuschreibungen an die umgebende Na-tur weisen daher, jenseits eines rein naturwissenschaftlichen Naturzugriffs, auch über die Sinndimension eine wichtige Bedeutung für menschliches Wohlbefinden. Durch solche individuellen Raumaneignungen werden Orte qualitativ durch Be-deutungszuschreibungen konstruiert. „Sense of place“ beschreibt solche subjekti-ven Bindungen an Ort als Interaktion mit der physischen Umwelt können diese ausgleichend auf einen Menschen wirken und eine Stressreduktion unterstützen24.

Die Verringerung des Stresserlebens wirkt sich wiederum direkt und indirekt auf die Empathiefähigkeit (als Mitgefühl) aus. Empathie wird hier nicht mit Mit-leid, das durch das Überflutetwerden von Gefühlen einer anderen Person, ge-kennzeichnet ist, gleichgesetzt: Während Mitleid sich eher negativ auf die Selbst-wirksamkeit auswirkt, eher handlungsunfähig macht, trägt Empathie dazu bei, die Situation verbessern zu wollen, also wahrgenommenes Leiden zu verringern. Dabei sollte Empathietraining mit Wertearbeit synchronisiert werden, um dem gruppenpsychologischen Effekt vorzubeugen, dass bei zunehmenden empathisch motiviertem Verhalten häufig empathischer („wohlwollender“) mit Mitgliedern der eigenen Gruppe und zu Lasten von Außenstehenden umgegangen wird. Um empathisch sein zu können, ist die Wahrnehmung eigener Gefühle dabei Vo-raussetzung25. Am Empathieerleben beteiligte Hirnregionen, z. B. die Insula, sind bei alexithymen26 Personen nur mangelhaft aktiviert. Wer unfähig ist, seine eige-nen Gefühle zu erkennen, hat damit auch Schwierigkeiten, Empathie gegenüber an-deren Menschen zu entwickeln. Die Fähigkeit, innere Körperzustände angemessen zu identifizieren, ist hierbei ausschlaggebend – und dieses Körpererleben kann im achtsamkeitsbasierten Naturerleben unterstützt werden.

Natur- und Walderleben insbesondere wird in der Scientific Community mehr und mehr als auf prosoziales Verhalten positiv wirkender Faktor beschrieben. Ger-ne wird dabei auf das Wort von Immanuel Kant, mit dem er seine Kritik der Prak-tischen Vernunft abschloss, zurückgegriffen, um die Verbindung von Natur und wohlwollenden, empathischen und damit ethisch akzeptierbaren Einstellungen und Handlungen aufzuzeigen:

„Zwei Dinge erfüllen das Gemüt mit immer neuer und zunehmender Bewunderung und Ehrfurcht, je öfter und anhaltender sich das Nachdenken damit beschäftigt: der bestirnte Himmel über mir und das moralische Gesetz in mir.“27 Ein zwei- bis dreistün-diger, gemächlicher Waldspaziergang soll sich direkt empathieverstärkend auswirken28und die Probanden dazu veranlasst haben, in Experimenten teilungswilliger, rücksichts-voller und weniger egoistisch vorzugehen. Diese Annahme wird dadurch unterstützt, dass Empathiefähigkeit mit der Fähigkeit, eigene Empfindungen und Gefühle wahrzu-nehmen, einhergeht29: Naturbegegnungen wirken sich durchaus auf die eigene Körper-wahrnehmung und damit auf das Gewahrsein von Empfindungen und Emotionen aus.

Doch darüber hinaus rechnen wir mit dem erwünschten Nebeneffekt, der da-rin besteht, dass wir unsere Mitwelt mehr berücksichtigen und mehr Rücksicht auf sie nehmen: Es ist kaum möglich, einen geruhsamen Spaziergang durch den Wald zu genießen, ohne sich ab und zu bücken, um weggeworfenen Abfall aufzu-heben und mitzunehmen. Durch die direkte Erfahrung von Wohlbefinden in der heimischen Natur kann dem Fernweh entgegengewirkt werden: So kann der öko-logische Fußabdruck, der z. B. gerade durch regelmäßige Flugreisen individuell enorm werden kann, verringert werden, wenn Freizeit- und Urlaubserleben nicht mehr unbedingt exotische Landschaften und Fernreisen assoziiert. Gleichzeitig entwickelt sich dadurch eine neue Wertschätzung für das Lokale, die „everyday landscapes“30 die dadurch auch als Therapeutische Landschaften erfahrbar wer-den und das eigene Wohlbefinden steigern. In der regelmäßigen Beobachtung der umgebenden Natur wird diese als Mitwelt erlebt und nicht als bloße Umwelt wahrgenommen. Diese Naturwahrnehmung, im Staunen über die Vielgestaltig-keit auch der unmittelbaren Wohnumgebung bildet eine wichtige Säule für ein intensiveres Wertschätzen der Natur. Literatur

254

Künstliche Intelligenz im Umwelt- schutz: Möglichkeiten und Grenzen

Joachim Rathmann Zusammenfassung

Künstliche Intelligenz (KI) kann durch die Analyse großer Datenmengen, durch das Erkennen von Mustern in den Datensätzen über maschinelles Lernen neues Wissen über Ökosysteme schaffen. Zusätzlich lassen sich dabei Umweltbilanzen er-stellen, die als Entscheidungsgrundlage genutzt werden können. Durch die großen Datenmengen können komplexe Rückkopplungseffekte bilanziert werden und Kos-ten von Entscheidungen transparent gemacht werden. Trotz dieser Chancen von KI für einen ressourcenschonenden Umgang mit der Natur, darf sich aus KI Bilan-zierungen kein Entscheidungsautomatismus entwickeln. Für nachhaltiges Umwelt-handeln ist auch eine affektive und emotionale Bindung an die Mitwelt bedeut-sam. Dies kann KI nicht leisten, hier ist es Aufgabe der natürlichen Intelligenz ihre Einbettung in einen größeren Naturzusammenhang zu erkennen und daraus einen Lebensstil in umwelttugendethischer Perspektive abzuleiten. Abstract

Artificial intelligence (AI) can create new knowledge about ecosystems by analyzing large amounts of data, by recognizing patterns in the data sets via machine learning. In addition, this can calculate ecological footprints that can be used as a basis for decision-making. Big data can be used to balance complex feedback mechanisms and make costs of decisions transparent. Despite these opportunities of AI for a resource-saving handling of nature, no decision automatism may develop from AI balances. For sustainable environmental action, an affective and emotional connec-

255

tion to the environment is also important. This cannot be achieved by AI; here it is the task of natural intelligence to recognize its embedding in a larger natural context and to derive a lifestyle from an environmental virtue ethics perspective. 1. Einleitung

Der Gedanke, mit intelligenter Technik das menschliche Leben zu erleichtern, be-wegt die Menschen seit je her. In der Illias sind es die goldenen Dienerinnen, die Hephaistos zu Diensten sind. Er (Hephaistos)

Aspekte, die hierbei schon angesprochen werden sind außerordentlich aktuell. Pfle-geroboter beispielsweise sollen ältere Menschen im Alltag unterstützen und über maschinelles Lernen sich an neue Situationen anpassen können. Der Einsatz von Robotern soll dabei das Pflegepersonal durch Tätigkeiten wie das Verteilen von Es-sen oder Medikamenten oder das Leeren von Mülleimern entlasten und gleichzeitig ältere oder behinderte Menschen länger in der Selbstständigkeit unterstützen. Die Akzeptanz dieser Roboter soll dabei durch eine gewisse Menschenähnlichkeit und durch Eigenschaften wie Lernfähigkeit und Autonomie erhöht werden2. Zusätz-lich kann eine KI-gestützte Spracherfassung in der Pflege Entlastung bei Routine-tätigkeiten wie Dokumentation und Verwaltung bewirken. Technisch basiert dies auf Formen des maschinellen Lernens, die als ein zentraler Teilbereich der Künstli-chen Intelligenz (KI) angesehen werden. Doch bleibt in diesem Kontext der eigent-liche Begriff der „Intelligenz“ oft unscharf, kann jedoch generell als das Ausmaß der Problemlösungsfähigkeit künstlicher Systeme angesehen werden. Zahlreiche Systeme der KI sind inzwischen fest etablierter Bestandteil der Lebenswirklichkeit vieler Menschen; sei es im Erlernen von Vorlieben bei Musik oder Filmen oder im Kaufverhalten. Ansätze einer schwachen KI, auf welche hier zurückgegriffen wird, dienen dazu, konkrete Anwendungsprobleme lösen. Solche Ansätze versuchen also gar nicht, sämtliche Eigenschaften menschlicher Intelligenz abzubilden, son-dern fokussieren auf einen Teilbereich, der durch schnelle Rechenoperationen zu bewältigen ist. Unterschiedliche Verfahren des maschinellen Lernens bilden dabei wichtige Ansätze einer schwachen KI. Aus großen Datenmengen werden statisti-sche Abhängigkeiten und Muster ermittelt, welche sich für Vorhersage- oder Klassi-fikationszwecke anwenden lassen. Die Güte dieser Anwendungen hängt dabei von der Menge und Qualität der Eingangsdaten ab.

Im Folgenden soll die Frage adressiert werden ob bzw. inwieweit Künstliche Intel-ligenz helfen kann, die sich zunehmend verstärkende globale ökologische Krise zu meistern. Denn das Wissen um die Zerstörung von Natur und Umwelt ist seit vie-len Jahrzehnten vorhanden und der Naturschutzgedanke hat eine lange Geschichte. In Deutschland gilt der Drachenfels bei Königswinter als erstes Naturschutzgebiet, das 1836 eingerichtet wurde. Damit sollte jedoch eher ein romantisch aufgelade-nes Symbol erhalten werden und nicht primär eine unberührte Natur. D.h. der Na-turschutz dient seit je her auch dem Schutz von Kulturlandschaften. Der weltweit erste Nationalpark (Yellowstone 1872, gefolgt vom Yosemite 1890) führt dann zu einem verstärkten Bewusstsein, Gebiete als Lebensraum für Tiere und Pflanzen zu schützen3. Mit „Pfisters Mühle“ (Wilhelm Raabe 1884) erschien im nämlichen Zeit-raum der erste deutsche Umweltroman, ein Zeugnis gründerzeitlicher Gewässer-belastung durch Zuckerfabriken. Damit ist in den westlichen Ländern seit weit über 100 Jahren ein Bewusstsein dafür vorhanden, Natur und Landschaften zu schützen. Ebenso eindrücklich wie aktuell schildert Ludwig Klages 1914 die Situation: „Eine Verwüstungsorgie ohnegleichen hat die Menschheit ergriffen, die ‚Zivilisation‘ trägt die Züge entfesselter Mordsucht, und die Fülle der Erde verdorrt vor ihrem gif-tigen Anhauch. So also sehen die Früchte des ‚Fortschritts‘ aus!“4. Eingerahmt in diese Zerstörung ist auch das Aufkommen von Pandemien, denn das Eingreifenin bislang kaum berührte Ökosysteme kann neue Übertragungswege für Zoono-sen eröffnen und Pandemien einleiten. Auch dieser Gedanke findet sich bereits bei Klages: „und so geht es fort bis zu den schlimmeren Rückschlägen der verwundeten Natur exotischer Länder in Gestalt jener furchtbaren Seuchen, die sich an die Fer-se des ‚zivilisierten‘ Europäers heften“5. Über 100 Jahre später sind es nicht mehr nur die „zivilisierten“ Europäer, die mit den Folgen menschlicher Eingriffe in wenig berührte Ökosysteme zu kämpfen haben. Dass Menschen mit der Zerstörung von Natur letztlich sich selbst schaden, ist auch in der jüngeren Umweltgeschichte mit dem Erscheinen des Sachbuches „Silent Spring“ von Rachel Carson 1962 auf große Resonanz in der Öffentlichkeit gestoßen. Das Wissen um die Dringlichkeit, global einen effektiven Klima- und Naturschutz durchzusetzen, ist damit seit Jahrzehnten einer breiten Öffentlichkeit ebenso wie Entscheidungsträgern zugänglich. Es man-gelt folglich weniger am Umwelt-Wissen oder Umwelt-Bewusstsein, es mangelt am Umwelt-Sein, am Umwelt-Handeln.

Dass auf Umweltkrisen nicht unmittelbar, affektiv reagiert wird, liegt einerseits darin begründet, dass die Schäden für den Menschen oft raum-zeitlich asynchron auftreten sowie daran, dass Menschen in ihrer Handlung einen „Hiatus“ zwischen der unmittelbaren Bedürfnisbefriedigung und einer notwendigen Alltagshandlung aufbauen. In dieser „Indirektheit der Lebensfristung“6 mag ein Grund für die massi-ve Diskrepanz zwischen Wissen und Handeln im regionalen und globalen Umwelt-diskurs liegen. Ergänzend lässt sich der Aspekt der Abwehr von Angst anführen als ein Verdrängungsmechanismus vor apokalyptischen Szenarien. Bei vorhandenem Wissen kommt zusätzlich eine selektive Unaufmerksamkeit und Selbstbetäubung hinzu7. Darin mag eine weitere Ursache dafür liegen, dass wir trotz des immensen Wissens um den Zustand globaler Ökosysteme uns eben doch nicht angemessen verhalten8. Insgesamt bleibt ökologisches Wissen und Handeln nur lose aneinander-gekoppelt; über kognitive Dissonanzen gilt dies auch für besondere umweltbewusste Menschen. Kognitive Dissonanzen entstehen, wenn die Einstellung, Meinung oder Norm nicht zum eigentlichen Handeln passt9. Menschen streben danach, solche Spannungszustände abzubauen. Dazu werden im ökologischen Diskurs gerne Argu-mente gesucht, das eigene Handeln zu begründen, beispielsweise über Sachzwänge, institutionelle Anreize und weitere Notwendigkeiten. Am Beispiel deutscher Nach-haltigkeitsforscher lässt sich zeigen, wie diese ihren anwachsenden ökologischen Fußabdruck durch Flug(dienst)reisen mit solchen Argumenten rechtfertigen10. Je-doch: der Ausstoß an Treibhausgasen bleibt davon unberührt. Eine weitere Erklä-rung für solches Verhalten könnte sich mit moralischem Lizensieren beschreiben lassen11. Gerade umweltbewusste Menschen, da sie ja für die Sache des Guten ein-treten, buchen dann gleichsam von einem imaginären Umweltkonto beispielsweise eine Flugreise, für die sich sicherlich gute Sachzwänge anführen lassen, ab. Mentale rebound -Effekte können dann zu einem verstärkten Ressourcenverbrauch führen. Damit werden Effekte beschrieben, die zur Folge haben, dass das ursprüngliche Ein-sparpotenzial, etwa auf Grund von Effizienzsteigerungen nicht oder nur teilweise verwirklicht wird. Dies kann zur Konsequenz haben, dass in der ökologischen Ge-samtbilanz dadurch die Haltung, für eine ökologisch gute Sache einzustehen, dann das insgesamt nachhaltige Handeln gleichsam ersetzt. Kurz: es mangelt nicht an gu-tem Willen: „Guter Wille ist erfreulicherweise reichlich vorhanden; er demonstriert überall“, es mangelt nicht an „Gesinnung“12. Doch der lebensweltliche Vollzug des Bewussten zeigt sich weniger in der Wahrhaftigkeit der Gesinnung als vielmehr in der Tatkraft. Doch trotz allem ist es selbst im Alltag oftmals gar nicht so einfach fest-zustellen, welche Entscheidung den geringsten Ressourcenverbrauch nach sich zieht. Hierbei könnte KI jedoch eine wertvolle Entscheidungshilfe bereitstellen. 2. Das Paradoxon des Umweltwissens

Das „Paradoxon im Umweltwissen“13 beschreibt ein Phänomen unterschiedlicher raum-zeitlicher Skalen. Denn auf einer globalen Ebene sind die Erfordernisse, um einen wirksamen Naturschutz im umfassenden Sinne zu erreichen, seit vielen Jahr-zehnten klar zu benennen: beispielsweise die Reduktion von Treibhausgasemis-sionen, des Flächenverbrauchs, der Zerschneidung von Habitaten, großflächiger Rodungen, einer Intensivierung der Landnutzung oder einer Überfischung in den Ozeanen. Trotz dieser Wissensbestände, zeigt sich in der „großen Beschleunigung“ („the great acceleration“14), dass die wesentlichen Indikatoren für den Zustand glo-baler Ökosysteme, trotz regionaler (und bezogen auf die Ozonschicht auch globaler) Verbesserungen, weiterhin beschleunigte Trends in eine negative Richtung zeigen. Offenbar ist das Wissen um die ökologische Krise nur unzureichend handlungsrele-vant. Ein Grund dafür lässt sich damit benennen, dass es im individuellen Verhalten auf einer lokalen Ebene oft gar nicht so klar ist, was bezogen auf komplexe Folge-wirkungen einer Entscheidung die wirklich ökologischere Alternative ist. Denn im „Paradoxon des Umweltwissens“ zeigt sich, dass sich (nicht nur) auf einer indivi-duellen Ebene vermeintlich ökologisch-nachhaltige Entscheidungen als solche mit komplexen negativen Auswirkungen zeigen können. Die in Deutschland gekaufte Biokarotte aus Israel mag „bio“ sein, „öko“ ist sie sicherlichnicht. Ist aber das regio-nale Produkt generell ökologisch nachhaltiger als eines aus entfernteren Regionen, in denen effizienter mit geringerem Ressourceneinsatz angebaut werden kann?

Zusätzlich lässt sich eine monetäre Perspektive ergänzen: Eine Bambuszahnbürs-te mag nachhaltiger sein als eine Plastikzahnbürste, welche nur ein Drittel des Prei-ses kostet. Jedoch könnte, in der Perspektive des effektiven Altruismus, das dabei gesparte Geld für Umweltschutzmaßnahmen eingesetzt werden und dadurch einen insgesamt größeren ökologischen Nutzen stiften.

„Greenwashing“ bezeichnet in negativer Konnotation das Hervorheben ökologi-scher Vorteile von Produkten oder Prozessen, ohne dass im Gesamt der Betrach-tung sämtlicher Wechselwirkungen dafür eine Grundlage vorhanden wäre. Dies er-folgt zumeist unter Hervorhebung selektiver Aspekte. Beispielsweise sind bei einem T-Shirt aus Bio-Baumwolle in einer Gesamtbilanz u. a. der hohe Wasserverbrauch für Baumwolle (in zumeist trockenen Regionen), der Flächenbedarf und damit die Flächenkonkurrenz, der Transport oder der Einsatz von stofffärbenden Substanzen zu berücksichtigen.

Als weiteres Beispiel könnte das Recycling von Papier und Kartonagen angeführt werden. Dieses Verhalten kann eine gewisse Umweltentlastung bewirken und noch viel stärker beim Handelnden das Gefühl evozieren, ein guter Umweltschützer zu sein. Jedoch ist bei einem stetig ansteigenden Verpackungsmüll durch den weiter zunehmenden Onlinehandel das Recycling ein geringerer Teil der Lösung, ein We-niger im Verpackungseinsatz und der Bestellmenge wäre hier zielführender hin-sichtlich einer wirklich nennenswerten Umweltentlastung15.

So laufen Bio-Etikette und Recycling Gefahr, größeren Schaden anzurichten bei gleichzeitigem Steigern des Umweltbewusstseins der Menschen. Sie erwecken die Il-lusion des Guten, feiern einen Triumph der Gesinnung und verkennen die Komplexi-tät von Zusammenhängen, so dass sie letztlich stärkere negative Auswirkungen haben können, als gemeinhin bewusst ist. Das Gutgemeinte ist nicht deckungsgleich mit dem Guten. Denn es gilt für den Ressourceneinsatz bei vielen Produkten und Prozes-sen, dass die Wechselwirkungen auch in unterschiedlicher räumlicher und zeitlicher Ausprägung so komplex sind, dass die schnelle Entscheidung für das vermeintlich ökologischere Produkt falsch liegen kann. Die sich daraus ergebende „Absichtslosig-keit, der rasch anwachsenden Zivilisationslasten“16 sollte vor dem weit um sich grei-fenden Moralismus in ökologischen Fragen warnen. Denn zu gerne werden die Zivi-lisationslasten dem Kapitalismus, dem „System“ und den Großkonzernen angelastet.

Beim Abwägen ökologischer Konsequenzen von Handlungen und Kaufentschei-dungen könnte man leicht in die Rolle von Buridans Esel geraten, der zwischen zwei gleich weit entfernten ebenso großen Heuhaufen verhungert, weil er sich nicht ent-scheiden kann, welchem er sich zuwenden soll. Analog könnte ein detailliertes Ab-wägen in Umweltentscheidungen zu einer Deadlock-Situation führen, in der sich beide Alternativen gegenseitig blockieren und eine Situation ausweglos erscheinen mag. KI könnte hierbei ansetzen und Entscheidungsgrundlagen kraft der Berech-nung großer Datenmengen schaffen und zur Transparenz der wahren Kosten und des tatsächlichen Nutzens beitragen. 3. Hoffen auf KI?

Die rasche Bearbeitung großer Datenmengen durch KI und das Erkennen von Mus-tern in den Datensätzen kann neues Wissen über Ökosysteme schaffen und den Um-gang mit ihnen optimieren. Dadurch kann nachhaltiges Umweltverhalten durch KI simuliert werden und die reale Nutzung von Ökosystemen grundsätzlich ressour-censchonender und nachhaltiger gestaltet werden. In der Landwirtschaft beispiels-weise finden sich unterschiedliche Anwendungsfelder für KI: landwirtschaftliche Prozesse lassen sich dadurch in Echtzeit ortsbezogen bedarfsgerecht steuern. Eine ortsdifferenzierte und zielgerichtete Bewirtschaftung landwirtschaftlicher Nutzflä-chen wird als Precision Farming bezeichnet und ist ein Teil einer Digitalisierung der Landwirtschaft. Dies erfolgt auch unter Einsatz von Drohnen, um genaue Daten zu sammeln und hochaufgelöste Bilder zu erstellen, die bei der Überwachung der Kulturen helfen und gleichzeitig dazu beitragen, den Ressourceneinsatz zu optimie-ren und damit eine Umweltentlastung zu ermöglichen17. Denn Precision Farming verwendet KI, um genaue und kontrollierte Techniken zu entwickeln, die helfen, Orientierung und Verständnis für das Wasser- und Nährstoffmanagement, optima-le Ernte- und Pflanzzeiten sowie den Zeitpunkt der Fruchtfolge zu liefern.

Eine weitere Umweltentlastung im Agrarsektor könnte sich auch durch das Ver-tical Farming ergeben, dabei werden in geschlossenen Systemen in Indoor-Farmen Gemüse und Salate angebaut. Eine hohe Produktivität ist dadurch gegeben, dass die Systeme platzsparend über mehrere Etagen (vertikal) auf künstlichen Nährböden bzw. in Nährlösung wachsen können. Die Nähe zu den Verbrauchern ist ein weite-rer Vorteil. KI kann dabei den Einsatz von Wasser, Nährstoffen, Licht, Energie oder Luftfeuchtigkeit exakt steuern und die Pflanzen optimal ohne Einsatz von Pflanzen-schutzmitteln versorgen18.

Eine weitere Chance zu einer Verbesserung des ökologischen Zustandes liegt da-rin, dass KI bei der Berechnung von Umweltbelastungen über Ökobilanzen, Kli-mabilanzen oder den ökologischen Fußabdruck eingesetzt werden kann. Denn je größer die eingehenden Datenmengen und je mehr Wechselwirkungen dabei Be-rücksichtigung finden können, umso präziser können solche Berechnungen aus-fallen. KI hat das Potenzial, diese Datenvolumina zu bewältigen und durch Prozesse des Selbstlernens die Übertragbarkeit von Produktbewertungen vorzunehmen. Da-durch kann der jeweilige „Umweltverbrauch“ von Produkten aber auch Dienstleis-tungen quantifiziert werden und als Entscheidungsgrundlage vorgehalten werden. Externe Kosten können ebenso transparent dargestellt werden. Kunden könnten dann beim Kauf von Produkten unmittelbar auf der Grundlage umfassender In-formationen eine ökologisch nachhaltige Wahl treffen. Multi-kriterielle Entschei-dungsanalysen (multi-criteria decision analysis, MCDA) finden daher zunehmend Verbreitung bei vielen Aspekten aus dem Energie- und Umweltsektor19. Denn die wesentlichen Entscheidungsprobleme entstehen, wenn mehrere Ziele (multiple Kriterien) verfolgt werden und sich die Entscheidungen in einem komplexen Kon-text abspielen. Häufig sind die vorhandenen Informationen und Ziele konfliktärer Natur, wenn es gilt ökonomische, soziale Belange mit Ansprüchen von Arten- und Klimaschutz auszutarieren; hinzukommen substantielle Konsequenzen und lang-fristige Auswirkungen in unterschiedlicher räumlicher Ausprägung. Daher lassen sich Fehlentscheidungen dann nicht mehr so leicht revidieren. Komplexe Entschei-dungen sind nicht mehr trivial und können durch die pure Rechenkapazität der KI sinnvoll Argumente für Entscheidungen zutragen. Denn für die Entscheidungs-träger werden die Situationen durch eine multi-kriterielle Entscheidungsanalyse formalisiert, in dem Informationen soweit organisiert werden, dass der Entschei-dungsträger mit dem Gefühl die wesentlichen Kriterien berücksichtigt zu haben, seinen Teil zu einem verbesserten Entscheidungsprozess beitragen kann20. Das Ziel ist es dabei, eine technische Unterstützung bei komplexer Problemlage zu bieten, konsistente, nachvollziehbare und vernünftigere Entscheidungen zu treffen bzw. Kompromissverhandlungen zu unterstützen basierend auf der Möglichkeit durch Auswahl, Vergleich und Einordnen verschiedener Attribute mehrerer Alternativen auf flexible Weise gegeneinander abzuwägen. 4. Grenzen und Risiken der KI

KI-gestützte Entscheidungsanalysen in Umweltfragen können die grundsätzliche Diskrepanz von Umweltwissen und -handeln kaum überbrücken. Jede Entschei-dungshilfe bedarf der Umsetzung durch den Entscheidungsträger. Doch zeigt sich im Umweltdiskurs der vergangenen Dekaden, dass das Wissen, wie die ökologische Situation auf globaler aber auch lokaler Skala verbessert werden kann, durchaus vorhanden ist. Faktenwissen alleine ist ein notwendiges jedoch kein hinreichendes Vehikel, Weltwendung herbeizuführen. Faktenwissen, auch dieses einer KI-gene-rierten Entscheidungshilfe berührt den Menschen kaum lebensweltlich, es bleibt ihm äußerlich21. KI kann das „Was“ in ökologischen Belangen berechnen, für die Frage des „Wozu“ ist jedoch die natürliche Intelligenz von Nöten22.

Hinzu kommt, dass Information oft in ein gewisses Deutungsraster ( framing ) ein-gebettet ist; für die KI besteht zunächst kein Unterschied darin, ob ein Glas halbvoll oder halbleer ist, für eine menschliche Entscheidung gleichwohl. Rein logisches Ab-wägen ist blind für Intuition und die individuelle oder sozio-kulturelle Einbettung von Entscheidungen. Schließlich bedarf die rein instrumentelle Vernunft der KI einer Ergänzung, ansonsten besteht die Gefahr einer „technische[n] Perfektion bei vollständigem Ausfall moralischer Reflexion“23. Denn das menschliche Gewissen in seiner notwendigen Abwägung bewahrt davor, dass die Urteile der KI als Rich-tersprüche zu Scharfrichtersprüchen werden und der Mensch schließlich zum Skla-ven der digitalisierten Welt wird. Denn die Leibhaftigkeit des Ichs als Person ver-hindert, dass die Welt nur aus einer Zuschauerperspektive wahrgenommen wird. KI jedoch ist Ausdruck eines Szientismus in der Tradition von Francis Bacon. Dabei besteht die Gefahr, dass letztlich die „schlechteste aller möglichen Welten“24 konst-ruiert wird. Denn „Gegenständlichkeit wird dann gleichgesetzt mit Verfügbarkeit – eine Gleichung, die auf die Abschaffung von Gegenstand und Gegenständlichkeit hinausläuft  […]. Das Gegenteil ist wahr. Der total unverfügbare Gegenstand ist am meisten Gegenstand – die (als menschlich oder übermenschlich verstandene) PERSON. In ihr, und nur in ihr, ist ein Höchstmaß der Tiefe verwirklicht“25. Da-mit entzieht sich die natürliche Intelligenz auch der künstlichen von der sie sich mannigfaltig unterscheidet. KI bildet allenfalls eine „ Simulation von eng umgrenz-ten Bereichen menschlicher Intelligenz“26. Denn wesentliche Aspekte wie Leben, Bewusstsein oder Perspektivenübernahme lassen sich durch Algorithmen nicht erzeugen27. Leben findet im Leben selbst statt und kann nicht durch eine Model-lierung substituiert werden, Leben heißt immer auch affektiv und emotional zu An-derem in Beziehung treten. Denn: „die grenzenlose Versachlichung der Menschen unserer Tage frißt allmählich auch die Kräfte weg, die zur Aufrechterhaltung einer bloßen Sachkultur und bloß technischer Betriebe erforderlich sind, z. B. Phantasie, Schöpfertum, Hinlauschen auf die Lebensquellen, die in der Tiefe rauschen. Wa-rum erquickt uns der Umgang mit der Natur? Weil wir da einmal mit uns allein sind und also auch mit uns selbst Umgang pflegen können“28. Diese Bindungsfä-higkeit könnte sich aber als ein zentraler Aspekt im Überwinden der ökologischen Krise herausstellen. Doch hier zeigen sich die Grenzen der KI, denn Empathie hat eine leibliche Komponente, die dadurch nicht abgebildet werden kann, trotz einer „fiktionalen Empathie“29, die sich auch gegenüber Computerfiguren oder Robotern einstellen kann. Eine sinnentleere, in die virtuelle Welt abgewanderte „Als-ob“ Em-pathie verliert jedoch an Tiefe und Verbindlichkeit. 4.1. Empathie

Die zunehmende Präsenz digitaler Medien, Zeichensysteme und Fiktionen könnte in den vergangenen Jahren zu einem Rückgang von Perspektivenübernahmen und primärer Empathie sowie des psychischen Wohlbefindens geführt haben. Eine viel-beachtete Metastudie30, basierend auf Daten von fast 14.000 Studenten aus 72 Stu-dien der Jahre 1979 bis 2009 zusammengetragen, stellt über diesen Zeitraum einen Rückgang von Empathie heraus. Besonders nach dem Jahr 2000 tritt dieser Rück-gang offenkundig in Erscheinung. Als Index wird der Interpersonal Reactivity Index (IRI) herangezogen, welcher anzeigt inwiefern sich jemand in einen Anderen oder in Figuren in Filmen oder Büchern hineinversetzen kann, um jenen und diese zu verstehen. Die Bereitschaft zur Perspektive-Übernahme ist in den letzten Jahren des Untersuchungszeitraums gesunken während die Werte für die Fantasie konstant geblieben sind. Diese Abnahme korreliert positiv mit der gängigen Zeitdiagnose „Narzissmus“31. In dieser Studie wurde letztlich die Einstellung zur Empathie er-fragt und nicht das wirkliche (empathische) Verhalten selbst beobachtet. Sicherlich lässt sich auch kritisch fragen, ob bei einem so langen Untersuchungszeitraum beim selben Fragebogen zwischen 1979 und 2009 nicht Bedeutungsverschiebungen und unterschiedliche Assoziationen bei den Befragten auftreten. Aber trotz aller grund-sätzlicher methodischer Kritik, könnte es sein, dass hier ein altes kulturpessimisti-sches Lamento Bestätigung sucht, denn „immerhin wurde bereits vor gut 200 Jah-ren behauptet, dass die neuen Medien die Jugend verderben und zum Narzissmus führen würden. Die neuen Medien waren damals die Romane, von denen wir uns jetzt wünschen würden, dass die Jugend sie mehr liest“.32 Dennoch: ein Weniger an Empathie und eine Mehr an Narzissmus scheint sich besonders in sozialen Me-dien zu offenbaren und dabei zeigt sich zusätzlich ein negativer gesundheitlicher Ef-fekt: Das psychische Wohlbefinden sinkt bei Jugendlichen, wenn viel Zeit vor dem Bildschirm bzw. Smartphone (soziale Medien, Internet, Spiele, …) verbracht wird verglichen mit Menschen, die verstärkt Aktivitäten jenseits eines Bildschirmes aus-üben (direkte persönliche Kontakte, Sport, kirchliche Aktivitäten o. ä.). Dies konnte in einer landesweiten Erhebung aus den USA über einen Zeitraum von 15 Jahre zwischen 1991 und 2016 gezeigt werden33.

Eine Bewertung der (vermeintlichen) Empathieabnahme hängt jedoch davon ab, wie der stark positiv konnotierte Begriff34 inhaltlich zu füllen ist. Empathie als Einfühlungsvermögen ist etwas anderes als Mitgefühl mit Fürsorglichkeit. Denn Bloom35 argumentiert dagegen und zeigt, dass Empathie als bloßes Einfühlungs-vermögen schreckliche Situationen rechtfertigen kann. Konflikte können durch ein Einfühlen in bestimmte Gruppen verstärkt werden. Eine bloße Perspektive-Über-nahme, ein Eindenken in Andere ist auch bei Gewalttätern möglich, denn Einfüh-lungsvermögen beschreibt die Fähigkeit und die Tendenz dazu, die Gefühle, von denen man glaubt, das Gegenüber fühle sie, selbst auch zu empfinden36.

Die Doppelseitigkeit von Perspektive-Übernahmen hat bereits Lipps37 im Be-griff der „Einfühlung“ herausgearbeitet. Er unterscheidet die „lustgefärbte“ positive von der „unlustgefärbten“ negativen Einfühlung. Das „positive Einfühlen“ ist „jenes Aufnehmen des in mich Eindringenden, oder es ist das Einswerden des erfassenden Ich, wie es an sich ist, mit dem, was sich in dasselbe eindrängt“38. Die „negative Ein-fühlung“ hingegen wird als das beschrieben, gegen dessen Eindringen sich „Wider-spruch“ erhebt. Es weist sich als mit sich selbst „unverträglich“ zurück39. Implizit findet sich diese Ambivalenz auch bei Bloom, indem er von der Empathie und deren negativen Seiten Aspekte wie „kindness“ (Freundlichkeit) und „compassion“ (Mit-gefühl) unterscheidet, die er ausdrücklich positiv würdigt ebenso wie die positiven Seiten, die Empathie ja auch zeigt. Doch Empathie kann nach Bloom eben auch zu Gleichgültigkeit oder gar Grausamkeit motivieren, denn Empathie liegt eine gewis-se Kurzfristigkeit zu Grunde, da sie den Fokus auf ein bestimmtes Gegenüber setzt; dabei besteht die Gefahr, längerfristige Konsequenzen und das Leid derer, die nicht das aktuelle Gegenüber sind, zu übersehen. Die Nächstenliebe läuft Gefahr, die Fernstenliebe zu überblenden40. Nietzsches Zarathustra empfiehlt: „zur Nächsten-liebe rathe ich euch nicht: ich rathe euch zur Fernsten-Liebe“41. Nicolai Hartmann sieht bei Nietzsche trotz aller Überspitzung anerkennend das „positiv Geschau-te[..]“42 und führt die Fernstenliebe als Liebe aus, „die keine Gegenliebe kennt, die nur ausstrahlt“43. Freilich setzt die Fernstenliebe beim Nächsten an, sieht diesen aber gewissermaßen als Mittel für einen höheren (zukünftigen) Zweck. Oftmals ist die Fernstenliebe anstrengungslos zu vollziehen. Eine Petition für Flüchtlinge oder gegen die Abholzung des Regenwaldes zu unterschreiben verschafft Selbstbestäti-gung für das Gute einzutreten, den Müll am Straßenrand aufzuheben ist hingegen vergleichsweise unbequem. Daher muss der Ausgangpunkt des Handelns zunächst in der Einfühlung der unmittelbaren Umgebung liegen. Die Bindung des Ich im Du ist nicht einfach eine Projektion des Eigenen im Anderen, es ist als Liebeserfahrung eine Zusicherung des Vorranges dem Du gegenüber in Treue; andernfalls bliebe die Verantwortlichkeit „ein freischwebendes Sollen“44.

Auch wenn moralische Entscheidungen wesentlich durch Empathie geprägt sind, ist es wichtig zu erkennen, dass sich dabei auch negative Konsequenzen ergeben können. Mitgefühl ( compassion ) ist daher ein geeigneterer Weg, zum Besseren beizutragen, da es nicht einfach die Gefühle des Gegenübers nachvollzieht, gleichsam mit ihm emp-findet, sondern durch Anteilnahme die Motivation erwächst, das Wohlergehen des Gegenübers zu fördern indem für den Gegenüber empfunden wird. Dies kommt auch dem Empathie-Begriff nahe, den Goleman im Kontext einer „ökologischen Intelli-genz“ anführt. Diese umfasst einerseits das Wissen um ökologische Zusammenhänge und schließt andererseits die Einsicht ein, „aus Erfahrungen zu lernen und sinnvoll zu handeln“45. Das ist für ihn an eine Form von Empathie gebunden, die alles umfasst „was lebt“46. Dies impliziert ein Mitleiden, wenn Ökosysteme „leiden“ und daraus ein Handeln abzuleiten, welches dieses Leiden zu mindern trachtet. In einer tiefenökolo-gischen Perspektive weitet sich die Perspektive auch auf Unbelebtes: „denken wie ein Berg“, Aldo Leopolds Diktums, verdeutlicht, dass der Schutzgedanke auch über die belebte Welt hinausgeht47. Auch für Berry48 ist der Gedanke zentral, dass menschliche Körper eng mit der umgebenden Natur verwoben sind und erst der Kontakt mit der „Wildnis“ Erfahrungen bringt, die „uns demütig werden lässt und die uns belebt, die schmerzlich und freudvoll zugleich ist“49. Abram eröffnet die Perspektive, dass

Diese Reziprozität des Sinnlichen erstreckt sich für Abram unmittelbar auch auf nicht-menschliches Leben, das sich in einem Kontinuum bis in die Landschaft er-streckt. Für ihn schließt dies explizit auch die Fernstenliebe ein:

Hier schließt sich unmittelbar die Frage nach dem guten Leben an. Aus einer ver-tieften (nicht unbedingt einer tiefenökologschen) ökologischen Perspektive erhellt sich von selbst, dass der Sinn eines guten Lebens sich nur in einem maßvollen und ehrfürchtigen Umgang mit der Mitwelt erschließt. 4.2. Mitgefühl als tugendethisches Potential

Angesichts globaler ökologischer Herausforderungen stellt sich die Frage nach der Umsetzbarkeit ethischen Handelns in neuer Dringlichkeit. In der Perspektive einer Normethik, findet eine etablierte Norm ihre Anwendung in einem speziellen Fall. Jedoch zeigt sich in der Komplexität ökologisch-sozialer Systeme mit immer neuen Rückkopplungen und Rebound-Effekten, die Notwendigkeit, Adaptionsmöglich-keiten zu maximieren. Eine tugendethische Perspektive eröffnet die Möglichkeit, Persönlichkeitsmerkmale zu stärken, welche helfen in komplexen Situationen allen Belangen gerecht zu werden.

Empathie ist aufgrund der Ambivalenz der Perspektive-Übernahmen zunächst nicht moralisch. Doch lässt Empathie als Mitfühlen und als Liebe weitere Dimen-sionen stärken, denn die Übernahme der Perspektive Anderer bereichert das eigene Empfinden und die eigene Wahrnehmung um neue Perspektiven. Ergänzt um das Mitfühlen mit Anderen wird die sinnliche Dimension der Wahrnehmung vergrö-ßert. Dadurch erfährt das Mitfühlen eine ästhetische Qualität, weil das sinnliche Empfinden auf andere Subjekte geweitet, neue Perspektiven eröffnet52. Die Welt-wahrnehmung wird durch ein gesteigertes Empfinden von Empathie reicher und gleichzeitig vielschichtiger. Das Mit-Erleben von fremden Perspektiven kann Nähe, Vertrauen und damit eine neue Bindung schaffen. In einem umwelttugendethi-schen Ansatz ist das Mit-Erleben natürlich nicht auf Mitmenschen beschränkt. Das Mitfühlen mit dem Empfinden der Fürsorge baut schließlich die Brücke zwischen dem Ethischen und Ästhetischen53.

Gleichzeitig ermöglicht dies bereichernde Erleben Mäßigung im eigenen Leben einzuüben, da ein empathisches Zusatzerleben jenes überkompensiert. Dies ist eine Perspektive zu einem umweltentlastenden Verhalten im Individuellen. Ein weite-rer Vorzug eines tugendethischen Ansatzes liegt darin, den Kreis der moralisch zu berücksichtigenden Entitäten nicht bestimmen zu müssen (Anthropozentrismus, Pathozentrismus, Biozentrismus, Holismus) und damit das Demarkationsproblem in der Sichtweise der Umweltethik umgehen zu können. Denn eine enge anthro-pozentrische Position lässt sich darlegen, die nur das eigene Individuum umfasst (Egoismus), erweitert um alle Personen (Personalismus bzw. Humanismus, alle Menschen gegenwärtig und zukünftig), schließlich lässt sich die Sphäre der mo-ralisch zu berücksichtigenden Entitäten um alle leidensfähigen Tiere (Pathozen-trismus), alle Lebewesen (Biozentrismus) und um die gesamte Natur (Holismus) erweitern. Der Holismus plädiert dafür, allen Entitäten der Natur einen eigenen Wert zuzusprechen, die Natur ist um ihrer selbst willen zu schützen54. Bezogen auf das Abgrenzungsproblem scheint Gorke einzig die umfassendste Position des Ho-lismus selbstevident zu sein, „die Antwort des Holismus ist [… die] einzige, [die] keiner weiteren Erläuterung bedarf“55. Damit glaubt Gorke der Begründungslast, welchen Entitäten ein Eigenwert zugeschrieben werden kann, zu entgehen, denn alle anderen Konzepte der Umweltethik müssen ihrerseits schlüssig darlegen kön-nen, warum sie bestimmte Entitäten aus dem Kreis der moralisch zu berücksich-tigenden Wesen ausschließen. Man müsste folglich Objekten einen eigenen Wert zusprechen, der nicht aus menschlichem oder animalischem Bewusstsein herleitbar ist und damit einen Gegenbegriff zum instrumentellen Wert, mithin einen objek-tiven Wert, darstellt. Denn die Kernfrage, der sich anthropozentrische Argumente stellen müssen, ist ob es

Doch auch für den Holismus bleibt die Gefahr bestehen, dass eine anthropo-zentrische Sicht implizit auf nicht-menschliche Entitäten erweitert wird und letztlich doch eine Zuschreibung von menschlichen Eigenschaften erfolgt. In einer tugendethischen Perspektive ist das Abgrenzungsproblem jedoch nicht zentral, daher lassen sich solche Zuschreibungen wie auch moralische Status-zuschreibungen leicht umgehen. Im Zentrum einer Tugendethik steht eben eine handelnde Person, die aus eudaimonistischen Gründen motiviert ist. Zentral für einen tugendethischen Ansatz ist die individuelle Handlung und gerade im Umweltdiskurs hat sich die Diskrepanz von Wissen und Handeln als zentraler Angelpunkt herausgestellt. Denn in Umweltentscheidungen treten immer wie-der dilemmatische Situationen wie den oben geschilderten auf. Jede Handlung zeitigt Schadnebenfolgen und eine handelnde Person verursacht Umweltschä-den. Dies spricht für einen tugendethischen Ansatz, welcher aus der Stärkung relevanter Tugenden Handlungswirksamkeit ableitet. Im Umweltverhalten ist ein Maßhalten eine zentrale Tugend, die sich aus regelmäßigen Naturkontakten stärken lässt57. 4.3. Die Sinndimension

Menschen sind, anders als KI, sinnbedürftige Wesen und müssen in ihrem Wesen berührt werden, um zu Handeln. Daher bleibt das zunehmende Umweltwissen, der ständige Zustrom ökologischer Daten zu ansteigenden Treibhausgaskonzentratio-nen und abnehmender Artenvielfalt vielen Menschen äußerlich und betrifft nicht deren existenzielles In-der-Welt-Sein. Morton spitzt das zu: „der Datenmüllmodus verstärkt lediglich das Unvermögen der Dinge, noch etwas für uns zu bedeuten“58. Menschen müssen folglich in ihrer Sinndimension als zentrales Motivationsmo-ment angesprochen werden, denn:

Sinn lässt sich jedoch nicht über Algorithmen simulieren und stellt daher ein weite-res Distinktionsmerkmal menschlicher und künstlicher Intelligenz dar.

Neben dem Sinn, den ein Individuum für sich entdecken kann, gilt es „Naturwesen außerhalb des Menschen“, deren „Seins- und Sinnentwürfe, […] die uns sittlich ver-pflichten“ zu berücksichtigen.60 Denn das menschliche Dasein ist wesentlich durch Beziehungen, damit relational konstituiert. Daher stehen Menschen dem nicht-menschlichen Leben in „einer Solidarität der Sinnerwartung mit allem Lebendigen; eine Solidarität, die in symphatetischer Resonanz von uns gespürt wird“61 gegenüber. „Der Mensch kann nur ganz Mensch werden, wenn er alle Dinge nicht nur utilitär ‚nimmt‘, sondern sie auch in ihrem Eigensein konspirierend ‚ver-nimmt‘ um ihrer selbst willen“62. Für Hengstenberg entspricht dies dem Gebot der Sachlichkeit, sich nichtmenschlichen Naturwesen um ihrer selbst willen zuzuwenden. Damit entsteht für ihn eine „Verbindlichkeit im Verhältnis zu allem Lebendigseienden, nicht nur zum Mitmenschen“.63 Dieses „universelle Sinngebot“ zeigt sich als eine tragfähige Ba-sis, Natur als Quelle für menschlichen Sinn auszubauen. Dabei erschließt sich die Tiefe des Sinns nicht in einem fortwährenden „Mehr“, die Sinnerschließung bedarf des Mutes innezuhalten und zu erkennen, dass die Konzentration darauf, weniger zu sehen, weniger zu erleben, weniger zu unternehmen, die Qualitäten des Wenigen steigert und das Bedürfnis nach immer mehr senkt. Ein tugendethischer Ansatz ist an eine vermeintliche Einschränkung des Individuums gebunden, die sich jedoch als qualitativer Zugewinn herausstellt. Denn im Vielen liegt Schnelligkeit, Oberflächlich-keit, Beliebigkeit, Gewinn jedoch lässt sich aus einer qualitativen Beziehung schöpfen. Merton illustriert den Gedanken durch einen Museumsbesuch:

KI könnte die Informationsfülle des Museums strukturieren, jedoch ohne Aus-sicht auf Sinn oder einen Beitrag zu einem guten Leben. Es bleibt der natürlichen Intelligenz vorbehalten, die qualitative Dimension im Leben zu stärken und da-raus Handlungsmotivation abzuleiten, denn: „Die meisten von uns wissen oder ahnen im Innersten recht genau, was wert- und sinnvoll wäre und was nicht. Wo-ran es aber bislang zu mangeln scheint, ist das Wissen, wie man konkret und realistisch wert- und sinnorientiert engagiert leben kann; und auch das Wissen darum, dass sinnorientiertes, verantwortliches Handeln nicht nur die Welt be-reichert, sondern auch uns selbst“.65 Auch dies setzt einer konsequentialistischen Denkweise Grenzen, die sich überwinden lassen durch das nachhaltige Handeln, welches in einer Mäßigung des Konsums und Verhaltens von Menschen liegen. Dies schlägt die Brücke von der Sinndimension zu einem umwelttugendethischen Ansatz, die im Umweltdiskurs bislang zu undeutlich aufgetreten ist. Denn eine Grundkonzeption tugendethischer Ansätze liegt darin, dass sich eine Person sich selbst zu als bedeutsam erkannten Tugenden bzw. Handlungen hin entwickelt. Einsichten in den Sinn dieser Tugenden werden dann individuell handlungslei-tend da sie eine unmittelbare persönliche Betroffenheit evozieren. Dies kann das, den Umweltdiskurs seit Jahrzehnten begleitenden Lamento über wahlweise das System, den Kapitalismus oder die Großkonzerne durch die Einsicht in die indi-viduelle Handlungsmacht positiv ergänzen. Dadurch entgeht der Einzelne einer Opferrolle und gewinnt Eigenverantwortung und daraus eine weitere Quelle für das gute Leben. 5. Ausblick

KI kann helfen, auf politischer Ebene konsequentialistische Ansätze der Umwelt-bewertung vorzulegen. Daraus lassen sich Handlungsfolgen bestimmen und ent-sprechende Grenzwerte in der Ressourcennutzung festlegen. Die Grenzen der KI in der Überwindung der ökologischen Krise liegen darin, dass sie im rein Quan-titativen verwurzelt bleibt. Die qualitativen Dimensionen menschlichen Lebens lassen sich jedoch nicht simulieren. Dies gilt auch für den Beitrag der Natur-wissenschaften, denn die Naturauffassung, welche empirische Naturwissenschaft und ästhetischen Naturgenuss vereinigte, war bei Alexander von Humboldt noch präsent, ist jedoch in der jüngeren Naturwissenschaft verlorengegangen und die-se Entzweiung erscheint sich durch KI noch zu verstärken. Ein umwelttugend-ethischer Ansatz, der darauf baut, die neuzeitlichen Entzweiungstendenzen von Mensch und Natur zu überwinden, kann in der regelmäßigen Naturbegegnung eine neue Wertschätzung für die Mitwelt, und daraus abgeleitet, ein erhöhtes En-gagement für diese erreichen.

278

„Wer nichts als Chemie versteht, versteht auch die nicht recht.“

Interdisziplinarität als Mehrsprachigkeit1

Jens Soentgen Zusammenfassung

Interdisziplinarität ist wissenschaftliche Mehrsprachigkeit, nämlich die Fähigkeit, sich im Wissenschaftssystem über die Grenzen der eigenen Disziplin hinaus ver-ständigen zu können. Diese Art der Mehrsprachigkeit zu fördern ist heute aus zwei Gründen dringend erforderlich: zum einen wegen der wachsenden Spezialisierung und zugleich gegenseitigen Verflechtung der einzelnen Disziplinen und zum ande-ren wegen der Situation im Anthropozän, in dem sich Phänomene nicht mehr nur aus der Perspektive einer einzigen Disziplin erklären lassen und insbesondere auch geistes- und kulturwissenschaftliche Aspekte zu berücksichtigen sind. Abstract

Interdisciplinarity is academic multilingualism, namely the ability to communicate across the boundaries of one’s own discipline within the system of the sciences. To foster this kind of multilingualism, today is urgently required because of two reasons: on the one hand because of the growing specialization and at the same time increasing interconnection between the single disciplines, and on the other hand because of the situation in the Anthropocene, in which phenomena cannot be explained any more from the perspective of only one discipline alone and especially aspects of the humanities have to be taken into consideration. 1. Einleitung

In eines seiner Sudelbücher2 schreibt Lichtenberg folgende Notiz:

Die Aufzeichnung stammt vermutlich aus dem Jahr 1790. Man ist allzu leicht ge-neigt, Lichtenberg einfach zuzustimmen, natürlich, wer nichts als Chemie versteht, versteht auch die nicht recht. Weil er sie, so sagen wir uns, nicht im Kontext ver-steht, wie auch immer der beschaffen sein mag. Doch Lichtenbergs Aphorismus hat eine gewisse Tiefenstruktur. Lichtenberg macht nämlich eine Ausnahme: Kenntnis-se, die ganz rein sind. Die kann man offenbar tatsächlich ganz verstehen, auch wenn man nur sie versteht. Zwar wissen wir nicht, woran Lichtenberg dachte, ich nehme aber an, an die Mathematik. Die beruht auf Axiomen, die gesetzt werden, und sollte daher rein aus sich selbst heraus verständlich sein.

Die Chemie aber, und mit ihr fast alle anderen Wissenschaften, ist nicht so rein. Sie benötigt das Experiment, sie benötigt Stoffe, die sie irgendwoher nehmen muss, die ihr angeliefert werden. Diese Stoffe macht sie teils selbst, teils kommen aus Bergwerken, fernen Gegenden, aus Pflanzen und anderen Lebewesen. So ergibt sich sofort, dass andere Kenntnissysteme in sie eindringen, die Geologie, die Medizin, die Botanik und allgemein die Biologie, wie wir heute sagen würden. Heute scheint uns die Chemie ein monolithisches, rein selbstreferentielles System zu sein, mit den imposanten Symbolen des Periodensystems und der Benzolformel, die August Kekulé erfand, und dessen Geheimnisse nur Eingeweihten zugänglich sind. Doch Lichtenbergs Aphorismus behauptet etwas anderes: Sie ist ein Polysystem, in dem sich verschiedene Wissenssysteme durchdringen. Sie ist, mit anderen Worten, in sich selbst schon interdisziplinär. Dieses Fach ist viele Fächer. Deshalb versteht sie nur, wer mehr versteht als sie.

Dies ist auch den meisten Chemikern völlig klar. Ein Chemiker würde nie, und darin unterscheidet sich die Chemie positiv von der Durkheim-Schule in der So-ziologie, ein Chemiker würde also nie die Regel aufstellen, dass chemische Fakten nur durch andere chemische Fakten erklärt werden können. Hieße das doch, dass er die Tatsachen des Periodensystems, die nur durch die Quantenmechanik erklärt werden können, ignorieren müsste. Auch das Vorkommen von bestimmten Eiwei-ßen und Fetten in Organismen könnte ein Chemiker dann nicht erklären, sind dies doch biologische Tatsachen. Was die DNA leistet, und warum sie so wichtig ist, ist ebenfalls nur durch nicht-chemische Fakten erklärbar.

Chemiker wissen das auch ganz genau, ja mehr noch, sie sind sehr pragmatisch und erfinderisch darin, aus nicht-Chemie Chemie zu machen, etwa aus Quanten-mechanik eine Theorie der chemischen Bindung, die zwar für Physiker viel zu ober-flächlich ist, in der chemischen Forschung aber hervorragende Dienste leistet. Inso-weit funktioniert die Interdisziplinarität mancherorts ganz gut.

Anderswo ist die Lage allerdings nicht ganz so gut, wenn man etwa nach Kon-takten zwischen Chemie und den Kultur- und Gesellschaftswissenschaften fragt. Zwischen diesen Disziplinen finden wir nicht gerade, wie zwischen Chemie und Physik oder Chemie und Informatik oder Chemie und Biologie gewaltige mehrspu-rige Autobahnen. Da sind es eher kleine, kaum mehr erkennbare, oft schon über-wachsene Trampelpfade und ungepflegte, verfallene Wege, die nur von einzelnen Waldläufern und Individualisten, manche würden sagen, von Spinnern begangen werden. Nun, unter diesen Spinnern sind zwar durchaus bedeutende Leute, war doch der Biochemiker Joseph Needham (1900–1995) zugleich ein sehr bedeutender Sinologe. Ein anderer Chemiker, genauer Chemieingenieur, Benjamin Lee Whorff (1897–1941), war ein bedeutender Sprachphilosoph.

Insgesamt aber tun sich Chemiker, wie auch andere Naturwissenschaftler schwer mit den Gesellschafts- und den Geisteswissenschaften. Ein obstacle épistémologique , um Gaston Bachelard3, den französischen Philosophen und Chemiker zu zitieren, ein Erkenntnishindernis, das die Interdisziplinarität über den great divide , über den großen Graben erschwert, ist der Chauvinismus, die Vorstellung, dass nur die eige-ne Wissenschaft eine wirkliche Wissenschaft sei.

Hans Georg Gadamer hat mir dies bei einem Gespräch, das ich vor vielen Jah-ren mit dem damals fast hundertjährigen in Heidelberg führen durfte, einmal recht drastisch erklärt. Sein Vater war Chemiker, und als ihm Hans Georg eröffnete, er wolle Philosophie studieren, sagte dieser: „Dass Du mir das antust, zu den Schwatz-Professoren zu gehen!“ Ich glaube, auch heute noch denken nicht wenige Chemiker ähnlich. Was die anderen sprechen, ist keine eigentliche Sprache, sondern nur vor-nehmes Ornament, das in erster Linie soziale Funktionen hat, es fehlt der Sachbezug, so glaubte Gadamer Senior damals. Im Grunde eine Variante des Barbaren-Konzep-tes der alten Griechen, die die Nichtgriechen als Barbaren bezeichneten, weil diese keine eigentliche Sprache sprächen, sondern nur Bar-Bar, oder bla-bla, wie wir heute sagen würden. Diese Kommunikationsverweigerung zwischen gerade der Chemie und den Geisteswissenschaftlern hat aber keine systematischen Gründe, denn alle modernen Wissenschaften haben eine gemeinsame Geschichte, gehen von ähnli-chen Methoden aus, streben nach empirisch überprüfbaren Resultaten. Sie sind und müssen untereinander kooperationsfähig sein. Wo Kooperation nicht möglich zu sein scheint, da liegen keine prinzipiellen Gründe vor, die hier bestehende Sprach- und Weglosigkeit ist vielmehr historisch gewachsen. Meiner Meinung nach handelt es sich um eine Altlast des 19. Jahrhunderts, als für eine recht kurze Zeit Philosophen der Meinung waren, der Chemie die Methode vorschreiben zu können. Wir müssen diese Altlast heute abtragen, wieder Wege freiräumen zwischen Chemie und Gesell-schaftswissenschaften, zwischen Chemie und Geisteswissenschaften.

Erst wenn das geschieht, können wir auch die Chemie selbst verstehen, denn ge-nau diese Naturwissenschaft hat – gerade in Deutschland – eine politische Rolle, sie war für das deutsche ‚Nationbuilding‘, wie sich an vielen Beispielen zeigen ließe, vom Rübenzucker bis zum Kunstgummi, unerlässlich. Deutschland hatte bekannt-lich als zu spät gekommene Nation zunächst und nach 1918 dann wieder keine Kolonien, aber genau hier bot die herausragende deutsche Chemie einen Weg: Was andere als Indigo oder Kautschuk oder Kampfer in ihren tropischen Kolonien von den dort unterworfenen Kolonialvölkern abpressten, das erzeugte das damalige Deutsche Reich aus der Luft, aus Kohle und Kalk oder zur Not auch aus der Bier-hefe. Eine zunächst sehr erfolgreiche Modernisierungsstrategie4. Es wäre, so zeigt diese Verflechtung von Politik und Chemie, auch für Chemikerinnen und Chemi-ker sinnvoll, sich von vorn herein in einem umfassenderen Sinn mit Geschichte und Politik zu beschäftigen, auch um sich selbst besser zu verstehen. Zudem könnte ein solches breiteres Studium dazu beitragen, nicht so rasch auf jene Abwege zu gera-ten, wie etwa jene, die sich in der NS-Zeit gleichgeschaltet haben. 2. Interdisziplinarität

Mit dem Beispiel sind wir am systematischen Ort von Interdisziplinarität angekom-men. Sie soll historisch gewachsene Hindernisse oder die Sprachlosigkeit zwischen bestimmten Disziplinen beseitigen. Interdisziplinarität reagiert auf ein Problem.

Aber was genau verstehen wir unter Interdisziplinarität? Zunächst einmal han-delt es sich um ein sehr sperriges Wort, zu dem sich inzwischen eine umfangreiche Literatur gebildet hat. Man unterscheidet Multidisziplinarität, Transdisziplinarität, Pluridisziplinarität, Crossdisziplinarität5; bei Niklas Luhmann findet man okkasio-nelle, temporäre und transdiziplinäre Interdisziplinarität6 und diese Worte sind nicht nur Zungenbrecher, sie geben auch Rätsel auf, was mit ihnen eigentlich gemeint sei.

Das Präfix inter klingt immer gut, wenn auch etwas angestaubt, wie aus der Zeit von Interlübke und Interatom, es klingt nach den frühen Siebzigern. Manche warnen ohnehin davor, dass vieles, was interdisziplinär sei, eigentlich subdisziplinär wäre, wenn nicht a-disziplinär. Auch Pseudo-Interdisziplinarität, zusammengesetzte, un-terschiedslose oder Hilfs-interdisziplinarität werden kritisiert. Es sind inzwischen so viele Konzepte und Modelle, dass Uwe Voigt den Diskurs mit einem „Modell der Modelle“7 geordnet hat. Als kürzlich in der Zeitschrift Gaia ein weiterer konzeptio-neller und sehr differenzierter Artikel zu der Frage Was ist Transdisziplinarität er-schien8, meldete sich in einer Replik der Philosoph Jürgen Mittelstraß, der Schöpfer des Transdisziplinaritätsprinzips. Er geißelte den wuchernden Transdiszplinaritäts-diskurs und meinte, der Diskurs verdunkle inzwischen, statt zu erhellen9.

Die Diskussion ist inzwischen so verwirrend geworden, dass ich einen Neuanfang vorschlagen möchte. Dabei soll kein neues begriffliches Konstrukt für Interdiszipli-narität eingeführt werden. Es ist ja nicht so, dass das begriffliche Denken das einzig produktive wäre. Auch das Erfinden von Bildern10 kann uns weiterbringen oder das Erzählen von Geschichten. Und auch einfache Analogien sind nicht zu verachten. Da bin ich ganz einig mit Lichtenberg, der den Vergleich zu seiner Haupt-Denk-technik erklärte. Für Lichtenberg ist der witzige Vergleich bekanntlich, wie er in einem weiteren Vergleich sagt, das Gegenteil des Mikroskopierens, sei kein Vergrö-ßern, sondern ein Verkleinern, und er behauptet, dass nicht alle Entdeckungen mit Vergrößerungsgläsern gemacht werden können, sondern auch viele mit Verkleine-rungsgläsern11. Dieses Verkleinern, das der Vergleich ermöglicht, hat den Vorzug, dass Zusammenhänge sichtbar werden. Daher sind Analogien, die kognitiv wichtige Zusammenhänge herstellen, bei unserem Thema von Bedeutung. Üben wir uns also in der Vergleichskunst, suchen wir Ähnlichkeiten! Dies ist, wie viele Lichtenberg-Forscher hervorgehoben haben, der Kern des Lichtenbergschen Metaphorisierens12. 3. Wer nur seine eigene Sprache versteht, versteht auch die nicht recht Ich möchte also eine Analogie vorschlagen, auch wenn ich natürlich kein Lichten-berg bin. Die Analogie ist daher wenig originell, sie wird aber vielleicht helfen, das, worum es uns in der Interdisziplinarität geht, klarer zu machen und auch neue Wege dorthin weisen. Zunächst möchte ich die Disziplinen, die Fächer, die wir heu-te haben, mit Sprachen vergleichen. Das ist schon öfter so geschehen. Es passt auch quantitativ, denn bereits Ende der 1980er Jahre zählte man über 4000 verschiede-ne Fächer. Inzwischen dürften noch einige hinzugekommen sein13. Und wir haben auch ungefähr 7000 Sprachen.

Das Entstehen ganz spezifischer Fachsprachen in der Wissenschaft ergibt sich aus der Arbeitsteilung in der Wissenschaft, die natürlich mit der Ausbildung von sozia-len Gruppen einhergeht. Chemiker, Biologen, und weiter: Organiker, Anorganiker usw. Und ähnlich in der Philosophie, wo es die analytischen Philosophen gibt, die Ethiker, die Phänomenologen und so weiter. Die Arbeitsteilung, die in der Wissen-schaft wirksam ist, die erreicht längst die einzelnen Fächer. Es bilden sich Grup-pen. Und diese Gruppen verhalten sich nicht anders als Gruppen überall. Sie setzen sich nämlich, wie Ludwik Fleck und viele andere gezeigt haben, mit ihren eige-nen Denkweisen und Sprachen kontrastiv von anderen Gruppen ab, um die eigene Gruppenidentität zu festigen. Wir sind nicht die, sondern die. Wir reden nicht nur, wir experimentieren auch. Oder: Wir rechnen, ihr diskutiert. Es gab einmal einen baden-württembergischen Ministerpräsidenten, der die Geistes- und Gesellschafts-wissenschaften insgesamt als „Diskussionswissenschaften“ von den „Produktions-wissenschaften“ zu unterscheiden für gut befand.

Hier wirkt sich die Vorstellung aus: Was die Gruppenmitglieder tun, ist anders und meist nach eigener Einschätzung besser als das, was alle anderen tun. Und auch die Sprachen differieren, nicht nur aufgrund sachlicher Notwendigkeit. Die Men-schen wollen nicht nur etwas sagen, sie wollen es auch anders sagen. Seit alter Zeit beobachten die Menschen die Entstehung von Sondersprachen und die Probleme, die daraus erwachsen. Daher gibt es auch zahlreiche Geschichten, die wir uns mit unserer Metapher erschließen können. Unter diesen Geschichten ist wohl die be-kannteste die vom Turmbau zu Babel aus dem Alten Testament (Genesis 11, 1–9). Worum geht es dort: Die Bibel erzählt von einem Volk aus dem Osten, das „die eine“ (heilige) Sprache spricht und sich in der Ebene in einem Land namens Schinar ansiedelt. Dort will es eine Stadt und einen Turm „mit einer Spitze bis zum Him-mel bauen“. Da stieg der Herr herab, um sich Stadt und Turm anzusehen, die die Menschenkinder bauten. „Nun befürchtet er, dass ihnen nichts mehr unerreichbar sein [wird], was sie sich auch vornehmen“, dass das Volk übermütig werden könnte und vor nichts zurückschreckt, was ihm in den Sinn kommt. Gott „verwirrt“ ihre Sprache und vertreibt sie „ über die ganze Erde“ . Die Weiterarbeit am Turm endet ge-zwungenermaßen, weil die durch Eingreifen Gottes aufgetretene Sprachverwirrung die notwendige Verständigung der am Turm bauenden Menschen untereinander so gut wie unmöglich macht.

Die Bezüge zu unserem Thema sind offensichtlich14: In der Geschichte vom Turmbau zu Babel geht es um Arbeitsteilung, durch die gewaltige Werke möglich werden. In dieser Geschichte ist die Gefahr, die mit der Spezialisierung einher-geht, benannt, denn das Resultat der hier ganz plötzlich, nicht allmählich auftau-chenden Sprachenvielfalt ist, dass das gemeinsame Werk verlassen wird und die Menschen sich über die Erde verstreuen. Hier besteht ein kausaler Zusammen-hang: Wo jeder nur noch seine eigene Fachsprache, nur sein eigenes Gewerk ver-steht und hören kann, wo die erworbene Schwerhörigkeit gegenüber den anderen immer weiter zunimmt, da zerfallen Gesellschaften. Oder umgekehrt: Wo es Ar-beitsteilung gibt, muss es auch Verständigung geben. Wer dazu nicht bereit ist, der kann nicht kooperieren, übrigens auch in seinem eigenen Fach nicht. Wenn also jemand sagt, Kooperation sei schwierig und zeitaufwendig, sollte man antworten: Kooperation ist überhaupt schwierig und zeitaufwendig, ob interdisziplinär oder nicht. Aber ohne Kooperation ist Wissenschaft, jedenfalls moderne Wissenschaft unmöglich. Die Probleme mit der Interdisziplinarität sind nur gesteigerte Prob-leme dessen, womit wir uns auch sonst auseinandersetzen. Und damit kommen wir zu folgender Schlussfolgerung: Die zentrifugalen Tendenzen, die mit Arbeits-teilung, ob auf dem Bau oder in der Wissenschaft, einhergehen, müssen immer wieder aufgehalten werden, weil sonst auch die Vorteile der Arbeitsteilung verlo-ren gehen. Es muss immer eine gemeinsame Verständigungsebene geben. Das gilt beim Turmbau ebenso wie in der Wissenschaft. Das bedeutet: Interdisziplinarität muss konsequent kultiviert werden, sie ist nicht mit einem Male da und bleibt. Man sagt ja auch nicht: Die deutsch-französische Freundschaft ist nun ein für alle Male etabliert. Nein, sie muss immer wieder neu gepflegt werden. Interdiszipli-narität ist überhaupt kein Zustand, sondern ein dauernder Prozess, der sich nicht abschließen lässt. 4. Interdisziplinarität als Mehrsprachigkeit: Was bedeutet das?

„Wer fremde Sprachen nicht kennt, weiß nichts von seiner Eigenen“. Diese Vari-ante des Lichtenberg-Spruches stammt von Goethe, sie findet sich in seinen 1833 erschienen Maximen und Reflexionen15 und ich vermute, dass er sich ebenso wie Lichtenberg ursprünglich von Rousseau hat anregen lassen.

Die Vorteile der Mehrsprachigkeit kennt man. Auch wenn man nur rudimentäre Kenntnisse einer Fremdsprache hat, erschließt man sich doch eine völlig neue Welt. Man kann radebrechen, erfindet sich eine eigene Behelfssprache, die aber ganz neue Handlungen ermöglicht. Und mehr noch: Man versteht halbwegs, was die anderen schreiben, vielleicht auch, was sie sprechen. Wenn jeder Wissenschaftler das B2-Niveau in einer von seinem Fach aus möglichst weit entfernten anderen Disziplin erreichen würde, hätten wir die Probleme mit mangelnder Interdisziplinarität nicht. Die Universitäten wären dann nicht mehr Orte monodisziplinärer Uniformität, sondern tatsächlich mehrsprachiger Universalität.

Interdisziplinarität ist Mehrsprachigkeit, das ist also die Analogie, auf die ich hi-nauswill. Ein bisschen mehrsprachig sind wir alle, schon alleine deshalb, weil die weitaus meisten Kenntnissysteme, um mit Lichtenberg zu sprechen, keine Mono-systeme sind, sondern Polysysteme. Jedes Fach ist viele Fächer. Ein wenig Mehr-sprachigkeit gibt es sogar über die großen Fächerkulturen hinweg, über den Block der Naturwissenschaften auf der einen und der Gesellschafts- und Geisteswissen-schaften auf der anderen Seite hinweg. Auch Naturwissenschaftler haben eine gro-be Vorstellung, wie Historiker z. B. arbeiten oder Kunstwissenschaftler. Zumindest kennen sie die Chronologie ihres eigenen Faches.

Wir können ein Grundverständnis aufbauen, das für wissenschaftliche Koopera-tionen ausreicht, und dazu, die Beiträge der anderen Disziplinen, ihre Potentiale zu würdigen und einzubeziehen. Natürlich: Unsere Mehrsprachigkeit wie auch unsere Interdisziplinarität wird immer unvollkommen sein. Aber auch die eigene Mutter-sprache spricht niemand perfekt. Und das sollte uns ermutigen! Wissenschaftler unter anderen Wissenschaftlern zu sein bedeutet in einer immer unvollkommenen Mehrsprachigkeit zu leben.

Eine gewisse Mehrsprachigkeit gibt es also auch in den spezialisiertesten Diszi-plinen. Anders könnte moderne Forschung auch nicht funktionieren. Doch diese Mehrsprachigkeit ist eben auch der Steigerung fähig, und eine solche Steigerung ist ausgesprochen wünschenswert, wenn wir die großen wissenschaftlichen Aufgaben unserer Zeit angehen wollen. Dabei geht es nicht darum, dass wir alle gewisserma-ßen Sprachengenies werden sollen. Aber es ist auch zu wenig, wenn jeder sich nur mit den Fächern beschäftigt, die dem eigenen Fach am nächsten sind, der Chemiker z. B. mit Physik oder der Soziologe noch ein wenig mit Psychologie.

Nun werden manche einwenden, dass sie ja dann nur Dilettanten sind, wenn sie versuchen, sich mit anderen als den eigenen Fächern zu befassen. Doch auch in un-

287

seren eigenen Fächern sind wir bis zu einem gewissen Grad Amateure. Und genau-so in unserer Muttersprache, denn niemand kann von sich behaupten, dass er oder sie so gut Deutsch kann, dass seine oder ihre muttersprachliche Kompetenz nicht mehr verbessert werden könne. Das Dazulernen bleibt eine lebenslange Aufgabe.

Ein anderer oft zu hörender Einwand lautet: ‚Ich habe kaum Zeit, mich mit dem eigenen Fach so zu befassen, wie ich es müsste, wie soll da noch Zeit für andere Fächer übrigbleiben.‘ Auch hier verschafft uns die Analogie eine neue Perspektive. Denn man kann, wie der Sprachforscher Wandruszka herausgearbeitet hat, unter-scheiden zwischen der ausübenden und der verstehenden Mehrsprachigkeit. Wan-druszka hat auch unterstrichen, dass die verstehende Mehrsprachigkeit viel leichter zu erlangen ist als die ausübende. Schon in unserer Muttersprache verstehen wir viel mehr Wörter, als wir aktiv verwenden. Wir verstehen grundsätzlich, auch in unserer Muttersprache, weit mehr als wir aktiv verwenden, dieses Verhältnis ist, wie Wandruszka schätzt, wie 1000 zu eins16. Und ein verstehendes Verständnis einer fremden Sprache ist, wie jeder von uns weiß, viel leichter und schneller zu erwerben als ein flüssiger aktiver Gebrauch. Und ganz genauso ist es auch mit dem Verstehen anderer Fächer. Man kann also unterscheiden zwischen der ausübenden und der verstehenden Interdisziplinarität. Und weil das möglich ist, weil es viel rascher geht, zu verstehen, wie andere Fächer arbeiten als sich die Kompetenzen anzueignen, die für diese Arbeit dann tatsächlich erforderlich sind, glaube ich auch, dass die Inter-disziplinarität die Wissenschaftler nicht überfordert. Wir alle könnten interdiszipli-närer sein als wir sind. Denn es ist leichter und schneller möglich, z. B. chemische oder epidemiologische Forschung in ihren Grundzügen zu verstehen als solche For-schung tatsächlich zu betreiben. Ebenso ist es viel leichter, die Forschungsprinzipien von Historikern (oder von Soziologen) in ihren Grundzügen zu verstehen als solche Forschung dann tatsächlich durchzuführen. Wenn wir aber auch nur etwas besser verstehen, was in der Nachbarschaft geschieht, ist schon sehr viel gewonnen, nicht zuletzt erschließen wir uns auch selbst kognitive Ressourcen und werden inspiriert.

Aus der Analogie ergibt sich, wir sahen es bereits, dass Interdisziplinarität wie Mehrsprachigkeit gepflegt werden muss. Sie ist nicht ein für alle Mal angekommen und dann einfach da. Und keine Sorge: Seine Muttersprache wird niemand verlie-ren. Der Effekt ist vielmehr: Man kann die eigene Muttersprache durch eine Viel-zahl neuer Perspektiven bereichern.

Und dennoch: Der Gedanke, sich mit mehr als nur einer Disziplin auskennen zu sollen, mehr als nur eine einzige Sprache zu sprechen, wirkt auf manche belastend. Wie es die Sehnsucht nach einer normierten Einheitssprache gibt, so auch die Sehn-sucht nach einer einzigen grundlegenden wissenschaftlichen Disziplin. Die Physi-ker sind bekanntlich der Meinung, dass eine solche grundlegende Disziplin nicht erst noch erfunden werden muss, sondern schon existiert, nämlich in Gestalt der Physik. Die Chemie ist dann weiter nichts als die Physik der äußeren Elektronen-hülle. Und der Physiker von Weizsäcker sagte, dass „im Prinzip“ auch die Brüllaf-fenfamilie im Wald eine Lösung der Schrödingergleichung sei17. Das ist vermutlich richtig. Auch die Explosion der Atombombe über Hiroshima am 06.08.1945 dürfte eine Lösung der Schrödingergleichung gewesen sein, schließlich war diese Bombe ja von Physikern konstruiert worden. Aber einen rechten Einblick in die Tragweite des Ereignisses kann uns eben noch so viel Mathematik und Physik nicht bieten. Hier sind ganz andere Arten von Einsicht gefragt.

Und damit zeigt sich auch, dass die Physik zwar eine sehr vielfältige und bewun-dernswerte, aber keinesfalls eine umfassende Wissenschaft ist, die gewissermaßen auf Augenhöhe mit dem Sein der Dinge steht. Tatsächlich ist es eine von fast allen modernen Erkenntnistheoretikern geteilte Einsicht, dass alle menschliche Erkennt-nis perspektivisch ist. Die ganze Wahrheit hat keine der heute tätigen Fachdiszipli-nen.

Deshalb ist es mehr als ein Luxus, wenn die Universitäten die Mehrsprachigkeit ihrer Mitglieder fördern. Und nun möchte ich noch einen weiteren Nutzen aus mei-ner Analogie ziehen, indem ich nämlich den Begriff der mehrsprachigen bzw. inter-disziplinären Persönlichkeit einführe. In der Debatte um Interdisziplinarität wird sehr oft von Forschungsdesigns, Kooperationsformen, Institutionalisierungen und so weiter gesprochen. Dabei kommt es meiner Erfahrung nach ganz entscheidend auf die interdisziplinären Persönlichkeiten an, auf mehrsprachige Forscherinnen und Forscher, die gewissermaßen in zwei oder sogar drei Communities aufgewach-sen sind, die zwischen den Gruppen vermitteln können, die interdisziplinäre Ko-operationen moderieren können, ohne die alle rein institutionelle Förderung leicht leer läuft. Solche mehrsprachigen Persönlichkeiten, solche Doppelbegabungen soll-ten viel stärker gefördert werden, als es derzeit geschieht.

Interdisziplinarität ist zudem, auch daran erinnert die Analogie, nicht nur etwas, das sich herbeifinanzieren oder herbeiorganisieren lässt, sondern bedarf auch be-stimmter kultureller Werte und Voraussetzungen, wie auch Mehrsprachigkeit durch bestimmte kulturelle und politische Gegebenheiten gefördert oder auch gefährdet werden kann. Intoleranz und ungleiche Machtverteilung begünstigen immer Ein-sprachigkeit, zur Mehrsprachigkeit gehören Toleranz, Fairness, Gleichberechtigung und zudem auch Offenheit gegenüber Neuem und Fremden. Eine entwickelte Kul-tur der Gastfreundschaft und der Philoxenie, der Offenheit gegenüber Menschen und Sichtweisen, die nicht dem angestammten Kollektiv angehören, ist aus meiner Sicht für wahre Interdisziplinarität ebenso unerlässlich wie für Mehrsprachigkeit. 6. Warum überhaupt Interdisziplinarität? Zwei Motive lassen es heute wichtiger denn je erscheinen, Interdisziplinarität zu fördern, ein inneres und ein äußeres, ein wissenschaftsinternes und ein wissen-schaftsexternes.

Der innere Grund ergibt sich aus den Veränderungen des Wissenschaftssystems. Dies war schon Helmut Schelskys Motiv für die Gründung des Zentrums für in-terdisziplinäre Forschung in Bielefeld. In einer Denkschrift formulierte er Anfang der 1970er Jahre: „die Re-Integration der sich spezialisierenden Wissenschaften zu einer Zusammenarbeit der verschiedenen Disziplinen“ sei eine zentrale Aufgabe, so schrieb er18. Heute muss man diese Forderung noch verstärken, denn die innere Ausdifferenzierung der Wissenschaft schreitet fort, und ohne Gegengewichte, die für eine innere Verbindung sorgen, die dafür sorgt, dass die in der Wissenschaft Tätigen auch das Bewusstsein haben, sich ein und derselben Institution zugehörig zu fühlen, ist die Wahrscheinlichkeit hoch, dass wir bald nicht mehr „die Wissen-schaft“ haben, sondern nur noch ganz unterschiedliche Wissensprojekte, die einan-der wenig oder nichts zu sagen haben. Das Zentrum entfällt dann, die Wissenschaft wird dezentralisiert und reprivatisiert. Dies wird uns zwar dann von den Anstren-gungen, einander zu verstehen und die Sprache der Anderen zu lernen, entheben, aber es wird auch dazu führen, dass die Wissenschaft der Öffentlichkeit gegenüber nicht mehr als Einheit wird auftreten können. Es wird dann nicht mehr dieses oder jenes Forschungsprojekt mit der Absicht gefördert, damit „die Wissenschaft zu för-dern“. Vielmehr wird es darum gehen, dass diese oder jene Leute ganz gern etwas wissen wollen und um die Frage, ob das den Geldgebern die Summe wert ist oder eben nicht. Und was die Ergebnisse angeht, so wird es nicht mehr heißen: Die Wis-senschaft hat herausgefunden, sondern: ‚Die und die Leute sagen, dass …‘ Es gibt dann nicht mehr die Formulierung: ‚man weiß‘, sondern nur noch: ‚von der und der Institution wird behauptet, dass …‘ Dass solche zentrifugalen Tendenzen heute schon unübersehbar sind, wird man kaum bestreiten können. Wenn wir also die Wissenschaft erhalten wollen, werden wir um die Bemühung, einander zu verste-hen und miteinander zu kooperieren, nicht herumkommen. Hier setzt die Insti-tutionenpolitik ein, und ich erinnere erneut an Schelsky, der keine philosophische Universalsynthese wollte, sondern „das gegenseitige begriffliche und methodische Verständnis der Disziplinen und die Entwicklung übergreifender theoretischer Konzeptionen“ fördern wollte19.

Aber um das zu erreichen, müssen, und da gehe ich über Schelsky hinaus, nicht nur Institutionen, errichtet werden, es müssen auch mehrsprachige Forscherper-sönlichkeiten gefördert werden, hierfür müssen eigene Programme aufgelegt wer-den, für sie braucht es Entfaltungsmöglichkeiten und meiner Meinung nach auch eigene Lehrstühle.

Der zweite Grund für die Notwendigkeit, Mehrsprachigkeit mit drastisch gestei-gerten Mitteln und neuen Instrumenten zu fördern, liegt in der Veränderung der Welt selbst.

Wenn es stimmt, dass wir im Anthropozän leben – der verstorbene Zoologe und DFG-bzw. Max Planck Chef Hubert Markl sprach, damals noch weitgehend ohne Resonanz, schon 1986 vom Anthropozoikum20 – dann werden wir uns noch viel intensiver um Mehrsprachigkeit in den Wissenschaften bemühen müssen als bis-lang. Jedenfalls dann, wenn wir den Anspruch der Wissenschaft, zu erklären und vorherzusehen aufrechterhalten wollen. Oft stellt man sich ja die Zusammenarbeit von Natur – und Geistes- und Sozialwissenschaften so vor, dass die Naturwissen-schaften die Probleme entdecken, deren Ursachen analysieren und daraus auch die Lösung ableiten, während die Sozial- und Geisteswissenschaften dann ins Boot ge-holt werden, wenn die Lösung der sogenannten Öffentlichkeit vermittelt werden soll.

Eine solche Vorstellung ist aber absurd, wenn auch nur irgendetwas an der Vor-stellung von einem Anthropozän dran ist. Im Anthropozän ist die Geistes- und Sozialwissenschaft nicht erst bei der Erarbeitung von Lösungen gefragt. Vielmehr muss auch die Ursachendiagnose interdisziplinär stattfinden! Und erst daraus kann man dann realistische Lösungsansätze herausbilden. Es gibt doch heute kaum noch eine Tatsache in unserer Biosphäre, die sich rein naturwissenschaftlich erklären lie-ße. Dass es Buckelwale gibt, z. B., ist nicht mehr nur ein Faktum, das sich rein evo-lutionstheoretisch erläutern ließe21. Es gibt sie vielmehr deshalb, weil die ansons-ten sichere Ausrottung durch internationale Abkommen bislang verhindert wurde. Und diese Abkommen kamen zustande, weil sich aufgrund kultureller Prozesse in Europa und Amerika (Kanada, USA) das Bild des Buckelwals vom Monster hin zu einem musikalischen Geschöpf, zu einem human of the sea verändert hat. Hier erklären also kulturelle Phänomene und Prozesse das Vorliegen eines vermeintlich rein naturwissenschaftlichen Faktums. Und dies ist heute keineswegs nur noch eine Ausnahme, denn was von diesen Riesen gilt, gilt auch auf der Ebene der kleinsten Dinge.

Der Klimawandel, der Biodiversitätsschwund, die Austrocknung des Aralsees, die Austrocknung des Urmia-Sees, das Absterben der Korallen im Great Barrier Reef, die Toten Zonen im Golf von Mexiko oder auch moderne Epidemien wie Aids oder Covid-19 haben keineswegs rein natürliche Ursachen. Diese Phänomene des Anthropozäns lassen sich alle nur befriedigend erklären, wenn wir soziale Fakten einbeziehen. Diese sozialen Fakten sind, und das unterscheidet unsere Welt von der Welt vor 300 Jahren, als die moderne Naturwissenschaft entstand, unerlässlich für das kausale Verständnis sehr vieler ökologischer, klimatologischer und selbst geolo-gischer Zusammenhänge. In den Environmental Humanities , aber zuvor auch schon in der sozialökologischen Forschung oder auch in der Politischen Ökologie und in etlichen weiteren Initiativen ist diese Einsicht grundlegend.

Sie ist es umso mehr, wenn man sich klarmacht, dass eine umfassende Ursachen-diagnose Voraussetzung für die Prognose ist. Betrachten wir ganz kurz auch hier ein Beispiel: Wie wird sich der Klimawandel weiter entfalten? Betrachtet man dies allein durch eine naturwissenschaftlich-technische Brille, wird man kaum zu reali-tätsnahen Abschätzungen kommen, vielmehr wird man davon ausgehen, dass sich die Vernunft durchsetzt und die Verbrennung fossiler Energieträger innerhalb we-niger Jahre gestoppt wird, weil es rational ist, die enormen Ausgaben, die der Klima-wandel verursachen wird, zu mindern durch vergleichsweise geringe Ausgaben, die seine effiziente Bekämpfung heute verursacht22.

Wenn man aber neben den naturwissenschaftlich-technischen Realitäten auch politische und sozialwissenschaftliche einbezieht, kommt man vermutlich zu skep-tischeren, wahrscheinlich auch realitätsnäheren Abschätzungen. Es ist nun einmal so, dass es ein internationales politisches System gibt, das anarchisch organisiert ist, nicht hierarchisch wie ein Staat. Es gibt nur eine Welt von Staaten, aber keinen Weltstaat. Und diese Staaten treffen ihre Entscheidungen auf der Grundlage ihrer Geschichte, nicht auf der Grundlage einer ahistorischen Vernunft. Die politischen Vertreter Chinas etwa denken nicht nur: Oh, der Klimawandel ist ein Problem, tun wir also alles dafür, es zu lösen. Man denkt in China auch: Wir lassen nicht erneut zu, dass andere Mächte unsere wirtschaftliche Entwicklung aufhalten. Und zudem sagt man: Das Problem wurde in erster Linie von anderen verursacht, von Groß-britannien, den USA, auch von Deutschland, und das sind die Länder, die uns jetzt daran hindern wollen, uns unsererseits zu entwickeln23. Mit anderen Worten: Der Klimawandel muss vor dem Hintergrund des Postkolonialismus gesehen werden. Diese Einsicht mag unbequem sein, unbequemer als die Annahme einer weltweit gleichen Vernunft, die auf Grundlage bereinigter Fakten das für ‚die Menschheit‘ Beste umsetzt. Aber sie eröffnet auch den Weg zu realistischen Abschätzungen und Strategien.

Wissenschaft verliert ihre Hellsicht und ihre Weitsicht, auch ihre praktische Brauchbarkeit, wenn sie im Umweltbereich auf konsequente Interdiszplinarität ver-zichtet. Sie kann weder ausreichend erklären noch ausreichend vorhersehen, sie kann die Gesellschaft nicht orientieren, wenn sie sich nur auf einzelne Diszipli-nen stützt. Und damit kommen wir auf Lichtenberg zurück. Wer nur naturwissen-schaftlich forscht, kann heute die Natur nicht mehr verstehen. Fördern wir also die Mehrsprachigkeit! Sie wird auch eine neue Lust am Forschen, eine neue Lust am Verstehen und Lernen sein.

294

Facetten natürlicher Intelligenz am Beispiel des Brown Bear/Grizzlybär (Ursus arctos horribilis)

Annette Belke Zusammenfassung

Gegenwärtig ist es nicht möglich, die Intelligenz von Grizzlybären direkt zu messen und mit dem Intelligenzquotienten anderer Säugetiere zu vergleichen, denn ein artübergreifendes Testsystem steht noch aus. Die Reflexion über stra-tegisches und zielgerichtetes Verhalten von Grizzlybären beruht daher auf Be-obachtungen und Anekdoten, wie offenbar auch David Humes grundlegende Annahme, der zufolge Tiere ebenso wie Menschen mit Denken und Vernunft ausgestattet sind.

Im Fokus sind die spezifischen Fähigkeiten des Grizzlybären. Allen voran steht eine Beschreibung seiner neuromuskulären Geschicklichkeit, seiner hochdifferen-zierten Sinne, seines Sozialverhaltens und seines genetisch gesteuerten Verhaltens im Winter. Auch mag sich die Frage erheben: Können Grizzlybären lächeln und lachen?

Der Blick nach vorne richtet sich auf die Zukunft von Arctos Ursus im Anthro-pozän. Obwohl die Grizzlybärpopulationen in Nordamerika rasant zurückgehen, werden diese Bären nach wie vor gejagt – meist aus Prestigegründen, um dem Ego von Leuten wie Donald Trump Jr. bei seinem jüngsten Aufenthalt im kanadischen Yukonterritorium zu schmeicheln.

Grizzlybären sind hochintelligente, soziale Säugetiere. Die Aufzucht ihrer Jun-gen ist äußerst zeitintensiv. Was gibt uns das Recht dazu, sie zu töten? Gemäß den Traditionen der First Nations heißen Bären „Großmutter“ oder „Großvater“ und verdienen Respekt als „die anderen Menschen“.

295

Currently, the intelligence of grizzly bears cannot be measured directly and com-pared with the intelligence quotient of other mammals, as the development of an inter-specific test system is pending. The reflection on the possible strategic and targeted behavior of grizzly bears is therefore based on observations and anecdotes, which seem to have substantiated David Hume’s basic assumption: “Beasts are en-dowed with thought and reason as well as men”.

A sketch of the grizzly’s specific abilities is attempted, describing his neuromus-cular agility, his highly differentiated senses, his social behavior, his genetically con-trolled winter behavior and the question may be posed: can grizzly bears smile and laugh?

The outlook points to the future of Arctos Ursus in the Anthropocene. In the time of rapidly declining grizzly bear populations in North America these bears are still hunted for their prestige value, to assuage the egos of people like Donald Trump Jr. on his recent swing through the Yukon Territory, Canada.

Bears are a highly intelligent, social species, who place great store in rearing their young. What gives us the right to kill them? First nation traditions call them “Grandfather, Grandmother”, and respect them as “the other humans”. 1. Vorannahmen

Wir unterscheiden, definieren und klären: Was ist natürliche und was ist künstliche Intelligenz, von der wir erwarten dürfen, die Ursachen unserer Umweltprobleme zu verstehen und diese Probleme hoffentlich im verzahnten Miteinander beider Intel-ligenzformen lösen zu können.

Genauer betrachtet gibt es keinen Gegensatz zwischen den beiden Intelligenzfor-men, da die eine in der anderen enthalten ist – wenn denn das Natürliche dasjenige ist, das wir benennen können, ohne es schon begriffen haben zu müssen. Wenn wir dementsprechend unter dem Künstlichen dasjenige verstehen, was wir umgekehrt (gestaltend) begreifen können, ohne es schon benannt haben zu müssen, dann zeigt es sich, dass Intelligenz unter je verschiedener Hinsicht natürlich und künstlich zu-gleich sein kann.

296

Unsere „natürliche“ Intelligenz ist auch künstlich, insofern sie kulturell geformt ist; künstliche Intelligenz ist als zunehmend autonomer Teil unserer Umwelt für uns auch natürlich und existiert in einer eigenen Umwelt, in der ihr für sie Natürliches begegnet1.

Der Grizzlybär ist Kanadas Ikone für unberührte Wildnis. Doch auch vor dem Ursus arctos macht das Anthropozän nicht Halt. Diese Spezies gilt selbst im Hohen Norden als endangered species oder species at risk . Das Überleben der Brown Bears ist unter dem zunehmenden Zuzug und Zugriff des Menschen erheblich gefährdet. In einigen kanadischen Provinzen gelten Grizzlybären bereits als extirpated , aus-gerottet, z. B. in Alberta. Der Umgang mit dieser Spezies veranschaulicht die Aus-wirkungen des Anthropozäns und legt die Notwendigkeit nahe, die Ressourcen na-türlicher und künstlicher Intelligenz zu bündeln, um dieser Entwicklung entgegen zu handeln. 2. Komplexität und Intelligenz

Der Grizzlybär ist genetisch, motorisch intelligent und entfaltet Problemlö-sungsstrategien je nach Lebensraum und den damit verbundenen Herausforde-rungen. Im Folgenden betrachten wir die Komplexität des Bären als Beispiel für das Ineinander von natürlicher und künstlicher Intelligenz im oben definierten Sinn. 3. Biologische Nomenklatur

Im Gebrauch ist hier die englischsprachige Unterscheidung, da die von mir ver-wendete Literatur sich auf dieselbe bezieht. Die biologische Art Brown Bear (Ursus arctos) wird unterteilt in zwei Unterarten:a. Kodiak Bear (Ursus arctos middendorffi), auch Alaskan Brown Bear ge-nannt, undb. Grizzly Bear (Ursus arctos horribilis).

Indigene Bewohner, in Kanada allgemein First Nations genannt, verehr(t)en Bären als eine Art Über-Mensch oder zumindest betrachteten sie den Ursus arctos als menschenähnlich2. Sie titulierten Brown Bears häufig ehrfurchtsvoll als „Großvater oder Großmutter“.

In der ersten bekannten schriftlichen Notiz zum Thema Grizzlybären bemerkt der Jäger Henry Kelsey im Jahr 1691, dass die „native Indian tribes“ diese Tiere als Götter verehrten3. Leider sind viele indigene Traditionen nur noch in Fragmenten erhalten oder abgebrochen, da sie ausschließlich mündlich tradiert wurden.

Bären wurden aufgrund ihrer außergewöhnlichen Fähigkeiten respektiert und gleichsam als übernatürliche Verwandte betrachtet. Noch weitgehend intakte Über-lieferungen kanadischer Ureinwohner wie die der Tlingits bezeichnen Grizzlybären als „the other humans“4.

Phil Timpany, Grizzly Bear Guide und Fotograf, nimmt an, dass Bären Menschen als ihresgleichen einstufen, „da wir auf zwei Beinen gehen wie sie es auch zu tun vermögen. […] Bären nehmen den Homo erectus womöglich als eine mit anderen Fähigkeiten begabte Bären-Art wahr“5. Eine wilde Spekulation oder ein Körnchen Wahrheit? 5. Der Körper des Bären 5.1. Gehirnvolumen

Der zerebrale Kortex von Grizzlybären ist stark ausgeformt, verglichen mit dem gesam-ten Gehirnvolumen. 45 % des Gehirns eines Grizzlybären besteht aus dem zerebralen Cortex. Der Kortex ummantelt das Zerebrum, das den größten und komplexesten Teil des Gehirns darstellt. Dieser ist verantwortlich für die Entstehung und Verarbeitung von Sinneswahrnehmungen und steuert die motorischen und assoziativen Funktionen.

Der zerebrale Kortex einer Maus beinhaltet nur 30 % des gesamten Gehirnvolu-mens dieser Nagerart. Bei Schimpansen wurde das Verhältnis Kortex/Gehirnvolu-men auf etwa 55 % festgelegt6.

Das Zerebrum, bestehend aus rechter und linker Gehirnhälfte, bildet den größ-ten Teil des Gehirns. Von dort werden Funktionen gesteuert wie die Interpretation von haptischen Eindrücken, von visuellem und auditivem Input, aber auch Sprach-fähigkeit, schlussfolgerndes Denken, Emotionskontrolle, Lernfähigkeit und Fein-motorik.

Der zerebrale Kortex ist aktiv im Zusammenhang mit Handlungen, die gestal-tungsoffen sind, also einen gewissen Spielraum beinhalten. In diese Kategorie fallen das Erlernen der Muttersprache und von Fremdsprachen und die Art und Weise sich auszudrücken sowie verschiedene andere Funktionen des Gehirns, genannt seien hier stellvertretend Denken und Erinnerungsfähigkeit. Kennzeichnend für den Kortex ist dessen Komplexität und Verbundenheit mit anderen Teilen des Ge-hirns.

Derzeit kann die Intelligenz von Bären noch nicht direkt gemessen und mit dem Intelligenzquotienten anderer Säugetiere verglichen werden. Deshalb basiert die Reflexion über mögliches strategisches und oder zielgerichtetes Verhalten von Bä-ren auf Beobachtungen und Anekdoten.

Viele intelligente Handlungen von Grizzlybären wurden beobachtet und be-schrieben. Beispielsweise entschärften Grizzlybären Fallen und verzehrten an-schließend das in ihnen enthaltene Lockmittel. Wir können annehmen, dass sie die Falle öffneten, um an deren Inhalt zu gelangen oder sie sich nur aus Neugierde da-mit beschäftigt und zufällig den Köder entdeckt haben. Ein weiteres Beispiel: Eine Grizzlybär Mutter grub mit den Vorderpfoten Tritte/Stufen für ihre Jungen in einen für diese schwer zu überwindenden Bergrücken7.

James Capen, alias Grizzly Adams , trainierte gefangene Grizzlies. Mit hohen Worten lobt er seine Schüler: „Grizzly Bear behaviour may be modified and improved to such a degree as to be a wonder“8. Doug Seus, ein Tiertrainer aus Utah, bildete Grizzly- und Kodiakbären als „Filmschauspieler“ aus. Bekannt wurde sein 682 kg schwerer Schüler, Bart, ein Kodiakbär, der die entsprechen-den Posen einzunehmen wusste. Seus: „My Grizzlies and Kodiaks are the hard-est to tame, but the easiest to train, generally you only have to teach them some-thing once.“9 5.2. Physische Fähigkeiten

Grizzlybären sehen behäbig aus, aber auf Kurzstrecken sind sie so schnell wie ein durchschnittliches Pferd. Für etwa zehn Kilometer vermögen sie eine mittlere Geschwindigkeit zu halten. Sie sind also Sprinters und Ausdauerläufer. Grizzly-bären sind exzellente Schwimmer. Ein Grizzlybär ist etwa so stark wie drei bis fünf Menschen, seine Stärke nimmt zu, wenn er oder sie in Rage gerät10. Mit Hilfe seiner starken Kiefern kann der Grizzlybär Knochen und Schädel zermalmen. In Erstaunen versetzt seine Fähigkeit, schnell und leicht Bäume zu erklettern. Auch in schwierigem Gelände ist der Grizzlybär äußerst wendig. 5.3. Neuromuskuläre Beweglichkeit

Studien von Frank und John Craighead an Grizzlybären im Yellowstone National-park11 belegen, dass die Bären ihre Vorderbeine bzw. Arme um die Achse zu drehen vermögen.

Ihre Wendigkeit ist möglicherweise der von Primaten sogar überlegen. Es gibt noch keine vergleichenden Studien. Ein Grizzlybär kann die Krallen einzeln bewe-gen und damit behutsam Tannenzapfen öffnen oder einen gut verschlossenen Müll-eimer öffnen12. Es wurde auch beobachtet, dass ein Grizzlybär einen Pfirsich mit Hilfe einer einzigen Kralle entkernt, die durch die Frucht durchgestochen wird13. Geschicklichkeit entsteht aus angemessenem, zielorientiertem Verhalten und ist da-mit eine sich in und mit der Physis verwirklichende Form von Intelligenz.

Der Grizzlybär besitzt einen hochdifferenzierten Geruchssinn. Die ausgeprägte Na-senhöhle enthält ein komplexes Netzwerk von nasalem Schleim, rund hundertmal so umfangreich wie das eines Menschen. Damit ist die Geruchsempfindlichkeit des Grizzlybären etwa tausendmal so scharf und ausgefeilt wie die eines Menschen. „If we were endowed with the sensory system of a Grizzly for a minute we would faint right away.“14

Grizzlybären riechen z. B. Aas aus einer Entfernung von mehreren Kilometern. Sie informieren sich zudem über einander durch Beriechen von Urinabsatz und Pfotenabdrücken. Ein Grizzlybär entnimmt aus diesen Anzeichen der Präsenz eines anderen Bären, ob es sich um ein Weibchen handelt, einen Rivalen oder ein sub-ordiniertes Männchen. Der Grizzlybär vermag auch aus den obigen Anzeichen den Hormonzustand eines Weibchens zu lesen15.

Grizzlybären haben ein zusätzliches geruchserkennendes Organ, das sogenannte Jacobson-Organ. Mit dessen Hilfe decodiert der Grizzlybär Gerüche, die in Zusam-menhang mit Feuchtigkeit entstehen. Das Organ sitzt am Gaumen. Es wird in der innerartlichen Kommunikation eingesetzt, um zu riechen, ob ein anderer männ-licher Grizzlybär überlegen und daher zu vermeiden ist oder ob ein Grizzlybär-Weibchen paarungsbereit ist.

Der Sehsinn des Grizzlybären entspricht nach derzeitigem Wissensstand unge-fähr dem des Menschen. Grizzlybären wurden oft dabei beobachtet, wie sie auf ent-fernte Stimuli reagierten. Ihr Gesichtsfeld und ihre Farbwahrnehmung scheint je-weils dem menschlichen Gegenstück gleichzukommen. Um noch genauer sehen zu können, stellt sich der Grizzlybär auf die Hinterbeine, was oft als aggressive Geste missverstanden wird. Zusätzliches Gewebe hinter den Augäpfeln wirft Licht zurück zur Retina. Bei Dämmerung oder in der Nacht wird so die Sehkraft verstärkt. Die Fähigkeit des Grizzlybären, bei Dunkelheit zu sehen, ist der des Menschen über-legen.

Die Ohren sind zwar klein im Verhältnis zum Körper, Experimente ergaben je-doch, dass der auditive Sinn des Grizzlybären etwa dem des Menschen entspricht16.

Tastsinn: Bei so viel Muskelkraft erstaunen die feinmotorischen Möglichkeiten des Grizzlybären, die bereits erwähnt worden sind

Es gibt derzeit noch keine wissenschaftlich eruierten Informationen zum Thema Geschmackssinn des Grizzlybären. 5.5. Körperimmanente Vorgänge biologischer Intelligenz

Entgegen allgemeiner Auffassung treten Bären keinen Winterschlaf an. Der Zu-stand ihres Körpers bei kalten Temperaturen wird von Seiten der Biologie als eine Form von Torpor oder Erstarrung eingeordnet.

Torpor is a survival tactic used by animals to survive the winter months. It also involves a lower body temperature, breathing rate, heart rate, and metabolic rate“17. Aber anders als der Winterschlaf scheint der Torpor, im Deutschen mit „Winter-ruhe“ übersetzt, ein unfreiwilliger Zustand zu sein, der diktiert von den klimati-schen Bedingungen die Grizzlybären überkommt. „But unlike hibernation, torpor appears to be an involuntary state that an animal enters into as the conditions dictate“18.

In der Zeit der Winterruhe fällt die Körpertemperatur der Grizzlybären auf etwa 30 bis 35 °C. Die Herzfrequenz der Bären verlangsamt sich auf 8 bis 9 Schläge in der Minute. Säugetiere, die in den Winterschlaf verfallen, haben jedoch eine wesentlich tiefere Herzfrequenz. Während der Winterruhe wachen Bären immer wieder auf, strecken oder bewegen sich.

Drastisch verwandeln sich in dieser Zeit ihre Körpergrundfunktionen. Bis zum Frühjahrsbeginn werden sie weder urinieren noch defäkieren. Die abzustoßenden Feststoffe verwandeln sich in einen Pfropfen, der im Frühjahr abgesondert wird. Was besonders erstaunlich ist: Der Bärenkörper verwandelt Harnstoffe in Protein. Nierenspezialisten versuchen derzeit diese Vorgänge medizinisch zu erklären. Soll-te dies gelingen, ergeben sich neue Behandlungsmöglichkeiten für Menschen mit Nierenproblemen.

Wären Bären nicht dazu in der Lage, während der Winterruhe Harnstoffe in Protein zu verwandeln, würden diese bald ihren Körper von innen vergiften. Die außerordentliche Fähigkeit, Harn in Protein zu verwandeln, erklärt auch, warum Bären während der langen Zeit der Inaktivität keine Muskeln abbauen19.

Ein weiteres „Wunder“ ereignet sich während des Winterschlafs. Gegen Ende Ja-nuar bis Ende Februar werden die Jungen geboren. Da die Mutter sich während dieses Vorgangs noch in Winterruhe befindet, müssen die Kleinen, die nicht größer sind als Eichhörnchen, selbst herausfinden wie sie zu den Zitzen der Mutter ge-langen und diese dazu animieren, Milch abzugeben. Die blind geborenen Jungen sind in der Regel einige Wochen auf sich gestellt, bis zum Frühjahrserwachen ihrer Mutter. Was wie ein gemütlicher, langer Schlaf erscheint, ist tatsächlich eine geniale Form der Überbrückung von härtesten Wetterbedingungen und der damit verbun-denen Nahrungsknappheit20. 6. Soziale Intelligenz 6.1. Hierarchiebildung und vokales Ausdrucksverhalten

Die soziale Intelligenz dieser Bären zeigt sich schon daran, dass sie Hierarchien bil-den, etwa wenn sie sich an ertragreichen Futterplätzen treffen entwickelt sich eine soziale Hierarchie. „The bears know and remember each other as individuals, and have memories that span many years“21.

Zudem kommunizieren Grizzlybären miteinander unter Einsatz unterschiedli-cher Laute und unter Verwendung einer differenzierten Körpersprache. Sie verfü-gen über eine Varianz von Lauten, die sie in der sozialen Interaktion einsetzen, wie z. B.: „Grunts of contentment, purring sounds, noises of distress like screaming, blo-wing sounds, grunting, barks, moaning, woofing sounds, loud agitated huffing“22.

Klare Geruchsnachrichten hinterlassen sie an den Kratz-Bäumen ( scratching posts ) und via Baum-Markierungen ( tree marks ). Der diese verursachende Grizzly-bär berichtet so über seine Stärke und seinen Gesundheitszustand. 6.2. Interaktion

Die soziale Interaktion zwischen Erwachsenen und Jungbären ist sehr ausge-feilt. „As highly evolved social animals, bears form hierarchies and have struc-tured relationships with each other, sometimes even sharing resources.“23 Das klassische Bild des Grizzlybären und des Eisbären ist das eines einsamen Wan-derers, der nur in der Paarungszeit Zweisamkeit sucht bzw. in der Familien-phase beschränkt auf Mutter und Kinder soziale Bindungen pflegt. „In fact, the polar bear, typically thought of as solitary, actually lives within a community of other polar bears and never loses track of other members.“24 Lange andauernde Bindung bis ins dritte Lebensjahr der Jungbären ist Voraussetzung für deren Überlebensfähigkeit25. 6.3. Beispiele altruistischen Verhaltens

Mehrfach wurde beobachtet, dass verwaiste Junge von fremden Bärinnen adoptiert wurden. Bekannt und bestätigt ist ebenfalls, dass verletzte Grizzlybären von Art-genossen umsorgt werden26.

Grizzlybären leben häufig miteinander in kleinen zusammengesetzten Grup-pen. Vor diesem Hintergrund erklärt sich, dass Bären durchaus fähig sind, so-ziales Verhalten zu zeigen. „Some quite sociable behaviour has been noted on occasion“27. 6.4. Komplexes Paarungsverhalten

Das Werbungs- und Paarungsverhalten von Grizzlybären ist vielgestaltig und krea-tiv. Ihre „Courtship“ weist Elemente auf wie Arm umlegen und lang andauerndes Küssen28. 7. Intelligente Gewohnheiten und Verhaltensweisen

Das Kodiak Bear Center Alaska siedelt die Intelligenz dieser Bären zwischen der eines hochintelligenten Hundes und der eines durchschnittlichen Primaten an. Wie beim Menschen variiert der Intelligenzgrad je nach Individuum. Ebenso be-sitzt jeder Bär eine eigene Persönlichkeit, abhängig von seinen Lebenserfahrungen und seinem genetischen Erbe. Als „opportunistic omnivore“ sind Bären dazu in der Lage, jede Art von Nahrung zu sich zu nehmen. Diese Voraussetzungen befähigen sie zu elaboriertem und komplexen Problemlösungsverhalten29.

Die Gewohnheiten und Verhaltensweisen der Bären verweisen auf ihre Intel-ligenz. Sie erinnern sich an unterschiedliche Futterplätze. Sie merken sich wann, welche Früchte oder Beeren reif und wo diese jeweils zu finden sind. Ein Grizzlybär kann sich an Futterplätze erinnern, die er vor zehn Jahren oder früher zum letzten Mal aufgesucht hat. Bären erinnern sich an andere Bären und können deren sozia-len Status aus einer Distanz von 600 m Entfernung erkennen30.

98 % des ursprünglichen Grizzlybär-Habitats ist unter menschlicher Kontrolle. Die Bären suchen deshalb zwangsläufig in unserem näheren und/oder weiterem Umfeld nach Essbarem. Oft bleibt ihnen angesichts der Futterknappheit keine an-dere Wahl. Aufgrund von Überfischung und dem anthropogen verstärkten Klima-wandel geht die Lachswanderung drastisch zurück. Extreme Winter und Sommer Trockenheit lassen ihre natürliche Kost – die Kanadische Büffelbeere, Blaubeeren, Moosbeeren, Moltebeeren  – nicht mehr reifen. Sogenannte Bear attractants wie Bienenstöcke, Hühner Häuser mit Ausläufen, usw. werden meist nicht mit elektri-schen Zäunen gesichert.

Bären versuchen kreativ, an diese Ressourcen zu gelangen. Es gelingt ihnen, Mülleimer, Haus- und Autotüren zu öffnen. Abfälle von Campern veranlassen Grizzlybären dazu, auf variantenreiche Art und Weise Müll-Container in Natio-nalparks zu öffnen. Bei dem Versuch, an das begehrte Gut zu gelangen, testen sie die jeweils neue Generation der so genannten Bear Proof Container . Neue Modelle werden mit Hilfe von Grizzlybären in Gefangenschaft auf ihre Tauglichkeit unter-sucht31. 8. Selbstgewahrsein

Was ein natürliches Wesen von einem Roboter unterscheidet, ist u. a. eine gewisse Form von Selbstwahrnehmung. Grizzlybären-Jäger William Wright bemerkte in seinem Buch The Grizzly Bear: The Narrative of a Hunter-Naturalist (1909), er habe erlebt und beobachtet, dass Grizzlybären sehr geschickt darin seien, ihn zu vermei-den: „In the beginning, I studied the grizzly bear in order to hunt him. I came to hunt him in order to study him. I laid aside my rifle.“32

1977 fasste der Grizzlybär-Forscher Frank Craighead im Vorwort zur überar-beiteten Neuausgabe von Wrights Werk dessen Grizzly-Beobachtungen grund-legend zusammen. Wrights Kommentare berichten durchgehend von der Durch-triebenheit ( cunning ) und Bauernschläue ( shrewdness ) des Grizzlybären. Sicher handelt es sich um Anthropomorphismen, die allerdings auf die Komplexität des Grizzlybären hinweisen33. Wrights Berichte, in denen er gerne den Begriff self-concealment benutzt, decken sich mit den Beobachtungen neuer Grizzlybär-Forscher, die übereinstimmend behaupten, die Tiere seien dazu in der Lage, sich zu verstecken.

Lance Olsen34, University Montana, zitiert in seinem Artikel „Cognitive Com-plexity of the Grizzly Bear“ einen weiteren frühen Naturforscher: Enos Abija Mills. Dieser schrieb 1919 in The Grizzly, our greatest wild animal , dass Grizzlybären sich verstecken und ihre Verfolger im Auge behalten. „All Grizzlies are Scouts of the first order; they are ever on guard.“35 Olsen beschreibt, dass die Bären dazu in der Lage seien, Verstecke zu finden, die es ihnen ermöglichten, ihre Umgebung zu beobach-ten, ohne dabei selbst gesehen zu werden.

Olsen kommt zu dem Schluss, dass Grizzlybären über eine Art von Selbstbe-wusstsein verfügen, da er annimmt, dass dies eine Voraussetzung dafür ist, sich erfolgreich verstecken zu können. Es mag anthropomorph klingen, den Bären zu unterstellen, dass sie absichtlich – wie oft berichtet – menschliche Verfolger in die Irre führen, sie von Wegen abbringen und deren Orientierungssinn verwirren. Aber vorab anzunehmen, sie seien nicht dazu in der Lage, könnte auf Anthropozentris-mus hinweisen. 9. Und sie lächeln?

Dieses Kapitel greift zurück auf Gedanken neuzeitlicher Philosophie und tastet sich heran an mögliche kognitive Forschungsprojekte der Biologie, spezifisch an Grizz-lybären. René Descartes lange unumstrittene Behauptung, Tiere besäßen keine In-telligenz, sondern nur Instinkt, ist längst widerlegt36. Descartes spricht aufgrund seines mechanistischen Ansatzes37 unseren tierischen Verwandten darüber hinaus sogar jegliche Empfindung ab. Unterscheidendes Merkmal von Menschen und Tie-ren ist für den französischen Philosophen, dass Tiere keine mens (Englisch: mind ) besitzen, hier wohl am besten mit Vernunft zu übersetzen, und damit auch keine Sprache. „In other words, hitting a dog with a stick, for example, is a kind of input and the squeal that follows would be merely output, but the dog did not feel any-thing at all and could not feel pain unless it was endowed with a mind“38.

Im Verständnis der Tiere folgen wir heute weitgehend dem Empiriker David Hume: „No truth appears to me more evident than that beasts are endowed with thought and reason as well as men.“39 Die Frage, ob Tiere leiden und Schmerzen empfinden, die der Philosoph Jeremy Bentham mit einem eindeutigen „Ja“ beant-wortete, bildet den philosophischen Hintergrund der Überlegung, ob Tiere sich zu freuen vermögen. „The question is not, Can they reason?, nor Can they talk? but, Can they suffer? Why should the law refuse its protection to any sensitive being?“40

Wenn wir anerkennen, dass Tiere die Fähigkeit besitzen, Leid und Freude vielgestal-tig zu erleben, erfolgt eine weitere Frage: Sind Tiere in der Lage zu lächeln? Schmerz-ausdruck ist uns von vielen Säugetieren bekannt, während das Phänomen des Lächelns als Ausdruck der Freude eine delikate Frage westlicher Philosophie berührt. Sind das Lachen und seine milde Ausdrucksform, das Lächeln, nicht nur dem Menschen vor-behalten41? Davon überzeugt ist jedenfalls bereits Aristoteles. Von seinen Schriften aus-gehend tanzt diese Auffassung durch das Mittelalter bis in die frühe Neuzeit.

Eine massive Gegenstimme findet sich endlich bei Charles Darwin: „A pleasur-able and excited state of mind, associated with affection, is exhibited by some dogs in a very peculiar manner; namely by grinning.“42 Die Hundeforscherin Fedder-sen-Petersen führte Langzeit-Studien mit Hunden durch, die genau dieses Ergeb-nis belegen. Hunde sind in der Lage zu lächeln; rassebedingt mehr oder weniger sichtbar, je nach den vorhandenen mimischen Fähigkeiten kann sich entspannte Freude im Gesicht von Hunden zeigen. Die Biologin unterscheidet zwischen zwei Typen des „Lächelns“, „eine Form tritt nur bei Hunden im submissiven Kontext so-wie zur Kontaktaufnahme mit dem Menschen auf, die andere als sehr entspannter Ausdruck im Sozialspiel“.43

Lächeln ist beim Menschen genetisch angelegt44. Bei Erwachsenen steht die Fä-higkeit im Zusammenhang von sozialer Zuwendung, verweist aber auch auf Selbst-reflexion und innwendige Kommunikation mit vorgestellten Partnern oder Part-nerinnen.

Wenn wir die oben erwähnten Beobachtungen und Ergebnisse der Hundefor-schung auf die Erforschung der Innen- und Außenwelt von Grizzlybären über-tragen, stoßen wir auf die emphatischen Worte der Forscherin Poulsen, die deren Nachruf in National Geographic überliefert:

Die Emotionen, die Bären körpersprachlich zeigen, beziehen sich auf das, was in ih-rer Bären-Welt zählt. Beispielsweise mag ein Grizzlybär in Montana lächeln, wenn er einen Berggipfel erreicht und dort Tausende für ihn essbare Larven findet. Für uns höchstens ein Grund dazu, angeekelt wegzusehen.

In gleicher Weise argumentiert Alexandra Horowitz in Bezug auf Hunde und Säuge-tiere allgemein. Sie haben unleugbar Gefühle, aber wir seien nicht in der Lage, de-ren Andersartigkeit und Komplexität zu beschreiben. Die Hundeforscherin, Senior Research Fellow und Head of the Dog Cognition Lab at Barnard College, Columbia University postuliert: Wenn sich unser Bewusstsein für kurze Zeit im Körper eines Hundes wiederfände, könnte es nicht die hundlichen Empfindungen und Gefühle in Beziehung setzen zu unseren menschlichen. Das Erfahrene sei zu verschieden. Der entscheidende Kernsatz folgt: „But that there are feelings I’ve no doubt.“47 „As a scientist, I don’t yet see a way to definitively test another animal’s emotional ex-perience.“48

Was sie aber unter Laborbedingungen zu prüfen vermag, so Horowitz, ist, ob ein bestimmtes tierisches Verhalten, das uns Anlass gibt, es mit einem Attribut ver-sehen (freudig, traurig …) zu wollen, mehr oder weniger in ähnlichen Kontexten auftritt49.

Es ist anzunehmen, dass dies in gleicher Weise auf Grizzlybären zutrifft. 10. Sinn für Ästhetik

Grizzlybären suchen häufig erhöhte Plätze auf, wie Felsen, Berggipfel, und blicken von dort stundenlang entspannt in die Landschaft. Handelte es sich um einen Men-schen, hätten wir keine Mühe, diesen oder einen ähnlichen Satz abzuleiten: Er/sie geht auf im Erleben von Schönheit und besitzt daher möglicherweise Sinn für Äs-thetik.

Obwohl Grizzlybären hochintelligent und anpassungsfähig sind, erfahren sie oft ein grausames Schicksal aus unserer Hand. Viele Bären werden unnötig gefangen und erschossen. Die Gründe sind Angst und Nachlässigkeit. Sogenannte „Problem-Bä-ren“, die im Hausmüll wühlen oder Gärten oder Höfe durchschnüffeln, sind nur dann ein Ärgernis, wenn Menschen die in Bear Country nötigen Vorsichtsmaß-nahmen nicht treffen. Beispielsweise: Abfälle sind möglichst geruchsdicht in Ga-rage oder Nebengebäuden aufbewahren; Hühnerställe und Bienenstöcke sind mit Elektrozäunen abzusichern; Hundefutter soll nicht in Hof und Garten aufbewahrt werden.

Da Menschen mehr und mehr Gebiete besiedeln, die traditionell Bären-Territo-rium sind, kommt es unweigerlich zu Begegnungen und Auseinandersetzungen. So intelligent Bären auch sind, wir Menschen (zu mindestens einige von uns) vermögen in größeren Zusammenhängen zu denken und weitreichende ethische Entscheidun-gen zu treffen. Koexistenz mit Bären ist möglich und wurde erfolgreich Jahrhunderte lang von indigenen Völkern praktiziert. Die Lernfähigkeit von Bären lässt auch von deren Seite Anpassungen erwarten. Bringen wir ihre Intelligenz mit einem Zitat auf den Punkt: Grizzlybär-Biologe Rob Wielgus, Alberta, behauptet: „The average grizzly bear is always smarter than your average grizzly bear researcher.“52 Literatur

312

Verzeichnis der Autorinnen und Autoren

Dr. Annette Belke, Grizzly Bear Protection Yukon. Forschungsschwerpunkt: Pra-xis und Spiritualität des Tierschutzes. Veröffentlichung: Lama Anagarika Govinda. Wegbereiter eines „schöpferischen“ Buddhismus im Westen und Begründer des Ordens Arya Matreya Mandala , Diss. Universität Wien 1995.

Prof. Dr. Dietrich Dörner, Otto-Friedrich-Universität Bamberg. Forschungs-schwerpunkt: systemtheoretische Modellierung von Denken als Problemlösen. Wichtige Publikationen: Die Logik des Mißlingens. Strategisches Denken in komple- xen Situationen, Reinbek bei Hamburg 1989 (122003); Bauplan für eine Seele , ebd. 2001; Die Mechanik des Seelenwagens , Bern 2002.

Dr. Marion Friedrich, Universität Augsburg. Forschungsschwerpunkt: interdiszi-plinäre Ansätze in der Neurophysiologie, Psychologie und Gehirnforschung. Wich-tige Publikationen: Die künstliche Evolution der Cyborgs. Erkenntnistheoretische As- pekte der Bioinformatik , Marburg 2003; Vom Neuron zum Qubit. Auf den Spuren des Bewusstseins , Marburg 2008; Wenn Worte nicht mehr reichen: Mit neuroaffek-tivem Psychodrama von der posttraumatischen Belastung zur posttraumatischen Heilung, in: Freie Psychotherapie , H. 2 (2021) [https://www.vfp.de/magazine/freie-psychotherapie/alle-ausgaben/heft-02-2021/wenn-worte-nicht-mehr-reichen-mit-neuroaffektivem-psychodrama-von-der-posttraumatischen-belastung-zur-posttraumatischen-heilung, Zugriff: 11.5.2021].

Dr. Thomas Heichele, Universität Augsburg. Forschungsschwerpunkt: Zusam-menhang von Technikphilosophie, Wissenschaftstheorie, Naturphilosophie und Künstlicher Intelligenz. Wichtige Veröffentlichungen: Die erkenntnistheoretische Rolle der Technik bei Leonardo da Vinci und Galileo Galilei im ideengeschichtlichen Kontext , Münster 2016; Geist-Erfahrung im Wirken Leonardo da Vincis. Der be-sondere Akt des Zeichnens als zentrales Erkenntnisinstrument, in: Manfred Nege-

313

le/Jan Levin Propach, Hg., Geist-Erfahrung. Ein Beitrag zu einem Erfahrungsbegriff für die Geisteswissenschaften , Würzburg 2019, S. 177–192; als Hg.: Mensch-Natur- Technik. Philosophie für das Anthropozän , Münster 2020.

Prof. Dr. Sean J. McGrath, Memorial University of Newfoundland und For a New Earth. Forschungs- und Arbeitsschwerpunkt: Umweltphilosophie vor dem philo-sophiegeschichtlichen und systematischen Hintergrund des Deutschen Idealismus und der neueren Entwicklungen der Phänomenologie; ökologische Konversion. Wichtige Publikationen: Heidegger – a (Very) Critical Introduction , Grand Rapids, MI, 2008; The Dark Ground of Spirit. Schelling and the Unconscious , London 2021; Thinking Nature. An Essay in Negative Ecology , Edinburg 2019.

Prof. Dr. Michael J. Meitner, University of British Columbia. Forschungsschwer-punkt: Ästhetische und ökologische Aspekte der Naturwahrnehmung. Wichtige Veröffentlichungen, jeweils als Co-Autor: People’s knowledge and risk perceptions of invasive plants in Metro Vancouver, British Columbia, Vancouver, in: Environ- mental Management 66 (2020), S. 985–996; Characteristics of urban green spaces in relation to aesthetic preference and stress recovery, in: Urban Forestry & Urban Gar- dening  41 (2019), S. 6–13; Urban Woodland Understory Characteristic in Relation to Aesthetic and Recreational Preference, in: Urban Forestry & Urban Gardening 24 (2017), S. 55–61.

Prof. Dr. Uwe Meixner, Universität Augsburg. Forschungsschwerpunkt: Meta-physik des Bewusstseins als der Stätte vernünftiger Erkenntnis und freier Ent-scheidung. Wichtige Veröffentlichungen: The Two Sides of Being. A Reassessment of Psycho-Physical Dualism , Paderborn 2004; Defending Husserl. A Plea in the Case of Wittgenstein & Company Versus Phenomenology , Berlin–Boston 2014; Liebe und Negativität , Münster 2017; Metaphysik ohne Vorurteile , Darmstadt 2021.

Dr. Joachim Rathmann, Universität Augsburg. Forschungsschwerpunkt: Öko-systemleistungen, Mensch-Umweltbeziehungen, Therapeutische Landschaften. Wichtige Publikationen: Von der Naturkunde zur Umweltugendethik: Ein mögli-cher Weg zur Überwindung der Diskrepanz von Umweltwissen und Umwelthan-deln?, in: Comenius-Jahrbuch 28 (2020) S.  97–120, Therapeutische Landschaften. Landschaft und Gesundheit in interdisziplinärer Perspektive. Wiesbaden 2020; mit

314

Co-Autoren: Using the visitoremployed photography method to analyse deadwood perceptions of forest visitors: a case study from Bavarian Forest National Park, Ger-many, in: European Journal of Forest Research (2020).

Dr. Sebastian Rosengrün, CODE University of Applied Sciences Berlin. For-schungsschwerpunkt: Künstliche Intelligenz und Philosophie digitaler Technik. Wichtige Veröffentlichungen: Kripkes Metaphysik Möglicher Welten , Berlin 2019 (als Sebastian Krebs); Künstliche Intelligenz zur Einführung , Hamburg 2021.

PD Dr. Jens Soentgen, Universität Augsburg. Forschungsschwerpunkt: Phänome-nologie der stofflichen Umwelt. Wichtige Veröffentlichungen: Das Unscheinbare. Phänomenologische Beschreibungen von Stoffen, Dingen und fraktalen Gebilden , Ber-lin 1997; Ökologie der Angst, Berlin 2018; Konfliktstoffe. Über Kohlendioxid, Heroin und andere strittige Substanzen , München 2019.

PD. Dr. Stefanie Voigt, Universität Augsburg. Forschungsschwerpunkt: Inter-disziplinäre Ästhetiktheorie und ihre Anwendungen. Wichtige Publikationen: Das Geheimnis des Schönen. Über menschliche Kunst und künstliche Menschen oder: Wie Bewusstsein entsteht. Mit einem Vorwort von Dietrich Dörner , Münster 2005; Erha- benheit. Über ein großes Gefühl und seine Opfer , Würzburg 2011; Angewandte Ästhe- tik für Einsteiger. Über Smart Humanities und den neuen (oder alten) Anspruch an die Führung der Industrie von morgen , Deggendorf 2021.

Prof. Dr. Uwe Voigt, Universität Augsburg. Forschungsschwerpunkt: Philosophie der geistigen Umwelt im Anthropozän. Wichtige Publikationen: Wie ist es, ein Mi-krosubjekt zu sein?, in: Manfred Negele/Jan Levin Propach, Hg., Geist-Erfahrung. Ein Beitrag zu einem Erfahrungsbegriff für die Geisteswissenschaften , Würzburg 2019, S. 61–78; Wissen um Atmosphären – Bildung für das Anthropozän?, in: Co- menius-Jahrbuch 28 (2020), S. 13–32; Das Anthropozän als geistige Umweltkrise, in: Thomas Heichele, Hg., Mensch-Natur-Technik. Philosophie für das Anthropozän , Münster 2020, S. 85–102.

315

316

Personenregister