OATbyCO


: Zur Philosophie informeller Technisierung

Zur Philosophie informeller Technisierung

Inhalt

Einleitung...................................................................................................................7 Alfred Nordmann Sanfte Technik Vom Mythos der Maschine zum Mythos nicht-maschineller Maschinen...................21 Christoph Hubig, Sebastian Harrach Transklassische Technik und Autonomie....................................................................41 Andreas Kaminski Lernende Maschinen: naturalisiert, transklassisch, nichttrivial? Ein Analysemodell ihrer informellen Wirkungsweise ................................................58 Sonja Palfner Technik als Denkstil? E-Infrastrukturen in der Wissenschaft.........................................................................82 Paul Gebelein Technisierter Raum Die Praktik Geocaching...............................................................................................101 Franz Bockrath Informelle Technisierungsstrategien im Hochleistungssport Von der Anpassung des Körpers zur Universalisierung des Leistungsvergleichs ......115 Maxine Saborowski Technisierung im Familienrecht Über die Geschichte der Abstammungsbegutachtung in Deutschland .......................135 Petra Gehring Technisiertes Abschiednehmen Sterbephasen, Sterbebegleitung, Trauerarbeit.............................................................155 Andreas Kaminski Maßstäbe der Macht Psychometrische Prüfungen als Techniken.................................................................171

7

6Inhaltsverzeichnis Andreas Gelhard Entgrenzung der Psychotechnik

Der neue Geist des Kapitalismusund das Problem der Prüfungstechniken ...............185 Autorenverzeichnis...................................................................................................204

8

Einleitung Andreas Kaminski Die Rede von einer informellen Technisierung scheint auf den ersten Blick eine contradictio in adiecto zu formulieren. Soziales Verhalten, insbesondere Kommunikation, maginformell sein; aber die Idee der Technik ist so sehr mit dem Gedanken der prägnantenForm verbunden, dass es den Anschein haben mag, man behaupte damit so etwas wieeinen eckigen Kreis und rede also höchst widersprüchlich. Dass Technik informell seinkann und was dies heißt, ist Thema dieses Bandes. In welcher Weise lässt sich also von informellerTechnik reden? In einem ersten Vorgriff lässt sich sagen: Diese Rede bezeichnet einen Modus des Verhältnisses zu Technik. Wenn das Verhältnis zu Technik ineinem noch zu erläuternden Sinne unmerklich wird, ist Technik informell. Es wärehilfreich, könnte man einfach einige informelle Techniken nennen. Aber wie noch zusehen sein wird, handelt es sich nicht um einen Gattungsbegriff in dem Sinne, dass eseinerseits formelle oder klassische Techniken und andererseits informelle Technikengibt. Technik kann in bestimmter Hinsicht formbestimmt und in anderer Hinsicht zugleich informell sein. Die Spannbreite von Techniken, die in dem hier zu entwickelndenSinne als informell verstanden werden, reicht dabei von psychologischen Prüfungstechniken bis zu lernenden informationstechnischen Maschinen. Sie übergreift also Bereiche, die intuitiv auseinander gehalten werden. Um zu sehen, dass Technik informell seinkann und was dies heißt, bedarf es einiger vorbereitender Schritte. 1. Technik als Form

Hilfreich ist es, sich zunächst mit klassischen Maschinenbegriffen zu befassen, welcheTechnik über ihre Form bestimmen. Zentral ist hierbei die Klarheit und Eindeutigkeitder Regel. Technik operiert regelbestimmt: Ein Input wird nach einer festgelegtenTransformationsregel in einen Output verwandelt, eine Aktion löst nach einer definierten Regel einen Effekt aus. Auf dieser Grundlage basieren Werkzeug, Maschine undSystem, auch wenn die Sicherung der Regelhaftigkeit zunehmend zum Problem wird.Darin stimmen Mechanismus und Algorithmus überein (Heintz 1993; Krämer 1988).

9

8Andreas Kaminski

Vorzüge von Technik wie Verlässlichkeit und Erwartbarkeit gehen darauf zurück (Kaminski 2010). Und dass naturwissenschaftliche Entdeckungen zu technischen Anwendungen führen können und Technik, etwa im Experiment, bei der Erkenntnis von Naturzusammenhängen eine zentrale Rolle spielt, hat seinen Grund in dieser Gemeinsamkeit. Natürliche Regelmäßigkeiten werden zu technischen Regelhaftigkeiten, indem ihrVollzug gesichert wird (Hubig 2006).

Die Technikbegriffe des Kybernetikers Heinz von Foerster sowie des Systemtheoretikers Niklas Luhmann arbeiten diesen Gedanken aus, an ihnen lässt sich die Formhaftigkeit von Technik erläutern. Foerster geht davon aus, dass Technisierung in einerTrivialisierung besteht. Technische Apparate sind triviale Maschinen, sofern sie vierMerkmale aufweisen: Der Zusammenhang zwischen In- und Output ist definiert, also(1) „synthetisch determiniert“; das heißt: er weist eine Regel auf. Dieser regelhafteZusammenhang ist für Personen nachvollziehbar, das heißt, (2) er ist „analytisch determinierbar“. Weil er synthetisch determiniert ist, ist er (3) „vergangenheitsunabhängig“:Gleichgültig wie häufig ein Input erfolgte, es erfolgt auch jetzt, sofern die Maschinenicht defekt ist, der entsprechende und durch die Transformationsregel festgelegteOutput. Aus diesen Gründen ist die triviale Maschine (4) in ihren Effekten „prognostizierbar“ (Foerster 1993a, 1993b, 1995).

Offensichtlich ist eine solche Maschinedeshalb trivial, weil sie eine Transformationsregel aufweist und diese klar erkennbar ist. Entsprechend sind für Foerster Maschinen nichttrivial, wenn sich ihre Transformationsregel verändert und deren Wandelnicht nachvollzogen werden kann.

Wo Foerster Technisierung als Trivialisierung darstellt, fasst sie Luhmann als funktionierende Simplifikation (Luhmann 1998: 517–535). Diese beruht auf den rigidenKopplungen der Elemente, seien diese materiell oder etwa organisatorisch. Die rigidenKopplungen stellen Regeln dar (immer dann, wenn…). Durch die rigiden Kopplungenentsteht eine Komplexitätsreduktion innerhalb der Black-Box, die gegen die komplexere Umwelt abgesichert werden muss. Technisierung stellt für Luhmann daher die Konstitution und Stabilisierung einer Grenze zwischen einem simplifizierten Innenbereichund dem komplexeren Außen dar. Daher ist Technik für Luhmann nicht einfach demInneren der Black-Box gleichzusetzen, sofern es dieses nur gibt, indem es eine artifizielle Grenze gibt. In den zunehmend komplexeren Hochtechnologien werden dann 1 Daher gibt es technische und naturwissenschaftliche Modelle. Vgl. Bailer-Jones 2005. Transformationsregel R Input x y Output Abb. 1: Technik als Form

10

Einleitung9

Abb. 2: Unmerklichkeit durch Miniaturisierung jedoch, wie Luhmann erläutert, die Simplifikation und die Aufrechterhaltung der Grenze zum Problem (Luhmann 1991: Kap. 5).

Technik kommt in diesem Verständnis eine Formbestimmtheit zu, sofern ihre Regelmäßigkeit in ihren Vollzügen prägnant wird. Sie ist abgrenzbar gegenüber ihremKontext, ihre Wirkungen und ihre Wirkungsweise sind identifizier-, prognostizier- undnachvollziehbar. Die nötige Sicherung dieser Leistung führt außerdem dazu, dass technische Artefakte in der Regel leicht erkennbar sind. Sie haben eine prägnant wahrnehmbare Gestalt, die sich unter anderem dieser Sicherung verdankt; das Containment als(materielle) Grenzsicherung sorgt dafür. 2. Informelle Technisierung: erste Annäherung

Von dieser Vorstellung ausgehend lässt sich erläutern, inwiefern Technik informell seinkann. Die Begründung erfolgt in mehreren Schritten, erst mit dem letzten lässt sich invollem Sinne von informeller Technik sprechen. Jedoch bauen nicht alle Schritte aufeinander auf, sondern sind zum Teil voneinander unabhängig:

1.Miniaturisierung: Auf der ersten Stufe ist hierbei an die zunehmende Miniaturisierung von Technik und ihre unauffällige Integration in andere Dinge zu denken. Dieprägnante räumliche Präsenz von Technik verschwindet dabei. Insbesondere die

Miniaturisierung in der Informationstechnik unter den Programmtiteln Ambient Intelligence oder Ubiquitous Computing weist bedeutende Fortschritte auf:

In Teppiche werden etwa Drucksensoren

(zur Überwachung) eingearbeitet, umfestzustellen, ob jemand gefallen ist und Hilfe braucht, oder um festzustellen, ob sicheine Person unberechtigt Zugang zu einem Raum verschafft hat. Die Beispiele für einesolche Miniaturisierung und Integration ließen sich leicht vervielfachen: Tassen in Seniorenwohnheimen, welche die tägliche Trinkgewohnheit der Bewohner registrieren;Umkleidekabinen, welche die anprobierten Kleider erfassen, um passende Kombinationen zu bewerben etc.

In diesen Fällen handelt es sich scheinbar um ganz normale Gegenstände, die aberinformationstechnologisch angereichert werden, wobei diese Anreicherung auf den 2 Zur Bedeutung des mehrstufigen Sicherungskonzepts, in dem die Abschottung nur die erste Strate- gie darstellt und welches es allererst gestattet, Technik von natürlichen und damit bloß zufällig vorfind- Transformationsregel R Input x y Output

11

10Andreas Kaminskiersten Blick nicht erkennbar ist. Man sieht keinen Computer oder dergleichen, sonderneinen Teppich, eine Tasse, ein Hemd, für das man sich interessiert. Diese Veränderungist durchaus neu.

Nun könnte allerdings eingewandt werden, dass die Black-Box im Alltag ja geradenicht auffällig ist. Durch Gewöhnung und Vertrautheit mit Technik wird diese viel nahtloser (und damit unscheinbarer) in die Lebenswelt integriert als durch das Versteckender Technik in einer, sei es auch miniaturisierten Black-Box. In diesem Sinne schreibtHans Blumenberg: „Ungleich vollkommener als durch die Mimikry der Gehäuse wirddas Technische als solches unsichtbar, wenn es der Lebenswelt implantiert ist. DieTechnisierung reißt nicht nur den Fundierungszusammenhang des aus der Lebensweltheraustretenden theoretischen Verhaltens ab, sondern sie beginnt ihrerseits, die Lebenswelt zu regulieren, indem jene Sphäre, in der wir noch keine Fragen stellen, identisch wird mit derjenigen, in der wir keine Fragen mehr stellen“ (Blumenberg 1963: 37).Blumenbergs (mit Husserl und Heidegger entwickelter) Gedanke ist, dass durch Habitualisierung Technik unscheinbar wird. Sofern Technik funktioniert, nehmen wir sie nichtwahr. Die Tastatur unter den Händen, die Kupplung im Auto treten in einen unthematischen Hintergrund, indem wir uns an sie im Gebrauch gewöhnen.

Gegen diese phänomenologische Analyse ist nichts einzuwenden, aber sie betrifftden Gedanken nicht, dass mit dem Unmerklichwerden der Black-Box etwas Neuesauftritt. Denn auch wenn Technik durch Habitualisierung unscheinbar wird, so bleibt siezumindest prinzipiell als Technik erkennbar. Die Black-Box kann als solche erkanntwerden, etwa wenn Vertrautes zusammenbricht, Technik nicht funktioniert (Heidegger1927: §16). Sie bleibt zumindest als Black-Box zugänglich, auch wenn sie durch Habitualisierung in der Regel unbeachtet bleibt.

2.Unmerkliche nutzerseitige Interaktionen: Das Unmerklichwerden von Technik in derWeise, dass die Black-Box Wahrnehmungsschwellen unterschreitet, ist jedoch bislangnur partiell beschrieben worden. Hinzukommen Veränderungen in Bezug auf dienutzerseitige Interaktion mit Technik. Gerade im Bereich der Informationstechnik ist esgelungen, die Eingaben so unauffällig zugestalten, dass von „Interaktion“ im eigentlichen Sinne nicht gesprochen werden kann. 3 Zwar waren bereits zu Beginn der Neuzeit, etwa bei Descartes, Naturdinge als winzig kleine Ma- schinen gedacht worden. Diesen Naturmaschinen standen jedoch gerade die von Menschen gemachten Maschinen gegenüber, da der Mensch im Vergleich zu Gott gerade nicht so kleine und feingliedrige Dinge herstellen konnte (vgl. Descartes 1637: V, §9 sowie 1644: IV, §§201–204).

Abb. 3: Unmerkliche Interaktion Transformationsregel R Input x y Output

12

Einleitung11Was herkömmliche Informationstechnik in der Interaktion als solche erkennbar werdenlässt, sind explizite Eingaben, in der Regel mussten diese explizit vorgenommen werden. Dafür standen Tastatur, Maus und Ähnliches bereit. Diese Aufgabewird zunehmend von Sensoren übernommen, welche Daten über Nutzer und Nutzungssituationenunmerklich erfassen (Schmidt 2007). Die eben erwähnten Anwendungsbeispiele verwendeten Sensoren, um das Trinkverhalten älterer Personen zu beobachten, um festzustellen, ob jemand gestürzt ist und Hilfe benötigt oder sich jemand in einem Raum befindet, für den er oder sie keine Zugangsberechtigung aufweist. Man trinkt „einfach“ –und die Tasse protokolliert die aufgenommene Flüssigkeit. Man geht „einfach“ – unddie Drucksensoren im Teppich stellen fest, dass sich jemand im Raum bewegt, undmittels lernender Algorithmen wird identifiziert, um wen es sich dabei handelt. Die„Interaktion“ zwischen System und Nutzer wird dadurch verändert; denn es handelt sicheigentlich nicht mehr um eine Interaktion, sofern zu dieser stets ein Wissen der Aktanten voneinander gehört. Beim smarten Teppich besteht der Witz gerade darin, dass diePersonen nichts davon wissen – und daher eigentlich auch nicht Nutzer sind.

3. Unmerkliche Effekte, unklare Regeln:Folgt man dieser Systematik weiter, gibt esnoch einen dritten Bereich, in dem das Verhältnis zu Technik informell werden kann.Die, mit Foerster gesprochen, Outputs, Ausgaben, Effekte von Technik können unmerklich sein. So etwa beim smarten Teppich, indem die Identität und Berechtigung derPerson, welche über ihn läuft, geprüft wird, ohne dass die Person davon etwas erfährt.Zwar gab es auch zuvor schon in vielen technischen Anwendungen Prozesse und Effekte, von denen „Nutzer“ nichts wussten; aber sie konnten zumindest prinzipiell davonwissen. In neuerer Informationstechnik, aberauch im Bereich Nano- oder Biotechnik gibtes dagegen eine Vielzahl von möglichen

Effekten, die sich weitgehend dieser Möglichkeit entziehen. In diesen Fällen sindmögliche Effekte gleichsam unmerklich,weil sie von prinzipiell nicht unmittelbarwahrnehmbarer Art sind aufgrund ihrer

Größe oder Beschaffenheit.

Es gibt jedoch noch einen anderen Grund, warum es schwierig sein kann, in ein rationales Verhältnis zu technischen Effekten treten zu können. Wie gesehen stellt die Regelbestimmtheit von Technik einen entscheidenden Zug dar. Wenn nun Technik zwarweiterhin geregelt operiert, dabei aber diese Regeln nicht mehr nachvollziehbar sind,wird das Verhältnis zu Technik epistemisch und praktisch verunklart. Man weiß nichtgenau, wie und wodurch ein Effekt zustande kommt oder was der eigene und was der

Abb. 4: Unmerkliche und unklare Effekte Transformationsregel R, R‘, R‘‘,…, R n Input x y Output

13

12Andreas Kaminskitechnische Beitrag dazu ist. Diese zunächst prinzipiell vorgestellte Möglichkeit wirdvon aktueller Informationstechnik realisiert. Lernende Algorithmen fungieren in derWeise, dass im Zuge von Lernstrategien (als höherstufigen Regeln) die Transformationsregeln verändert werden. Auf die gleichen Eingaben erfolgt dadurch eine veränderteAusgabe. Sofern die Lernstrategien und damit die Regeln der Veränderung von Transformationsregeln nicht nachvollzogen werden können, wird es unklar, warum ein Effektzustande kommt, und damit auch, welche Beiträge dabei auf was zurückzuführen sind.

Es sind damit drei teilweise in einem Zusammenhang stehende Ebenen benannt,welche Technik informell werden lassen. „Nutzer“ können sich nicht mehr in einensinnvollen Bezug zu Technik setzen, weil sie entweder nicht wissen, (1) dass sie esüberhaupt mit Technik zu tun haben, (2) dass sie mit ihr interagieren oder (3) welchesdie Effekte der Technik sind und welche Regeln ihnen zugrunde liegen.

Aus der bisherigen Darstellung ergeben sich gleichwohl mehrere Probleme, derenDiskussion erst zu einem vertieften Verständnis der Rede von informeller Technikführt. Ein erstes Problem stellt der begrenzte Bereich von Technik dar, auf den dieseBestimmungen nicht nur zutreffen, sondern überhaupt anwendbar sind. Von einer Miniaturisierung etwa kann allenfalls im Bereich der Realtechnik gesprochen werden; nurwas einen Körper hat, kann auch verkleinert werden. Die Bestimmungen würden aufTeile avancierter Entwicklungen im Bereich der Bio-, der Nano- und vor allem derInformationstechnik Anwendung finden können. Diese Begrenztheit eines sinnvollenAnwendungsbereichs des Begriffs informeller Technik allein müsste noch nicht einProblem darstellen. Ein zweites Problem besteht aber darin, dass es bereits gut begründete Vorschläge zur begrifflichen Fassung dieser neuen Entwicklung unter Titeln wie(subjektives) Verschwinden der Schnittstelle (Hubig 2003, 2008) oder naturalisierteTechnologie gibt (Nordmann 2008). Handelte es sich beim Phänomen informelle Technisierung um nichts Weiteres als das, was bislang dazu vorgestellt wurde, würde nichtklar werden, worin die Fortentwicklung bestünde. Diese Probleme verschwinden, wenndas Verständnis von informeller Technisierung präzisiert wird. 3. Form und Kontext: ihre Untrennbarkeit im Fall informeller Technik

Dass Technik eine unmerkliche oder unklare Wirksamkeit haben kann, ist erklärungsbedürftig. Was ist der Grund hierfür, wenn von der Miniaturisierung abgesehen wird?Am Beispiel lernender Algorithmen in der Informationstechnik war die Veränderungder Transformationsregel genannt worden. Aber diese Antwort ist unzureichend, sieerläutert nicht, inwiefern Technik dadurch informell würde.

14

Einleitung13

Die Formbestimmtheit klassischer Technik, so hieß es zuvor, besteht wesentlich inihrer Regelbestimmtheit. Für diese galt das Schema Input – Transformation – Output.Technik zu verstehen, heißt, die Transformationsregel nachzuvollziehen. In der Praxisvollzieht sich dies so, dass ein Zustand (vor einer technischen Operation) mit einemanschließenden Zustand verglichen wird. Lässt sich dabei relativ klar und eindeutigidentifizieren, was den technischen Effekt auslöste, was also der Input war, und was dertechnische Effekt selbst ist, also der Output, ist die Möglichkeit gegeben, auf diezugrunde liegende Regel zu schließen. Unter der Voraussetzung, dass die Regel selbstkonstant bleibt, wird dadurch die Form der jeweiligen Technik erkannt. Damit wird dieForm zwar am Anwendungskontext erkannt, ihre Erkenntnis besteht aber in einer analytischen Trennung zwischen Form und Anwendungskontext. Dies zeigt sich auch daran,dass die Form anschließend in anderen Anwendungssituationen vorgestellt werdenkann. Klassische Technik weist also stets diese analytische Trennung auf, dass einetechnische Form einem möglichen Anwendungskontext gegenüber gestellt werdenkann. Jeder technische Entwurf und Plan, welche ihre Verbindungdarstellen, hat ihreUnterscheidung zur Voraussetzung. Sind die jeweiligen Bedingungen für das Funktionieren der jeweiligen Technik erfüllt, kann ihr Einsatz in allen möglichen Anwendungssituationen vorgestellt und durchgeführt werden.

Darin liegt ex negativo eine wesentliche Erläuterung für das Informellwerden vonTechnik. Informelle Technik ist solche, bei der die analytische Trennung zwischentechnischer Form und Anwendungskontext nicht mehr gelingt. Nur aus welchen Gründen? Diese analytische Trennbarkeit wird problematisch, wenn der Anwendungskontext(mit)bestimmt, nach welchen Regeln Technik operiert. Sofern in noch zu erläuternderWeise der Anwendungskontext „Teil“ der Funktionsweise der Technik ist, lassen sichbeide nicht mehr oder zumindest nicht mehr einfach analytisch unterscheiden. Dannlässt sich die Funktionsweise nicht mehr dem Anwendungskontext gegenüberstellen.Was hier zunächst als begriffliche Möglichkeit vorgestellt wird, wird von unterschiedlichen Techniken realisiert. Dies sei an zwei äußerst verschiedenen Techniken exemplifiziert.

(1) Maschinen, die auf lernenden Algorithmen basieren, verändern ihre Transformationsregel. Auf den gleichen Input erfolgt nicht der gleiche Output. Der Lernvorgangweist dabei zwei Hinsichten auf. Einerseits gibt es Lernstrategien, welche dieWeise,wie gelernt wird, bestimmen. Es handelt sich dabei um höherstufige Regeln zur Transformation der Transformationsregeln. Andererseits gibt es Daten,an denengelernt wird.Durch sie wird aber der Anwendungskontext gleichsam in die Funktionsweise integriert. Denn die Funktionsweise hängt von den Transformationsregeln ab, die Transformationsregeln hängen jedoch von den Lernstrategienundden Daten ab; das heißt um-

15

Andreas Kaminskigekehrt: andere Daten führen zu einer anderen Transformationsregel und damit zu eineranderen Funktionsweise von Technik. Die Technik lässt sich dann nicht mehr in klarerWeise von ihrem Anwendungskontext abheben, die Erwartungen an ihre Funktionsweise können nicht mehr in der gleichen Weise stabil sein, Effekte lassen sich dadurchunter Umständen auch nicht mehr eindeutig identifizieren.

(2) Psychometrische Verfahren wie Intelligenz- oder Kompetenztests werden häufigals Messtechniken aufgefasst. Messtechniken stellen abstrakt betrachtet triviale Maschinen dar, für welche gilt: Auf den gleichen Input erfolgt der gleiche Output. Nun müssenPrüfungstechniken (wie andere Messtechniken auch) geeicht werden. Dazu müssenDaten aus dem „Anwendungsbereich“ verwendet werden, an denen ein orientierenderPunkt (ein Normaltyp etwa) gebildet wird. Mit den Daten, die zur Eichung verwendetwerden, ändert sich entsprechend das daraufhin erfolgende Messergebnis. Der entscheidende Punkt hierbei ist nicht, dass damit falsche Ergebnisse produziert würden, sondern, dass der Anwendungskontext mitbestimmt, wie Technik operiert, welche Effekte(hier Messergebnisse) sie hervorbringt. So müssen Intelligenzprüfungen etwa immerwieder neu geeicht werden, weil sich ihr Anwendungskontext verändert. Die Bevölkerung wurde im Sinne der Intelligenztests zunehmend intelligenter, die für jede Generation wiederholten Eichungen glichen dies aus (sie rechneten es heraus). Man kann daranerkennen, wie der Anwendungskontext in die Messtechnik integriert ist. Bei trivialenMaschinen lässt sich von ihrem Anwendungskontext abstrahieren; sofern nur die Voraussetzungen für ihr Funktionieren erfüllt sind, funktioniert diese Technik in unveränderlicher Weise. In synchroner Abstraktion lässt sich dies auch hinsichtlich der genannten Messtechniken sagen; in synchroner Perspektive stellen Messtechniken trivialeMaschinen dar. Die Messtechniken sind jedoch relativ zu ihrem Anwendungskontext,insofern dieser ihrem Funktionsprinzip nicht äußerlich bleibt. Der historische Anstiegder Intelligenz ist dafür paradigmatisch. Dass die Messtechnik ihrem Anwendungskontext nicht äußerlich bleibt, heißt dabei wesentlich auch: Personen beginnen sich an dieser Norm zu orientieren, ihr Verhalten daran auszurichten usw. Der Anwendungskontext bestimmt dabei folglich nicht nur, welcher Input eingeht (dies wäre noch trivial),sondern in welcher Weise er transformiert wird (die gleiche Intelligenzleistung wie vordrei Generationen ergäbe heute einen geringeren Intelligenzquotienten).

Lernende Maschinen und Prüfungstechniken stellen daher zwei unterschiedlich gelagerte Fälle dar, die beide – in historischer Abstraktion – klassische Techniken betreffen, dabei aber den Kontext in den Kern ihrer Funktionsweise integrieren. In Hinsichtdarauf sind sie informell, denn der Bezug des Anwendungskontextes und damit des 4 Dies sagt Lynn-Flynn-Effekt für Intelligenzprüfungen aus.

16

Einleitung15„Nutzers“, der ein Teil dieses Kontextes ist, zu ihnen bleibt unmerklich. Technik kanndaher in unterschiedlicher Hinsicht zugleich formell und informell sein. Die beidengenannten Fälle sind deshalb interessant, da sie eine ganze Spannweite von Möglichkeiten eröffnen. Diese zu untersuchen ist Thema des Bandes. Bevor es darum geht, sollaber der Begriff informeller Technik weiter expliziert werden. 4. Versagen der Leitdifferenz: funktioniert/defekt

Von Niklas Luhmann stammt die Bemerkung, Technik sei das, was kaputt gehen kann(Luhmann 1990: 263). Was der Definitionskürze wegen wie ein Bonmot anmutet, warvon Luhmann keineswegs (nur) als geistreicher Witz gedacht. Die Unterscheidung istfür Technik zentral. Informelle Technik nun entzieht sich partiell der Leitunterscheidung „heil/kaputt“; das heißt, es kann, innerhalb bestimmter Grenzen, nicht entschiedenwerden, ob Technik „kaputt“ ist oder nicht. Dies ist eine Folge der Verwebung vonForm und Kontext. Informelle Techniken operieren in Abhängigkeit von ihrem Anwendungskontext, sie bleiben ihm nicht äußerlich. Das heißt, die Transformationsregeländert sich mit dem Anwendungskontext. Formelle Techniken weisen eine stabileTransformationsregel auf, dadurch ist ihr Verhalten nachvollzieh- und erwartbar. Genaudies entfällt in bestimmten Maße bei informellen Techniken. In Foersters Terminologiegesprochen: Sofern auf den gleichen Input ein anderer Output erfolgt, wäre dies beieiner klassischen Maschine ein Defekt, bei einer informellen dagegen nicht. Bestehtkeine rigide, sondern eine historisch-wandelbare Kopplung, kann es nicht zu den bestimmten Erwartungen kommen. Und ohne diese bestimmten Erwartungen kann Fehlverhalten nicht eindeutig bestimmt werden. Mit anderen Worten: Weist Technik keineprägnante Form auf, gibt es keine klar bestimmte Erwartung über ihr Verhalten; informelle Technik weist keine prägnante Form auf, weil der Anwendungskontext in dieFunktionsweise eingeht – und diese sich daher mit ihm verändert. Daher mögen Vorschläge von Recommender-Systemen, welche auf lernenden Algorithmen basieren,zwar überraschen, aber ob es sich bei ihnen um eine bloß überraschende, ungewöhnliche Empfehlung handelt oder nicht doch ein Fehler vorliegt, kann nur jenseits einesrecht umfangreichen Spielraums klar beurteilt werden.Ebenso mögen die Tests einesIntelligenz- oder Kompetenztests als fehlerhaft erscheinen, wenn sie in Widerspruch zuErgebnissen des gleichen oder eines ähnlichen Tests stehen; aber welcher und ob überhaupt einer korrekt ist, entzieht sich weitgehend der Nachprüfbarkeit. Auch aus diesemGrund kann man sich zu informellen Techniken nicht in ein klares Verhältnis setzen. 5 Dies gilt in der Regel nur bei vorausgesetzten Zweckbestimmungen. Vgl. Harrach 2013: 106 f.

17

16Andreas Kaminski 5. Sozialmaschinen und Technisierung

Informelle Technik ist nicht ordnungslos. Dies gilt insbesondere in der Sozialdimension. Prüfungstechniken etablieren, verändern oder verfestigen Sozialordnungen. Recommender-Systeme bilden Typologien, sie verteilen Individuen in einem Sozialraum.Dabei wird das Soziale jedoch nicht schlicht in eine Form gepresst; auch in diesemSinne handelt es sich um informelle Technisierungsprozesse. Der Grund hierfür istwiederum, dass die technische Form ihrem sozialen Anwendungskontext nicht striktgegenüber steht und dann auf ihn angewandt wird. Vielmehr geht der Anwendungskontext in die Funktionsweise ein. Daher erscheint es so, als wenn die informellen Techniken diesen lediglich abbilden. Messtechniken erheben den Anspruch, Vermögen oderKompetenzen lediglich zu repräsentieren. Lernende Algorithmen sollen eine unbekannte, aber in Daten vorhandene Ordnung freilegen. Gerade dieser Anspruch, lediglich zurepräsentieren, was ist, lässt die Veränderung bestehender Sozialgefüge infolge derTechnisierung informell auftreten.

Nun handelt es sich dabei in der Regel nicht um einen einmaligen, sondern vielmehr umeinen zirkulären Vorgang. Der Anwendungskontext geht vermittels Daten in die Funktionsweise der Technik ein, welche im Anwendungskontext wirksam ist, wodurch prinzipiell die Funktionsweise der Technik sich verändert usw. In diesem Sinne ist die Redeweise vonTechnisierungaufzufassen. Sie bedeutet nicht, dass ein zuvor natürlicherBereich nun von Technik erfasst und gleichsam kolonisiert wird. Vielmehr bezeichnetder Ausdruck die fortlaufende, zirkuläre Genese sozialer Ordnung durch informelleTechnik und informeller Technik durch soziale Ordnung. 6. Was heißt also „informelle Technisierung“?

Wir können nun das gemeinsamePrinzipinformeller Technik benennen: Im Zentrumder bisherigen Überlegungen steht dieUntrennbarkeit des Anwendungskontextes von der technischen Form. Geht dieser in die Funktionsweise der Technik ein, hat dies eineReihe von Veränderungen (gegenüber klassischer Technik) zur Folge, die einen gemeinsamen Zug darin aufweisen, dass Technik informell wird. Diese sind:

1. Unklare oder unmerkliche Wirksamkeit: Die Funktionsweise, das heißt, dieRegeln technischen Wirkens, sind historisch wandelbar. Daher ist das Zustandekommen technischer Effekte nicht mehr unproblematisch nachvollziehbaroder es bestehen Schwierigkeiten, sie überhaupt als technische Effekte zu identifizieren. (Letzteres hat auch mit der Annahme zu tun, dass Technik die Ordnung nur repräsentiert und nicht mithervorbringt.)

18

Einleitung17

2. Versagen der Leitdifferenz funktioniert/defekt: Sofern informelle Technik keine rigiden oder trivialen Kopplungen aufweist, ist die Erwartungsstabilität beiihr nicht gewährleistet. Es fällt daher schwer(er), zu entscheiden, ob die Technik eigentlich funktioniert oder nicht.

3. Etablierung einer Sozialordnung: Informelle Technik gibt an, den Anwendungskontext zu repräsentieren; sie etabliert (produziert, stabilisiert) jedoch eine soziale Ordnung, und zwar fortlaufend aufgrund der zirkulären Prozessezwischen Anwendungskontext und Technik.

Die beiden zu Beginn dieses Textes genannten Merkmale (die Unmerklichkeit derBlack-Box sowie der nutzerseitigen Interaktion) können zusätzlich auftreten. Dass siezwar nicht bedeutungslose, jedoch für den Begriff informeller Technisierung gleichsamäußerliche Merkmale sind, zeigt sich daran, dass sie im Gegensatz zu den anderen genannten Punkten nicht an das oben genannte Prinzip, die Verklammerung von Anwendungskontext und technischer Form, gebunden sind. Zu Techniken, welche dieses Prinzip (und unter Umständen die beiden weiteren) erfüllen, kann man sich nicht mehr inein klares Verhältnis setzen, was sich auch daran zeigt, dass die Rede vom „Nutzer“unangemessen wirkt. Diese Überlegung führt zu der Frage: Handelt es sich bei „informeller Technik“ eigentlich um einen Objekt- oder um einen Reflexionsbegriff? 7. Objekt- oder Reflexionsbegriff?

Es gibt zwei grundlegende Strategien, um unsere Redeweise über Technik zu ordnen:objektstufige und reflexionsbegriffliche Reden über Technik.So wird Technikobjekt- stufigverstanden, wenn man entweder einen Gegenstandsbereich des Technischen voneinem Gegenstandsbereich des Natürlichen unterscheidet oder innerhalb des Technischen verschiedene Techniken klassifiziert. Mit Blick auf Letzteres gibt das Klassifikationsprinzip dann in der Regel an, womit und woran Technik operiert. Die Unterscheidung zwischen Stoff-, Energie- und Informationsmaschinen oder Atom-, Bio-, Nano18 6 Dies ist jedenfalls dann der Fall, wenn der Anwendungskontext ein sozialer Kontext ist und die Da- ten also Sozialdaten. 7 Vgl. zu den folgenden Überlegungen Hubig 2011 und 2006: 229–260. Die Unterscheidung zwi- schen objektstufigen und reflexionsbegrifflichen Aussagen geht auf Kants Überlegung zurück, dass es neben empirischen Vorstellungen Reflexionsbegriffe gibt (vgl. Kant 1787: B 316–349). Solche sind entweder logische Reflexionsbegriffe (wie Einerlei und Verschiedenheit oder Einstimmung und Wider- spruch), bei denen es sich um methodische Begriffe handelt, da sie logische Verhältnisse zwischen Begriffen zu bestimmen ermöglichen. Kant bezeichnet sie daher auch als Vergleichsbegriffe. Diese logischen Reflexionsbegriffe sind formal und unterscheiden sich so von Inbegriffen, welche Bereiche material ordnen (z.B. „Raum“ als Inbegriff). Transzendentale Reflexionsbegriffe dagegen setzen Vor- stellungen in das Verhältnis zu dem Vermögen, dem sie entstammen; bei Kant bezieht sich dies auf die

19

Andreas Kaminskiund Informationstechnik ist eine solche klassifikatorische Ordnung. Leitend ist dabeidie Vorstellung unterschiedlicher Gegenstandsbereiche. Auch die bereits abstraktereGliederung nach Real-, Sozial- und Intellektualtechniken ist noch von einem solchenOrdnungsprinzip her gedacht. Die Redeweise von einer informellen Technisierung oderTechnik zielt jedoch nicht auf einen spezifischen Gegenstandsbereich, an und in demTechnik operiert.

Werden Technik oder Naturreflexionsbegrifflichverstanden, so bezeichnen dieAusdrücke keinen spezifischen Gegenstandsbereich, der durch sie sortiert werden soll;stattdessen geben sie an, in welchem Verhältnis etwas in Beziehung zum Handlungsvermögen von Subjekten erscheint.Wird etwas als disponibel im Verhältnis zumHandlungsvermögen vorgestellt, dann wird es als technisch, wird es dagegen als widerständig und insofern indisponibel vorgestellt, dann wird es als natürlich (oder kulturell)betrachtet.

Mit Blick auf diese beiden grundlegenden begrifflichen Strategien erscheint es naheliegend, die Rede von einer informellen Technik in der gleichen Weise als Reflexionsbegriff aufzufassen. Schließlich bezeichnet sie, wie oben im Vorgriff angegeben, einbesonderesVerhältniszwischen Technik und Mensch. Gleichwohl lässt sich dieserBegriff nicht komplikationslos als Ergänzung der anderen Reflexionsbegriffe verstehen,und zwar aus zwei Gründen. Zum einen kann es bei informellen Techniken nur eine allgemeineReflexion geben, dass es derartige Techniken gibt. In Beziehung auf den jeweiligenFall kann jedoch, da es sich um informelle Techniken handelt, nicht festgestellt werden, dass eine Technik informell ist. Zum anderen unterlaufen informelleTechniken das Einteilungsprinzip der Reflexionsbegriffe. Dieses besteht in der Disponibilität. Sofern informelle Technik unmerklich ist, ist sie für von ihr betroffene, sienutzende Menschen in bestimmter Weise nicht disponibel. Allerdings erscheint siediesen auch nicht als indisponibel, denn sie ist ja gerade in gewisser Weise unmerklich;sie wird daher auch nicht als widerständig erlebt. 8. Spannbreite informeller Technisierung

Die Beiträge dieses Bandes sollen erproben, ob und inwieweit sich unterschiedlicheTechniken als informell begreifen lassen. Diese Erprobung findet in heterogenen Feldern statt: von der Informationstechnik über den Hochleistungssport bis zu Vater 8 Ein reflexionsbegriffliches Verständnis von Technik ist von Christoph Hubig entwickelt worden. Im Zentrum der Unterscheidung der Reflexionsbegriffe steht die Verfügbarkeit: „‚Technik‘ als transzen- dentaler Reflexionsbegriff würde ausdrücken, daß wir Verfahren, Fähigkeiten, Vollzüge und deren Resultate nach Maßgabe ihrer Disponibilität bzw. Verfügbarkeit relativ zu unserem Freiheitsanspruch identifizieren“ (Hubig 2011: 118).

20

Einleitung19schaftstests oder psychologischer Sterbebegleitung. Da es eine ausgearbeitete Theorieinformeller Technisierung noch nicht gibt, konnten die Autorinnen und Autoren dabeiweder auf ein theoretisches Programm noch auf eine einheitliche Terminologie verpflichtet werden.Was die einzelnen Beiträge leisten, ist philosophische Arbeit an Phänomenen, die einerseits als technisch begriffen werden müssen, deren Technizität aberandererseits nicht den klassischen Begriffen einer prägnanten technischen Form entspricht. Der Titel der informellen Technisierung fungiert in diesem Zusammenhang alsSuchraster, dessen heuristischer Wert sich in der Erschließung des jeweiligen Problemfeldes erweisen muss. Die Ergebnisse dieser ersten Studien ermutigen uns, von derArbeit an den Phänomenen zur Arbeit am Begriff überzugehen.

Literatur

21

20Andreas Kaminski

22

Der einzige Teil der menschlichen Persönlichkeit, der sich bislang der rationalen Kontrolle entzieht, ist jener, der technische Kontrollphantasien gebiert.

(Mumford 1977: 667 ) Um das Ineinander technischer Vorstellungen und gesellschaftlicher Prozesse soll es imFolgenden gehen, beispielsweise um das Verhältnis heutzutage imaginierter „soft machines“ zu dem, was als „soft law“ oder auch „weiche Regulierung“ bezeichnet wird.Dabei folgt diese Darstellung nicht dem Muster, wonach Technik soziale Formen informiert. Sie geht nicht von einer irgendwie vorgängigen Technikentwicklung aus, dieMuster prägt, Spuren hinterlässt, Menschen in neue Verhältnisse zueinander rückt.Vielmehr geht es darum, wie sich Ideen der Technik aus dem Sozialen speisen, wie essein kann, dass Gesellschaften ihre Zukunft als eine technische Zukunft imaginierenund wie sie dabei einen unter Umständen auch ganz irrealen, gewissermaßen untechnischen Begriff des Technischen als Leitbild oder Erlösungsfantasie postulieren. Diesoft machines, von denen noch zu reden sein wird, sind kein technisches Vorbild, das aufbiologische oder soziale Zusammenhänge übertragen wird, sondern der kollektiveTraum von einer Technik, die geradezu magisch und auf unerhört wunderbare Weiseganz anders ist als alle uns bekannte Technik. Diesoft machinessind Sozialmaschinen,insofern sie eine Flucht aus der gegebenen, beschränkten Technik gewähren, und zwarFlucht in die Vorstellung einer Technik, die uns Trost und Hoffnung gibt und eine Artgesellschaftlichen Frieden stiften soll. So sanft und weich sind diese Maschinen, dass 1 Statt „der technische Kontrollphantasien gebiert“ heißt es hier eigentlich: „der diese Phantasien ge- biert“. Im Zusammenhang dieser Textstelle legt Mumford nahe, dass sich die grellen Fantasien der Ingenieure „relativ rasch in erfolgreiche Arbeitsmodelle umwandeln“ lassen: „Die Fähigkeit, mathema- tische Theoreme und subatomare oder molekulare Kräfte in neue Erfindungen umzusetzen, ohne auf technische Hindernisse oder ernüchternde menschliche Hemmungen zu stoßen, hat unsere herrschende Technologie selbst in eine Art Science Fiction verwandelt.“ (Mumford 1977: 590) Hier äußert sich somit der Teil von Mumfords Persönlichkeit, der sich rationaler Kontrolle entzieht. Offenbar traut er hier, ungläubig, der Technik zu, dass sie unglaubliche Möglichkeitsräume schafft, die sich mehr oder

23

22Alfred Nordmannsich jede harte, rigide, einengende Technik in ihnen gewissermaßen auflöst, einschließlich unserer bisher viel zu groben politischen Regulierungsinstrumente. So weich undsanft sind sie auch, dass sie Interessenskonflikte und gesellschaftliche Antagonismenabfedern und alle so genanntenstakeholderbequem akkommodieren.

Im Folgenden interessiert also nicht, wie sich eine Vorstellung von Technizität insoziale Felder einschreibt, sondern wie sich eine sozial wirksame Vorstellung vonTechnizität allererst herausbildet. Wie ist es möglich – so die staunende Frage –, dassein im Kern technophober Begriff von Technik eine Legitimationsfigur darstellt? Derviel diagnostizierte Techno-Optimismus unserer Zeit ist nicht allein das Vertrauen, dasszukünftige Technik all unsere Probleme lösen wird. Wie Astrid Schwarz am Beispielder „grünen Nanotechnologie“ gezeigt hat, ist es gerade die leere Worthülle ohne technische Bedeutung, mittels derer sich die Vorstellung einer grünen Technikgesellschaftlichen Projektionen öffnet und ihr eine höchst effiziente symbolische Funktion im öffentlichen Diskurs verleiht:

So viel zur Programmatik, die unsere Gegenwart der mehr oder weniger grünen Nanotechnologien mit ihrensoft machinesin einen größeren historischen Zusammenhangrückt. Dem entsprechend gilt es zunächst, die Grundbehauptung darzustellen und beispielhaft zu begründen – die Behauptung, dass untechnische Sozialmaschinen zu Leitbildern gleichermaßen gesellschaftlicher und technischer Entwicklung werden. Was hierzunächst etwas paradox und ziemlich abstrakt klingt, ist ein entferntes Echo auf Heideggers „Gestell“ und seine Feststellung, dass das Wesen des Technischen nichts Tech 2 Im Juni 2011 hat auch ein Dossier der Zeit verdeutlicht, wie ein im Kern technikferner Begriff von Technik als bloßer Wunscherfüllung zur Legitimation der gesellschaftlichen Hoffnung auf letzte Ret- tung z.B. vor der Klimakatastrophe beitragen kann. Nachdem der heutige Technikoptimismus als ver- zweifelte Hoffnung charakterisiert wurde, präsentieren die Autoren unter dem Stichwort „ Wir dürfen also optimistisch sein: Wunder gibt es immer wieder “ eine Reihe fantastisch imaginierter Zukunftstech- nologien, an die die Leser zwar nicht glauben sollen, auf die sie aber doch vielleicht hoffen dürfen (Fischermann/von Randow 2011).

24

Sanfte Technik23nisches sei (Heidegger 2007: 5). Bei Heidegger heißt dies zunächst, dass das Wesen desTechnischen nichts mit Mittel-Zweck-Beziehungen, mit der Technik als Werkzeug oderInstrument zu tun hat. Wenn hier von „untechnischen“, gar „technophoben“ Technikbildern die Rede ist, dann sind damit magische Vorstellungen gemeint, nach denenTechnik nicht darin bestehen soll, einfallsreich mit begrenzten Mitteln in einer begrenzten Welt möglichst viel zu erreichen, sondern wonach Technik wie ein „Tischleindich“ der Form des Wunsches und seiner Erfüllung entspricht – und gewünscht ist, dasssich die Welt als unbegrenzt erweisen möge, dass die Technik auch gerade das verändert, was wir für technisch möglich halten. Während Ernst Cassirer dieses magischeTechnikbild von ingenieurmäßig im Natur- und Weltzusammenhang entwickelter Technik scharf abgrenzt (Cassirer 1930: 59f.), verschleifen gesellschaftliche Technikdiskursediese Differenz, insbesondere wenn das Phantasma einer die vertraute Welt transformierenden Technik aufgerufen wird.

Den historischen Einstieg bietet der Autor des leicht paraphrasierten Mottos: „Dereinzige Teil der menschlichen Persönlichkeit, der sich bislang der rationalen Kontrolleentzieht, ist jener, der technische Kontrollphantasien gebiert.“ Dies hat Lewis Mumfordin den 1960er Jahren geschrieben und pointiert damit eine ironische Dimension seinertechnikkritischen Analyse. Im Namen der Maschine habe der Mensch seine Lebensverhältnisse durch und durch technisiert und erfährt seine ungezügelte, unkontrollierte,irrationale Freiheit nur noch dort, wo er neue Menschen imaginiert. Um dies nachzuvollziehen, lohnt sich ein näherer Blick auf Mumfords Argument in seinem Buch vom Mythos der Maschine.

Nach Mumford können wir „die Rolle, die die Technik in der menschlichen Entwicklung gespielt hat, nicht ohne tiefere Einsicht in das historische Wesen des Menschen verstehen“ (Mumford 1977: 14). Hiermit argumentiert Mumford gegen die Auffassung, dass die Technik eine Erweiterung des menschlichen Körpers zur Beherrschung der Natur sei. Statt um Organerweiterung zwecks Naturbeherrschung gehe esum die latenten Fähigkeiten des Menschen, „seine überorganischen Bedürfnisse undWünsche adäquater zu erfüllen“ (1977: 19). Überorganisch sind dabei solche Bedürfnisse und Wünsche, die – philosophisch ganz traditionell gedacht – nicht mit der Naturbestimmtheit, sondern mit der Freiheit des Menschen verbunden sind. Die Technikentwicklung läuft also nicht quasi naturwüchsig vom Hammer auf den Computer zu bisendlich auch unser höchst entwickeltes Organ, nämlich das Gehirn, technisch vergegenständlicht ist. Vielmehr dient das Gehirn der „bewußten, zweckmäßigen Selbstidentifizierung, Selbstveränderung und letztlich Selbsterkenntnis“ (1977: 21). Die Selbster24 3 Der Rest dieses Abschnitts entspricht weitgehend der Darstellung in Nordmann 2008a: 53–56.

25

Alfred Nordmannkenntnis der Menschen als historisch veränderliche Wesen findet gerade auch mittelsder Technik statt, und zwar in ihrer Begegnung mit der bewusst von Menschenhandveränderten, technisierten Welt. Und was wir an uns selbst erkennen, wenn wir uns inder Technik erkennen, ist die gesellschaftliche Organisationsform, die der Verdinglichung oder Konkretion von Technik vorausgeht: Dank einer spezifisch organisiertenArbeitsteilung, also mit Hilfe von Technik, schaffen Menschen einander die Dingwelt,in der sie sich erkennen und vielleicht verändern können.

In dieser bewusst geschaffenen Organisationsform taucht nun auf, was Mumfordnicht „Gestell“, nicht „Sozialmaschine“, wohl aber „Megamaschine“ nennt. Für eineDefinition der Maschine zitiert er dieTheoretische Kinematikvon Franz Reuleaux,einem ingenieurwissenschaftlichen Standardwerk aus dem späten 19. Jahrhundert, dassich als philosophisch außerordentlich einflussreich erwies. Eine Maschine, so Reuleauxund Mumford, sei eine Kombination resistenter Teile, von denen jedes eine spezielleFunktion habe. Sie operiere unter menschlicher Kontrolle, um Energie zu nutzen undArbeit zu verrichten (Mumford 1977: 222; vgl. Reuleaux 1875: 38). Mumford meintnun, dass die Entstehungsgeschichte der so definierten Maschine mindestens fünftausend Jahre zurückreicht. Seinerzeit war die Maschine gerätetechnisch noch unsichtbarund existierte bloß als gesellschaftliche Organisationsform, welche erst die Voraussetzung für die sichtbaren Maschinen des 19. und 20. Jahrhunderts schafft: „[D]ie mechanischen Kräfte mußten erstsozialisiertwerden“, so Mumford, „ehe die Maschine selbstvoll mechanisiert werden konnte“ (Mumford 1977: 225).

Mit dieser unsichtbaren, im materialen Sinne noch untechnischen Arbeitsmaschineließen sich vor fünftausend Jahren die Pyramiden bauen. Obgleich ihre Komponenten„aus menschlichen Knochen, Nerven und Muskeln“ bestanden, waren diese Komponenten der Maschine definitionsgemäß „auf ihre rein mechanischen Elemente reduziert undstreng auf die Ausführung begrenzter Aufgaben zugeschnitten. […] Das Geheimnis dermechanischen Kontrolle bestand darin, daß ein einziger Kopf mit genau bestimmtemZiel an der Spitze der Organisation war und daß es eine Methode gab, Anweisungenüber eine Reihe von Funktionären weiterzugeben, bis sie die kleinste Einheit erreichten“(1977: 222). Diese Sozialmaschine ist bei Mumford keine gesellschaftliche Umsetzungeines technischen Vorbilds, sondern geht der gerätetechnisch konstruierten mechanisierten Maschine voraus. Und während sich nach einigen Techniktheorien das Organischenaturwüchsig fortschreitend im Mechanischen vergegenständlicht, findet sich bei Mumford ganz im Gegenteil die freie, geistige Erfindung einer Organisationsform, die mechanische Kräfte schon zu nutzen weiß, ehe sie sich arbeitssparend in einer voll mechanischen Maschine materialisiert. In einer strengen, geradezu totalitären Arbeitsorganisation sind die mechanischen Kräfte noch sozialisiert und nicht mechanisiert, gehören

26

Sanfte Technik25somit einer gesellschaftlichen und nicht technischen Maschinenordnung an. Nicht diemenschlichen Organe, sondern das Zusammenspiel handelnder Menschen ist bei Mumford Vorbild für das Zusammenspiel von Zahnrädern, Schrauben, Winden und Hebeln.Wenn die Menschen sich bei Mumford also in der Maschine selbst erkennen, so erblicken sie in ihr nicht ihr je eigenes organisches Wesen, sondern die Organisation ihrerGesellschaft und somit die Megamaschine, in der sie selbst nur eine Systemkomponentesind. Und indem sich freie Menschen als Bestandteil einer Maschinenkultur wiedererkennen, können sie sich durch bewusste Selbstidentifikation und Selbstveränderungauch gegen die nur scheinbar allumfassende Megamaschine wenden. 2. Otto Mayrs Fliehkraftregler

Soviel zur technikphilosophisch vielleicht bedeutendsten und allgemeinsten Fassung derThese, dass eine Vorstellung von Technik gesellschaftlich längst konstituiert ist, ehe dieentsprechende gerätetechnische Entwicklung folgt. Im nächsten Schritt soll es nun umeine enger bestimmte Sozialmaschine gehen, die eine Kontrastfolie zu densoft machi- nesbilden wird.

Als damaliger Kurator des National Museum of History and Technology in Washington wollte der Technikhistoriker Otto Mayr eine Geschichte des Fliehkraftreglersschreiben. Dabei handelt es sich um ein automatisches Regelungssystem, das insbesondere bei der Sicherung technischer Systeme eine große Rolle spielt. Im Kessel einerDampfmaschine oder alten Lokomotive soll ein hoher Druck entstehen, der das Getriebe zum Laufen bringt. Wo hoher Druck in einem Kessel herrscht, kann auch Überdruckentstehen und eine Explosion wäre die Folge. Hier kommt der Fliehkraftregler ins Spiel.Er besteht aus ein paar Metallkugeln, die eine Art Karussell bilden, das vom Dampfdruck angetrieben wird. Je größer der Druck im Kessel, desto schneller dreht sich dasKarussell, und je schneller es sich dreht, desto stärker wirken Fliehkräfte auf die herumwirbelnden Metallkugeln, die sich bei entsprechend schneller Drehung immer weiterheben und bei höherem Tempo zunehmend in die Horizontale kommen. Wenn die Höhedes Dampfdrucks, somit das Tempo der rotierenden Kugeln und somit die Annäherungan die Horizontale einen kritischen Punkt erreichen, öffnet der Regler ein Ventil undDampf kann aus dem Kessel entweichen. Dadurch sinkt der Druck, verlangsamt sichdas Karussell, senken sich die Metallkugeln. Jetzt schließt sich das Ventil wieder, damitnicht zu viel Druck entweicht. Und das Spiel kann von vorne beginnen mit dem Fliehkraftregler als automatischem Regelungssystem, ohne das die Dampfmaschine und dieindustrielle Revolution nicht möglich gewesen wäre – ein Regelungssystem zumal, dasmit einer so genannten Rückkoppelungsschleife arbeitet, da sein Verhalten von dem

27

26Alfred Nordmann

System, sprich: vom Dampfkessel abhängt, mit dem es verkoppelt ist, das es beobachtensoll und auf das es zurückwirkt.

Als er ansetzte, die Geschichte dieses Systems zu schreiben, machte Otto Mayr einemerkwürdige Beobachtung: Fliehkraftregler wurden schon in einem berühmten Maschinenkatalog aus dem Jahr 60 nach Christus beschrieben, der im 16. Jahrhundertnachgedruckt und zur Vorlage mancher mechanischer Spielerei wurde, insbesonderezahlreicher mit Uhrwerken betriebenen Apparaturen. Es lassen sich aber bis ins 18.Jahrhundert hinein keine Rückkoppelungsvorrichtungen in Europa finden – außer inGroßbritannien, wo diese Technik „weiterentwickelt und geschätzt“ wurde. Warum wardas so? Mayrs Suche nach einer Antwort führt ihn darauf, dass die Ablehnung dieserSysteme in Kontinentaleuropa und ihre Weiterentwicklung in Großbritannien jedenfallsnicht auf interne Entwicklungstendenzen der Technik selbst zurückgeführt werdenkann.

In der Hauptsache behauptet nun Mayrs Buch, dass sich die technische Entwicklungvon Uhrwerk und Rückkoppelungssystem Wechselwirkungen verdankt „zwischen denin einer Gesellschaft vorherrschenden politischen, gesellschaftlichen, ökonomischenund religiösen Ideen auf der einen und den jeweiligen Präferenzen und Entwürfen fürbestimmte technische Geräte auf der anderen Seite“ (Mayr 1986: 11). So gesehen gehtAdam Smiths Wirtschaftstheorie der technischen Verbreitung des Fliehkraftreglersnicht nur zeitlich voraus: Die unsichtbare Hand, die den marktwirtschaftlichen Ausgleich zwischen Angebot und Nachfrage produziert, entspricht bereits dem unsichtbarenAutomatismus, mit dem ein Gleichgewicht im Dampfkessel hergestellt wird. Mayr

28

Sanfte Technik27spricht bei Rückkoppelungsvorrichtungen somit von „liberalen Systemen“, während dasUhrwerk des barocken Kontinentaleuropas einem unverrückbar autoritären Systementspricht, das Unterordnungen produziert. Wer sich einen liberalen Staat vorstellt, lässtsich von Regelkreisen faszinieren, und dem entsprechend gingen liberale Wirtschaftstheorien der technischen Weiterentwicklung des Fliehkraftreglers voraus, was wiederumden Fliehkraftregler zu einer Art technischen Metapher für den modernen Staat werdenließ.

Wer heute beispielsweise die Dampfmaschine besichtigt, die die Springbrunnen imPotsdamer Sanssouci betreiben sollte, der sieht – ungeachtet seiner nach heutigen Maßstäben schwachen Leistung – ein Wunderwerk der Technik, dem ein exotischer Tempelgebaut wurde und auf dem ganz oben der bronzene Fliehkraftregler glänzend poliert alsweiser Steuermann, „governor“ oder Regierungskünstler thront (wobei auf dem Reglernoch der bekrönte preußische Adler sitzt). Und bis heute zählt zur Regierungskunst desliberalen Staates das, was man Regulierung nennt. Die stoffliche Qualität von Produkten, die Menge und Zusammensetzung von Abgasen, die Bestandteile von Lebensmitteln unterliegen einer oft gesetzlich etablierten Regulierung, die mit einem voraussagbaren Automatismus Beobachtungen anstellt und bei Überschreitung eines vorgegebenenGrenzwerts Maßnahmen ergreift. Damit soll die Innovationskraft des Marktes und dasSicherheitsbedürfnis der Bürger möglichst im Gleichgewicht gehalten werden – sollteeinmal etwas passieren, greift die Maßnahme und das Gleichgewicht ist rasch wiederhergestellt. 4 Der Gouverneur oder kybernetische Steuermann der Dampfmaschine ist nicht nur Chiffre der „ers- ten industriellen Revolution“, nicht nur Inbegriff von „Steuerung und Regelung“ des von Heidegger oder auch Marcuse kritisierten eindimensional technokratischen Weltbilds, sondern wirkt auch heute noch nach in Auffassungen einer gegenüber rigiden staatlichen Institutionen verselbständigten, umso governance “. Ob eine andere, dem heutigen Technik- und industriellen Produktions-

29

28Alfred Nordmann 3. Jessica Riskins Wetware

Am Beispiel der Arbeitsmaschine und des Fliehkraftreglers sollte gezeigt werden, dasssich Gesellschaften eine Technik imaginieren, auch bevor es diese Technik in einemgerätetechnisch konkreten Sinne gibt. Diese Sozialmaschinen sind zunächst noch ganzsozial und materialisieren sich erst später, sie sind nicht technisch inspiriert, und nichtnur für den Regelkreis mit seinem Rückkoppelungsautomatismus und seiner Erhaltungeines Gleichgewichts lässt sich sagen, dass er ein Vorbild gleichermaßen für die Entwicklung von Gesellschaft und Technik war.

So kompliziert nun auch die Wechselwirkung von gesellschaftlichen Vorstellungenund technischen Artefakten sein mag, hat sie doch eine ganz handfest technisierte Welthervorgebracht. Heute gibt es sowohl eine ganz reale, in Fabriken organisierte Arbeitsmaschinenwelt, wie auch die Sicherheitstechnik für Dampfkessel. Eingangs wurde jedoch eine weitergehende Behauptung annonciert, dass sich Gesellschaften nämlich auch stand angemessenere Sozialmaschine als Vorbild dienen könnte, fragen z.B. Lösch/Gammel/Nordmann 2009. Die Frage wird umso drängender, als sich die Entwicklung der soft machines in Nanotechnologie, synthetischer Biologie, den Informations- und Kommunikationstechnologien oder auch dem climate engineering klassischen Regulierungsverfahren entzieht. Die entsprechende Kritik am governance Konzept findet sich im Schlussteil dieses Beitrags. 5 Hier wäre instruktiv, vergleichend das perpetuum mobile bzw. die Unmöglichkeit eines perpetuum mobile als eine fiktive Technik einzubeziehen, die als Organisationsform für Technik und Gesellschaft, für Wissenschaft und industrielle Produktionsverfahren diente, siehe hierzu etwa Rabinbach 2001. Abbildung 1: Der königliche Fliehkraftregler von Sanssouci (Foto von

Astrid Schwarz)

30

Sanfte Technik29an einer ganz untechnischen und irrealen Technik orientieren. Dies wird an densoft machinesaufgezeigt, aber auch hierzu bietet sich noch ein historischer Präzedenzfall an,der von Jessica Riskin diskutiert wurde. Sie beschreibt eine kurzlebige Technikentwicklung aus der zweiten Hälfte des 18. Jahrhunderts und verbindet damit einen Ausblickauf eine gleichermaßen prekäre Situation im Zeitalter dersoft machines.

Im Schaufenster eines Brüsseler Süßwarenladens liegt noch dieser Tage wohlig aufihrem Rücken ausgestreckt eine recht große Katze inmitten von Bergen belgischerSchokolade. Sie ist recht schnell als mechanische Puppe erkennbar, die gewisse katzentypische Bewegungsabläufe vorführt. Nicht nur streicht sie sich mit der Pfote über dasSchnurrhaar, auch wogt eine behagliche Welle durch ihr dickes Bauchfell. In den Worten von Jessica Riskin funktioniert diese Puppe analogisch (2003: 101). In ihrem Inneren befindet sich eine Art Uhrwerk, das wie ein mechanisches Modell fungiert. Es ist soeingestellt, dass es bestimmte äußere Zeichen oder Bewegungsabläufe einer Katze repräsentiert. Schon dadurch, dass wir es als Spielzeug erkennen und den Repräsentationscharakter des mechanischen Modells verstehen, wird deutlich, dass hier aus einem technisch vermittelten Abstand heraushardwareentwickelt wurde, die mit dem Innenlebeneiner Katze wenig zu tun hat, außer dass sie eben gewisse äußere Zeichen zu reproduzieren vermag, wenn auch mit ganz anderen Mitteln als eine echte Katze dies tut. DieseArt von Automat, so Riskin, gab es im 17. und insbesondere 19. Jahrhundert zuhauf. Inder Zeit zwischen 1730 und 1790 jedoch ging es um andere Konstruktionen, die Riskinim Gegensatz zurhardwareund in bewusster Anlehnung an heutige Redeweisen ausder Künstlichen-Intelligenz-Forschung und Bio-Kybernetik alswetwarebezeichnet.

Den Unterschied illustriert sie an Schreibautomaten, also Figuren, die eine Federüber das Papier führen. Im 17. und 19. Jahrhundert haben diese Figuren so getan, als obsie schrieben, die Feder nur in bezeichnender Manier in der Luft über dem Papier bewegt. Im 18. Jahrhundert ging es aber darum, den Automaten zum Schreiben zu bringen. Und tatsächlich konnte ein Schreibender aus der Werkstatt von Jaquet-Droz bis zu40 programmierbare Worte aufschreiben. Auch im Inneren sah dieser Schreibende anders aus:

31

30Alfred Nordmann

Hier geht es also nicht um Mechanismen, die bestimmte Verhaltensweisen analogischmodellieren und repräsentieren, sondern um die Simulation lebendigen Verhaltens – bishin zu den Geburtsmaschinen von Madame du Coudray, die aus Beckenknochen, Stoff,Leder und feuchten Schwämmen konstruiert ganz buchstäblich als wetware dienten,damit Hebammen etwas über den Geburtsvorgang erfahren konnten. Gerade darin, dasssie krude und unbeholfen waren, entsprechen diese Maschinen des 18. Jahrhundertsgegenwärtigen Versuchen, aus Simulationen statt aus analogischen Modellen zu lernen. Als „wetware“ bezeichnen heutige Biokybernetiker, Intelligenz- und Verhaltensforscherdie organischen Schaltungen im menschlichen Gehirn im Gegensatz zur hardware einesComputers. Letztere könne man zwar verwenden, um intelligente Verhaltensweisenoder Denkprozesse in einem technischen Medium nachzustellen, dabei verlange aberdie Tatsache, dass zunächst eine Analogie zwischen organischen und elektrischen Abläufen gebildet werden muss, einen Abstand zur Wirklichkeit, den die Simulation derlebendigen Vorgänge einebnen soll. Hier ist es somit ein spezifisches Erkenntnisinteresse, das um der Nähe zu den Dingen willen den womöglich unerfüllbaren Anspruch andie Technik und hier insbesondere an die Simulationsmaschinerie formuliert.

Die Automaten des 18. Jahrhunderts führen überdeutlich vor, wie weit sie hinter diesen Erkenntnisanspruch zurückfallen. Offensichtlich können sie Lebensprozesse nichtso simulieren, dass sich unmittelbar aus der Untersuchung der Maschine theoretischeEinsichten oder praktische Fertigkeiten bezüglich der Physiologie von Mensch undTierergeben. Die Frage ist nun, ob wir in der heutigen Situation wirklich so viel weitergekommen sind oder ob unsere Simulationsmodelle immer noch mit unbeholfenenMitteln in Richtung eines unerreichbaren Technikideals gestikulieren, das aber schon imErkenntnisprozess verortet ist und als gesellschaftliches Faszinosum fungiert. JessicaRiskin äußert sich hierzu an zwei Stellen:

Diese Ambivalenz ist Ausdruck einer tiefen Verwirrung und Verunsicherung – denAnspruch auf eine den Mechanismus irgendwie transzendierende Technik kann sie 6 Ausgehend vom Begriffspaar digital/analog verfahren Riskins Simulationen natürlich analogisch. Ihre Kontrastierung von Simulation und Analogie entspricht demnach eher der Unterscheidung von Ikon und Index, wobei das Ikonische auf der Teilnahme des Zeichens am Bezeichneten beruht und ein Index der zweistelligen Relation der Darstellung gegenüber dem Dargestellten entspricht.

32

Sanfte Technik31schon darum nicht begründen. Weil sich die Idee einer solchen Technik gar nicht kohärent entwickeln ließ, verschwanden die im 18. aufgetauchten Simulationen im 19. wieder, und weil auch wir im Übergang vom 20. zum 21. Jahrhundert erneut verwirrt undverunsichert sind, kehren sie jetzt zurück. Damit stellt sich nun aber die weitere Frage,warum gerade diese beiden historischen Momente von derartiger Verwirrung und Verunsicherung gekennzeichnet sind.

Jessica Riskin greift diese Frage auf und skizziert eine Antwort: „Why were the seventeenth and nineteenth centuries periods of analogy, and the late eighteenth and latetwentieth centuries periods of simulation?“ (Riskin 2003: 118). Analogien, so Riskin,besagen dies: „[W]e know what machines are, and animals turn out to be a lot likethem”. Simulationen funktionieren anders: „[W]e are not entirely sure what animals are,or what machines can be, and we can find out about both by trying to build an animalmachine” (ebd.). Mit dieser Tiermaschine stellen sich die Forscher des 18. und 21. Jahrhunderts demnach eine Technik vor, von der sie nicht wissen, ob es sie überhaupt gebenkann, ob sie womöglich inkohärent ist. Ein besonders deutliches Beispiel sind dieseMaschinen somit dafür, dass Technikideale gewissermaßen untechnisch, geradezu antitechnisch sein können:

In Bezug auf die hier vertretene These lässt sich demnach konstatieren: Gesellschaftenversprechen sich Orientierung von einer bloß imaginierten Technik, weil sie weder sichselbst noch die Technik verstehen, weil sie von den Grenzen und Möglichkeiten derTechnik, vom Zukunftsversprechen einer unerhört neuen und anderen Technik aufgestört, fasziniert und verunsichert sind. Diese Verunsicherung kennzeichnet die das Leben simulierendewetwareder vor- und nachindustriellen Zeitalter, somit auch die dieser Tage imaginierten „weichen“ Sozialmaschinen.

33

32Alfred Nordmann 4. Richard Jones’ soft machines

Hiermit kommen wir nun ganz in der Gegenwart an und bei der Nanotechnologie alsexemplarischem Beispiel für die so genannten Zukunftstechnologien, von denen wir unswider besseres Wissen die Lösung fast aller Probleme erhoffen sollen – von der Heilungdes Krebses über ressourcenschonende und energieeffiziente Produkte bis zur Vermeidung der Klimakatastrophe. Die Nanotechnologie bietet sich hierfür insbesondere darum an, weil sie von Anfang an durch einen impliziten und expliziten Maschinendiskursgeprägt ist, der die Realität oder Irrealität der imaginierten Maschinen thematisiert. Werüberhaupt etwas von der Nanotechnologie weiß, hat vermutlich von irgendwelchen nanobotsgehört, die es früher oder später geben könnte oder die es ganz unmöglichgeben kann, ohne die die Nanotechnologie als gesellschaftlicher Traum einer neuartigenTechnologie allerdings auch nicht auszukommen scheint.

Dieser hoch differenzierte, von unterschiedlichsten Akteuren geführte Maschinendiskurs, einschließlich seiner kultur- und sozialwissenschaftlichen, aber auch philosophischen Analysen, kann hier nicht rekapituliert werden (siehe etwa Smalley 2003a,2003b; Drexler 2003a, 2003b; Lösch 2007; Myers 2008; Nerlich 2005). Während Bernadette Bensaude-Vincent und Xavier Guichet kartesische, komplexe und konkreteMaschinen analytisch unterscheiden (Bensaude-Vincent/Guichet 2007), knüpft diefolgende Diskussion an das 2004 erschienene BuchSoft machinesvon Richard Jonesan, das zwischen harten und weichen Maschinen unterscheidet (Jones 2004). Dabei istbezeichnend, dass seine weichen Maschinen kein technisches Vorbild haben, allenfallsein natürliches. Eingeführt werden sie von Jones nicht etwa, weil sich in ihnen einebereits fortschreitende Technikentwicklung ankündigt, die unsere Aufmerksamkeitbeansprucht, sondern weil einzig die Konzeption vonsoft machinesder nanotechnologischen Behauptung Sinn verleiht, es könne überhaupt eines Tages molekulare Maschinengeben: Da molekulare Maschinen mit den geläufigen technischen Paradigmen nichtvereinbar sind, muss eine neue, ganz andersartige, an biologischen Prozessen orientierte, nasse und weiche Technik imaginiert werden, auf der diese Maschinen im Prinzipberuhen könnten. Jones führt dies mit hoher Intelligenz und großer Vorsicht vor – erweiß genau, was er tut. Als Physiker stellt er sich nicht unter den Druck, die Wirklichkeit der von ihm konzipierten weichen Maschinen erweisen zu müssen. Und tatsächlichgeht es in seinem über weite Strecken naturwissenschaftlich-technisch argumentieren 7 Dass die Nanotechnologie ohne diesen gesellschaftlichen Traum nicht auszukommen scheint, bestä- tigt sich gerade darin, dass dieser Traum ausgeträumt zu sein scheint in einer späteren Entwicklungs- phase, in der sich die Nanotechnologie so weitgehend normalisiert hat, dass es nicht mehr um moleku- lare Maschinen, sondern nur noch um Nanomaterialien geht. Den Stoff für kollektive Zukunftsträume bietet seither die synthetische Biologie.

34

Sanfte Technik33den Buch letztlich nicht um die Entwicklung der Technik, sondern um das Verhältnisvon Nanotechnologie und Gesellschaft.

Maschinenfantasien wären es nämlich, so Richard Jones und andere Nanoforscher,die der gesellschaftlichen Akzeptanz der Nanotechnologie womöglich in die Querekommen. Diesoft machinessollten als notwendiges Korrektiv dienen für eine gefährlich irreführende Vorstellung davon, wie die Nanotechnologie in gesellschaftliche Zusammenhänge eingreift. Wer vonmolecular machines, nanobots, assemblersoder dergleichen redete, schloss sich nämlich mehr oder weniger explizit an eine von Eric Drexler etablierte Rhetorik an. Hiernach sollte die Nanotechnologie eine so präzise Kontrolleüber einzelne Atome und Moleküle ermöglichen, dass nach mechanischem Vorbildkleine Maschinen konstruierbar sind, die im nanoskaligen Größenbereich Arbeit verrichten, z.B. im menschlichen Körper Zellreparaturen vornehmen oder Arterien entschlacken. Als gefährlich irreführend galt diese Vorstellung nun aus verschiedenenGründen. Insofern sie wissenschaftlich unseriös ist (Jones 2008; Smalley 2003a,2003b), könnte sie die ganze Nanotechnologie in Verruf bringen und womöglich all ihrekühnen Versprechungen in Frage stellen. Und obwohl sie wissenschaftlich unseriös ist,könnte sie irrationale Ängste auslösen vor unkontrollierbaren Nanorobotern.

Dass diese Vorstellung unseriös ist, eröffnet nun aber weiterhin die Möglichkeit eines Gedankenexperiments, das von einer konventionellen Maschinentechnik auf molekularer Ebene wegführt und eine unkonventionelle Maschine imaginiert, die zwar wissenschaftlich seriös ist, dafür aber jenseits unserer technischen Reichweite liegt. Jonesfragt, was für Maschinen überhaupt Arbeit verrichten könnten in den Größenordnungendes Nanokosmos, beispielsweise als Moleküle unter Molekülen in einer Blutbahn. Einederartige Maschine müsste die besonderen Bedingungen einer Welt zu nutzen wissen, inder Gravitationskräfte praktisch gar keine Rolle spielen, Brownsche Bewegung hingegen das Geschehen beherrscht. Weil eine am makroskopisch bekannten Roboter orientierte Maschine gegen die Brownsche Bewegung gar nicht erst ankäme, bedürfte eseiner biologisch weichen, z.B. viren- oder spermienähnlichen Maschine, die an ihreUmwelt angepasst ist, sich von ihrer Umwelt antreiben lässt und deren Funktionalitätvon ihren Umweltbedingungen gewährleistet wird. Gegen den wissenschaftlich unseriösen Nanoroboter bringt Jones somit eine wissenschaftlich seriöse, wenngleich bloßhypothetische Maschine ins Spiel, die Ernst Blochs Allianztechnik entspricht, also einer„Verhakung ohnegleichen“ und einem wirklichen „Einbau der Menschen […] in dieNatur“ (Bloch 1973: 817, vgl. auch die „konkreten Maschinen“ von Simondon 2012). Inwelchem Sinnesoft machinesüberhaupt „Maschinen“ sind, mag unklar sein, und unklarauch, ob sie jemals technisch realisiert werden können. Inzwischen verheißen sie aberetwas Neues, das sich nicht gegen natürliche oder gesellschaftliche Verhältnisse stellt,

35

34Alfred Nordmannsondern in sie eingebaut, integriert ist – eine förderliche, integrative, freundliche Technik.

Demgemäß kann es nicht überraschen, dass der Physiker und Nanoforscher RichardJones nicht nur dieses Buch geschrieben hat, sondern einer der wichtigsten Vermittlerder Nanotechnologie in Großbritannien wurde. Und das will etwas heißen. Unter demEinfluss einer kritischen Wissenschafts- und Technikforschung hat sich Großbritanniennämlich von dem simplen Modell abgewandt, wonach Vermittlung vor allem aus akzeptanzfördernder Wissenschaftskommunikation besteht. Um eine „Verhakung ohnegleichen“ soll es auch hier gehen, umgovernanceals dem wirklichen Einbau des Menschen in die Entwicklungsprozesse von Wissenschaft und Technik (Kearnes/Macnaghten/Wilsdon 2006). Keine harte Maschine soll der Staat sein, an dessen Regulierungsbehörden sich besorgte Bürger nur über Eingaben und Nachfragen wenden unddessen Fördermechanismen an unverrückbare Kriterien der wissenschaftlichen Qualitätund des wirtschaftlichen Interesses gebunden sind. Vielmehr sollen sich technologischeEntwicklungsprozesse als sanft und weich, gestaltungsoffen, entgegenkommend undvertrauenswürdig erweisen. In diesem Sinne erfüllte Richard Jones vorbildlich die Rolleder offiziell designierten Vertrauensperson (ombudsman) für Nanotechnologie – vorbildlich nicht nur wegen seiner leicht zugänglichen, umsichtig differenzierten, klarverständlichen, oft auch witzigen Analysen und nicht nur weil er wesentlich an Bürgerbeteiligungsverfahren für die Festsetzung von Forschungsprioritäten beteiligt war. Vorbildlich erfüllte Jones seine Rolle auch, weil er immer im Gespräch blieb mit den Sozial- und Geisteswissenschaften (z.B. Jones 2011). Stellvertretend für die ganze gesellschaftlich verfasste schlüsseltechnologische Forschung (so genannte „modus-2 Forschung“, vgl. Nowotny/Scott/Gibbons 2004) konstruierte Richard Jones somit zweierleisamtweiche Maschinerie und zweierlei gleichermaßen irreal sanfte Technik – wobeisich die biologisch inspirierte nanoskalige Maschine und die partizipatorisch orientierte Governance-Maschine gegenseitig informieren und es wiederum eine vermutlich nierealisierbare Technik ist, die der sanften Sozialmaschinerie zum Vorbild gereicht.

Jones‘ weiche oder biologische Maschinen mögen schon darum nicht für Maschinengehalten werden, weil die Vermischung des Organischen und Mechanischen einen Kategorienfehler darstellt, insbesondere wenn dem Organischen so etwas wie Spontaneitätzugesprochen wird und damit etwas, was sich einer regelhaften Kontrolle entzieht. Insbesondere Jean-Pierre Dupuy hat an den Programmen der Nanotechnologie ausgemacht,dass sie sich der Kontrolle des Unkontrollierbaren verschrieben haben – sei es unterdem Stichwort desbottom-up engineeringmit der Devise, Selbstorganisationsprozessezu nutzen, um technische Systeme nicht zu konstruieren, sondern wachsen zu lassen,oder sei es unter dem Stichwort dersoft machines. Selbstorganisation sei der Ingenieur-

36

Sanfte Technik35kunst ursprünglich entgegengesetzt, meint Dupuy, und verweist darauf, dass eine katastrophentheoretisch beschreibbare Dynamik der Idee von verlässlich funktionierendentechnischen Systemen widerspricht. Ingenieure seien gewiss nicht darauf aus, sich vonihren Konstruktionen wirklich überraschen zu lassen (Dupuy 2007). 5. Informelle Technisierung

Der Gegensatz zum Realismus, heißt es manchmal, sei nicht die Utopie, sondern dasWunschdenken (z.B. Geuss 2010). So ist das Tischlein-deck-dich oder dasperpetuum mobileauch keine Utopie, sondern eine Wunscherfüllungsmaschine, nicht anders alsder ausgleichende Fliehkraftregler, dessen Regierungskunst Individualinteressen inGemeinwohl überführt, und nicht anders als die Intelligenz einer Organisationsform, diejedem Einzelnen einen Platz im arbeitsteiligen Getriebe zuweist. Voraussetzung diesesWunschdenkens scheint zu sein, dass eine Beschränkung aufgehoben ist, die nach geläufigen Technikbegriffen konstitutiv für Technik ist. Und während Jean-Pierre Dupuyganz selbstverständlich davon ausgeht, dass die Konstruktion eines technischen Funktionszusammenhangs darin besteht, unliebsame Überraschungen auszuschalten undWirkmechanismen technisch zu kontrollieren, ist es im Widerspruch dazu die kybernetische Idee einer natürlichen Selbstkontrolle, die einem verworrenen WunschdenkenVorschub leistet:

Dies kann als Beispiel dienen für die ganz untechnische Vorstellung einer naturalisierten oder noumenalen Technik, die sich nicht am menschlichen Vorstellungsvermögenorientiert oder planerisch technisches Handeln erfordert, sondern die Unheimlichkeiteines Wunscherfüllungsmechanismus aufruft, bei dem der bloße Gedanke an etwasschon seine Verwirklichung bedeutet (Nordmann 2008b). So sehr es überraschen würde, wenn sich solche Mechanismen wirklich bauen ließen, so wenig kann es überra36 8 Ganz ausdrücklich sollten Eric Drexlers „universal assemblers“ Wunscherfüllungsmaschinen sein und konnten so die frühen Jahre nanotechnologischer Forschung maßgeblich beeinflussen. (Jones‘ „soft machines“ bauen auf ihre technische Unrealisierbarkeit auf und konnten zeigen, dass es für die Kon-

37

Alfred Nordmannschen, dass die Vorstellung einer technischen Kontrolle des Unkontrollierbaren gesellschaftlich wirksam wird und die Sozialmaschinerie informiert. Schließlich versprichtdie technische Kontrolle historisch kontingenter dynamischer Prozesse, dass Politikkeine Kunst mehr sein muss, und sich sogar die Zustimmung zu ihren Gestaltungsvorhaben zuverlässig produzieren lässt. So erweist sich der Ermöglichungscharakter nichtvon Technik, sondern von imaginierter Technik, und was sie ermöglicht ist eine Entpolitisierung der Politik, die ohne die harte Maschinerie und die Sachzwänge einer technokratischen Gesellschaft auskommt und stattdessen ihre Sozialmaschinerie nach demVorbild vonsoft machineskonstruiert, die den zwanglosen Zwang selbstorganisierender, geradezu organischer Wachstumsprozesse ausüben.

Die Suche nach den spezifischen Voraussetzungen oder Gründen für dieses aufgo- vernanceausgerichtete Politik- und Technikverständnis kann bei Jessica Riskins Zeitdiagnose ansetzen. Sie bezog das neuerliche Faszinosum einer technischen Simulation desOrganischen auf die Verunsicherung bezüglich der Möglichkeiten und Grenzen vonTechnik. Dieser Verunsicherung entspricht eine seitens der Nanotechnologie und synthetischen Biologie nur exemplifizierte allgemeine Auffassung von der grenzenlosenFormbarkeit der Welt, die so weitgehend dematerialisiert zu sein scheint, dass sie demtechnischen Zugriff keine Widerstände mehr entgegenzusetzen vermag (BensaudeVincent 2004). Die unkörperliche, weiche Sozialmaschine verkörpert somit einen erweiterten Designbegriff, demnach Entwickler und Nutzer, Techniker und Wissenschaftler, Konsumenten und Bürger gemeinsam an einem Weltgestaltungsprozess partizipieren, dem sich niemand entziehen kann und zu dem wir so oder so beitragen (Nordmann/Schwarz 2010). Die von den irrealensoft machinesinformierte Sozialmaschineerweist sich damit als Inbegriff von Design. Angesichts der unbegrenzten Reichweiteder mit ihr zu vollziehenden kollektiven Gestaltung einer durch und durch plastischenWelt erweist sie sich als heutige Variante des von Heidegger noch schicksalhaft undhart als eisernen Modernisierungskäfig gedachten Gestells. Traum davon, dass das bloße Denken in maschinelles Funktionieren übersetzbar sei, macht die Faszina- tion so genannter mind-machine interfaces aus, die aber immer nur brain-machine interfaces sein können und Wirkzusammenhänge allenfalls durch Konzentrationsleistung, nicht aber durch bloßes Denken erzeugen können. 9 Ein Beispiel hierfür bietet die sozialwissenschaftliche Begleitforschung, die sich unter dem Einfluss von governance Diskursen entscheidend gewandelt hat: Die in Europa verbreitete Ablehnung genetisch modifizierter Nahrungsmittel galt als Indiz dafür, dass sich eine kritische Öffentlichkeit nicht mit wis- senschaftlichen und kommunikationstechnischen Mitteln kontrollieren lässt. Stattdessen hat nanotech- nologische Begleitforschung diese kritische Öffentlichkeit in eine unkontrollierte partizipatorische Experimentalsituation eingebunden, die unter der Überschrift „verantwortliche Entwicklung der Nano- technologie“ die Selbstorganisation konsensualer Mitarbeit an einem gemeinschaftlichen Zukunftspro- jekt intendiert (Jasanoff 2002; Nordmann 2009).

38

Sanfte Technik37

Den Ermöglichungscharakter einer zunächst bloß imaginierten Technik hatte insbesondere Lewis Mumford herausgearbeitet. Die für den Pyramidenbau benötigte menschliche Arbeitsmaschine produzierte schon eine gesellschaftliche Ordnung, lange bevorsie durch Kolben und Gestänge lief. Dem entsprechend lässt sich heute beobachten,dass dassoft governanceModell eines gesellschaftlichen Kollektivexperiments mitneuen Technologien auf eine gesellschaftliche Ordnung hinausläuft, in der sich Produzenten und Entwickler freiwillig darauf verpflichten, Rede und Antwort zu stehen, inder Konsumenten bereitwillig als Versuchskaninchen dienen, in der sich Begutachtungsexpertise auf alle beteiligten Bürger verteilt, in der behördliche Aufsicht durchallgemeine permanente Wachsamkeit ersetzt wird, in der Interessenkonflikte hintereinen Verantwortungsdiskurs besorgter Bürger zurücktreten und in der „Ethik“ als internationale lingua francafungiert. In Echtzeit sollen sich Gesellschaften ohne Kontrollinstanz selbst kontrollieren können, so die fromme Hoffnung, die sich eines immerhin so breiten Zuspruchs erfreut, dass das Ideal kollektiver Lernprozesse in greifbareNähe zu rücken scheint.

Gesellschafts- und sozialwissenschaftliche Kritik darf nun nicht bei dem ansetzen,was die Technik kann, können soll oder bald können wird. Sie sollte vielmehr vor Augen führen, wie gerne wir uns über das hinwegsetzen, was Technik nicht kann und vielleicht nie können wird. Wenn es hier so etwas wie eine Gefahr gibt, die eine kritischePositionierung verlangt, besteht sie in dem, was wir Technisierungsprozessen zutrauen– und dieses „wir“ umfasst Technikenthusiasten und -skeptiker, Optimisten und Pessimisten, Ingenieur- aber auch Geistes- und Sozialwissenschaftler. Mit dem Zutrauen indas, was Technisierungsprozesse leisten werden, beginnt die Entmachtung der Politikund überantworten wir geopolitische Menschheitsfragen den weich selbstorganisierenden Deliberations- und Innovationsprozessen, die durchgovernanceModelle immer nurangestoßen werden. Um dem zu entgegnen, muss der Spieß gewissermaßen umgedrehtwerden und muss die Entmachtung der Technik und einer nur noch technisch aufgefassten Weltgestaltung seitens einer philosophischen Kritik informeller Technisierung angezettelt werden.

Im Gegensatz zu geläufigen Technisierungskonzepten geht es einer Philosophie informeller Technisierung nicht vornehmlich darum, wie sich eine Eigenlogik „der Technik“ unaufhaltsam durchsetzt, wie Gesellschaftsordnungen und Kommunikationsverhältnisse durch das Vorbild oder die Erfordernisse einer bestehenden Technik geprägtwerden. Weder Mumfords Megamaschine noch Jones‘soft machine, weder Mayr’s governornoch Riskinswetwarefügen sich in ein derartiges Technisierungsnarrativ.Hier bedeutet Technisierung zunächst einmal nur, sich einen Zusammenhang als einen

39

38Alfred Nordmanntechnischen Zusammenhang zu imaginieren und damit beispielsweise die Idee der Politik mit der Idee des Designs zu verschmelzen – wobei der Grund hierfür nicht im Bereich, gar im Fortschritt oder in der Ausweitung des Technischen aufzufinden ist.

Was im Zuge informeller Technisierung formgebend ist oder gesellschaftliche Verhältnisse in-formiert, soll etwas Informelles, einerseits Unmerkliches, andererseits Unbestimmendes sein. Mit dieser Charakterisierung begibt sich die Philosophie der informellen Technisierung in die Nähe der z.B. von Dupuy beschriebenen Gefahr: Wie dieIdee einer unberechenbaren oder überraschenden Technik ist der gesellschaftliche Bezug auf eine nicht formgebende, unmerklich sanfte, eines rigiden Wirkmechanismusenthobene Technik zunächst Ausdruck davon, dass Gesellschaften weder sich selbstnoch die Technik verstehen.Aus der Nähe zur Gefahr würde eine gefährliche Nähe,sollte im Begriff der „informellen Technisierung“ eine positive Programmatik enthaltensein, die einer hier nur skizzierten Ideologiekritik unterworfen werden müsste. Nuraffirmativ verhielte sich nämlich die Positivierung einer ohne Bestimmung der Formformgebenden Technisierung gegenüber dem, was die irreale soziale Wunscherfüllungsmaschinerie des zwanglosen Zwangs verspricht, dersoft governanceoder derKontrolle des Unkontrollierbaren durch Selbstkontrolle.

Literatur

40

Sanfte Technik39

41

40Alfred Nordmann

42

Die Suche nach Instanziierungen informeller Technisierung lenkt den Blick auf technische Phänomene, die auf der Basis von Selbstorganisationsprozessen operieren und beidenen die Schnittstelle zwischen Technischem, Natürlichem und Menschlichem unklarwird. Eindeutige Zuschreibungen und Rekonstruktionen misslingen oder werden fraglich, in diesem Sinne wird Technik informell; sie verliert ihre Formbestimmtheit unddamit die Basis für abduktive Rückschlüsse. Das Verwischen der Grenzen zwischentechnischen Aktivitäten, natürlichem Verhalten und menschlichen Handlungen wirdjedoch in verschiedenen, zumeist kritischen Diskursen als „Autonomie“ bzw. „Autonomwerden“ einer irgendwie verselbständigten Technik verstanden. Dabei wird in derRegel nur unzureichend die begriffliche Grundlage reflektiert, welche neue Anmutungen und neue Entwicklungen der Technik zu sondieren und zu differenzieren erlaubte.Soll tatsächlich behauptet werden, dass Technik autonom ist?

Der vorliegende Beitrag unterbreitet dazu grundbegriffliche Vorschläge, deren Zusammenhang in der These besteht, dass sich die genannten Diskussionen auf einen Verlust der Schnittstellen zurückführen lassen bzw. die Anmutung eines solches Verlustes.Das Zentrum der Diskussionen um die Hybridisierung von Technik und Mensch, dasVerwischen der Natur/Technik-Unterscheidung, das Informellwerden von Technik oderihr Autonomwerden ist folglich in diesem Verschwinden der Schnittstelle zu finden.Ebenso lässt sich die Frage nach der Neuartigkeit avancierter gegenwärtiger Technologien von diesem Ort aus entfalten. 1. Biofakte und autonome IT ‑ Systeme

Neuere technologische Entwicklungslinien im Bereich der Bio- und Informationstechnik haben die Unterscheidung von Natur und Technik bzw. Mensch und Technik fraglich werden lassen. Die Diskussion mit Blick auf die erste Linie ist insbesondere unterdem Titel „Biofakt“ geführt worden. Dieser von Nicole Karafyllis in die gegenwärtigeTechnikphilosophie eingeführte Begriff (Karafyllis 2003) bezieht sich auf Gebilde, diedurch eine Implementation technischer Funktionselemente in Organismen entstehen undderen Wachstum und Entwicklung durch diese Fusion technischer und natürlicher Momente geprägt sind. Technik scheint dadurch in bestimmtem Sinne autonom zu werden.

43

42Christoph Hubig, Sebastian Harrach

Handelt es sich um einen menschlichen Organismus, kann man vom „biofaktischenMenschen“ sprechen. Die aktuellen Strategien der Biofaktisierung beinhalten etwagentechnische Interventionen sowie die Konstruktion und den Einsatz neuer „synthetischer Zellen“ mit bestimmten Funktionen. Eine zweite und mit den Biofakten verwandte Form autonomer Technik stellen lernfähige, autoadaptive IT-Systeme dar. Einigedieser Systeme ermöglichen Eingriffe in die Signalaufnahme und -verarbeitung desMenschen sowie eine Delegation von Problemdiagnose- und Problemlösungsprozessenan so genannte autonome Systeme. Die Gemeinsamkeit von Biofakten und autonomenSystemen liegt in ihrer Fähigkeit zur Autoadaption. Diese Implementierung von „natürlichen“ Prozessen und die Fusion der Technik mit dem Menschen kann so weit gehen,dass in Analogie von Cyberfakten gesprochen werden kann – insbesondere wenn unspürbare Technik aus dem Ubiquitous Computing zum Einsatz kommt. Der Transfervon Funktionen bzw. die „Fusion“ in der Funktionserfüllung setzt voraus, dass die „natürlichen“ Funktionen des Menschen „technomorph“ – also technikförmig – modelliertwerden, damit auf einem einheitlich technologisch konzipierten Fundament die Anschlussfähigkeit der Funktionselemente gewährleistet ist. Diese technologische Modellierung des Menschen ist unproblematisch, solange sie als Modellierung bewusst bleibtund nicht (als „Wesenszug“) ontologisiert wird. Funktionserfüllung kann dann explizitund verantwortbar delegiert werden. Problematisch werden solche Vollzüge, wenn einetechnisch modellierte („technomorphe“) Verfasstheit des Menschen als dessen eigenesWesen erachtet und dann in Systemen „wiedergefunden“ wird, die scheinbar auf dergleichen technischen Basis agieren. Die Rede von „Autonomen Systemen“, die nachfolgend untersucht wird, verdankt sich – wie wir sehen werden – drei Schritten: einertechnomorphen Modellierung menschlicher Funktionen und schließlich des ganzenMenschen, der Konstruktion biotischer Lebensformen und/oder informationstechnischerSysteme, die solche Funktionen wahrnehmen (sollen), und schließlich der Projektionmenschlicher Eigenschaften in die technischen bzw. biofaktischen Systeme im Zugeeines Vergessens der technomorphen Reduktion dieser menschlichen Verfasstheiten.Dies giltsowohl, wenn menschliche Eigenschaften als technisch modellierte den Systemen unterstellt werden,als auch, wenn technischen Systemen Eigenschaften zugeschrieben werden, die wir für menschlich halten, weil wir sie (noch) nicht oder nichtvollständig technisch rekonstruieren können („Autonomie“ in einem anderen, zeitlichbegrenzten Sinne).

44

Transklassische Technik und Autonomie43 2. Hybridisierung des Menschen? In jüngster Zeit ist angesichts der erwähnten technologischen Entwicklungen vielfachvon einer Hybridisierung des Menschen die Rede. Unter Hybridisierung versteht manden Zusammenschluss zweier Subsysteme in einem System, welche einander unter dergleichen Funktion zu substituieren oder zu unterstützen vermögen. Jene in warnenderAbsicht vorgetragene Rede von einer Hybridisierung des Menschen ist unangemessen,undifferenziert und unterkomplex. Denn solange der Mensch Technik als „Prothese“einsetzt, um über seine organische Ausstattung hinaus seine Handlungsmöglichkeitenzu erweitern (durch Verstärkung seiner organischen Funktionen oder durch die Erschließung neuer Handlungsoptionen qua Bereitstellung von Mitteln, die seine bisherigeAusstattung nicht enthielt, oder um seinen Aufwand zu minimieren – „Entlastung“ – ),ist der Mensch an sich ein Hybridwesen. Seine Selbsthybridisierung beruht jedoch aufdisponiblen Schnittstellen zu den technischen Systemen, was voraussetzt, dass dieseSchnittstellen definiert, gekannt und gemäß ihren Zwecken situationsangemessen gestaltbar sind. Ferner setzt dies voraus, dass das Funktionieren der Werkzeuge, Maschinen und technischen Systeme wenigstens prinzipiell bekannt ist, so dass die entsprechende prothetische Technik zielführend einsetzbar ist und Störungen vermieden werden können.

Der qualitative Wandel, auf den die undifferenziert warnende Rede von einer Hybridisierung des Menschen abhebt, scheint darin zu liegen, dass die Schnittstellen zwischen dem technischen Subjekt und der von ihm eingesetzten Technik in unterschiedlicher Weise subjektiv und objektiv „verschwinden“: Sie werden unklar, sind nicht mehrwahrnehmbar, entziehen sich der Gestaltung und einer in jeder Situation bewusstenNutzung. Die Technik erscheint „irgendwie autonom“. Selbsttätige Technik war freilichimmer schon Thema einschlägiger Utopien einer Entlastung des Menschen, nicht nur,was den Einsatz von Mitteln, sondern auch eine quasi-fürsorgliche Problemdiagnosebetrifft, die dann automatisch einen entsprechenden Mitteleinsatz nach sich zieht. Wasalso macht dann genau den Unterschied aus? 3. Klassische und transklassische Technik

Die neue Qualität, die neue Spezifik jenes Typs von Technik kann zunächstex negativo ersichtlich werden im Zuge einer Rückbesinnung auf dasjenige, was wir als „klassischeTechnik“ bezeichnen möchten. Menschliches technisches Handeln, das vom bloß instrumentellen Mitteleinsatz, wie er sich auch bei höheren tierischen Spezies findet, zuunterscheiden ist, hat diezweiGrundfunktionen – der Regelung und Steuerung – zu

45

44Christoph Hubig, Sebastian Harracherfüllen: Neben dem Einsatz von Mitteln insteuernderAbsicht ist dieser Steuerungsvorgang zunächst zusichern(Heidegger 1954: 71; 1962: 18, 27), d.h. die Möglichkeitgelingender Steuerung ist zu gewährleisten. Dies betrifftprima faciedie Kompensationvon sowie die Immunisierung gegenüber möglichen externen Störungen der Steuerung.Solcherlei erbringt über das situative Gelingen hinaus die Wiederholbarkeit, Planbarkeitund Antizipierbarkeit dieses Gelingens. In einemweitenSinne kann man diese Sicherung als „Regelung“ bezeichnen, als „ausgearbeitete Gegenaktion“ gegen möglicheStörungen, welche dadurch eine „gelingende Steuerung ermöglicht“ (Ashby 1974: 290).Eine solche Regelung im weiteren Sinne kann prinzipiell auf drei Weisen stattfinden:(a) durch Abschottung/Containment, (b) durch kompensierende Störgrößenaufschaltung(also höherstufige Steuerung der Steuerung) sowie (c) durch „Regelung“ im engerenSinne (vgl. DIN 19226), die im Modus der Rückkoppelung als Verschränkung zweierSteuerungsprozesse die Abweichung von der Sollgröße als Steuerung einsetzt. Die Regelung im weiteren Sinne wird durch technische Systeme gewährleistet, wie sie erstmals im Umfeld der neolithischen Revolution gegenüber den Fährnissen der unberührten äußeren Natur entwickelt wurden (Ackerbau, Viehzucht, Infrastrukturen des Wohnens, des Verkehrs, der Kommunikation, der Verteidigung etc.). Technik ist in diesemSinne immer schon Systemtechnik. Die Gestaltung solcher Systeme (im Großen wie imKleinen), an die der Mensch zunächst Regelungsfunktionen, später auch Steuerungsfunktionen delegiert, setzt eine hinreichende Repräsentation möglicher Handlungsvollzüge sowie möglicher Störungen dieser Handlungsvollzüge im Bewusstsein voraus.(Solche höherstufigen Repräsentationen lassen sich – nach gegenwärtigem Stand derHirnforschung – bei höheren tierischen Spezies nicht nachweisen.) Diese Repräsentation entsteht erst schrittweise aufgrund jeweiliger Widerstandserfahrungen bei der vorgenommen Realisierung von Zwecken: Jene Widerstandserfahrungen werden als Manifestationen der Abweichung der realisierten Zwecke von dem intendierten x begreifbar,und dadurch wird das intendierte x als intendierter So-und-so-Zweck erst nach und nachin seinen Eigenschaften (Aufwand, „Nebenfolgen“ etc.) bewusst. In einem zweitenSchritt kann dann die Abweichung zunächst abduktiv – i. S. eines „Schlusses“ auf dieUrsachen und ihre bestmögliche Erklärung – auf Defizite der Steuerungs- und Regelungsvollzüge zurückgeführt werden, umfassender dann auf Systembedingungen, Systemeigenschaften und Typen von Störungen. Diese abduktiven unsicheren „DetektivSchlüsse“ werden dann später induktiv und hypothetisch-deduktiv erhärtet. Sie bildenden Erfahrungsschatz, der die Basis (und die Motivation) abgibt zur Fortschreibung undNeuentwicklung von Systemen. Und sie sind zugleich die unabdingbare Voraussetzungdafür, dass das technische Subjekt sich der Leistungen, Grenzen und Defizite seinerSubjektposition, die sich in seinen steuernden und regelnden Eingriffen manifestiert,

46

Transklassische Technik und Autonomie45vergewissern kann. Die Schnittstellen können nun jedoch sowohl in kognitiver, subjektiver Hinsicht „unklar“ (aufgrund der Komplexität der Systeme und einer Zunahme derUngewissheit über ihre internen Determinanten oder externen Störgrößen) als auchobjektiv, material indisponibel werden (etwa aufgrund der heterogenen geographischenVerteilung der an den Prozessen beteiligten Artefakte oder aufgrund emergenter Effekte, die die einmal ausgelösten Entwicklungsprozesse zeitigen – wie einer extrem schnellen Veränderung der Funktionen der Schnittstellen). In diesem Fall sieht sich das technische Subjekt einerseits epistemisch eingeschränkt, weil die klassischen Abduktionennicht mehr möglich sind, und es sieht sich als Aktionssubjekt zurückgedrängt, weilseine Technik („irgendwie“) autonom geworden ist. Dieser schwache Sinn von „Autonomie“ soll wohl besagen, dass die biotechnischen Systeme bzw. die autoadaptiven ITSysteme ihr Prozessieren nicht mehr unter (wenn auch noch so abstrakten) Zielvorgabenin steuernder und regelnder Absicht der technischen Subjekte vornehmen, sondern quasi„selbsttätig“. Diese „Selbsttätigkeit“ ist keine Randbeobachtung, sondern verdient –nicht nur in der Diskussion der informellen Technisierung – einen genaueren Blick,denn tatsächlich liegt eine zentrale Stärke und Besonderheit der biotechnischen Systemebzw. der autoadaptiven IT-Systeme gerade darin, dass es möglich ist, sie im Rahmeneines Autoadaptionsprozesses unbeeinflusst Strukturen ausbilden zu lassen. EineSchwierigkeit des Einsatzes von „selbsttätigen“ Systemen liegt darin, dass fast nie erkennbar ist, auf welche Art und Weise die resultierenden Strukturen entstanden sind undim Nachhinein fast immer nur heuristisch überprüft werden kann, was genau die Ergebnisse abbilden. Die Subjektposition der technischen Subjekte (Entwickler und Nutzer)kann sich verändern, weil die Autorschaft für gezeitigte Resultate unklar wird bzw. eineDelegation der Autorschaft an die Systeme in bestimmten Phasen des Prozessierensnicht mehr (nach-)vollziehbar erscheint. Weil die Abduktionsbasis verschwindet, kannsich das technische Subjekt nicht mehr im klassischen Sinne in ein (theoretisches undpraktisches) Verhältnis zu seiner Technik setzen, da Systemleistungen, Umweltbedingungen und selbst bewirkte Effekte ggf. nicht mehr zu unterscheiden sind. 4. Technik und Natur

Auch in einem weiteren Sinne wird dieses Verhältnis von Technik und Subjekt problematisch: Die klassische Verortung von Technik unter der Leitdifferenz „Technik – Natur“ gerät ins Wanken. Sie lässt sich nur sinnvoll begründen alsVerhältnisder Subjektezu ihrer äußeren Umwelt sowie zu ihrer eigenen inneren Verfasstheit. Erscheinen dieseals disponibel bzw. als Ergebnisse menschlichen Einwirkens, so sprechen wir vonTechnik; erscheinen sie als indisponibel und „von sich aus“ wirkend, sprechen wir von

47

46Christoph Hubig, Sebastian Harrach

Natur. Denn Versuche, den Unterschied von Natur und Technik rein objektbezogen zucharakterisieren, scheitern. Wir modellieren nämlich Natur zwangsläufig technomorphund nutzen selbstverständlich in der Technik solcherlei modellierte „Natur(-kräfte)“.Wenn „Natur“ und „Technik“ Auskunft über unserenBezugzu diesen Entitäten geben,dann handelt es sich hier um Reflexionsbegriffe (Hubig 2006: Kap. 7.2). Nach Maßgabejener Disponibilität (Steuer- und Regelbarkeit) sprechen wir von „Technik“ oder „Natur“. Wenn eine Anlage oder ein Organismus ein „Eigenleben“ entwickelt, unterstellenwir, dass von uns nicht steuer- und regelbare „Naturprozesse“ am Werk sind; hingegenist die Wasserlandschaft der oberrheinischen Tiefebene ein gut geregeltes und die Fichtenplantage „Schwarzwald“ ein schlecht geregeltes technisches System.

Mit dem noch genauer auseinanderzulegenden „Unklarwerden“ unseres Verhältnisses zu der von uns eingesetzten Technik ändert sich mithin auch unser Naturverhältnisgrundlegend: Natur als Reflexionsbegriff, der das nicht verfügbare Andere ausdrückt,droht als Gegenkonzept zu „Autonomie“ zu entfallen. Das betrifft sowohl den Charakterder Natur als Auskunftsinstanz über die externe Bedingtheit unserer Systeme und ihresProzessierens (welche dann ggf. einer technischen Überformung in sichernder Absichtunterzogen werden sollen), als aber auch und gerade ihren Charakter als ästhetischeAnmutung als „Erhabenes“, in deren Lichte wir unsex negativounserer Subjektpositionals autonomer Position vergewissern. Wie Kant gezeigt hat, ist die ästhetische Anmutung der (reflexiv) als nicht verfügbar begriffenen Natur (als über alle Maßen „groß“und „mächtig“), sofern wir in der Position sind, sie anzuschauen und zu begreifen (undnicht ihr besinnungslos zu unterliegen), eine indirekte ästhetische Anmutung unsererFreiheit und insofern für die Herausbildung von Autonomie unverzichtbar (Kant 1790:§ 28). Denn, sofern wir dieser Natur nicht unterliegen, werden wir uns selbst als dasAndere der Natur vorgeführt, und ferner zeigt uns dieses Andere über die von ihm induzierten Störungen unserer Systeme immerfort die Bedingtheit dieser Systeme und erinnert uns an ihre Disponibilität sowie die Disponibilität des Verhältnisses, welches wirzu diesen Systemen einnehmen. Entfällt diese ästhetische Wirkung, weil uns die Systeme als „autonom“ erscheinen, verlieren wir also jene Leitdifferenz und damit auch undgerade – durch den Verlust des Gegenkonzepts zu Autonomie – unsere Vorstellung vonAutonomie. Wenn dies der argumentative Hintergrund ist, aus dem die Warnungen vorden neuen Entwicklungen erwachsen, so ist nun genauer zu fragen, wie sich diese Entwicklung mit Blick auf die Biofaktisierung des Menschen einerseits sowie die humanoiden technischen Systeme andererseits darstellt. Ein möglicher Autonomieverlust desMenschen als technischem Subjekt ergäbe sich einerseits durch die Überantwortung vonAspekten seiner Autonomie an diejenigen Wirkungslinien „der Natur“, deren Prozessieren er in seine technischen Artefakte integriert hat; andererseits ergäbe sich sein Auto-

48

Transklassische Technik und Autonomie47nomieverlust aus der Delegation von Aspekten seiner Autonomie an „intelligente“ Systeme, die „teilautonom“ prozessieren und deren Autonomiezuwachs sich umgekehrtproportional verhält zum Autonomieverlust des Menschen. 5. Transklassische Technologien der Lebenswissenschaften und„autonome“ Systeme

Wie verändert sich nun angesichts der Biofakte sowie „autonomer/intelligenter“ Systeme die Subjektposition des Technikers als Entwickler und Nutzer? Biofakte als technisch induzierte Provokationen, Stimulationen und Manipulationen von gewünschtenWachstumsprozessen sowie der Reproduktion von lebenden Einheiten nutzen Steuerungsprozesse der (technomorph modellierten) Natur sowie Systembildungsprozesse(also deren Regelungsprozesse) als Mittel zur Erzielung eines Zwecks. Über diese chemotechnischen oder gentechnischen Interventionen hinaus sucht die synthetische Biologie das einzellige Leben bzw. das Leben auf zellulärer Ebene einer technischen Gestaltbarkeit zugänglich zu machen, wie es nie zuvor der Fall war. Die Gentechnik war beiihrem Austausch einzelner Gensequenzen noch gebunden an bereits existierende Formen des Lebens. Die synthetische Biologie unternimmt es darüber hinaus, biotischeFormen in weitergehender Ablösung von der Natur zu entwerfen und herzustellen. Siegeht dabei zwei Wege: Entweder soll das Genom existierender Bakterien minimiert,„ausgehöhlt“ werden, so dass nach Möglichkeit nur diejenigen Gene bestehen bleiben,die den Stoffwechsel und die Fortpflanzungsmöglichkeit des Organismus – sozusagenals Basisorganismus oder (in der Begrifflichkeit der Automobiltechnik gesprochen)„Chassis“ – sicherstellen, worauf dann weitere Funktionen aufgesetzt werden könnten.Oder es soll eine neue Basisform des Lebens aus einfacheren Teilen aufgebaut werden,sei es beginnend mit chemischen Ausgangsstoffen auf dem Wege der Entwicklung einerProtozelle, sei es unter Verwendung bereits bestehender biotischer Bausteine zum Aufbau einer „synthetischen“ Zelle. Unter Einbezug der Erträge systembiologischer Forschung sollen nicht nur gezielte Veränderungen von Genen und Genomen erreicht,sondern auch die Veränderung und Entwicklung von metabolischen Netzwerken sowieintra- und interzellulären Signalstrukturen vorgenommen werden. Diese neuen Herstellungsprozesse von Biofakten werden simulationsbasiert als Konstruktionen am Rechnermodelliert. Nur so ist die Menge der Bausteine im sechsstelligen Bereich (bei prokaryotischen Modellorganismen wie dem BakteriumE. coli) bzw. neunstelligen Bereich(beim Menschen) zu managen. Dabei kommen die klassischen technischen Strategiender Modularisierung und Standardisierung zum Einsatz. Da hiermit jedoch biologischeProzesse ausgelöst werden mit Folgen für bestehende Ökosysteme sowie den Men-

49

Christoph Hubig, Sebastian Harrachschen, weil etwas erschaffen wird, das aufgrund seiner Fähigkeit zur Fortpflanzung undMutation Eigenständigkeit gewinnt, können sich diese Organismen der Kontrolle entziehen. Insbesondere entfallen für eine mögliche Risikokalkulation unsere bisherigenModellierungen „natürlicher“ Prozesse als Vergleichs- oder Referenzmodell (Arndt etal. 2008). Die klassische Art, Systemleistungen und ihre „Nebenfolgen“ abduktiv zuerschließen, wird erschwert, wenn nicht in bestimmten Fällen verunmöglicht, weil dieEffekte keine hinreichend sicheren Rückschlüsse auf die Art der Verursachung derEffekte erlauben. Denn in die Systembildung gehen technische und nichtdisponibelnatürliche Faktoren ein, obwohl das Ingenieurvokabular, mit dem die synthetische Biologie arbeitet, darüber hinwegtäuschen mag. Die Autorschaft wird unklar, weil dieSchnittstellen zwischen technischem Subjekt und biofaktischem System im Prozess vonWachstum und Entwicklung, Genrekombination und Mutation, Selektion und Reproduktion verschwinden.

Ähnliches gilt für sogenannte „intelligente“, autoadaptive und autonome ITSysteme, die z.B. im Zuge der Erweiterung und des Ersatzes von Leistungen unsererSinnesorgane durch „intelligente“ Sensorik oder als „intelligente“ Schachprogrammezum Einsatz kommen. Diese IT-Systeme sind mit Problemdiagnose- und Problemlösungskompetenz ausgestattet und entwickeln sich – lernfähig und autoadaptiv – selbstorganisiert weiter. Dabei ist diese Art „technischer Autonomie“ zu unterscheiden vonbloßer Autarkie (Auskommen ohne externe Energie- oder Materialversorgung) oderautomatischem Prozessieren (unabhängig von steuernden oder regelnden Benutzereingriffen). „Adaptivität“ meint hier vor allem eine vomNutzernicht oder nur unterSchwierigkeiten zu beeinflussende Verarbeitung von Umgebungsinputs beziehungsweise Nutzereingaben. Die „Lernfähigkeit“ eines IT-Systems besteht in einer vomKon- strukteurnicht direkt zu beeinflussenden Verarbeitung von Umgebungsinputs. DieseSelbsttätigkeit kann ontologisch interpretiert werden als Generierung neuer Eigenschaften („Innovativität“) und/oder sie kann epistemisch interpretiert werden als Generierungvon durch uns nicht vorhersagbaren Effekten, weil uns die inneren Zustände und Gesetze ihrer Veränderung nicht bekannt sind („Intransparenz“, „Opakheit“). Es kommt alsoauf die Hinsichten an, unter denen „Autonomie“ modelliert wird. Ein solches Systemverhalten kann durchaus erwünscht sein, wenn bei dem Entlastungseffekt qua Delegation von Steuerung und Regelung die Strategien und allgemeinsten Zielgrößen extern –also vom Subjekt – bestimmt bleiben. Die Vorgabe von Zielgrößen nennt ein konkretesZiel, von dem bestimmbar ist, wann es erreicht wurde und das meist in Form einer Zielfunktion auftritt. Die Nutzer haben ein klar formulierbares Problem und erwarten vondem eingesetzten autonomen System ein bestimmtes Ergebnis. Abstrakte Beispiele fürderartige Autoadaptionsprozesse sind Optimierungsprobleme, durchaus auch im ma-

50

Transklassische Technik und Autonomie49thematischen Sinn. Das Ausmaß der Autonomie kann dabei über eine rechnerischeOptimierung hinwegreichen. Etwa kann ein solches System zusätzliche Messungenanfordern oder durchführen und mit ihrer Hilfe Aspekte der zu optimierenden Umgebung berücksichtigen, die nutzerseitig zunächst keine Beachtung fanden. Darüber hinaus kann es sich um ein erwünschtes Systemverhalten handeln, wenn die Delegationvon Regelung und Steuerung nicht mit der Vorgabe von Zielgrößen verbunden ist. DieIntegration von selbsttätigen Autoadaptionsprozessen „entfernt“ einerseits die Technikje nach Abduktionsgrad der eingesetzten Methoden (Kaminski/Harrach 2010) mit unterschiedlichem Nachdruck vom Bereich der kontrollierbaren Technik. Der Einsatz vonautonomen Systemen führt somit – implizit akzeptiert – dazu, dass Technik in verschiedener Hinsicht unberechenbarer und undurchsichtiger wird. Andererseits kann dieserTendenz entgegengewirkt werden, indem etwa der theoretische Hintergrund der Systeme und das Verständnis der Einschränkungen, denen die Technik unterliegt, erforschtund besser verstanden werden. Den Systemen wird so das Potenzial der Unbeschränktheit genommen. Die Technik kann dementsprechend wieder in den Bereich von beschränkter und verstandener Technik „zurückgedrängt“ werden und gewinnt wieder anTransparenz. Diese Möglichkeiten, Technik in Hinsicht auf deren Unmerklichkeit undWirksamkeit ohne Formbestimmtheit zu verändern, sind besonders dann interessant,wenn die Frage gestellt wird, ob und inwiefern autonome Systeme eine informelleTechnisierung ihrer Einsatzbereiche vorantreiben.

Wenn nun qua Delegation von Steuerung und Regelung ein Entlastungseffekt erzieltwerden soll und gleichzeitig eine externe Vorgabe der Zielgrößen erwünscht ist, handeltes sich um eine (operationelle) „Teil-Autonomie“, die sich letztlich auf den Einsatz vonMitteln im weiteren Sinne (samt hierarchisierten Mittel-Zweck-Verknüpfungen) bezieht. Aufgrund jener Delegation wird das entsprechende Systemverhalten dann oft miteinem intentionalistischen Vokabular beschrieben. Es macht jedoch einen Unterschiedaus, ob unter einer solchen „Als-ob-Intentionalität“ eine (Teil-)Delegation menschlicherIntentionalität oder –ex negativovon der Warte menschlicher Intentionalität her gesehen – eine „Verselbstständigung“ der Systeme beschrieben werden soll.

„Systemautonomie“ beschreibt dann ein Wissensdefizit der Subjekte, die aufgrunddieses Defizits nicht mehr mit den Systemen interagieren können, sondern ihren Effekten unterliegen. Diese Problematik verschärft sich, wenn die autoadaptiven IT-Systemeüber ihre eigenen Strategien und ihre Aktionsumgebung Eingaben erhalten, die demNutzer unbekannt sind. Solche Eingaben können durch eine vergleichsweise unsystematische Autoadaption der durch die Entwickler vorgegebenen Vorstrukturierungen entstehen – etwa wenn ein evolutionärer Algorithmus seine Startbedingungen evolviert.Alternativ können Informations- und Wissensbestände aus dem Internet übernommen

51

50Christoph Hubig, Sebastian Harrachwerden, die sich dort „selbstorganisiert“ herausgebildet haben und die nach der Übernahme zusätzlich zu den bestehenden Strukturen die Lernprozesse der autoadaptivenIT-Systeme steuern und regeln. Ferner verschärft sich die Problematik, wenn nicht nureine direkte Interaktion eines Individuums mit einem „autonomen“ IT-System zur Diskussion steht, sondern unter den systemischen Aktionen das Handeln der Nutzerinnenund Nutzer anonym koordiniert wird in dem Sinne, dass die Systeme weitere Nutzerreaktionen, die dem Einzelnen unbekannt bleiben, verarbeiten. Diese „Verschärfung“fokussiert den Blick auf einen für die Diskussion der informellen Technisierung besonders interessanten Teilbereich autonomer Systeme, in dem systematisch auf externeVorgaben verzichtet wird. Autonome Systeme aus diesem Bereich modellieren ihreStrategien und ihre direkte Aktionsumgebung – entsprechend des zweiten Merkmalsinformeller Technisierung –selbsttätigüber die Erfassung von Messwerten oder anderen Eingaben und können alsneugierigbeschrieben werden (Harrach 2013). Die Vorgehensweise neugieriger Systeme bedingt, dass sie besonders schlecht als „heil oderkaputt“ klassifiziert werden können. Für diejenigen Nutzer, die mit neugierigen Systemen interagieren (Aufgaben delegieren, Leistungen nutzen, ggf. Leistungen korrigierenund zu kontrollieren suchen etc.), entfällt somit eine Basis, von der aus Abduktionsschlüsse vollzogen werden können. Die Subjekte können sich also, wie vermutet, inder Tat nicht mehr in einem klassischen Sinne in ein Verhältnis setzen zu dem für sieDisponiblen (ihrerTechnik) und dem für sie Indisponiblen, da Systemleistungen, Umweltbedingungen und selbst bewirkte Effekte nicht mehr zu sondern sind. Wie erwähnt,wird dieser Effekt potenziert, wenn einerseits die Systementwicklungen als Reaktionauf individuelle oder kollektive Aktionen zahlreicher Nutzer in der Koordinierung dieser Aktionen usf. auftreten und wenn andererseits technische Nachbildungen natürlicherSelbstorganisationsprozesse wie evolutionäre Algorithmen oder künstliche neuronaleNetze eingesetzt werden. 6. Die Rolle autonomer Systeme in der informellen Technisierung

Die Rolle der Biofakte und der autoadaptiven IT-Systeme in der Diskussion der informellen Technisierung beschränkt sich nicht auf die eben genannten Hinweise. Der Bezug zu den drei Momenten informeller Technisierung – (1) Unmerklichkeit, (2) Wirksamkeit ohne Formbestimmtheit und (3) Prozessualität – kann exemplarisch an denautonomen Systemen herausgearbeitet werden.

Das erste Moment besteht darin, dass informelle Technisierung unmerklich Sozialgefüge, Denkprozesse und Handlungsweisen verändert. Diese Beobachtung lässt sichauch in Bezug auf autonome Systeme der genannten Art machen. Die Einflüsse derarti-

52

Transklassische Technik und Autonomie51ger Systeme sind insofern unmerklich, als gezielt nur die Resultate der die Problemlösung durchführenden Autoadaptionsprozesse wahrgenommen werden sollen und können. Als basale Veranschaulichung soll ein selbsttätiger Klassifikator dienen, der eineunbekannte und komplexe Umgebung für eine weiterführende Analyse aufbereitet.Einerseits sollen sich Nutzer in diesem Fall zu den präsentierten Resultaten der Klassifikation in ein Verhältnis setzen; es ist möglich den Klassifikator zu steuern oder zumindest alternative Klassifizierungen vornehmen zu lassen. Andererseits kann eineeinmal erfolgte Wahrnehmung der Klassen nicht „zurückgenommen“ werden. Dasheißt, der Blick auf die Umgebung ist nach Betrachtung der vorgeschlagenen Kategorien ein anderer als zuvor, der einzige Ausweg liegt darin, die Strukturvorschläge zuignorieren. Dieser Anwendungsfall ist vergleichsweise weit verbreitet, in vielen Kontexten wie beim Einsatz von Recommender-Systemen oder beim Data Mining werdenautonome Systeme verwendet, um kontingent erscheinende Rohdaten aufzubereiten.Unabhängig davon muss der Klassifikator als solcher Nutzern gegenwärtig sein, damitsie die Möglichkeit, die Umgebung beziehungsweise die Messwerte anders zu klassifizieren, überhaupt als Möglichkeit erkennen. Meist stellen Klassifikatoren jedoch nureinen Teil eines sehr viel größeren Prozesses dar und agieren dementsprechend ungesehen im Hintergrund.

Das zweite Moment besteht darin, dass die Phänomene eine Wirksamkeit jenseitsvon Stabilität, Eindeutigkeit und Formbestimmtheit entfalten. Dieses Merkmal findetsich bei der Delegation von Problemlösungen insofern wieder, als autonome, selbstadaptive Systeme gerade durch Wirksamkeit jenseits konstruktiv eindeutiger determinierter Abläufe bestimmt sind. Allenfalls von derErzeugungvon Stabilität oder Formbestimmtheit als Ziel kann im Zusammenhang mit sehr stark autoadaptiven und neugierig nach Lösungen suchenden Systemen die Rede sein.

Das dritte Moment beschreibt, dass Phänomene fortlaufend erzeugt werden und keinBeharren jenseits des Einsatzes beobachtet wird. Diese Abgrenzung zu informellerTechnik kann bei autonomen Systemen, die zur Problemlösung eingesetzt werden, oftmals nachvollzogen werden. Ein zentraler Aspekt der beschriebenen autonomen Systeme ist das nutzerseitige Sich-in-ein-Verhältnis-Setzen zu den Resultaten. Diese Redeimpliziert, dass die Arbeit des autonomen Systems zu dem beschriebenen Zeitpunktbereits abgeschlossen ist. Tatsächlich besteht der Akt der Problemlösung aber geradedarin, fortwährend Messwerte zu berücksichtigen oder bisherige Lösungen zu adaptieren. Ein solcher Lösungsprozess eines autonomen Systems kann zwar zu einem beliebigen Zeitpunkt nutzerseitig unterbrochen werden und der „eingefrorene“ Zustand desSystems kann als Ergebnis interpretiert und nutzbar gemacht werden, der eigentlicheOptimierungsvorgang ist jedoch in vielen Fällen niemals wirklich abgeschlossen.

53

52Christoph Hubig, Sebastian Harrach 7. Autonomie als (A) Selbstgesetzgebung, (B) Selbstbestimmung oder(C) Selbstverhältnis

Bisher war von verschiedenen Hinsichten einer technischen Teilautonomie die Rede,die eine entsprechende Redeweise (Als-ob-Intentionalität oder „Verselbstständigung“)plausibel erscheinen ließ. Wie verhält es sich aber, wenn wir „strengere“ Konzepte vonAutonomie in Anschlag bringen? Die stärkste Fassung (A) findet sich bei ImmanuelKant, der Autonomie als Freiheit modelliert (und damit die Würde des Menschen alsSelbstzweck, d.h. durch keinen weiteren Zweck bedingt, verbindet). Indem er unterGesetz formal eine „unbedingte Nötigung“ (Kant 1785: AA 433 f.) versteht, wird Autonomie als „Selbstgesetzgebung“ erachtet, die nur in der Freiheit des Subjekts selbstunter Ausschluss aller externen Bedingungen („Heteronomie“ der Neigungen und Leidenschaften oder fremden Wollens) begründet ist. Dieses selbst gesetzte Gesetz, welches jene unbedingte Freiheit instanziiert, hat einen Charakter, „als ob es ein Naturgesetz“ wäre. Gemeint ist seine Indisponibilität als von außen nicht einschränkbarer Freiheit. Freilich ist dieses Gesetz subjektiver Natur, es findet sich als „Faktum“ in derVerfasstheit, in der der Mensch sich als Autor seiner Handlungen anerkennt. Entlastet ersich von der Autorschaft unter Verweis auf externe Determinanten (was uns in vielenBereichen geläufig ist), spricht er eben nicht mehr im eigentlichen Sinne von Handeln.Die Selbstanerkennung seiner Freiheit als transzendentale Voraussetzung seiner Autonomie (AA 453 f., 461) begründet die Gültigkeit des Sittengesetzes, während umgekehrt die imperativische Form des Sittengesetzes uns (epistemisch) darauf verweist,dass wir zu diesem Sittengesetz in ein anerkennendes oder ablehnendes Verhältnis treten können. Eine solchermaßen modellierte Subjektivität geht den „autonomen“ technischen Systemen ab. Sie ist – nebenbei bemerkt – unabhängig davon, ob wir für Bereicheunseres Agierens (z.B. das Knöpfedrücken im Rahmen der Libet-Experimente (Libet2004)) oder weitere generell als moralisch unproblematisch erscheinende Handlungsalternativen (so die weiteren Experimente der Neurophysiologie, vgl. Soon et al. 2008)eine Determination durch vorangegangene Erregungszustände des Gehirns nachweisenkönnen, bevor die Entscheidung uns als solche bewusst wird. Ein bewusstes Abwägenvon Gründen und Rechtfertigungsstrategien (was selbstverständlich einen Umgang mitnunmehr als neuronalen Dispositionen verfestigten Ergebnissen früherer Abwägungsprozesse als Determinanten weiteren Vorgehens einschließt) bleibt etwas, zu dem wirbei allen Einschränkungen und Relativierungen letztlich deshalb immer verurteilt bleiben, weil eine vollständige Theorie der Determination in erklärender Absicht sich selbstumfassen müsste. Dies würde in die bekannte Gödel-Problematik führen. Wir bleibenalso letztlich doch dazu verurteilt, zu unseren Zuständen in ein Verhältnis zu treten,

54

Transklassische Technik und Autonomie53selbst wenn wir dieses Verhältnis relativieren. Genau dieses Verhältnis macht danndasjenige aus, was wir als „Selbst“ in diesem starken Sinne bezeichnen. Ein Subjektmag die letzten Determinanten seiner Entscheidung noch so sehr in seinem Innerensuchen – es wird diese, aus systematischen und logischen Gründen, nicht finden, undmuss handeln, als ob es frei wäre, wie Kant hervorhebt (s. hierzu Stekeler-Weithöfer1990).

Wenn wir bei der Analogie zu Naturgesetzen (qua absolutem Nötigungscharakter)noch etwas verweilen, lassen sich zwei weitere Konzepte von Autonomie in einemstarken Sinne ausmachen. Naturgesetze lassen sich entweder modellieren als (im weitesten Sinne) deterministische Verlaufsgesetze der Wenn-Dann-Form oder als Beschreibungen des Verhältnisses von zwei oder mehreren Größen untereinander, wobeidiese Verhältnisse abstrakt quantifiziert werden (z.B. das 2. Newton'sche Gesetz), oftmals unter Anführung von Naturkonstanten. Man kann diesen Typ von Naturgesetzenauch als definitorische Festlegung von Größen durch die Angabe ihres Verhältnisses zuanderen Größen interpretieren (Konstruktivismus). Verlaufsgesetze hingegen drückenkeinen unbedingten Determinationszusammenhang aus, noch weniger wirken sie selbstkausal. Kausale Prozesse sind ihre „Wahrmacher“. Diese sind abhängig vom Vorliegenvon Antezedenzbedingungen und vom Ausbleiben störender Umgebungseinflüsse (cete- ris paribus-Bedingung). Wenn ein Subjekt oder eine andere Entität diese Antezedenzbedingung selbst setzt, also kausal hervorzubringen vermag, bestimmt es einen Ablauf unternaturgesetzlichen Beschreibungen. Seine Autonomie (B) ist dann Selbstbestim- mungim Sinne einer selbst vorgenommenen Bestimmung des Wirksamwerdens von„Naturgesetzen“ (gemäß unserer technomorphen – im Rahmen experimenteller Anordnungen als technischen Systemen – gewonnenen Modellierung). Unsere Handlungsausführungen „nutzen“ ganz selbstverständlich solche Prozesse, sofern ihre Sicherheit (s.o.) technisch gewährleistet ist. Hebt man nur auf das Hervorbringen einer Antezedenzbedingung als Effekt ab, der seinerseits über einen Naturprozess einen weiteren Effektauslöst, können graduell auch technische Systeme als autonom im engeren Sinne von„selbstbestimmend“ erachtet werden. Diese Autonomie als positive Freiheit (im Gegensatz zur Unbedingtheit-Autonomie als negativer Freiheit) ist graduierbar. Allerdings nurbis zu einer bestimmten Grenze, deren epistemische Opakheit für uns als technischeSubjekte uns nicht dazu veranlassen darf, eine vollständige Selbstbestimmung als Spontanität entsprechenden Systemen zu unterstellen.

Dasselbe gilt für eine Fassung von Autonomie (C) als Selbstverhältnis technischerSysteme in einem schwächeren Sinne, deren Unterstellung dadurch begründet wird,dass Systeme Repräsentationen ihrer Zustände „für sich“ bilden, „Selbstmodelle“ entwickeln können, die uns unzugänglich erscheinen. Zwar kann nicht von einem Selbst-

55

Christoph Hubig, Sebastian Harrachverhältnis im Sinne subjektiver Anerkennung von Freiheit gesprochen werden (s.o.).Können aber technische Systeme zu sich selbst in diesem schwächeren Sinne in einVerhältnis treten? Wenn dieses Verhältnis darin besteht, dass eine Repräsentation vonVerhältnissen unterschiedlicher Zustandsgrößen untereinander und Faktoren einer entsprechend modellierten Systemumgebung entwickelt wird, sicherlich ja. Das Systemhätte dann ein „Naturgesetz“ in jenem zweiten Sinne als Beschreibung „seiner Natur“entwickelt. Es hätte in einem elementaren Sinne „Bewusstsein“ entwickelt über einenOptionenraum seines Agierens, der durch die entsprechenden Verhältnisse strukturiertund limitiert ist. Da es sich dabei – bei diesem zweiten Typ von Naturgesetz – um denAusdruck von Verhältnissen zwischen Parametern handelt, wäre das Monitum unangebracht, dass hier ein Selbstverhältnis deshalb nicht vorläge, weil – wie auch bei derModellierung von Regelmäßigkeiten kausaler Abläufe bei Naturgesetzen des erstenTyps – ein „Verständnis“ im Sinne einesnormativinterpretierten Selbstbezuges fehle.

Darüber hinaus ist zu betonen, dass solche höherstufigen Repräsentationen, soweitdiese in den Systemen verarbeitet werden, sich auch auf Zustände der Systemumgebungbeziehen können, insbesondere strukturierte Verhältnisse von Zustandsgrößen bei denNutzern bzw. Interaktionspartnern der Systeme. Hier gilt, wie auch bei zwischenmenschlichen Beziehungen, dass je mehr ein kontrollierender Akteur Kenntnis derStruktur der inneren Zustände seines Interaktionspartners und ihrer Verhältnisse untereinander hat, er umso mehr die Optionen der Beeinflussbarkeit dieses Interaktionspartners kennt und umso besser diese Optionen nutzen kann. Die Autonomie im Sinne positiver Handlungsfreiheit des Interaktionspartners als Aktionsobjekt kann umgekehrtproportional zur Autonomie (3) des Aktionssubjektes (und sei es ein technisches System) eingeschränkt werden, sofern das Aktionssubjekt kenntnisreich unter einer entsprechenden Nutzungsstrategie operiert. So funktioniert Werbung, sofern man sich nichtzu ihr in ein Verhältnis setzt, und so funktioniert allgemein „Zivilisation“ als Überformung unserer äußeren und inneren Natur, die sich „strategisch ohne strategisches Subjekt“ (Foucault 1978: 132) herausgebildet hat.

Die Autonomie der Person in jenem ersten starken Sinne wird dadurch nicht tangiert, denn sowohl Biofakte i. e. S. als auch solche, die durch intelligente Systeme angereichert werden, sind nur in einem dann uneigentlichen Sinne von „Selbst“ selbstorganisierend oder autonom. In Ansehung jenes starken Konzeptes von Autonomie ist„Selbst“ nämlich seinerseits ein Reflexionsbegriff und drückt eine basale normativeBezugnahme des Subjekts auf sich aus, nicht auf als natürlich oder technisch überformterachtete Entitäten. Dort trifft das Subjekt – naturgemäß, besser: kulturgemäß – immerfort auf Determinanten und mag diese erfahren, wobei die Herkunft dieser Determinanten, sei sie biologisch, sozial, technisch etc. bedingt, an ihrem Charakter als Determi-

56

Transklassische Technik und Autonomie55nanten nichts ändert. Anerkennen wir eine Indisponibilität, so sprechen wir von uns alsso und so geworden, gar von „unserer Natur“, und können uns in ein bejahendes oderablehnendes Verhältnis zu ihr setzen. Erachten wir jene Determinanten als der Sphäredes Technischen (auch Sozialtechnischen) zugehörig, mithin als disponibel, so könnenwir uns daran machen, an ihnen (und an uns) zu arbeiten. So begriffen, wäre Autonomiedie subjektive Freiheit, sich zu solchen Determinanten für uns und (extern auf uns undin uns) in ein Verhältnis zu setzen.

Vorschnell wäre es, den Hort menschlicher Autonomie – wie es u. a. John Searle(2004) unternimmt – in der Fähigkeit zur Stiftung freier Weltbezüge zu sehen, währendnatürliche und technische Systeme unter Kausalitätsbedingungen in ihrem Verhaltenabgerichtet seien und ohne Sinnunterstellung rein syntaktisch operierten. Wir wissenniemals vollständig, inwieweit wir solchen Bedingungen unterliegen, weil wir sie nichtadäquat repräsentieren können (Gödel-Problem). Wir wissen aber, dass wir danach fragenkönnen und uns somit grundsätzlich in ein zu problematisierendes Verhältnis zuihnen zu setzen vermögen. 8. Wie sollen wir mit graduell autonomen Systemen umgehen?

Mit Verweis auf das zwangsläufig nicht destruierbare Konzept personaler Autonomie injenem ersten starken Sinne ist das Problem keineswegs entschärft. Denn die von Kantreklamierte Autonomie als Freiheit, sich selbst bei stärkstem Zwang zu diesem noch inein anerkennendes oder ablehnendes Verhältnis setzen zu können, erscheint fast zynisch. Wenngleich die neuen technischen Entwicklungslinien zwar nicht die subjektive(negative) Autonomie tangieren, so sind sehr wohl unsere positiven Handlungsfreiheiten betroffen. Wir können nicht beiläufig über die anfangs erwähnten Erfahrungen einesVerlustes ursprünglicher Natur hinweggehen und einzig pragmatischen Überlegungenüberantworten, welche Leistungen wir an Biofakte oder autonome technische Systemedelegieren wollen, etwa an gentechnisch optimierte Organismen zum Schadstoffabbauoder an Zellen zur Produktion von medizinischen Wirkstoffen, zur Gewebesubstitutionoder zum Einsatz als implementierter „Hausarzt“ – als Problemdiagnose- und Bekämpfungsautomat – in unserem Organismus, oder, was eine weitere Option des Einsatzestechnischer graduell autonomer Systeme angeht, an humanoide Minensuch- und Rettungsroboter etc. Ein Abgleich, eine Koordination und eine Verteilung von positivenHandlungsfreiheiten alsCapabilities(der Optionenwahl) undFunctionings(der Nutzung von Mitteln zu ihrer Realisierung; vgl. Sen 1984; Hubig 2007: Kap. 5.3) stellt einsozialethisches Problem dar und wird durch jene Entwicklungen in neuer Weise herausgefordert. Der Umgang mit den neuen Entwicklungen darf nicht analog einer graduell

57

56Christoph Hubig, Sebastian Harrachzu befürwortenden Selbstorganisationindiesen Systemen einer umfassenderen „SelbstOrganisation“ unserer Handlungsräume (etwa durch den Markt) überlassen bleiben. Dienormative Gestaltung von umfassenderen Systemen, insbesondere Markt-Systemen,setzt planungsfähige technische Subjekte (als Entwickler/innen und Nutzer/innen) voraus. Beim Wegfall der Abduktionsbasis des Aus-Erfahrung-Lernens entfällt dessenwesentliche Planungsgrundlage.

Die Mensch-System-Interaktion mit Biofakten und graduell autonomen technischenSystemen bedarf zu ihrer Regelung wissenschaftlicher und sozialer Foren einer „Parallelkommunikation“ (jenseits der direkten Mensch-System-Kommunikation) als Foreneiner Kommunikationüberjene Kommunikation und ihre Defizite. Dadurch könntenVerluste einer individuellen Erfahrungsbasis als Abduktionsbasis wenigstens teilweisekompensiert und den Effekten anonymer Vergemeinschaftung durch die Systeme entgegengewirkt werden. Es ließen sich dadurch Traditionen auf der Basis eines Abgleichsvon Bewährtheitsdiagnosen unter gemeinsam erarbeiteten normativen Kriterien bildenund fortschreiben. Dadurch könnten neue Bewährtheitsstandards gebildet, destruiertoder erhalten werden. Da die klassische Option, Bewährtheitstraditionen auf der Basisindividueller Systemerfahrungen zum Thema sozialer Aushandlungsprozesse zu machen, schwindet, muss eine sensibilisierte Politik, eine subsidiäre Subpolitik und eineentsprechend weiterentwickelte Rechtsprechung die Verteilungsprobleme derCapabili- tiesundFunctionings, die durch diese neuen technologischen Entwicklungen hervorgerufen werden, neu thematisieren.

Literatur

58

Transklassische Technik und Autonomie57

59

Die Technikphilosophie ist eine Wissenschaft von der Veränderung. Wie sich Gesellschaften oder Teilbereiche durch Technisierung verändern, was der Mensch – kontrafaktisch – ohne Technik wäre und insbesondere wie sich die Technik selbst verändert,zählt zu ihren mit intensiver Neugierde verfolgten Fragen. Die Geschichte der Technikphilosophie ist überreich an Zäsuren, Neuerungen und Revolutionen, die konstatiert,diagnostiziert und ausgerufen wurden: epochale Einteilungen (Stoff-, Energie-und Informationsmaschinen), Paradigmenwechsel (von linearen zu rückgekoppelten System),Verschmelzungslinien (Hybridisierung von Natur und Technik), Konvergenzen (Technowissenschaften, NBIC-Wissenschaften), vermutete Zäsuren (Technik, die autonomwird) usw. Wie eine Spinne im Netz bildet die Technikphilosophie zunehmend feinereFäden, um auch kaum merkliche Schwingungen zu registrieren. Die technische Entwicklungsdynamik hat die Erwartung, dass fette Beute ins Netz gehen wird, drastischerhöht. Entsprechend schwierig scheint es geworden, zwischen Eigenerregung undBefund zu unterscheiden.

Im Folgenden geht es um eine Technologie, die im Hintergrund solcher diagnostizierten Umbrüche verbleibt: um lernende Maschinen. Lernende Systeme bilden dieBasis für andere Technologien und stehen daher nicht so sehr im Rampenlicht wie diese. Die Kontexte, in denen maschinelle Lernsysteme zur Anwendung kommen, sindheterogen und zahlreich: Sie werden beispielsweise für medizinische Diagnosen eingesetzt und um biotechnische Forschungsdaten auszuwerten, zur Aktienprognose und zurKlassifikation von Kunden in Versicherungen, zum Aufbau von Wissensnetzen in Unternehmen, in Fahrassistenzsystemen und in Airbags (zur Diskriminierung, ob es sichum ein Unfallereignis handelt), in der Handschriften- und Spracherkennung, in Backgammon- und Schachcomputern, in Recommender Systemen und Spamfiltern. DieseMaschinen lernen, indem sie in Daten eigenständig Muster erkennen und Modelle bilden, welche deren Zusammenhang beschreiben. Die Modelle, welche lernende Maschinen bilden, werden daher nicht von den Entwicklern vorab implementiert; diese gebenstattdessen nur die Lernstrategien vor (beispielsweise assoziatives, evolutionäres, neuronales Lernen oder Lernen durch Entscheidungsbäume).

60

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?59

Es ist recht offensichtlich, dass sich solche Maschinen von herkömmlicher Technikunterscheiden, selbst wenn man es zunächst offenlässt, ob es gerechtfertigt ist, vonLernen zu sprechen. Denn, auch wenn man es skeptisch reformuliert und stattdessenvon Maschinen spricht, die in Daten Muster suchen, erkennen und daraus Ordnungenerstellen, welche ihre Konstrukteure nicht apriori vorgegeben haben, ist klar, dass dieseTechnik neu und anders ist.

In Frage steht, wie dieser Unterschied zu begründen und zu begreifen ist. Dazu wirdzunächst (1) der Forschungsstand bezüglich so genannter smarter Technologien besprochen und dabei geprüft, inwiefern diese das Machine Learning erfassen. (2) Ausführlichdiskutiert werden zwei hierzu einschlägige Theorien. Anschließend führe ich (3) einenAnsatz ein, den Heinz von Foerster mit seiner Unterscheidung trivialer und nichttrivialer Maschinen eröffnet hat. Dabei wird deutlich: Lernende Maschinen lassen sich alsnichttriviale Maschinen begreifen, Foersters Maschinenbegriffe bleiben selbst jedoch zueinfach und unausgearbeitet, um das maschinelle Lernen zu modellieren. Daher werden,nachdem (4) die Mängel von Foersters Maschinenkonzepten identifiziert wurden, dieAnalysebegriffe verfeinert mit dem Ergebnis, dass sich vier Typen trivialer und nichttrivialer Maschinen unterscheiden lassen. Im Fortgang (5) wird diese komplexere Maschinentypik exemplarisch auf verschiedene maschinelle Lernalgorithmen angewandt,um die Leistungsfähigkeit der neuen Begriffe zu demonstrieren; dabei ist auch zu fragen, wie mit lernenden Maschinen interagiert wird. Den Abschluss bildet (6) ein kurzesFazit. 1. Forschungsstand: Machine Learning in der Technikphilosophie

Gemessen an den Publikationen zu neuen Technologien im Bereich Gen- oder Nanotechnik ist die Begleitforschung zum Ubiquitous Computing und seinen spezifischenAnwendungsfeldern (insbesondere dem Ambient Assisted Living) überschaubar. Verschiedene Ansätze versuchen die Spezifik dieses IT-Paradigmas (Hubig 2003, 2008;Wiegerling et al. 2008; Wiegerling 2011; Kaminski/Winter 2011), die mit damit einhergehenden Risiken und Gefahren (Roßnagel 2007; Hubig 2005), den Wandel der Interaktion (Schmidt 2007) sowie die kulturellen Hintergründe dieser Technologie zu bestimmen (Adamowsky 2003; Alpsancar 2012). Insgesamt ist die Literatur jedoch wesentlichingenieurstechnisch geprägt, die Begleitforschung wird zum nicht unerheblichen Teilvon der Informatik selbst übernommen (vgl. Mattern 2003, 2007; Fleisch/Mattern2005). 1 Ich lasse diese Frage daher im Folgenden offen und spreche von lernenden Maschinen, ohne damit

61

60Andreas Kaminski

Das Machine Learning stellt einen wichtigen Baustein innerhalb des UbiquitousComputing dar. Die Umsetzung wichtiger Leitmotive des Ubiquitous Computing wieKontextsensitivität und -adaptivität, Autonomie, Selbstorganisation und Smartnessbasieren auf dieser Methode. Maschinelle Lernverfahren können zwar als Fortsetzungdes schwachen Artificial Intelligence-Paradigmas verstanden werden, gleichwohl erhalten sie keineswegs eine vergleichbare Aufmerksamkeit in der technikphilosophischenLiteratur. Abgesehen von wenigen Ausnahmen liegt keine systematische Forschunghierzu vor. Einzig die Frage, ob maschinelle Lernsysteme in der Lage sind, abduktiv zuschließen, hat eine hohe Aufmerksamkeit erfahren (Kakas et al. 1993, 1998; Kowalski/Sadri 1990; Mooney 1997; Flach 2007; Kaminski/Harrach 2010).

Zwei Ansätze, welche sich mit einer technikphilosophischen Zäsur im Kontext derNBIC-Technologien beschäftigen, sind für unseren Zusammenhang einschlägig. Eshandelt sich um Alfred Nordmanns Theorie naturalisierter Technik sowie ChristophHubigs Theorie transklassischer Maschinen. Beide erstrecken den Geltungsbereich ihrerAnsätze auch auf smarte Technologien aus dem Umfeld des Ubiquitous Computing.Das Machine Learning kommt bei ihnen zwar explizit nicht vor, grundlegende Fragestellungen, die für unseren Kontext relevant sind, werden von ihnen allerdings entwickelt, weshalb wir ausführlicher auf diese beiden Ansätze eingehen. 2. Naturalisierte Technik und transklassische Technik

Alfred Nordmanns Theorienaturalisierter Technikist die Diagnose eines technologischen Umbruchs. Neue Technologien, so Nordmann, erschienen gleichsam als Natur,während es zu Beginn der Neuzeit umgekehrt das Modell einertechnisierten Natur gewesen sei, welches den Deutungshorizont bestimmte. Naturforscher wie Robert Hooke hätten die Natur, so Nordmann, als eigentlich technisch verfasste Sphäre verstanden,die als solche aber nicht prima facie in Erscheinung trat, sondern erst auf den zweitenBlick als diese enthüllt worden sei; diese Technizität der Natur sollte durch eine erweiterte Wahrnehmung – insbesondere mit dem Blick durch das Mikroskop – entdecktwerden. Die Naturdinge würden sich dann, so die neuzeitliche Annahme, als winzigeMaschinen erweisen. Derart verlöre die Natur ihre Unheimlichkeit, Unverständlichkeitund Macht: „Nature will appear increasingly familiar, Hooke suggests here, when welook at it through better and better microscopes. We can all understand how machineswork, there is nothing occult or puzzling about a loom that weaves tapestries, and oncewe see that nature consists of such tiny machines, we will find that there is nothingoccult and puzzling in nature.“ (Nordmann 2008: 174) Das Verhältnis von Mensch,

62

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?61Technik und Natur sei dadurch bestimmt gewesen, dass sich jener mittels Technik derHerrschaft über Natur versicherte.

Es sind damit drei Merkmale, welche die technisierte Natur bestimmen: (1) Wahrnehmbarkeit, (2) Verstehbarkeit und (3) Kontrollierbarkeit. Bei diesen drei Merkmalenhandelt es sich nicht um dingliche Eigenschaften, sondern um relationale Begriffe fürdas Verhältnis zwischen Natur und Mensch. Diese Merkmale kennzeichnen jedochnicht nur Natur, sie sind zugleich Kennzeichen von Technik. Dies impliziert ja bereitsdie Rede von einer technisierten Natur; durch Technisierung werden die Merkmale vonTechnik zu denen von Natur.

Naturalisierte Technikbricht mit diesen drei Merkmalen, wobei es sich wiederumum einen Verhältnisbegriff handelt. Naturalisierte Technik, so Nordmann, sei jenseitsder Wahrnehmungsschwelle, und zwar zum Teil sogar prinzipiell (1) nichtwahrnehmbar, sofern nicht einmal wissenschaftlich – etwa durch Messinstrumente – entschiedenwerden könne, ob sie vorliege oder aber nicht. Sie sei (2) nicht verstehbar, sofern dastechnische Können – zumindest außerhalb des Labors – weiter reiche als das wissenschaftliche Verstehen.Sie sei schließlich (3) auch nicht mehr kontrollierbar. Das Wissen und Können, das zur Entwicklung naturalisierter Technik nötig sei, könne zwartraditionellen Konzepten einer technisierten Natur entsprechen. „But once we think ofthese as technical systems in their own right, naturalized technologies cease to be objects of science and of experience, they take on a life of their own such that we nolonger appear to perceive, comprehend, or control them, such that we no longer think ofthem as mechanisms or something ‘devised by human Wit,’ but something instead thathas receded into the fabric of uncomprehended nature with its occult qualities.” (Nordmann 2008: 176)

Dieser Begriff einer naturalisierten Technik wird für Nordmann von einer Reiheneuartiger Technologien erfüllt: genetisch veränderte Nahrungsmittel, Nano-Maschinensowie smarte Umgebungen, worunter Nordmann ausdrücklich das Ubiquitous Computing versteht.So könne, wie Nordmann ausführt, etwa gar nicht wahrgenommen werden, ob ein Lebensmittel genetisch verändert wurde oder nicht. Es unterliege nicht unserer Kontrolle – und wir könnten auch gar nicht sagen, in welchem Ausmaß wir „Nutzer“davon seien. Der Unterschied wird deutlich, wenn man an die makroskopischen Techniken unserer vertrauten Lebenswelt denkt: Autos, Waschmaschinen, Toaster und der62 2 Hier ist die Verbindung von Nordmanns Überlegungen zu naturalisierter Technik und seiner Ausar- beitung einer Theorie der Technowissenschaften, die er in zahlreichen Publikationen entwickelt hat, zu erkennen, auf die ich an dieser Stelle nicht weiter eingehen kann. Vgl. dazu etwa Nordmann 2004, 2010, 2011. 3 Vgl. Nordmann 2008: 176, Fußnote 4.

63

Andreas Kaminskigleichen. Gleichwohl handelt es sich nicht um rein dingliche Technikeigenschaften,sondern eben um Verhältnisbegriffe: „The case of genetically modified foods showsthat what counts as an exemplar depends on whether or not one regards a technology asmeeting the qualitative definition. For example, some consider cell-phone broadcasts orfluoridized water as naturalized technology. The release of chemically engineered substances is only vaguely associated with ongoing technical agency. The effect of pharmaceuticals is usually considered to be restricted to one’s own body – and so are ourworries about its agency.” (Nordmann 2008: 178)

Christoph Hubig entwickelt seine Überlegungen zu transklassischer Technik imKontext einer weit entwickelten und differenzierten Technikphilosophie, auf die ich hierim Detail nicht eingehen kann.Die Bestimmung transklassischer Maschinen geht dabeivon der Differenz zu klassischen Maschinen aus, wie bei Nordmann handelt es sich umdie Diagnose eines technologischen Umbruchs. Ein zentrales Kennzeichen ist dabei der(subjektive) Verlust der Schnittstelle bzw. der Spuren technischen Handelns, auf denwir noch zu sprechen kommen werden. Auch bei Hubig handelt es sich bei der Unterscheidung klassischer und transklassischer Technik um Verhältnisbegriffe, denn inFrage stehen „Veränderungen der Mensch-Technik-Beziehung“ (Hubig 2008: 165).Ferner macht Hubig die Zäsur an zwei Merkmalen fest, die denen Nordmanns ähneln:Bei ihm lauten diese (1) Verlust der Transparenz sowie (2) Verlust der Gestaltbarkeit.Schließlich erfüllen auch für Hubig mehrere Technologien diese Bedingungen; in seinem Text behandelt er Biofakte und das Ubiquitous Computing als Fälle transklassischer Technik. Es gibt allerdings auch markante Unterschiede. Wenden wir uns dazueiner detaillierten Rekonstruktion von Hubigs Überlegungen zu.

Hubigs Ausgangspunkt ist eine Rekonstruktion klassischer Technik, die er handlungstheoretisch konzipiert. Handlungen und die Ausbildung von Handlungskompetenzwürden an der Differenz von vorgestelltem und realisiertem Zweck orientiert. Techniksichere dabei die Erwartbarkeit von Handlungserfolgen ab. Träte eine Differenz auf, sowürden abduktiv die hypothetischen Gründe dafür erschlossen. Dazu müssten allerdingsSpuren der technischen Handlung gegeben sein, denn sie stellten die Basis für einenabduktiven Schluss dar; insbesondere müsse (abduktiv) rückverfolgbar sein, welchetechnischen Zustände und technischen Beiträge zu einem Effekt geführt hätten.

Damit ist die Stelle bezeichnet, an welcher transklassische Technik entsteht. Diesesei nämlich mit einem subjektiven Verlust der Schnittstelle gegeben: „Über klareSchnittstellen konnte das Verhältnis zur Technik gestaltet werden; Gewohnheiten und 4 Sie stehen im Zusammenhang mit einer Theorie von Technik als Medium, Mittel und Reflexions- begriff. Vgl. dazu insbesondere Hubig 2002, 2006, 2007.

64

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?63Routinen bleiben wenigstens im Prinzip reversibel. Im Zuge der neuen Entwicklungennun scheinen die Schnittstellen, wenngleich sie objektiv nicht verschwinden, so doch ingewisser Hinsicht indisponibel zu werden, sei es, dass sie denjenigen, die mit der Technik umgehen, nicht (mehr) transparent sind, sei es, dass sie sich grundsätzlich einerweiteren Gestaltbarkeit entziehen.“ (Hubig 2008: 167f.)

Zu verstehen sind diese Überlegungen wiederum über den handlungstheoretischenAnsatz. Sowohl die Entwicklung von Technik als auch die Ausbildung einer Nutzungskompetenz erfordern, dass technische Systemzustände bekannt und veränderbar sind.Nur so können die Bedingungen erschlossen werden, die zu bestimmten Ereignissenführen. Der Verlust an Schnittstellen geht aber, wie gesehen, mit einem Verlust anTransparenz und Gestaltbarkeit der Systemzustände einher. Für Hubig erfolgt ein solcher Verlust der Schnittstelle unter anderem bei neuen Biotechnologien, deren Produkteer mit Karafyllis als „Biofakte“ bezeichnet. Diese führten zu einer Fusion von Natürlichem und Technischem, sofern etwa „Wachstums-Reproduktionsprozesse technischprovoziert oder stimuliert werden, wobei im Ergebnis der technische oder natürlicheAnteil nicht mehr zu sondern ist.“ (Hubig 2008: 168) Auch in der Informationstechnologie komme es, insbesondere im Zuge des Ubiquitous Computing zu einem subjektiven Verlust der Schnittstelle. Der Grund dafür sei, dass bei dieser Technologie nicht nurdie Mittel präformiert wären (wie bei klassischer Technik), sondern die Medialität unddamit die Handlungsumgebung. In sie seien Mittel-Zweck-Kopplungen eingetragen, diefür die Handelnden nicht einsehbar und ebenso wenig für diese veränderbar wären.„Wenn also Systeme derart gestaltet werden, dass bereits die Medialität reguliert wird[…], dann wird nicht nur eine Technik als Mittel ‚selbstverständlich‘, sondern die Medialität des Technischen wird in einer Weise ‚selbstverständlich‘, die nicht mehr erlaubt,jenseits ihrer selbst konkurrierende Weltbezüge positiver oder negativer Art (als Differenzerfahrungen) wahrzunehmen und zu gestalten. Weil die Differenzerfahrung zwischen vorgestellten und realisierten Zwecken – gemäß dem ‚klassischen Modell‘ technischen Handelns – insofern verloren geht, als die Vorstellbarkeit von Mitteln und Zwecken selbst schon in Systemen angelegt ist, wird der Korrekturmechanismus in die Systeme verlegt.“ (Hubig 2008: 171) Eine solche Formierung der Handlungsumgebungkönne insbesondere durch eine in die Systeme implementierte, nicht transparente undnicht gestaltbare Situationstypik und Nutzerstereotypik erfolgen.

Fassen wir die bislang dargestellten Charakteristika zusammen, bevor wir anschließend die Leistungsfähigkeit der Ansätze besprechen.

65

64Andreas Kaminski

Naturalisierte Technik Transklassische Technik

Art des

Technikbegriffs

Verhältnisbegriff:

Mensch-Technik

Verhältnisbegriff:

Mensch-Technik-Interaktion

Merkmal 1 Jenseits der Wahrnehmbarkeit

Merkmal 2 Nicht verstehbar

Verlust an Transparenz

Merkmal 3 Jenseits der Kontrolle Verlust an Gestaltbarkeit

Extension Gentechnik, Nanotechnik,

Smart Environments

Ubiquitous Computing,

Biofakte

Tabelle 1: Übereinstimmung beider Ansätze

Unschwer lassen sich die entscheidenden Differenzen beider Theorien erkennen. Hubigs Ansatz ist von einer Handlungstheorie angeleitet, Nordmanns Grundlage ist dagegen eher die fehlende Wahrnehmbarkeit der Techniken; ein Punkt, der bei Hubig in denHintergrund tritt. Bei Hubig handelt es sich ja auch um einen subjektiven Verlust anSchnittstellen, der prinzipiell korrigierbar ist, es können etwa Schnittstellen ergänztwerden.Einen solchen Ort, an dem der Verlust korrigiert werden kann, gibt es beiNordmann nicht, jedenfalls wird er nicht explizit bedacht.

Was leisten die Ansätze in Hinsicht auf das Machine Learning? Diskutieren wir dazu zunächst Nordmanns Ansatz. Hier stellt sich als erstes die Frage, ob die Entwicklunglernender Maschinen überhaupt die Frage ihrer Wahrnehmbarkeit tangiert. Dies ist nichtder Fall, da es sich hierbei um Soft- und nicht um Hardware handelt. Zwar lässt sichauch danach fragen, inwiefern Software wahrnehmungsmäßig gegeben ist; dann stelltman allerdings die Frage nach geeigneten Schnittstellen, folglich geht es dann nichtlediglich um ihre Wahrnehmbarkeit, sondern um Transparenz (= wahrnehmen, um zuverstehen).Zumindest Nordmanns erstes Merkmal lässt sich daher nicht sinnvoll auflernende Maschinen anwenden, obgleich sein Technikbegriff auf das Ubiquitous Computing anwendbar sein soll; für dieses sind maschinelle Lernsysteme aber von großerBedeutung.

Ferner stellt sich die Frage, ob die allgemeine Deutungsperspektive, es handle sichum naturalisierte Technik, angemessen ist. Diese Deutung impliziert, Nutzer erlebten 5 Siehe dazu auch das „Stuttgarter Konzept der Parallelkommunikation“: Hubig 2011. 6 Zwar sind in den letzten Dekaden erhebliche Fortschritte in der Miniaturisierung der Hardware er- zielt worden, so dass diese in der Tat in den Grenzbereich der Wahrnehmbarkeit rückt, diesen aber gegenwärtig zumeist noch nicht überschritten hat. Ferner sind viele Anwendungen maschineller Lern- systeme derzeit in gut sichtbaren Hardware-Komponenten gegeben (Smartphones, Mikrophone in der Spracherkennung einschließlich der dazu nötigen Rechner, PC oder Laptops in der Interaktion mit Recommender Systemen). Man kann daher sagen, dass es zwar große Miniaturisierungserfolge gibt, diese aber nicht das Machine Learning in besonderer Weise betreffen. Dabei muss es freilich nicht bleiben.

66

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?65das Ubiquitous Computing und damit auch lernende Maschinen als Natur oder naturanalog. Dieses Argument hat zur Prämisse, dass die technikphilosophische Reflexionder Veränderungen im Technikbegriff sich auch im Nutzererleben oder in der alltäglichen Technikreflexion widerspiegelt. Es ist allerdings fraglich, ob Nutzer diese von dertechnikphilosophischen Reflexion attestierten neuen Merkmale der Technik wahrnehmen und gleichermaßen auffassen. Ich werde gegen Ende des Aufsatzes (Abschnitt 5)versuchen zu belegen, warum diese Skepsis mir gut begründet scheint.

Hubigs Ansatz zielt nicht primär auf Miniaturisierung. Dies ist auch nicht nötig, dader (subjektive) Verlust der Schnittstelle auch ohne Miniaturisierung erfolgen kann(selbst wenn die von ihm diskutierten Retina-Implantate die Größe einer Brille hätten,würden die beschriebenen Effekte eintreten). Auch vermeidet Hubig eine Interpretation,wie transklassische Technik aufgefasst werde, ob sie etwa als Natur erscheine. In Bezugauf einen anderen Punkt ergeben sich Rückfragen. So bleibt eine Unklarheit darüberbestehen, was mit Schnittstelle konkret bezeichnet wird. Da es sich um den subjektivenVerlust der Schnittstelle handeln soll, wird man annehmen dürfen, dass damit etwas,was in der InformatikHuman Interfacegenannt wird, gemeint ist. Dabei stellt sich dieFrage, ob das, was als klassische Technik gilt, stets eine Schnittstelle aufwies, die Systemzustände zu kontrollieren erlaubte, und wenn sie eine Schnittstelle aufwies, ob damitalle relevanten Systemzustände für alle einsehbar und kontrollierbar waren.Es gibtjedenfalls eine Reihe von Techniken (etwa bei Nahrungsmitteln oder Elektronik imAuto), bei denen es fraglich ist, ob es eine Schnittstelle gibt bzw. wenn es eine solchegibt, für wen sie zugänglich ist. Insgesamt sind Hubigs Überlegungen jedoch analytischaufschlussreich, wenngleich sie keine Einsicht in die spezifische Funktionsweise maschineller Lernsysteme vermitteln. In diesem Sinne kann die hieran anschließende Betrachtung als Fortführung dieses offen gebliebenen Bereichs verstanden werden; sieöffnen jenes Detail, welches in der Theorie transklassischer Technik gewissermaßen als‚Black box‘ vorkam. 3. Foersters Theorie trivialer und nichttrivialer Maschinen

Um diese Black box analytisch auszuleuchten, wende ich mich, wie angekündigt, einerUnterscheidung zu, die Heinz von Foerster, einer der namhaftesten Vertreter der zweiten Generation von Kybernetikern, in einer Reihe von Aufsätzen entwickelte: seiner 7 Man könnte, falls dies nicht zutrifft, auch argumentieren, dass man dann die Zuordnung ändern müsste: das, was man für klassische Technik gehalten hatte, zeigt sich bei näherer Betrachtung als transklassisch. Aber dann würde die zeitliche Folge, die mit diesen Technikbegriffen verbunden ist,

67

66Andreas Kaminski

Theorie trivialer und nichttrivialer Maschinen (vgl. Foerster 1993a, 1993b, 1995, 2003).Der kybernetische Hintergrund Foersters findet sich in drei mehr oder minder implizitenAnnahmen, von denen die Entwicklung des Maschinenbegriffs ausgeht. Da ist erstensder Anspruch aufTransdisziplinarität(im Unterschied zu Interdisziplinarität) zu nennen: Die entwickelten Modelle sollen für alle disziplinären Bereiche gültig sein, indemvor jeglicher disziplinärer Differenzierung die allgemeinen Strukturen jedes Gegenstandsbereichs ausbuchstabiert werden. Zu diesen allgemeinen Strukturen gehört insbesondere, zweitens,Information(im Unterschied zu Stoff und Energie): Die entwickeltenModelle gehen von Information als der grundlegendsten Kategorie aus; die kybernetischen Maschinen sind daher Informationsmaschinen. Schließlich, drittens, sind kybernetische Maschinen durch einFeedback(im Unterschied zur Linearität) bestimmt: DieProzesse kybernetischer Maschinen basieren auf zirkulären Rückkoppelungsstrukturen.Es wird im Verlauf deutlich werden, inwiefern Foersters Maschinenbegriffe auf diesendrei Prämissen basieren.

Beginnen wir mit der einen Seite von Foersters Unterscheidung, der trivialen Maschine. Worum handelt es sich dabei? Die triviale Maschine ist für Foerster durch folgende vier Merkmale bestimmt, sie ist:

1. „synthetisch determiniert“: Input und Output sind strikt gekoppelt. Auf Inputx folgt stets Outputy. Die Transformationsfunktion, welche den Input in denOutput überführt, liegt statisch fest;

2. „analytisch determinierbar“: Die Transformationsfunktion ist leicht erkennbar;3. „vergangenheitsunabhängig“: Weil die Transformationsfunktion unveränderlich ist, ist diese Maschine vergangenheitsunabhängig. Gleichgültig wie häufig xals Input gegeben ist, stets folgtyals Output;

4. „voraussagbar“: Aufgrund der voran gegangenen Eigenschaften ist die trivialeMaschine auch voraussagbar, es ist erwart- und prognostizierbar, was aufx folgt (Foerster 1995: 62).

Die wichtigste Struktureigenschaft der trivialen Maschine liegt in derstatischen Transformationsfunktion. Alle vier Merkmale finden darin ihr Zentrum und ihre Begründung.Die Maschine ist trivial, weil sie vergangenheitsunabhängig und daher analytisch determinierbar und daher vorhersagbar ist; sie ist vergangenheitsunabhängig, weil ihreTransformationsfunktion statisch ist.

Dieser Maschinenbegriff ist, wie seine Merkmale anzeigen, äußerst formal. Er umfasst, wie Foerster ausführt, sehr unterschiedliche Gegenstandsgebiete. Triviale Maschinen sind für Foerster der Toaster ebenso wie der Rolls Royce, die Waschmaschineebenso wie das Naturgesetz, ein logisches Kalkül ebenso wie ein Charakter, eine mathematische Gleichung ebenso wie ein Reiz-Reaktions-Schema. Alle diese Gegenstände

68

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?67sind für Foerster durch die vier Merkmale der trivialen Maschine bestimmt (Foerster1993b: 246).

Die wichtigste Struktureigenschaft der nichttrivialen Maschine liegt ebenfalls in derTransformationsfunktion, die allerdings nicht mehr statisch, sondern selbstdynamisch ist. Die nichttriviale Maschine ändert durch die Rückkoppelungsschleifen ihre Transformationsfunktion. Sie ist daher durch folgende vier Merkmale bestimmt:

1. „synthetisch determiniert“: Ebenso wie bei der trivialen sind bei der nichttrivialen Maschine Eingabe und Ausgabe gekoppelt. Allerdings ist diese Kopplungnicht mehr statisch, auf x als Input mag zunächst y als Output folgen, auf einweiteres x allerdings z;

2. „analytisch nicht-determinierbar“: Die nichttriviale Maschine ist daher, obgleich synthetisch determiniert, analytisch nicht mehr determinierbar. Der Zusammenhang von Input und Output, also die Transformationsfunktion, ist nichtmehr bestimmbar, obgleich es eine Regel gibt, die diesem Zusammenhangzugrunde liegt;

3. „vergangenheitsabhängig“: Die nichttriviale Maschine verändert ihre Transformationsfunktion abhängig von ihrer eigenen Geschichte. Ein y als Outputverändert durch einen Rückkoppelungsmechanismus die Transformationsregel;

4. „nicht vorhersagbar“: Ihre Vergangenheitsabhängigkeit und damit ihre analytische Nicht-Determinierbarkeit führen dazu, dass die nichttriviale Maschinenicht mehr vorhersagbar ist in ihrem Verhalten (Foerster 1993b: 251).

Gibt es nichttriviale Maschinen? Foerster führt drei sehr unterschiedlich gelagerte Beispiele für nichttriviale Maschinen an. Das erste Beispiel ist das eines ChiffrierApparates, den Foerster „Anagrammaton“ nennt. Foerster erläutert die Funktionsweisedieser Maschine wie folgt: Angenommen vier Buchstaben können eingegeben werden:a, b, c, d. Solange die Transformationsfunktion statisch bleibt, handelt es sich um einetriviale Maschine. Verändert sich der innere Zustand allerdings in Abhängigkeit vergangener Operationen, so wird selbst eine solch einfache Maschine rasch nichttrivial.„The number of such possible machines is N= 6.3 x 10. That is a number with 57zeros tacked on. […] If you pose a question to this machine every microsecond andhave a very fast computer that can tell you in one microsecond what kind of a machineit is, yes or no, then all the time since the world began is not enough to analyze thismachine.” (Foerster 2003: 312) Das Anagrammaton ist aufgrund der Komplexität nichtmehr berechenbar und daher auch nicht mehr vorhersagbar.

Ein zweites Beispiel Foersters für eine nichttriviale Maschine ist der (lernende)Mensch. Stellt man einem Menschen zweimal dieselbe Frage, so wird aller Wahrscheinlichkeit nach die zweite Antwort auf diese Frage anders ausfallen als die erste Antwort.

69

68Andreas Kaminski

Der Mensch ist äußerst vergangenheitsabhängig und daher für Foerster das Paradigmader nichttrivialen Maschine (Foerster 1993a: 208).

Zunächst schien es so, als sei Trivialisierung der Standardfall von Technisierung.Mit dem dritten Beispiel, das Foerster für nichttriviale Maschinen anführt, kehrt sich diegroße Extension des Begriffs der trivialen Maschine endgültig um. Denn, so Foerster,im Prinzip sei jede Maschine nichttrivial, und zwar sofern sie stofflich ist. „Alle erhältlichen Maschinen sind nicht trivial, auch wenn man noch so hohe Preise für ihre Trivialität bezahlte. Selbst ein Rolls-Royce wird seine Kugellager abnützen oder gar mittenauf der Straße stehen bleiben, wenn der Treibstoff verbraucht ist: Vergangenheitsabhängigkeit einer nichttrivialen Maschine.“ (Foerster 1995: 66)

Mit diesen Ausführungen steht allerdings die Unterscheidung trivialer und nichttrivialer Maschinen grundsätzlich in Frage. Einerseits behauptet Foerster, dass im Prinzipalle Maschinen Trivialisierungen darstellen, und zwar Maschinen nicht nur im engeren,alltäglichen Sinne verstanden, sondern in dem angesprochen weiten, der Naturgesetze,den Charakter einer Person oder physiologische Reiz/Reaktions-Schemata umfasst.Andererseits stellt er nicht nur Ausnahmen vor (Maschinen, die so konstruiert sind, dasssie nichttrivial sein sollen; Menschen, die der Fall einer nichttrivialen Maschine parexcellence sind), sondern behauptet, dass jegliche Maschine nichttrivial sei, sofern siestofflich ist. Bis auf ideelle Maschinen, die als solche nicht verwendet werden können,ist aber jede Maschine stofflich; selbst ein Taschenrechner oder eine Rechnung aufPapier oder „im Kopf“. Von daher lauten die beiden Aussagen Foersters: Alle Maschinen sind trivial, alle Maschinen sind nichttrivial. Bevor Foersters Unterscheidung auflernende Maschinen angewandt werden kann, muss dieser Widerspruch gelöst werden. 4. Die Weiterentwicklung des Begriffs der nichttrivialen Maschine Der Widerspruch in Foersters Theorie lässt sich auf zwei Probleme zurückführen:

1. Beobachter- oder Sachbestimmung: Die Merkmale, welche Foerster für die nichttriviale Maschine anführt, schwanken darin, ob eine Maschine deshalb nicht trivial ist,weil ein Beobachter sie als nichttrivial einschätzt oder weil ihr bestimmte Sacheigenschaften zukommen, die sie zu einer nichttrivialen Maschine machen. Betrachten wirdazu die vier Merkmale. Die Merkmale eins (synthetisch determiniert) und drei (vergangenheitsabhängig) sprechen der Maschine bestimmte Eigenschaften zu; die Maschine istsynthetisch determiniert und sieistvergangenheitsabhängig. Die Merkmale zwei(analytisch nicht determinierbar) und vier (nicht vorhersagbar) sind keine Eigenschaftender Sache, sondern kennzeichnen, ob ein Beobachter zu bestimmten Aussagen hinsichtlich der Maschine in der Lage ist oder nicht. Somit bleibt zunächst offen, ob wir vonder

70

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?69nichttrivialen Maschine oder von einem Beobachtungsvorgang, in dem jemandem etwasals trivial oder nichttrivial erscheint, sprechen.

2.Anwendung der Unterscheidung:Foerster unterscheidet zwar auf der Ebene derMerkmale sehr klar zwischen trivialen und nichttrivialen Maschinen, die Anwendungdieser Unterscheidung bleibt jedoch diffus. Einerseits sollen Menschen das Paradigmader nichttrivialen Maschine darstellen, andererseits wird Charakter als ein Beispiel füreine triviale Maschine angeführt. Einerseits soll jegliche Technik trivial sein (Foerster1993a: 207), andererseits soll jegliche Technik, sofern sie stofflich ist, nichttrivial sein(Foerster 1995:66). Außerdem fällt eine Reihe von – für die meisten Personen – äußersttrivialer Maschinen unter Foersters Begriff der nichttrivialen Maschine, da sie vergangenheitsabhängig sind. Schon bestimmte Lichtschalter sind vergangenheitsabhängig,sofern sie beim ersten Drücken das Licht an-, beim zweiten Mal (beide Male derselbeInput, sofern es sich nicht um einen Kippschalter handelt!) aber ausschalten. DieBegrif- fedieser beiden Maschinentypen mögen daher – sieht man einmal von dem unter 1.)genannten Mangel ab – für sich betrachtetsehr klar sein, vermutlich sind dieGegens- tände, auf welche die Begriffe angewandt werden sollen,sehr viel differenzierter.

Es ist offensichtlich, dass beide Mängel nur dadurch behoben werden können, dassdie Begriffe weiter expliziert, präzisiert und differenziert werden. Beginnen wir mit demersten Punkt. Für beide Auffassungen, die Begriffe trivial/nichttrivial seien Sach- oderBeobachterbestimmungen, gibt es Argumente. Ein Anagrammaton, welches Input instatischer Weise codiert,istanders als das Anagrammaton, welches dies vergangenheitsabhängig unternimmt. Gleichwohl kann genau dieses Argument auch umgekehrtgelesen werden. Das zweite Anagrammaton ist viel komplexer als das erste. Aber dieKomplexität ist nur entscheidend in der Hinsicht, ob ein Beobachter mit ihr fertig wird.Würde ein Beobachter in der Lage sein, die Komplexität des zweiten Anagrammatonszu bewältigen, so wäre es für ihn letztlich trivial. Wir können uns auch einen Beobachter vorstellen, für den bereits das erste Anagrammaton zu komplex wäre und der daherdie Transformation der Buchstaben nicht voraussagen könnte. In diesem Fall wäre dasAnagrammaton nicht vorhersagbar, jedoch auch nicht vergangenheitsabhängig. Ihmkämen damit Merkmale sowohl der trivialen als auch der nichttrivialen Maschine zu.Allerdings sollten diese Merkmale miteinander verbunden sein, wenn eine Maschinenicht vergangenheitsabhängig ist, dann sollte sie vorhersagbar sein.

Offensichtlich gibt es nicht nur gute Gründe für beide Interpretationen (Sach- oderBeobachterbestimmung), sondern an beiden erweist sich auch etwas von der Sache. DieLösung für dieses Problem muss daher beide Argumente berücksichtigen. Unser Vorschlag besteht darin, die Begriffe trivial und nichttrivial als Erwartungen zu verstehen.Inwiefern könnte dies aber eine Lösung bieten – es scheint, als wenn damit geradewegs

71

70Andreas Kaminskidie Begriffe als reine Beobachterbegriffe deklariert würden! Dies ist nicht der Fall, esgibt Erwartungen sehr verschiedenen Typs und uns interessieren hier solche, die ihreFundierung in Erfahrung haben.Es ist ein Vorurteil, das vermutlich auf einer Äquivokation beruht, dass Erwartungen als primär subjektiv verstanden werden. Alle Erwartungen haben zwar einen subjektiven Index, insofern sie die Erwartungen von jemandsind: einer Person, einer Gruppe, einer Organisation, einer Gesellschaft (auch dies kannalso schon sehr unterschiedlich ausfallen). Aber das,woraufsich diese Erwartungenbeziehen, ist deshalb nicht per se subjektiv. Es kann geradezu den Inbegriff des Objektiven betreffen. So stellen Naturgesetze Erwartungen über den Verlauf natürlicher Prozesse dar (Mach 1917: 449f.). Wollte man diese, weil das Naturgesetz eine Erwartungdarstellt, als subjektiv betrachten, würde dies die Bedeutung von objektiv und damit diegesamte Unterscheidung auflösen (Köhler 1933: 1–22).

Der Erwartungsbegriff bietet uns nun die Möglichkeit, sowohl die Beobachter- alsauch die Sachmerkmale zu integrieren. Dass etwas trivial oder aber nichttrivial ist, liegtsowohl an der Sache (der Vergangenheitsunabhängigkeit oder -abhängigkeit und alsoder statischen oder dynamischen Transformationsfunktion) als auch am Beobachter. DieVergangenheitsunabhängigkeit der Sache und ihre statische Transformationsregel erleichtern also für Beobachter die analytische Determinierbarkeit und Unvorhersagbarkeit. Trivial ist etwas für einen Beobachter, für den es trivial ist, weil die Sache dieErkennbarkeit der Regeln, die ihr zugrunde liegen, unterstützt.

Die Erkennbarkeit hängt damit sowohl vom Beobachter als auch von der Sache abund manifestiert sich in der Bestimmtheit oder Unbestimmtheit der Erwartung. DieserVorschlag hat zudem einen weiteren Vorteil. Er stellt in Aussicht, Grade oder Niveausan Trivialität oder Nichttrivialität zu differenzieren. Je nach dem, in welchem Maße dieRegeln einer Maschine erkennbar sind, lässt sie sich einem Niveau an Trivialität oderNichttrivialität zuordnen. Die Differenzierung erfolgt dabei über den Modus der Transformationsfunktion. Statt wie bei Foerster zwei Typen von Maschinen lassen sich aufdiese Weise vier Klassen entwickeln, die feiner als bei Foerster die Unterschiede imGegenstand bezeichnen. Dadurch ergibt sich der nächste Argumentationsschritt, in demlernende Maschinen dem vierten Typ zugeordnet werden können. 8 Beispielsweise schließen wir damit das Feld der normativen Erwartungen aus. Gleichwohl wird eine engere Verbindung beider erkennbar als dies typischerweise vermutet wird.

72

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?71 1. Reine Trivialität

Eine Maschine ist dann rein trivial, wenn sie alle vier Bedingungen Foersters, erfüllt.Als Beispiel mag eine Stanzmaschine dienen. Jedes Mal, wenn man ihren Hebel zieht,stanzt sie das darunterliegende Metall. Ihre reine Trivialität basiert auf ihrer statischenTransformationsfunktion.

2. Triviale Nichttrivialität

Der Fall einer trivialen Nichttrivialität tritt dann auf, wenn eine Maschine ihre Transformationsfunktion variiert, aber auf triviale Weise. Die Maschine ist geschichtlich, sieist abhängig von Ihrem eigenen Prozess, aber in einer vollkommen transparenten Art.Die Transformation der Transformationsfunktion selbst ist trivial. Dies ist der Fall etwabei dem oben angeführten Lichtschalter. Die Maschine verändert dabei ihre Transformationsfunktion. Derselbe Input (Drücken des Schalters) führt zu verschiedenem Output (Licht an/aus). Nichtsdestotrotz ist diese Maschine analytisch determinierbar unddaher äußerst selbstverständlich vorhersagbar.

3. Nichttriviale Nichttrivialität erster Ordnung

Nichttriviale Nichttrivialität erster Ordnung ist dann gegeben, wenn die Transformationsfunktion einer Maschine wechselt, aber dieser Wechsel – im Unterschied zu Maschinentyp 2 – analytisch nicht rekonstruiert werden kann. Die Transformationsfunktionist dabei in der einen Hinsicht dynamisch, nämlich bezüglich des Wandels von Ein- undAusgabe (dieselbe Eingabe, verschiedene Ausgabewerte), in anderer Hinsicht ist siestatisch, denn dem Wandel der Transformationsfunktion liegt selbst eine statische Funktion zugrunde; diese kann aber nicht eingesehen werden. Das von Foerster angeführteAnagrammaton ist ein Beispiel hierfür.

4. Nichttriviale Nichttrivialität zweiter Ordnung

Nichttrivialität zweiter Ordnung entsteht dann, wenn die Transformation der Transformationsfunktion (von In- und Output) nicht statisch bleibt. Bei Maschinentyp Nummerdrei wandelte sich die Transformationsfunktion, aber in statischer, wenngleich auchnicht transparenter Weise. Die Maschine war schlichtweg zu komplex, um die statischeTransformation der Transformationsfunktion zu erkennen. Typ Nummer vier dagegenverändert die Transformationsfunktion der Transformationsfunktion selbst. Ein Beispieldafür folgt weiter unten.

Tabelle 2 bietet die nun differenzierten Maschinentypen in einer Übersicht dar.

73

72Andreas Kaminski Reine Trivialität Triviale

Nichttrivialität

Nichttriviale Nichttrivialität 1.Ordnung Nichttriviale Nichttrivialität 2. Ordnung Synthetisch determiniert

Synthetisch determiniert

Synthetisch determiniert Synthetisch determiniert Analytisch determinierbar

Analytisch determinierbar

Analytisch nicht-determinierbar Analytisch nicht-determinierbar Von Vergangenheit unabhängig

Von Vergangenheit abhängig

Von Vergangenheit abhängig Von Vergangenheit abhängig Vorhersagbar Vorhersagbar Unvorhersagbar Unvorhersagbar Statische

Transformations- funktion

Statische

Transformation der

Transformations- funktion

Statische, aber zu komplexe Trans- formation der Transformationsfunktion Dynamische Transformation der Transformations- funktion

Tabelle 2: Vergleich der vier Maschinentypen Ob sich zwischen der dritten und vierten Klasse Merkmale ändern, hängt davon ab,worauf man sie bezieht. Denn wir haben eine Dopplung, wie inzwischen deutlich geworden sein sollte: die nichttriviale Maschine besteht aus zwei Maschinen oder Maschinenkomponenten (um die Ebene der Rede deutlicher zu halten). Die nichttriviale Maschine enthält eine Maschinenkomponente, welche die Transformation von In- undOutput leistet, sowie eine zweite, welche diese Transformationsfunktion bestimmt. Diezweite Maschine kann selbst eine statische oder eine dynamische Funktion enthalten.Trifft ersteres zu, dann handelt es sich um Maschinentyp 3, trifft letzteres zu, dann handelt es sich um Maschinentyp 4.

Foerster selbst hatte die Dopplung derMaschinen in der Maschine erkannt, wirkönnen dafür auf dessen Darstellung zurückgreifen. In Abbildung 1, die vonFoerster stammt, ist eine Maschine dargestellt, die einen Inputxin den Outputy transformiert. Die Transformationsfunktion wird durchFund das zugehörige Modul bezeichnet. Die FunktionF transformiert xinyaber in Abhängigkeit von derMaschineZ, welche die Transformationsfunktion Fauswählt. Je nachdem, ob beispielsweisexzum ersten Mal oder wiederholtvorkommt, verändertZdie FunktionF, was durch die Verbindung vonZundFwieder-

Abb. 1: Maschine in der Maschine

(Foerster 1993: 311) z F y z'

Z x

74

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?73gegeben werden soll. Bei Maschinentyp 3 wandelt die MaschinenkomponenteZdieMaschinen-komponeteFnach festen, vorab definierten Regeln. Bei Maschinentyp 4wandeln sich diese Regeln selbst, sie sind auch nicht vorgegeben; dies kennzeichnet diespezifische Dynamik dieser Maschine.

Foerster erkannte diese Maschine in der Maschine, er erkannte aber nicht, dass sieauf verschiedene Weise realisiert sein kann. Wir haben nun Beispiele für Realisierungender verschiedenen Maschinentypen gegeben, aber bislang noch nicht für die der viertenKlasse. Maschinen, welche die Bedingungen der vierten Klasse par excellence erfüllen,sind lernende Maschinen. 5. Lernende Maschinen als nichttriviale Maschinen zweiter Ordnung

Lernende Maschinen enthalten einen Algorithmus, der in Abbildung 1 an der Stelle derKomponenteZpositioniert ist. Ich stelle zunächst (1) einige Anwendungsbeispiele vorund erläutere, inwiefern lernende Maschinen nichttriviale Maschinen zweiter Ordnungdarstellen. Anschließend (2) wird detaillierter beleuchtet, wie gelernt wird und welcheLernstrategien existieren, bevor ich abschließend (3) auf die Interaktionen mit lernendenMaschinen zu sprechen komme.

1. Anwendungsbeispiele:Maschinelle Lernsysteme werden verwendet in Spracherkennungssoftware. Die gesprochenen Äußerungen einer Person sind der Input, denOutput stellt die automatische Verschriftlichung des Gesprochenen durch die Softwaredar. Entscheidend für die Qualität der Spracherkennung ist die möglichst präzise Transformationsfunktion xyvor dem Hintergrund, dass Aussprache sowie Sprechbedingungen, etwa aufgrund des verwendeten Mikrofons oder bestimmter Umweltgeräusche,individuell und spezifisch sind. Das durch die Sensoren gelieferte Klangbild unterscheidet sich je nach Person und Sprechsituation. Daher ist eineunveränderlichvorab implementierte Transformationsfunktion von Nachteil; Lernvorgänge sind von großer Bedeutung, um das vorab implementierte Sprechmodell individuell zu adaptieren. DerLernvorgang wird in der Regel auf Trainingsdaten basieren. Diese haben den Vorteil,dass für sie die Abbildung vonxaufygegeben ist. Denn beim Training wird ein bekannter Text verwendet, so dassyund die Zuordnung zuxbestimmt sind und nun dieindividuelle Aussprache und die spezifischen Sprechbedingungen analysiert werdenkönnen, um die jeweilige individuelle Abbildungsfunktion zu erlernen. 9 Diese und die nachfolgenden Darstellungen von Anwendungsbeispielen sind gegenüber den ange- wandten Problemen und Verfahren stark in dem Sinne vereinfacht, dass sie auf die Grundlinien redu-

75

74Andreas Kaminski

Maschinelle Lernsysteme finden ihre Anwendung außerdem in klinischen Diagnosesystemen. In der Onkologie werden Patienten beispielsweise in Risikoklassen eingeteilt.Als Input fungieren Patientendaten wie etwa Alter, Rezeptorstatus, Tumorgröße, -artoder -lage. Den Output stellt die Zuordnung eines Patienten zu einer Risikoklasse (niedriges, intermediäres oder hohes Risiko) dar. Lernend ist das System deshalb, weil esselbst anhand von Daten die Zuordnungsfunktion bildet.

Handelsunternehmen verwenden maschinelle Lernsysteme, um Kunden zu typisieren und diesen Produkte zu empfehlen. Ausgewertet werden dabei die Stammdaten derKunden (items) sowie deren Warenkörbe. Die lernenden Maschinen versuchen Musterzu erkennen und entsprechende Assoziationsregeln auszubilden. Solche Assoziationsregeln haben dabei häufig folgende Form: Kunden mit den Eigenschaften E1 und E2,welche die Produkte P4 und P7 kaufen, kaufen auch sehr häufig die Produkte P1 undP9.

Lernende Algorithmen werden allerdings in viel mehr Anwendungskontexten eingesetzt, als hier dargestellt werden kann. So nutzen Banken diese Systeme zur Prognosevon Aktienverläufen, Versicherungen zur Eingruppierung von Kunden in Risikoklassen;in der Bioinformatik werden genetische Daten durch lernende Algorithmen analysiert,das Verhalten von Prothesen wird individuell an Personen angepasst; mittels maschineller Lernverfahren werden Airbags kalibriert, Computer lernen in Bildern Objekte zuerkennen, Spammails zu erfassen, Suchergebnisse an Nutzerpräferenzen zu orientierenund zu optimieren; Poker-, Schach- und Backgammonprogramme steigern durch maschinelle Lernverfahren ihr Können. Kurz: in vielen Bereichen werden bereits heutemaschinelle Lernsysteme eingesetzt, und es ist absehbar, dass dies noch erheblich zunehmen wird.

Für die Beispiele gilt, dass die lernende Maschine eine nichttriviale Maschine zweiter Ordnung ist. Gelernt wird die Transformationsfunktion, die nicht fest implementiertist. Der Lernvorgang selbst erfolgt in der Transformation der Transformationsfunktion.Bezogen auf die oben gegebene Abbildung:Fstellt das (jeweilige Zwischen-)Ergebnisdes Lernprozesses dar. Der Lernprozess erfolgt inZ. Dazu entwirftZeine Hypothese fürgegebene und validierte In- und Outputdaten, welche deren Ordnung modelliert. Werden nun weitere Daten gegeben, so wird die hypothetische Ordnung auf ihre Stimmigkeit geprüft und, falls Abweichungen auftreten, verändert, indem eine verfeinerte Ordnungshypothese gebildet wird, was den Lernprozess darstellt.

2. Lernstrategien: Es existiert eine Vielzahl an Strategien, wie Maschinen lernen:zum Beispiel Entscheidungsbäume, Assoziationsregeln, neuronale Netze, Stützvektormethoden, evolutionäre oder instanzenbasierte Algorithmen (Vgl. Wrobel/Morik/Joachims 2003; Alpaydin 2008; Russell/Norvig 2007). Diese werden häufig dahinge-

76

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?75hend klassifiziert, ob deren Lösungswegesymbolisch repräsentiertsind und daher aktuell von einigen Personen noch prinzipiell nachvollzogen werden können (etwa Entscheidungsbäume) oder ob es sich umsubsymbolische Systeme(etwa neuronale Netze)handelt, bei denen die Lösung im Detail nicht mehr transparent ist. Oder sie werdendahingehend klassifiziert, ob Trainingsdaten gegeben sind (ein so genannter „GroundTruth“) und das System daherüberwachtlernen kann oder ob keine derartigen Datenvorhanden sind und das System daherunüberwachtlernen muss.

In allen betrachteten Fällen besteht der Lernvorgang aber darin, für gegebene Dateneine Funktion zu finden. Diese Funktion entspricht, wie erläutert, einem Modell, das dieOrdnung der gegebenen Daten beschreibt. Diese Ordnung weist einen Zeitindex auf, eshandelt sich um eine Art Hypothese, dass das Modell nicht nur die vergangenen, sondern auch die zukünftigen Daten beschreibt. Aufgrund dieser Zeitlichkeit ist die Modellbildung dynamisch, was die Dynamik der Transformation der Transformationsfunktion kennzeichnet. Einige Unterschiede zwischen den genannten Lernstrategien gehendarauf zurück, wie dies erfolgt: Der Hypothesenraum wird von den verschiedenen Lernstrategien anfänglich auf unterschiedliche Weise entworfen bzw. später dann unterschiedlich angepasst.

3. Interaktion mit lernenden Maschinen:Nichttriviale Maschinen zweiter Ordnungerweisen sich in der Analyse in der Tat als technische Zäsur. Im Unterschied zu klassischer (trivialer) Technik weisen sie wesentlich größere Kapazitäten auf, mit Komplexität umzugehen, indem sie komplexe, statische oder aber sogar komplexe dynamischeKontexte modellieren. Es ist daher gerechtfertigt von ihnen als transklassischen Maschinen zu sprechen. Allerdings besteht die Rechtfertigung nur für die Ebene der Analyse. Wie ist dies zu verstehen? Die Begründung hierfür ist eine zweifache.

Der erste Punkt ist eine Beobachtung, die zum Teil auch durch Studien bestätigtwird: Nutzer wissen häufig nicht, dass sie es mit lernenden Maschinen zu tun haben. Sieverstehen sie als gleichsam triviale, klassische Technik. In einer Studie wurden Fahrassistenzsysteme getestet, die ‚autonom‘ Brems- und Ausweichvorgänge durchführenkönnen, sofern der Fahrende nicht (adäquat) reagiert, sobald ein Hindernis erscheint(Isermann et al. 2009). Den Probanden wurde dies aber nicht mitgeteilt, vielmehr wurdeihnen eine Mappe gegeben, anhand deren sie eine Route abfahren sollten. Während desAbfahrens der Route tauchte plötzlich und unerwartet ein Hindernis auf der Fahrbahnauf. Das Verhalten der Fahrenden wurde in dieser Situation durch eine Reihe von Sensoren erfasst. Die Auswertung der Sensordaten zeigte, dass viele Fahrer nicht oder nichtadäquat reagierten und das Fahrassistenzsystem daher ‚autonom‘ den Brems- oderAusweichvorgang einleitete. In der anschließenden Befragung gab allerdings mehr alsdie Hälfte der Befragten, an deren Stelle der Fahrassistent reagiert hatte, an, dass das

77

76Andreas Kaminski

Fahrzeug ihren eigenen Lenkbewegungen gefolgt sei, oder dass sie sich zumindest nichtsicher seien, ob sie oder die Fahrassistenz dies getan habe (Isermann 2009: 640). DieBewertung der Ergebnisse dieser Studie ist kompliziert, weil es sich um eine besondereSituation handelt (Schrecksituation), ferner weil nicht nur lernende Maschinen, sondernein komplexes System verwendet wurde und schließlich weil nicht nur die lernendeMaschinen nicht als solche erkannt wurde, sondern das Agieren des gesamten Systems.Die letzten beiden Punkte dürften unsere Annahme allerdings eher bekräftigen. Wirbetrachten jedenfalls dieses Ergebnis der Studie als einen Hinweis darauf, dass Nutzerhäufig nicht bemerken, dass sie mit lernenden Maschinen agieren. Dafür sprechen diefolgenden Beispiele: In vielen Fällen ist unklar, ob sich eine Suchmaschine lernend andie Nutzerpräferenzen anpasst. Den Suchmaschinen ist es prima facie jedenfalls nichtanzusehen, ob es sich um nichttriviale Maschinen zweiter Ordnung handelt. Wird einWort in der Spracherkennung erkannt, so ist offen, ob hierbei eine lernende Maschineverwendet wird. Nutzer müssen dies jedenfalls nicht zur Kenntnis nehmen. Selbst beiden Spam-Filtern dürfte den meisten Nutzern nicht klar sein, ob oder dass sie auf lernenden Algorithmen beruhen.

Die zweite Begründung besteht in einer Überlegung, welche erläutert, warum Nutzerweder davon wissen müssen noch (in vielen Fällen) wissen können, ob es sich um einelernende Maschine handelt. Lernende Maschinen werden in komplex-dynamischenSituationen verwendet. Ihr Vorzug gegenüber trivialen Maschinen besteht gerade darin,dass sie über Mechanismen verfügen, die es ihnen erlauben, Komplexität aufzunehmenund mit ihr umzugehen. Nichttriviale Maschinen zweiter Ordnung reagieren damit aufeine nichttriviale Umwelt, in der Personen Wörter anders aussprechen, sich in anderenGeräusch-Umgebungen befinden und sich in anderen semantischen Kontexten bewegen(Spracherkennung), in der sich das Internet fortlaufend ändert (Suchmaschinen) oder inder Angebote und Nutzerpräferenzen sich wandeln (Recommender Systeme in der Warenkorbanalyse). Wenn sich aber die Umwelt eines lernenden Systems verändert, dannist nicht ersichtlich, ob eine Veränderung des Systemoutputs auf die veränderte Umwelt,eine Veränderung des Systems oder gar beides zurückgeht. Zunächst ist angesichts desUmfangs der Treffer überhaupt offen, ob Veränderungen einer Suchmaschinenabfrageüberhaupt bemerkt werden. Ist dies aber der Fall, so können diese entweder auf eineVeränderung der Umwelt zurückgehen (neue Websites, neue Verlinkungen usw.), aufgelernte Nutzerpräferenzen oder beides.

Hinzu kommt ein zweiter Punkt, der diese Intransparenz verstärkt: Die Interaktionmit lernenden Maschinen ist größtenteils informell (vgl. Schmidt 2007). Es gibt in derRegel keine expliziten Eingaben. Außer etwa beim Training von Spracherkennungssoftware findet der Lernprozess durch die informelle Beobachtung und Auswertung von

78

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?77Nutzern statt. Eine Suchmaschine lernt nicht, indem sie fragt, was ein Nutzer präferiert,sondern indem sie dessen Verhalten beobachtet. Selbst das Ausgabeverhalten verdecktteilweise Lernerfolge. Bei Spamfiltern wird allenfalls die Abwesenheit von Spam zumIndiz eines Lernerfolgs. Ob dabei aber auch Mails fälschlich als Spam klassifiziert wurden ist nicht unmittelbar ersichtlich. Ebenso lässt sich bei einer Suchmaschine nurschwer feststellen, ob ein Lernerfolg vorliegt, da die Trefferliste, welche ohne Lernerfolge zustande käme, in der Regel nicht für einen Vergleich verfügbar ist.

Angesichts dieser Befunde können wir nun zur Ausgangsfrage zurückkehren und diediskutierten sowie hier entwickelten Ansätze auf ihre Leistungsfähigkeit prüfen. 6. Fazit: ein Paradigma informeller Technik

Der vorliegende Aufsatz untersuchte die Frage, ob lernende Systeme eine neuartigeTechnik darstellen, für die neue Maschinenkonzepte zu entwickeln sind. Dazu wurdendie beiden Ansätze naturalisierter Technik (Nordmann) und transklassischer Maschinen(Hubig) vergleichend vorgestellt und in ihrem analytischen Wert beurteilt. Es war festzustellen, dass beide Ansätze in einer Reihe von Punkten übereinstimmen, etwa ubiquitäre Informationstechnologie als eine entscheidende technikphilosophische Zäsur zubetrachten, und auch in der detaillierten Diagnose, worin diese Veränderung zu suchensei (Kontrolle, Intransparenz), einander ähnlich sind, dass aber die Schlüsse, welchedaraus gezogen werden (Naturalisierung einerseits, Verlust der Spuren andererseits)sich unterscheiden. Ferner wurde deutlich, dass, obgleich beide Ansätze ihren Geltungsbereich auf das Ubiquitous Computing erstrecken, sie die Diskussion maschinellerLernsysteme nicht im Detail berücksichtigen.

An dieser offen gebliebenen Stelle setzte der vorliegende Aufsatz an. Dazu wurdevorgeschlagen, lernende Systeme als nichttriviale Maschinen im Sinne Heinz vonFoersters zu verstehen. Heinz von Foersters Unterscheidung trivialer und nichttrivialerMaschinen erwies sich jedoch als zu einfach angesetzt. Um diesen Mangel zu beheben,war eine komplexere Theorie zu entwickeln, die vier Typen trivialer und nichttrivialerMaschinen unterscheidet. Lernende Maschinen konnten dadurch als nichttriviale Maschinen zweiter Ordnung bestimmt werden.

Auf diese Weise konnte zwar der Technikphilosophie eine Zäsur anhand des Maschinenbegriffs nachgewiesen werden, gleichwohl erschien uns damit noch nicht belegt,dass diese Zäsur auch für Nutzer eine solche darstellt. Im Schlussabschnitt wurde dahergefragt, wie die Interaktion mit lernenden Maschinen ausfällt. Dabei konnte belegt werden, dass für Nutzer nicht unmittelbar ersichtlich ist, dass sie mit lernenden Maschineninteragieren. Hierfür konnte eine Erklärung gefunden werden, welche zum einen an der

79

78Andreas Kaminski

Funktion nichttrivialer Maschinen ansetzt, dass nämlich nichttriviale Maschinen aufnichttriviale Umwelten reagieren sollen (statt diese wie triviale Maschinen selbstgleichsam zu trivialisieren). Für die nichttriviale Maschine bleibt die nichttriviale Umwelt folglich erhalten, gerade darin besteht ihr Vorzug gegenüber der trivialen Maschine, welche die Umwelt tendenziell zu trivialisieren sucht. Zum anderen ist die Interaktion mit nichttrivialen Maschinen primär informell.

Betrachten wir vor dem Hintergrund dieser Ergebnisse die divergenten Auffassungen (Naturalisierung vs. Verlust der Spur), so scheint es aktuell nicht ausreichend begründet zu sein, dass Nutzer lernende Maschinen als gleichsam natürliche Technikerleben oder reflektieren. Für Nutzer lernender Maschinen müsste dann deutlich sein,dass sie es mit lernenden Maschinen zu tun haben und wie diese autonom agieren. Dafür spricht angesichts der informellen Interaktion mit diesen Maschinen und derIntransparenz, dass sie es überhaupt mit lernenden Maschinen zu tun haben, nicht viel.Die These eines subjektiven Verlusts der Schnittstelle setzt genau an diesen Punkten an.Als Detaillierung dieses Ansatzes lassen sich daher die vorliegenden Überlegungenbegreifen, indem sie einerseits das maschinelle Lernen thematisieren, andererseits denAnsatz angesichts nichttrivialer Umwelten um die Dynamik nichttrivialen maschinellenVerhaltens ergänzen.

Der beschriebene und begriffene Umbruch bezeichnet eine informelle Technisierung. Lernende Maschinen fungieren informell gerade darin, dass sieunmerklichsind.Diese Unmerklichkeit tritt auf zwei Ebenen auf, die es zu unterscheiden gilt. Zum einensind die Lernvorgänge bei Interaktionen insofern notwendig unmerklich, als sich geradenicht mehr klar bestimmen lässt, welcher Effekt auf Nutzer- und welcher auf Systemaktionen zurückzuführen ist. Sofern lernende Maschinen ihre Transformationsregel verändern, fehlt die nötige Stabilität in den Kontextbedingungen für verlässliche Abduktionen. Zum anderen sind maschinelle Lernvorgänge zuweilen unmerklich, sofern Nutzernicht einmal bemerken müssen, dass sie es mit lernenden Algorithmen zu tun haben.Fehlt aber die Klarheit, was der personale und was der technische Beitrag bestimmterEffekte ist, lässt sich für Nutzer in vielen Situationen auch nicht mit Sicherheit sagen,ob die lernenden Maschinenfunktionieren oder kaputtsind. Die technische Leitunterscheidung wird ansatzweise ausgehebelt. Schließlich weisen diese neuen Maschinenauch keine Stabilität gegenüber ihrem Anwendungskontext auf. Lernende Maschinensind in ihrem Funktionieren (ihren Transformationsregeln) so in den Anwendungskontext verwoben, dass sie sich mit ihm ändern, indem sie ihn ändern.

80

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?79 Literatur

81

80Andreas Kaminski

82

Lernende Maschinen: naturalisiert, transklassisch, nichttrivial?81

83

Denkstil ist nicht nur diese oder jene Färbung der Begriffe und diese oder jene Art sie zu verbinden. Er ist bestimmter Denkzwang und noch mehr: die Gesamtheit geistiger Bereitschaften, das Bereitsein für sol- ches und nicht anderes Sehen und Handeln. Die Abhängigkeit der wissenschaftlichen Tatsache vom Denkstil ist evident. (Fleck 1980: 85)

The era of eHumanities has arrived. No longer consigned to manu- script, memory or museums, digitisation is transferring the humanities to our computers. (Grid Talk 2009) Was mag es bedeuten, wenn die Geisteswissenschaften in den Computer wandern? Waswird aus dem forschenden Denken? Kann in diesem Zusammenhang von Technik alsDenkstil überhaupt die Rede sein? Damit ist angedeutet, dass es in diesem Beitrag nichtzuvörderst um Technik im Sinne der Maschine, einer Apparatur geht, auch wenn derComputer zweifelsohne als elektronische Maschine von zentraler Stellung zu sehen ist. Auch Verhaltensweisen, wenn diese standardisierten Handlungsabläufen und Verfahrensweisen entsprechen – hier ist der Begriff der Sozialtechnik gebräuchlich –, sind imFolgenden nicht zentral gemeint. Vielmehr geht es mir um das Befragen einer Beziehung, die vielleicht befremdlich erscheint, möglicherweise ein gewisses Unbehagenhervorruft – die Beziehung zwischen Technik und Denken in einer ganz spezifischenForm: nämlich TechnikalsDenkstil. Diese Fokussierung ist der Tatsache geschuldet,dass weder Maschinen-Technik noch Verhaltenstechnik ein Unbehagen in uns auszulösen vermögen: Auch wenn es immer wieder Debatten über das Für und Wider bestimm 1 An dieser Stelle soll an die enorme Geschwindigkeit der IT-Entwicklung erinnert werden. Der Com- puter ist heute ganz selbstverständlich aus weiten Teilen der Wissenschaften nicht mehr wegzudenken. Aber noch in den 1970er Jahren sah dies ganz anders aus, wie folgendes Zitat zeigt: „Die Nutzung der Geräte breitete sich außerhalb von technischen, naturwissenschaftlichen und wirtschaftswissenschaftli- chen Fächern nur langsam aus. Noch 1965 musste man die Wissenschaftler informieren, wofür Rechen- anlagen eingesetzt wurden, und sie überzeugen, dass sich mit ihnen neue Aufgaben lösen ließen und die Ergebnisse schneller vorlagen. Selbst 1977 notierte der britische Informatiker Sir C.A.R. Hoare, dass die meisten Wissenschaftler vordem nie einen Computer gesehen hatten und – mehr noch – die meisten erwarteten auch nicht einen zu sehen“ (Grosse et al. 2009: 9–10).

84

Technik als Denkstil?83ter Techniken gibt – man denke an die Debatten in den 1990er Jahren über Gentechnik– ist der Technikbegriff auf Apparate angewandt nicht strittig. Wohl auch, weil wir vonihnen überall umgeben sind. Wir scheinen sie wie Luft zum Atmen zu benötigen (Autos, Computer, Fernseher, etc.). Sie dringen in unser Handeln ein, bspw. verändern sieunserer Art zu kommunizieren (in der U-Bahn schauen die Menschen nicht mehr aufihre Füße, sondern sie hantieren mit ihren Smart Phones). Auch auf standardisierteVerfahrens- und Verhaltensweisen angewandt löst der Technikbegriff wohl kein Erstaunen aus (Lehrtechniken in der Pädagogik, Managementtechniken in Unternehmenetc.). Bezogen auf die Wissenschaft sieht es nicht anders aus: Je nach Disziplin undForschungsgegenstand spielen komplexe Apparaturen eine zentrale Rolle und ohneComputer und das Internet kann man sich den forschenden Alltag kaum mehr vorstellen. Ebenso prägen Standards (bspw. für Publikationen) und formalisierte Verfahrensweisen (bspw. im methodischen Vorgehen) das Tun des Wissenschaftlers in seinemAlltag.

Aber können wir sinnvoll sagen, dass Technik im Denken selbst situiert werden kann,also im Prozess des Denkens und nicht nur als Inhalt der Gedanken? Genau darin besteht meine Frage im Folgenden, welcher ich anhand der Wissenschaft nachgehen werde. Und hierzu führe ich den Begriff des Denkstils von Ludwik Fleck ein.

Denwissenschaftlichen Denkstilalso alstechnischzu bezeichnen, konterkariert, somöchte man fast sagen, das, was Ludwik Fleck mit dem Begriff des Denkstils in dieWaagschale geworfen hat, um die Entstehung und Entwicklung einer wissenschaftlichen Tatsache verfolgen zu können:nämlich Wissenschaft als mannigfaltige soziale Praxis zu begreifen.

Das Fragezeichen im Titel des Beitrags „Technik als Denkstil?“ ist mit einer gewissen Neugier verbunden, wie und ob aktuelle digitale Infrastrukturentwicklungen dieWissenschaften und den Wissenschaftler verändern. Ich will in diesem Zusammenhangalso diskutieren, inwieweit man den Begriff des Technischen in den Begriff des Denkstils, also in die Frage nach einer wissenschaftlichen Praxis, quasi hineintreiben kann.Das Verhältnis von Technik und wissenschaftlichem Denken kann meines Erachtens 2 Dabei sollen die beiden anderen Vorstellungen von Technik, erstens als Maschine und zweitens als Verhalten, nicht ausgeblendet werden, da davon ausgegangen werden kann, dass alle drei Techniken in einem wechselseitigen Konstitutionsverhältnis stehen und ihre Beziehung sich nicht in einem Ursache- Wirkungs-Schema trivialisieren lässt. Technik als Dispositiv, Medium, Infrastruktur oder soziotechni- sches System zu definieren, verweist auf Technik als „dynamischen Vermittlungszusammenhang […] worin sich etwas abspielt (Modus) und durch das bestimmte Weichen gestellt werden (Dispositive), die sowohl als Bedingung der Möglichkeit von (etwas) fungieren als auch auf die Beschränkungen verwei-

85

84Sonja Palfnereben nicht in einem Ursache-Wirkungs-Schema (bestimmte Techniken als Ursache fürein spezifisches Denken) erklärt werden. Es kommt also darauf an, ein angemessenesModell für den Zusammenhang von Technik und Denken zu finden. Dazu teste ich denBegriff der informellen Technisierung.

Ich wähle hierzu einen empirischen Gegenstand oder besser gesagt, ein heterogenesGefüge, mit dem ich mich seit einiger Zeit beschäftige: Es handelt sich um wissenschaftliche E-Infrastrukturen.Diese E-Infrastrukturen, digitalen Forschungsinfrastrukturen oder auch Cyberinfrastrukturen (wie sie im US-amerikanischen Kontext bezeichnet werden) sollen – das ist ihr Versprechen – eine neue Form des wissenschaftlichenArbeitens (bezogen auf den Zugriff, die Analyse und die Distribution auf/von Daten),etwa in virtuellen Forschungsumgebungen, auf der Basis internetgestützter Diensteermöglichen. Diese „neue Wissenschaft“ wird auch mit dem Begriff E-Science belegt;in den Geisteswissenschaften ist von den E-Humanities oder den Digital Humanities dieRede. Ich brauche wohl nicht zu betonen, dass die Literatur zum Thema E-Science undE-InfrastrukturVersprechenstreut und damit an ein altbekanntes diskursives Musteranknüpft: Innovation durch Technik. Dass Versprechen nicht in Gänze in Erfüllunggehen, zeigt die Geschichte (man denke an die Nano- oder Gentechnik mit ihren Versprechen). Rückwärtsgewand ist es immer leicht, auf vergangene Versprechen zuschauen und ihnen ihre Fehlerhaftigkeit zu attestieren (Versprechen xy ist gar nichteingehalten worden). Doch damit wird man ihrer Bedeutung für die Gegenwart unddamit auch für eine mögliche Zukunft nicht gerecht. Denn Versprechen besitzen einegewisse Schwere und Wirkungsmächtigkeit: Sie wirken immer in einer Gegenwart undauch wenn sie nicht so wie versprochen in Erfüllung gehen, so verändern sie also überihr Wirken im Hier und Jetzt die Zukunft. Die Versprechen im Zusammenhang mit EInfrastruktur sind zweifelsohne groß: „The outcome from such an undertaking is clearand substantial: new, faster, better and different science than has been possible before”(Coveney/Atkinson 2009: 1).

E-Infrastrukturentwicklung ist ein sehr heterogener Prozess, an dem verschiedenemenschliche Akteure, nicht-menschliche Aktanten und Organisationen beteiligt sind,um die mannigfaltigen Einsätze des Digitalen in den Wissenschaften zu erproben, zuentwickeln und zu lancieren. Das Digitale in den Wissenschaften ist kein abseitigesGewächs mehr. Betrachtet man die Entwicklung in den Geisteswissenschaften, dannfindet man regelmäßig stattfindende Konferenzen, es gibt eine Fülle an Publikationen 3 Es handelt sich um ein sozialwissenschaftliches Forschungsprojekt zu E-Infrastrukturen, das ich zusammen mit einer Kollegin bearbeite (Laufzeit 2010–2013, TU Berlin). Die Zitate A4a 2011, A6a 2011, B1a 2011, B5a 2011 wurden Interviews entnommen, die wir im Rahmen des Projektes durchge- führt haben. Zum Projekt siehe www.escience-interfaces.net.

86

Technik als Denkstil?85zum Thema und Förderprogramme zum Aufbau und zur Nutzung solcher Infrastrukturen. Das „E“ ist ausgesprochen wirkungsmächtig geworden. Konkret geht es beispielsweise um die Festlegung und Implementierung einheitlicher Schnittstellen zwischenUsern und Datenanbietern oder um die Entwicklung und Bereitstellung von spezifischen Workflows. Es geht um die Handhabung von verteilten Daten oder zumindest vonDaten, die nicht am Ort des wissenschaftlichen Arbeitens ohne weiteres bereitstehen,sondern sich in Datenarchiven großer Rechenzentren befinden. Es geht um die Entwicklung neuer Werkzeuge für kollaboratives wissenschaftliches Arbeiten. Oder andersformuliert: Es geht um die Transformation der Möglichkeitsbedingungen für Wissenschaft, also um die Frage nach dem „Wie soll/kann/muss geforscht werden?“. Ein Forschen über das Forschen. Dabei ist dieser Prozess nicht von der Wissenschaft zu trennen. Ich denke, man darf ihn sich nicht linear, also in einer zeitlichen Abfolge – erständern sich die Möglichkeitsbedingungen, dann ändert sich die Wissenschaft – vorstellen. Die Trennung zwischen Service und Science, zwischen Infrastruktur und Forschungist vielmehr das Produkt einer Säuberung, einer hierarchischen Trennung von Praktiken,von Wissen, von Dingen und von Menschen.

Ursache und Wirkung zugleich ist dabei das enorme Wachstum von Daten. Die Digitalisierung von Wissensbeständen (bspw. unter dem Schlagwort Digital Library) undvor allem die riesigen Rechenoperationen in den Natur- und Technikwissenschaftenführen zu einem enormen Datenwachstum.

Mein Vorgehen sieht wie folgt aus: Im ersten Teil des Beitrags werde ich eine Vorstellung der relevanten Begriffe Ludwik Flecks vornehmen. Dann konkretisiere ich dieRede von der E-Infrastruktur. Ich werde hierbei allerdings nicht sehr dicht in das Gefüge konkreter Infrastrukturpraktiken einsteigen können, sondern holzschnittartig EInfrastrukturprojekte in zwei Wissenschaftsfeldern vorstellen: Zum einen geht es um ein 4 Wobei ganz klar gesagt werden muss, dass die Fördervolumina in den Geistes- und Sozialwissen- schaften verglichen mit den Natur- und Technikwissenschaften sehr klein sind. Beispiele für national und/oder europäisch geförderte Infrastrukturen sind TextGrid (virtuelle Forschungsumgebung für die Geistes- und Kulturwissenschaften), CLARIN/CLARIN-D (Forschungsinfrastruktur für Sprachressour- cen in den Geistes- und Sozialwissenschaften) oder DARIAH-EU/DARIAH-D (Digital Research Infrastructure for the Arts and Humanities). Ein Beispiel für die nationale Förderung im Bereich der Digital Humanities ist die Bekanntmachung des Bundesministeriums für Bildung und Forschung von Richtlinien zur Förderung von Forschungs- und Entwicklungsvorhaben aus dem Bereich der eHumani- ties. 5 Das sind digitale Explosionen, die sich heute im Tera und Petabyte-Bereich abspielen. 1000 Giga- byte = 1 TB und 1000 TB sind 1 Petabyte. 2012 ging an der Universität Stuttgart der Supercomputer Hermit mit einer Billiarde Rechenoperationen in der Sekunde (1 Petaflop) an den Start. Am Leibniz- Rechenzentrum in München wird ein Supercomputer betrieben, der auf eine Rechenleistung von 3 Petaflop kommt. Der Bedarf an solchen Rechenleistungen ist in den Geisteswissenschaften derzeit nicht absehbar. Und doch ist „Big Data“ kein ausschließlich in den Natur- und Technikwissenschaften zu lokalisierendes Thema mehr (man denke etwa an Text Mining als neue Analyseverfahren zum Umgang

87

86Sonja Palfner

Infrastrukturprojekt in der Klima- und Erdsystemforschung (C3 Grid INAD) und zumanderen um ein Infrastrukturprojekt aus den Geisteswissenschaften (TextGrid). Im abschließenden dritten Teil werde ich einige Überlegungen anstellen, wie der Begriff desTechnischen im Begriff des Denkstils situiert werden kann – und welches Gewicht diesfür die Analyse wissenschaftlicher Praxis in der Gegenwart hat. 1. Vom Denkstil

„Denkstil“ ist einer der zentralen Begriffe Flecks, mit dem er über die Entstehung undEntwicklung wissenschaftlicher Tatsachen nachdenkt. Er ist bedeutsam für Flecks Formulierung einer neuen Wissenschaftsphilosophie, welche in den 1930er Jahren zu seinerMonographie mit eben jenem Titel „Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv“ führte (Fleck1980). In diesem Buch, erschienen 1935 bei Benno Schwabe in Basel, verbindet Fleckseine wissenschaftstheoretischen Überlegungen mit einer dichten Studie zur Genese desSyphilis-Begriffs.

Wissenschaft, so Flecks Erkenntnis, ist ein kollektiver Vorgang. Das gewonneneneue Wissen ist nur aufgrund bestimmter Vorannahmen über den Gegenstand möglich.Es ist nicht fix, sondern zeichnet sich durch Diversität, Vergänglichkeit und Beweglichkeit aus. Aus diesem Verständnis heraus ist es einsichtig, dass Fleck seine Monographiemit der Frage beginnt „Was ist eine Tatsache?“ (Fleck 1980: 1).

Die Vorannahmen, auf denen eine wissenschaftliche Praxis baut, sind wiederum, soFleck, nur als soziologisches und historisches Produkt einesDenkkollektivs verständlich. Das Denkkollektiv ist praktisch lebendig, derDenkstilbesitzt in ihm und in seinenPraktiken eine Haftung. Oder anders formuliert: Der Denkstil materialisiert sich in denPraktiken und Stimmungen des wissenschaftlichen Denkkollektivs.

Denkstilgebundene Gewohnheiten gehen in das wissenschaftliche Beobachten ein.In diesem Sinne spricht Fleck vonGestaltsehen, d.h. gerichtetes Sehen auf den Gegenstand hin, der sich entsprechend zur Tatsache verdichtet. Hierzu ist Erfahrenheit in dembestimmten Denkgebiet notwendig.Auch spricht Fleck vomDenkzwangdes Kollektivs. Das in Handbüchern geronnene Wissen ist eine solche Verdichtung zum Denkzwang.

Der Weg des Forschens ist kein geradliniger. Nicht der geniale Wissenschaftler bewegt sich und seinen Gegenstand fortschrittsstrebend auf ein Ziel hin. Vielmehr sieht 6 Man denke bspw. an das Gestaltsehen einer pathogenen Mutation in einer DNA-Sequenz. Lauter farbige Linien im Auf und Ab. Es braucht ohne Zweifel Vorbildung, einen (zu)gerichteten Blick – sonst sieht man zwar bunte Linien, aber eben keine pathogene Mutation.

88

Technik als Denkstil?87Fleck im forschenden Erkennen eine Zick-Zack-Linie; Zufälle und Irrtümer sind dabeibestimmend.

So verändern sich im Hin und Her die epistemologischen Grundlagen der Forschungim Prozess des Forschens, ohne dass die Wissenschaftler sich dessen bewusst sind.Wissensfortschritt, so beschreiben es Schäfer und Schnelle im Vorwort zu Flecks Buch,„ist für Fleckdie kollektive Weiterentwicklung des Denkstils, durch die die an den Wissenschaftsgegenstand herangetragenen Vorannahmen verschoben werden. [...] Mit derVerschiebung der Vorannahmen verändert sich das Wissen: Neues tritt hinzu – anderesaber kann jetzt nicht mehr ‚gewusst‘ werden, wenn durch die Fortentwicklung diesemgewissermaßen der Boden unter den Füßen entzogen worden ist“ (Schäfer/Schnelle1980: XXIX).

Ideen entstehen imDenkverkehrdes Kollektives, im Kreisen des Gedankens. Dasbedeutet keineswegs, dass nicht die Arbeit des einzelnen Forschers wichtig und zu würdigen ist. Und doch ist es für Fleck das Kollektiv, dem Entdeckungen zugeschriebenwerden können. Hier ist anzumerken, dass Fleck durchaus schon das Kreisen des Gedankens zwischen zwei oder drei Personen als ein – dann aber momentanes – Denkkollektiv begreift. Darüber hinaus existieren stabile oder verhältnismäßig stabile Denkkollektive. Tatsächlich ist die Aufnahme in ein Denkkollektiv daran gebunden, dass dasIndividuum sich Arbeitsweisen, theoretisches Rüstzeug etc. aneignen und eine praktische Erfahrenheit ausbilden muss. Dies, so der Autor, geschieht nicht ohne einensanf- ten Zwang.

Eine unmittelbare Verständigung der Mitglieder unterschiedlicher Denkkollektiveist nach Flecks Meinung nicht möglich. „Wer“, so fragt er, „vermöchte die alte anatomische Bezeichnung ‚Schoss‘ z.B. in eine moderne übersetzen? Wo dieses mystischeOrgan lokalisieren?“ (Fleck 1980: 51). Er führt weitere Beispiele an, insbesondere anatomische Beschreibungen und Darstellungen, um die Historizität und Situiertheit desWissens zu verdeutlichen.

Ist also Beharrungsvermögen eine Bedingung der Möglichkeit des Denkkollektivs,so kann man sich fragen, wie es überhaupt zu Denkstiländerungen kommen kann? Hiersieht Fleck, dass die Individuen nie nur einem Denkkollektiv angehören, sondern meh88 7 Dies erinnert an den archäologischen Ansatz Foucaults, der darauf aufmerksam macht, dass ein Satz, eine Äußerung nicht zu allen Zeiten ein und dieselbe Aussage ist, weil sich die diskursive Ord- nung und damit das Koordinatensystem des Aussagens und damit eben auch die Aussage geändert hat. Als Beispiel nennt er die Behauptung „Die Erde ist rund“ und führt an, dass dieser Satz vor und nach Kopernikus nicht dieselbe Aussage ist: „Bei so einfachen Formulierungen kann man nicht einfach sagen, dass der Sinn der Worte sich geändert hat. Was sich geändert hat, ist das Verhältnis dieser Be- hauptungen zu anderen Propositionen, ihre Anwendungsbedingungen und Reinvestitionsbedingungen, ist das Feld der Erfahrung, von möglichen Verifizierungen, von zu lösenden Problemen, worauf man

89

Sonja Palfnerreren. Sie sind die „Vehikel des interkollektiven Denkverkehrs“ (Fleck 1980: 144). Esgibt keine Glocke, die die Wissenschaftler einschlösse. Sie sind Teil der alltäglichenLebenswelt. Diese Gemengelage nimmt der Forschende mit in sein Labor und die Gedanken fließen in den Denkverkehr des Kollektivs ein. Dadurch ergeben sich Veränderungstendenzen. Doch erst, wenn sich der Denkzwang lockert, eröffnen sich neue Entdeckungsmöglichkeiten. Aber Neuheit bedeutet nicht das völlige Ablösen von allem,was war. Fleck nimmt an, dass solche neuen Bewegungen nur vor dem Hintergrundtiefgehender sozialer Bedürfnisse und Konstellationen sowie, könnte man sagen, kultureller Bilder zu erklären sind. Im Falle der Syphilis, die ihm als Beispiel seiner Erörterungen dient, stößt Fleck auf die – wie er es nennt – vorwissenschaftliche Idee der Syphilis als einer Lustseuche. Der Wirkungsmacht solcher alter Ideen muss seiner Auffassung nach auch im Kontext der Forschung unbedingt Rechnung getragen werden.

Aber Fleck nimmt nicht nur interne Faktoren wissenschaftlicher Erkenntnisgewinnung oder das tief in eine Gesellschaft eingelagerte Wissen zur Kenntnis. DieBlack Box weitet sich in Richtung wissenschaftsexterner Faktoren. Politische Instanzen lenkenRessourcen in bestimmte Bereiche. Heute spricht man von einer Governance der Wissenschaft.

In dieser Kurzdarstellung ist der dichten Studie Flecks und seinen wissenschaftstheoretischen Überlegungen selbstredend nur unzureichend gerecht geworden. Aber dergrobe Einblick sollte genügen, um einen Eindruck davon zu erhalten, wie der Autorwissenschaftliche Praxis und forschendes Erkennen konzeptualisiert. Wissenschaft istunbedingt eine soziale Angelegenheit und der Denkstil ist dabei ein „bestimmter Denkzwang und noch mehr: die Gesamtheit geistiger Bereitschaften, das Bereitsein für solches und nicht anderes Sehen und Handeln. Die Abhängigkeit der wissenschaftlichenTatsache vom Denkstil ist evident“ (Fleck 1980: 85). Der Denkstil ist an ein temporäresund nicht fixes Kollektiv und seine Praktiken gebunden. Das Denken ohne seine materiellen Träger und ihre Praktiken zu denken, ist nach Fleck also nicht möglich. Es gibtZwänge des Denkens innerhalb eines Kollektivs.Es gibt Gerinnungen des Wissens, 8 Im Feld von E-Science ist dies sehr gut zu beobachten: staatliche finanziert findet eine politische Lenkung von Ressourcen in entsprechende wissenschaftliche Richtungen statt. Immer größer werdende Rechenzentren und schnellere Netzwerke etablieren eine Cyberinfrastruktur, die durch nationale wie internationale Förderprogramme massiv entwickelt wird (ˈKompetenzzentren für Hoch- und Höchst- leistungsrechnenˈ (D-Wissenschaftsrat), ˈDEISA Distributed European Infrastructure for Supercompu- ting Applications – Advancing Science in Europeˈ (EU), ˈEUDAT European Data Infrastructureˈ (EU), ˈCyberinfrastructure Vision for the 21st Century Discoveryˈ (US-NSF), ˈD-Gridˈ (D-BMBF), usf.). 9 Ein Beispiel hierfür fand ich jüngst in einem Interview, das der SPIEGEL mit dem Soziobiologen Edward O. Wilson geführt hat. Darin geht es um seinen Entwurf eines neuen Ansatzes zur Erklärung der Menschheitsentwicklung, der auf breite Kritik gestoßen ist. „SPIEGEL: Ihre Abkehr von der Ver-

90

Technik als Denkstil?89welche sich in Lehrbüchern finden, und es gibt Verhaltensweisen, welche zum Kollektiv gehören und vom Individuum angeeignet werden müssen. In dieser Umgebung dessanften Zwangs bildet das Individuum ein Erfahrensein aus, welches ihm das Gestaltsehen der wissenschaftlichen Tatsache ermöglicht. Gleichsam findet Veränderung statt, daein Kollektiv nie völlig nach außen hin abgeschlossen ist. Die Gedanken kippen in verschiedene Richtungen, bis sich eine Tatsache verdichtet und in einem Zick-Zack Kursmit allen möglichen Unfällen, Irrwegen und Katastrophen Substanz oder Wahrheit wird.

Holen wir jetzt die Frage nach demTechnischenheran, das uns im Sinne derinfor- mellen Technisierungnicht in erster Linie als dinghafte Apparatur entgegentritt. Damitkomme ich zum zweiten Teil des Beitrags, zur wissenschaftlichen E-Infrastruktur. 2. E-Infrastrukturen in den Wissenschaften

In vielen Ländern und, wenn auch zeitlich verzögert, in der Bundesrepublik Deutschland, wird seit einigen Jahren die Entwicklung und der Einsatz netzbasierter Infrastrukturen für die Wissenschaft vorangetrieben. Wir erleben geradezu eine InfrastrukturKonjunktur, einen Willen zum digitalen In-Form-Bringen der Wissenschaften. DieserProzess verläuft nicht überall gleich und gleichzeitig, sondern ist vom jeweiligen Gegenstandsbereich der Disziplinabhängig.

In der Bundesrepublik Deutschland hat sich bspw. 2003 die D-Grid Initiative etabliert, um die Integration von Grid-Technologie in den Wissenschaften zu fördern. 2005 starteten die ersten vom Bundesministerium für Bildung und Forschung (BMBF)geförderten Projekte, darunter Projekte aus der Astronomie, der Klimaforschung, derMedizin und noch ein paar weiteren wissenschaftlichen Feldern, in denen viele Daten wandtenselektion hat Ihnen die erbitterte Feindschaft vieler Kollegen eingetragen. Wilson: Nein, so viele sind es nicht. Die Reaktion war heftig, aber sie kommt von einer eher kleinen Gruppe von Leuten. SPIEGEL: Machen Sie es sich damit nicht sehr leicht? Immerhin 137 Wissenschaftler haben einen Artikel unterschrieben, der Ihnen ein ‚Missverständnis der Evolutionstheorie‘ vorwirft. Wilson: Die meisten davon haben ihre ganze Karriere auf der Verwandtenselektion aufgebaut. Wissenschaft ist bestimmt von Stammesdenken. Wenn das ganze Leben mit einer bestimmten Theorie verbunden ist, kann man nicht davon lassen.“ (SPIEGEL, 8/2013: 137) 10 Bei der Grid-Technologie geht es um neue Kollaborationsformen sowie neuartige Zugriffs- und Distributionsmöglichkeiten von Datenmengen und anderen Ressourcen/Diensten über Zeiten und Räume hinweg: „The real and specific problem that underlies the Grid concept is coordinated resource sharing and problem solving in dynamic, multi-institutional virtual organizations. […] This sharing is, necessarily, highly controlled, with resource providers and consumers defining clearly and carefully just what is shared, who is allowed to share, and the conditions under which sharing occurs. A set of individuals and/or institutions defined by such sharing rules form what we call a virtual organization“ (Foster et al. 2001: 201). Forschungsinfrastruktur und Grid sind nicht identisch, sondern Grid war für eine bestimmte Zeit das Zauberwort, welches fallen musste, um an Fördermittel für Infrastrukturent- wicklungen in den Wissenschaften zu kommen: „Ich sage es ganz ehrlich, es war damals so, dass man für IT in der Klimaforschung sonst kein Geld bekam, wenn man nicht auf der Grid-Geschichte herum-

91

90Sonja Palfneranfallen und hochvolumig gerechnet wird. Aber auch ein Projekt aus den Geisteswissenschaften fand sich unter dem Dach der D-Grid-Initiative wieder. Im Frühjahr 2012fand in Bonn die Ergebniskonferenz der D-Grid-Initiative (www.d-grid-gmbh.de) statt,die den Abschluss einer mehrjährigen und kostenintensiven Förderinitiative des BMBFbildete.Diese Governance der Wissenschaft durch Infrastrukturförderung bewegt sichnicht nur im Spannungsfeld zwischen kurzfristigen Förderphasen (in der Regel sinddiese dreijährig) und der langen Dauer, die das Infrastrukturwachstum braucht. Sondern,und damit zusammenhängend, auch im Spannungsfeld zwischen dem Muss zur Weichenstellung im Hier und Jetzt, welches Pfadabhängigkeiten schafft, und der Frage, wiedie Infrastruktur hinreichend offen und flexibel bleibt, um wandelnden Anforderungenzukünftiger Forschungscommunitys gerecht werden zu können.

Wie oben gesagt, soll durch E-Infrastruktur eine neue Qualität der Zugriffs- undAnalysemöglichkeiten sowie der kollaborativen Arbeitsweisen unabhängig von zeitlichen und geographischen Restriktionen – quasi ein globaler Raum-Zeit-enthobenerRhythmus der Wissenschaften – ermöglicht werden. In der Regel wird sowohl GridTechnologie als auch E-Infrastruktur mit der Schaffung einer neuen Umgebung für eineneue Wissenschaft verbunden. So heißt es bspw. im EU-Kontext von CORDIS hierzu:Die Technik, transparent versunken, soll den Wissenschaftler nicht mehr unnötig belasten. Transparenz bedeutet hier gerade nicht eine Möglichkeit zum Durchblicken derDatenwege hinter dem Interface. Der Nutzer soll im Grunde Technik nicht als etwasMühevolles, Störendes, oder überhaupt als etwas Relevantes in seinem Handeln erleben,in das er (zusätzliche) Arbeit investieren muss.It should be like magic: „Na ja, die positiven Effekte, oder die Wünsche von den Anwendern sind natürlich ein einfacherer

92

Technik als Denkstil?91Zugang zu den unterschiedlichen Datenarchiven, einfaches Bearbeiten dieser Daten undletztendlich quasi auf Knopfdruck ein Ergebnis zu bekommen, was aber so nicht umsetzbar ist“ (B7a 2011: 6). Während die Sichtbarmachung des Forschungsobjektes imtechnischen Bilde als zentrale Praxis der Wissenschaft gilt, soll das Technische gleichzeitig unsichtbar sein. So soll der Forschende sich auf sein „Kerngeschäft“ besinnenkönnen: die Produktion von neuem Wissen: „Also, die Doktorarbeiten haben z.T. drei,vier Jahre gedauert, einfach weil die Hälfte der Zeit mit diesen Datenarbeiten draufgegangen ist, was mit der eigentlichen Fragestellung gar nichts zu tun hatte, sondern manmusste einfach die Werkzeuge und das Material bereitstellen, bevor man damit arbeitenkonnte“ (B6a 2011, S. 14). Der Vorgang des Forschens wird in Arbeitsschritte zergliedert. „Datenarbeiten“, und damit ein bestimmter Erfahrungsraum, werden von der „eigentlichen Forschung“ abgespalten. Kurzum: Wissenspraktiken werden hierarchisiert.Spezifische Arbeitsschritte, so auch die Mühen der Datenbeschaffung, sollen in dievirtuelle Forschungsumgebung ausgelagert werden: „D.h. wenn ich einen Account habeim D-Grid, dann kann ich mich darauf verlassen, dass ich bestimmte Ressourcen zurVerfügung habe, mit denen ich wissenschaftlich arbeiten kann. Dann kann ich wirklichdafür sorgen, dass meine Anwendung, die mir C3-Grid ermöglicht, durch die Gegendläuft, die Daten einsammelt und sie prozessiert, um mir die Hockeystick-Curve rauszuschmeißen“ (B5a 2011: 4). Nicht mehr der Mensch läuft durch die Gegend um an seineDaten zu kommen, sondern die Technik erledigt dies, während er vor seinem Bildschirm sitzen bleibt.Die Befreiung des Wissenschaftlers von „lästigen“ und „zeitraubenden“ Tätigkeiten ist eine Kernaussage in der E-Infrastrukturentwickung und sie istdort besonders präsent, wo – wie in der Klimaforschung – enorme Datenmengen produziert werden. Hierzu ein weiteres Zitat ebenfalls aus der Klimaforschung: „Ja, dass esmöglich sein wird, auf ziemlich einfache Art und Weise, auch auf sehr unterschiedlicheDaten zuzugreifen. Und dass die Wissenschaftler von einem Stück Arbeit, was eigentlich nur mechanisch ist, aber sehr viel Zeit in Anspruch nimmt, entlastet werden können, damit sie sich den Aufgaben zuwenden können, die eigentlich ihre Hauptaufgabesind“ (B1a 2011, 4). Lästige Tätigkeiten sind mechanische Tätigkeiten und diese solldie Maschine besser und schneller erledigen können.

Der Wissenschaftler soll davon abgehalten werden, Dinge zu machen, die entwederan anderer Stelle schon einmal gemacht worden sind (bspw. die Produktion von be92 13 Die Delegation an Technik darf nicht darüber hinwegtäuschen, dass Technik nicht menschenlos ist. Die komplexen Infrastrukturen zu entwickeln und zu pflegen ist enorm zeit- und arbeitsintensiv und es erfordert in vielen Bereichen hohe IT-Kompetenzen. Wissenschaftliches Arbeiten wird also nicht ein- fach zwischen Forscher und Technik aufgeteilt, sondern es entstehen „hinter“ der Technik völlig neue

93

Sonja Palfnerstimmten Daten) oder die die Infrastruktur schneller und besser erledigen kann/könnensoll: „Wenn ich vergleichsweise mechanische Arbeiten über große Massen machen willund das nebenher schnell machen lassen kann, weil es der Arbeitsplatz mir zur Verfügung stellt, dann ist das ein unglaublicher Fortschritt, weil ich das sonst bloß exemplarisch oder punktuell, aber auf jeden Fall für sehr viel weniger Exemplare machen könnte, und dass dann die statistische Relevanz wesentlich geringer ist. In der Sprachwissenschaft ist es, glaube ich, der Umgang mit den Massendaten, also das ist mein Arbeitsplatz“ (A6a 2011: 4–5).

Es geht also nicht nur um eine Arbeitserleichterung durch Arbeitsteilung, sondernauch um gänzlich neue Möglichkeiten in der Wissensproduktion, basierend auf derAnnahme, dass die Bearbeitung einer größeren Datenmenge mittels Computer zu qualitativ höherwertigen Aussagenführt. „Ineffizienz“ im forschenden Handeln soll alsoinfrastrukturell behoben werden. Ich zitiere abschließend aus dem Rahmenprogramm,vorgelegt von der D-Grid-Initiative 2004: „Mit dem Übergang zur gemeinsamen Entwicklung und Bereitstellung von Ressourcen, insbesondere Verfahren und Daten, verschiebt sich zugleich die Wertschöpfung in der Wissenschaft. Es kann erreicht werden,dass ein abnehmender Teil der wissenschaftlichen Arbeit der Erzeugung von Verfahrenund Daten gewidmet wird, die bereits an anderem Ort vorhanden sind; damit werdenKräfte für die Gewinnung neuer Erkenntnisse frei“ (D-Grid Initiative 2004: 4).

Reflektierend kann nun einsetzend gefragt werden: Was für eine Wissenschaft wirdhier aufgerufen?Eine neue, eine bessere Wissenschaft?Was sind die Bedingungender Möglichkeit für die Gewinnung neuer Erkenntnisse, die im Zusammenhang mitE-Infrastruktur und E-Science ins Spiel geraten? Was genau ist denn die „eigentlicheAufgabe“ des Forschenden? Setzt das Denken erst ein, wenn die Daten da sind und dasVisualisierungsprogramm ein Bild auf dem Bildschirm erscheinen lässt? Ist die „mechanische“ Arbeit frei vom wissenschaftlichen Denken?

Ich will im Folgenden kurz zwei Beispiele aus dem Bereich der wissenschaftlichenE-Infrastrukturentwicklung vorstellen. 2.1 Klimaforschung

Das C3-Grid INAD ist einCollaborative Climate Data and Processing Gridfür diedeutsche Erdsystemforschung (https://verc.enes.org/c3web).In diesem komplexenForschungsfeld besteht, so die Argumentation der Infrastrukturentwickler, ein Bedarf an 14 C3-Grid befindet sich nicht in der Anwendung, sondern im Entwicklungsstadium. Es gibt keine Nutzer, sondern Tester und derzeit ist nicht abzusehen, ob das C3-Grid oder zumindest innerhalb der Projektlaufzeit entwickelte Komponenten in den nachhaltigen Betrieb übergehen werden.

94

Technik als Denkstil?93einer neuen E-Infrastruktur, um die wissenschaftliche Analyse von hochvolumigenErdsystemmodell- und Beobachtungsdaten effektiv zu betreiben. In der Klimaforschungexistieren sowohl verteilte Daten an unterschiedlichen Standorten der Klimawissenschaften, als auch zentralisierte Daten – vor allem am Deutschen Klimarechenzentrum,wo eines der weltweit größten Datenarchive in Betrieb ist und wo auf Supercomputernbspw. für das IPCC, also dasIntergovernmental Panel on Climate Change, gerechnetwird.Klimadaten sind heterogen, es gibt Beobachtungsdaten verschiedener Art undnatürlich große Datenmassen aus Modellrechnungen. Das Wachstum an Daten in dieserWissenschaftskultur ist enorm und entsprechend muss eine Infrastruktur bereitgestelltwerden, welche die Verwaltung, Verteilung und Bearbeitung der Daten „sinnvoll“ zulässt. Das C3-Grid, welches im Rahmen der D-Grid Initiative gestartet ist und durch dasBMBF bis Ende 2013 gefördert wird, ist genau dazu gedacht, den Workflow der Wissenschaftler zu unterstützen und eine kollaborative Umgebung auf der Basis von GridKonzepten und Technologien zu schaffen: „C3Grid not only offers services for uniformand transparent access to several distributed data archives of the German climate community but also data processing capabilities. Our aim is to establish C3Grid as an accepted common platform and toolset for scientists in their daily research work. In addition to this, C3Grid disseminates general climate specific information from scientificenvironment to the general public” (https://verc.enes.org/c3web). 2.2 Geisteswissenschaften

Das TextGrid als Infrastrukturprojekt ist 2006 offiziell gestartet:

TextGrid war innerhalb von D-Grid das einzige Projekt aus den Geisteswissenschaften;die anderen Projekte kamen aus den Natur- und Technikwissenschaften.MöglicheGründe für den verspäteten Einstieg könnten, so heißt es in einem Aufsatz von Andreas 15 An dieser Stelle soll kurz erwähnt werden, was Supercomputing in Geldwert bedeutet. Der Höchst- leistungsrechner am Deutschen Klimarechenzentrum in Hamburg kostete bspw. 35 Millionen Euro. Und diese Maschinen sind in der Regel nach ca. 5 Jahren veraltet und müssen ersetzt werden. 16 Wobei hier anzumerken ist, dass TextGrid nicht innerhalb von D-Grid gefördert wurde, wie die

95

94Sonja Palfner

Aschenbrenner und Kollegen, in „unterschiedliche[n] Anforderungen, Methoden, Zielenund auch in der unterschiedlichen Forschungskultur liegen“ (Aschenbrenner et al. 2007:13). Diese Aussage findet sich auch in folgender Interviewsequenz aus meiner empirischen Forschung wieder:

Trotz beschriebener Resistenzen lässt sich seit einigen Jahren beobachten, wie das Digitale in verschiedenen geisteswissenschaftlichen Disziplinen immer wichtiger wird.Esformiert und professionalisiert sich innerhalb der Geisteswissenschaften etwas, das alsE-Humanities oder Digital Humanities bezeichnet wird.Argumentiert wird zum einen,dass es auch in den Geisteswissenschaften mittlerweile um große Datenmengen, eineDatenrevolution gehe, „die allein mit traditionellen Methoden und ohne Zuhilfenahmeder modernen Informatik nicht bewältigt werden können“ (Aschenbrenner et al. 2007:13). Betont wird die Heterogenität der Daten und ihre andere Qualität im Vergleich zunaturwissenschaftlichen Daten (unvollständig, mathematisch nicht definierbar etc.).Insbesondere findet man eine Erzählung zur Notwendigkeit eines Wandels der Geisteswissenschaften, die wie folgt funktioniert: Der Philologe arbeite alleine. Die Einzelleistung des Geisteswissenschaftlers, das isolierte Arbeiten, sei jedoch insofern problematisch, als dass – wie im Falle des möglicherweise langjährigen Editierens – Ressourcenverschwendet und Forschungsergebnisse der wissenschaftlichen Gemeinschaft vorenthalten würden.Entgegen diesem alten Arbeitsstil, greife der Wissenschaftler der Zu 17 Diese digitale Konjunktur darf nicht darüber hinwegtäuschen, dass das Arbeiten mit Computern in den Geisteswissenschaften so alt ist, wie der Computer selber. Man denke an die Erstellung des Index Thomisticus durch Roberto Busa, mit dem er bereits 1949 und in enger Zusammenarbeit mit IBM begann. Zur Genese von TextGrid siehe auch Palfner/Tschida 2013 (im Erscheinen). 18 Meines Erachtens kann aber derzeit nicht von einer epistemischen Gemeinschaft der Digital Hu- manities gesprochen werden. Die Digital Humanities sind auch keine Disziplin. 19 Dieses Bild ist natürlich insofern interessant, weil hier fortschrittslogisch ein spezifisches Bild von Wissenschaft und vom Wissenschaftler produziert wird. Mit Fleck im Gepäck müsste man aber sagen,

96

Technik als Denkstil?95kunft von einem beliebigen Ort der Welt (natürlich vorausgesetzt, ein Zugang ist vorhanden) auf seine virtuelle Umgebung, Forschungsdaten und Tools zu, stehe weltweitmit Kollegen in flexiblen Netzwerken in Verbindung und könne „on the fly“ auf aktuellste Entwicklungen reagieren und neueste Erkenntnisse in seine Arbeit integrieren.Schneller und spontaner Austausch steigere die Effizient und Qualität wissenschaftlichen Arbeitens.

Vieles wäre detailanalytisch zu den beiden E-Infrastrukturentwicklungen in C3-GridINAD und TextGrid zu sagen. Insbesondere im Hinblick auf Unterschiede, Ähnlichkeiten und Synergien zwischen den beiden Wissenschaftsfeldern. Zumal beide in sichwiederum hochgradig heterogen sind. Ein systematischer Vergleich steht hier noch aus.E-Infrastruktur ist, wie hoffentlich deutlich geworden ist, nicht auf die dinghaften Apparaturen zu reduzieren. Die Umgestaltung der Wissenschaft im Begriff des Digitalenkönnte vielleicht als informationelle Technisierung qualifiziert werden – E-Infrastrukturals eine spezifische Konstellation der sozialen Formung von Wissenschaft. Ich kommejetzt zu einer Zusammenführung. 3. Zusammenführung

TechnikalsDenkstil? Gehen wir nun am Ende des Artikels zu Fleck zurück. Denkstil:Fleck hat diesen Begriff geprägt, um die soziale Praxis des Hervorbringens wissenschaftlicher Tatsachen in einem Denkkollektiv zu beschreiben. Etwas Neues entsteht imnicht geradlinigen Denkverkehr der Beteiligten und aus einem bestimmten Denkstilheraus. Wissenschaft ist ein Tasten und Tappen; wertvolle Versuche, so Fleck, „sindimmer unklar, unfertig, einmalig“ (Fleck 1980: 112). Das Denkkollektiv ist die sozialeBedingtheit jedes Erkennens, wie es bei Fleck heißt. Das Kreisen des Gedankens istnichts Alltagsfernes, sondern eine soziale Praxis. Fleck zeigt am Beispiel der Syphilismaterialdicht, dass Wissenschaft ein bewegtes Gefüge aus Menschen und Dingen, auswissenschaftsinternen und wissenschaftsexternen Einflüssen ist. Wissen wird im Kreisen der Gedanken modifiziert. Es braucht bei aller Fluidität des Tatsache-Werdens, einErfahren-Sein, damit sich die Tatsache im Gestaltsehen des Denkkollektivs verdichtet.Wissenschaftliches Denken ist nicht Technik, wenn man folgender Aussage folgt:„Wenn es das Ziel wissenschaftlicher Tätigkeit ist, immer mehr Phänomene zu erklären,ist es das Ziel technologischer Tätigkeit, Regeln des Handels zu formulieren, genauer,hergebrachte Regeln der Herstellung von etwas zu ersetzen durch ‚begründete‘ Regeln‘“ dass es diesen Menschen alleine und im Elfenbeinturm nie gegeben hat, weil er immer Teil eines Denk-

97

96Sonja Palfner

(Joerges 1977: 27). In Infrastrukturprojekten wird zweifelsohne auf Regeln des wissenschaftlichen Handelns Einfluss genommen, so dass „Technik die Leute verhält undnicht umgekehrt“ (Dotzler 1992: 21). Ein einfaches Beispiel ist die Verschiebung vonTätigkeitsprofilen, die oben im Zitat angesprochen wurde: Im „Wie des Vorgehens“werden spezifische Tätigkeiten an Technik delegiert und von der wissenschaftlichenTätigkeit abgezogen. Dies betrifft in den Geisteswissenschaften quantifizierende Arbeiten, die als mechanisch definiert werden und auch in der Klimaforschung ist die Entlastung von mechanischen Arbeiten (Datensammeln) ein Kernargument für die Entwicklung von E-Infrastrukturen. Ich will nicht sagen, dass es nicht sinnvoll und eine großeErleichterung sein kann, bestimmte Dinge nicht mehr tun zu müssen. Und doch stelltsich die Frage, was das für die Beziehung des Wissenschaftlers zu seinem Forschungsgegenstand bedeutet und für die Ausbildung einer Erfahrenheit, die nach Fleck so wichtig ist, damit eine wissenschaftliche Tatsache entstehen kann? Welche Qualität besitztdas Datensammeln, ist es nicht ein wichtiges Moment mit anderen Wissenschaftlernoder Archiven/Rechenzentren Kontakt aufzunehmen und sich im zwischenmenschlichen Austausch die Daten zu besorgen? Was geht verloren (und was wird gewonnen),wenn diese Praxis nicht mehr Teil des Denkkollektivs und des kollektiven Denkverkehrs ist? Was bedeutet es, wenn also Technik aus dem Denken, aus dem Kreisen desGedankens, entfernt werden soll. Die angeführten Aussagen aus meiner empirischenUntersuchung zeigen deutlich, dass eine Trennung zwischen Technik und Denken vollzogen wird: Der Wissenschaftler denkt, nicht die Technik. Sie bleibt das Äußere unddamit folgt die Trennung dem altbekannten Dualismus zwischen Körper und Geist. DerKörper, das Äußere, die Infrastruktur, die Form. Der Geist, das Denken, der Inhalt.

Dass Technik den Möglichkeitsraum für Wissenschaft prägt, ist bspw. von HansJörg Rheinberger herausgearbeitet worden (2002). Technik ist Bestandteil von Experimentalsystemen. Rheinberger spricht von technischen Bedingungen, die der epistemischen Praxis keineswegs unterzuordnen sind. Technik ist gegenüber der wissenschaftlichen Erkenntnis nicht stumm oder neutral. Im Gegenteil: Technische Bedingungenbestimmen das Möglichkeitsfeld für die wissenschaftliche Praxis und insofern sind siedem epistemischen Ding nicht nur äußerlich: „Die technischen Bedingungen bestimmennicht nur die Reichweite, sondern auch die Form möglicher Repräsentationen einesepistemischen Dings […]“ (Rheinberger 2002: 26). Hier stellen sie also eine Art Rahmung und gleichsam eine Bedingung der Möglichkeit des Werdens eines epistemischenObjekts dar. Technik begrenzt, sie setzt uns etwas vor, sie fließt auch in hohem Maße indie Dinge ein, die unsere Forschungsobjekte sind. Sie bestimmt unser Handeln mit.

98

Technik als Denkstil?97Nun ist zunächst einmal festzustellen, dass das Technische im Sinne der informellenTechnisierung, die nicht primär die Apparate im Blick hat, dem von Fleck herausgearbeiteten Prozess der Entstehung einer wissenschaftlichen Tatsache nicht unähnlichscheint. Dies betrifft zum einen das Moment der Unmerklichkeit: Es vollzieht sich einWandel im Denkstil, ohne dass dies den Protagonisten bewusst ist, informell verändernsich Handlungs- und Denkweisen. Auch das Moment der Prozessualität ist bedingtanschlussfähig. Es meint, dass die technischen Effekte und die Technik selbst fortlaufend neu erzeugt werden. Etwas genauer: Die Praxis, in welcher die Technik eingesetztwird, verändert diese zugleich – so dass die Effekte nicht stabil bleiben. Auch Denkkollektive mit ihren Denkstilen sind nicht unveränderlich und fix, sondern erzeugen sichfortlaufend. Allerdings muss es, damit eine wissenschaftliche Tatsache entstehen kann,stabile Bedingungen geben. Ein Wandel ist möglich, wenn sich der Denkzwang lockert.Im Sinne der informellen Technisierung wird bei dem Begriff der Prozessualität stärkerauf Beweglichkeit und nicht auf das Moment der Stabilität fokussiert. Das dritte Moment, dieWirksamkeit ohne Formbestimmtheit, soll bedeuten, dass die Technik verändernd wirkt und sich nicht wieder von dem abziehen lässt, was sie verändert hat. Mankann also vom Gegenstand nicht mehr sagen, dass das der technische Anteil daran istund das Objekt ohne die Technik so und so wäre. Auch dieses dritte Moment der informellen Technisierung, dieWirksamkeit ohne Formbestimmtheit, kann mit Flecks Konzeptualisierung epistemischer Praxis verknüpft werden, da sich auch im Denkstilschwerlich einzelne Komponenten heraustrennen oder vom Denkstil abziehen lassen.

Inwiefern könnte man jetzt sagen, dass digitale Forschungsinfrastrukturen denDenkverkehr grundieren und Einfluss auf den Denkstil nehmen? Wir erinnern uns andas Versprechen der E-Infrastruktur: Wissenschaftler sollen sich eben nicht mit Technikbefassen müssen, sondern sich ihren „Kernaufgaben“ zuwenden. Technik soll helfen,aber nicht stören.Sie soll transparent sein.Welcher Traum von Wissenschaft wird hiergeträumt? Wovon soll in der Produktion von Wissen abgesehen werden? Was wird alsWissenschaft begriffen, wenn Wissenschaftler verdatet arbeiten sollen und gleichzeitigfür ein „digitales Analphabetentum“ plädiert wird? Denn es geht nicht nur darum, dassdie Technik in einer Black Box verschwindet und Arbeit angenehm,smooth, gemachtwird. Es geht auch darum, dass das Nichtverstehen des Digitalen oder des Technischenkonsequent im inneren Ausschluss des Digitalen praktiziert wird.Technik als Denkstil 20 Bei der Figur des inneren Ausschlusses beziehe ich mich auf Agamben (2002), der, auf ein politi- sches System bezogen, in der Ausnahme/im Ausnahmezustand eine Ausschließung aus der generell herrschenden Norm sieht. Jedoch bleibe das Ausgeschlossene immer mit der Norm verbunden. Genau diese Beziehung ist es, die Agamben interessiert. Die Regel des Innen setze sich nämlich genau da- durch, dass sie in Beziehung mit dem Außen bleibe, erst zur Regel. Insofern sei das Außen nicht nur ein

99

98Sonja Palfnerdarf nicht sein, weil die geistige Tätigkeit etwas anderes sein muss. Aber das aus demDenken Ausgeschlossene, die Technik, bleibt mit dem Denken hartnäckig verbunden.Dass in der aktuellen Situation in der neue Forschungsinfrastrukturen entstehen, überhaupt über den Dualismus zwischen Wissenschaft und Technik geredet wird, deutetdarauf hin, dass diese Trennung keinesfalls absolut ist. Vielmehr kann man behaupten,dass sie im Moment ihrer Problematisierung als solche hervorgebracht wird.

Digitale Unmündigkeit wird zum Status Quo erklärt und es stellt sich dringend dieFrage nach den zugrundeliegenden Prämissen über das „User-Subjekt“, wie folgendesZitat aus meiner empirischen Forschung anzeigt: „Das liegt in der Natur der Sache undder Menschen, sozusagen, dass die Wissenschaftler gerne die Anforderungen derer, diedie Infrastruktur machen, für äußerlich und banal halten, während die anders herum dieWissenschaftler für sozusagen spinnert halten und für zu unsystematisch, dass man sieecht in einen Computer hineinstecken könnte, also ich formuliere das mal so“ (A6a2011: 16). Technik als Denkstil könnte also hier heißen, dass ein bestimmtes InBringen des Wissenschaftlers passiert. Aus diesem Grund sind Fragen nach wissenschaftlicher Qualifizierung, Aus- und Weiterbildung von besonderer Bedeutung.E-Infrastrukturentwicklung findet im Spannungsfeld von technischem Nicht-Wissen(Transparenz) und Wissensaneignung statt. Technik als Denkstil könnte heißen, dass„soziale Tatsachen, Prozesse und Zustände, die von sich her einen Hang zur Paradoxiehaben“ (Kamper 1995: 143) in eine Form gepasst werden, die gleichsam zum Inhaltwird.

Die Frage nach TechnikalsDenkstil zu stellen, ist kaum an den Gegenstand EInfrastruktur gebunden. Aber die E-Infrastruktur-Konjunktur fordert meines Erachtensdazu auf, nach der Praxis der Wissenschaften neu zu fragen. Insbesondere Fragen nachdem Verhältnis zwischen Form und Inhalt, zwischen Infrastruktur und Wissenschaftdrängen sich auf. Wie ist diese Relation gestaltet? Muss man davon ausgehen, dass dasVerhältnis zwischen Infrastruktur und Wissenschaft neu geordnet wird, wie es folgendeAussage aus einem Papier des Wissenschaftsrats nahelegt:

100

Technik als Denkstil?99Ohne Zweifel ist der Begriff der informellen Technisierung gut einsetzbar, um das Augenmerk auf spezifische technische Prozesse unterhalb der Unterscheidung zwischen„heil/kaputt“ zu lenken. Mir scheint, dass mit ihm ein Zugang zum Digitalen in denWissenschaften ermöglicht werden kann, der die E-Infrastruktur für die sozialwissenschaftliche Analyse von innen her aufschließt.

Literatur

101

100Sonja Palfner

102

Die Art und Weise, wie Menschen durch soziale Praktiken Raum erzeugen, ist eingrundlegender Aspekt menschlicher Koexistenz. Menschliches Leben und Zusammenleben hat neben einer zeitlichen stets eine räumliche Dimension. Solche Räume sindhistorisch veränderlich. So verändert sich fortlaufend das Verständnis von Nähe undDistanz, davon was als akzeptiertes räumliches Arrangement des Zusammenwohnensgilt, was erreichbare und was wünschenswerte Orte im Alltag und im Leben sind. Diejeweilig gültigen Formen sind dabei Ausdruck der Organisation des Sozialen und damitfür soziologische Überlegungen interessant.

Der vorliegende Aufsatz greift das Konzept der „informellen Technisierung“ auf, umnicht offensichtlich technischen Effekten bei der Erzeugung von Räumen durch Praktiken nachzuspüren. Effekte, die ihren Ausgang durchaus bei harter, artefaktgebundenerTechnik nehmen können, sich im weiteren Verlauf jedoch von dieser trennen und alsnicht-materielle Elemente von Praktiken weiterhin Wirkung entfalten. Raum ist einsoziales Phänomen und wird in Anschluss an Theodore Schatzki als Ergebnis des Zusammenwirkens von materiellen Arrangements und Praktiken verstanden (Schatzki2002; Schatzki 2010). Nach einigen Vorüberlegungen wird der relationale Raum, derdurch die Praktik Geocaching erzeugt wird, auf Momente informeller Technisierung hinuntersucht. 1. Perspektive

Räume des Zusammenlebens bzw. der Koexistenz sind immer Ergebnis sozialer Prozesse. Diese integrieren unter anderem Materialität, aber auch Technik im Allgemeinenund Infrastruktur im Speziellen.

Pierre Bourdieu entwickelt seine Theorie der Praxis an einer Ethnografie der kabylischen Gesellschaft. Im Zuge dessen beschreibt er ausführlich die Einteilung eines typischen kabylischen Hauses und die soziale Bedeutung der in diesem in bestimmter Weise zueinander angeordneten Gegenstände. Bourdieus Argument ist, dass diese Ordnungnach „einem Gefüge homologer Gegensätze“ wie z.B. Feuer – Wasser, gekocht – roh,oben – unten, Licht – Schatten, Tag – Nacht, männlich – weiblich etc. aufgebaut ist unddieses Gefüge nicht nur das Haus, sondern das Zusammenleben auch außerhalb des

103

102Paul Gebelein

Hauses ordnet (Bourdieu 1979: 53 f.). Für Bourdieu ist klar, dass „diese Gegensätzezugleich den Brennpunkt paralleler Gegensatzgruppen bilden, die niemals allein auftechnische Anforderungen und funktionelle Notwendigkeiten zurückzuführen sind“(Bourdieu 1979: 49). So recht Bourdieu mit der Formulierung „niemals allein“ hat, sounterbelichtet bleibt bei ihm jedoch die umgekehrte Prägungsrichtung sozialer Zusammenhänge durch Technik und Materialität. „Technische Anforderungen“ und „funktionelle Notwendigkeiten“ wären zudem falsche Kategorien, um dieser gegenläufigenWirkrichtung nachzuspüren.

Technik und Materialität ist ein offensichtlich an dieser Erzeugung von Raum beteiligter Aspekt: Techniken und Materialien des Hausbaus sind mitverantwortlich für dieArt, wie Menschen zu bestimmten Zeiten zusammenwohnen und wie das Zusammenleben in größeren Siedlungen und Städten organisiert wird bzw. organisiert werden kann.Auf diese Weise ist Technik und Materialität daran beteiligt zu bestimmen, was jeweilsfür ein Verständnis von Nähe und Ferne etwa im Zusammenleben gilt und überhauptdenkbar ist. Technik und Materialität stehen nicht jenseits des Sozialen. Hierin sehe icheinen Hinweis auf ihreinformelleWirkung, dem ich im Folgenden nachgehen werde.

Auch bei der Erschließung von Territorium im Alltag ist Technik beteiligt. Verkehrstechnik als Kombination von Gerät und Infrastruktur (z.B. Eisenbahn, Auto) ermöglicht Wege, die umgekehrt rasch gesellschaftlich gefordert und zum gesellschaftlichen Standard werden. Auf diese Weise richtet Technik Raum zu, formiert und konfiguriert diesen und beteiligt sich so an der Erzeugung von Räumen.

Einen hilfreichen Entwurf, um räumliche Anordnungen aus soziologischer Perspektive zu untersuchen, hat Martina Löw vorgelegt (Löw 2001). Löw verwendet nicht ein„Gefüge homologischer Gegensätze“, sondern fokussiert stattdessen auf die Praxis vonIndividuen. Räume werden als „(An)Ordnung von Lebewesen und sozialen Gütern“(Löw 2001: 159 f.) verstanden, es handelt sich hierbei um ein relationales Raumkonzept. Die Konstitution von Raum erfolgt für Löw durch zwei nur analytisch zu unterscheidende Prozesse, „Spacing“ und „Synthese“ (ebd.). „Spacing“ bezeichnet dabei dasPlatzieren von Elementen (Lebewesen und soziale Güter) eines Raumes an Orten. „Synthese“ hingegen bezeichnet den Prozess des Zusammenfassens von Raumelementen undRelationen zu einem Raum. Mit Bezug auf Giddens Handlungstheorie wird die Stabilität von Raumkonstitutionen durch deren Institutionalisierung erklärt. Unter „sozialenGütern“ versteht Löw mit Kreckel „Produkte gegenwärtigen und vor allem vergangenem materiellen und symbolischen Handelns“ (Löw 2001: 153). Der Raum eines Hauses wird also beispielsweise konstituiert, indem in ihm Gegenstände in einer bestimmten Weise angeordnet werden und den Bewohnern und Besuchern bestimmte Plätzezugewiesen werden. Wenn dies immer wieder auf vergleichbare Weise geschieht, be-

104

Technisierter Raum: Die Praktik Geocaching103kommt der Raum Stabilität, weil die ihn erzeugenden Handlungen institutionalisiertsind. Der Bau des Hauses selbst gehört natürlich auch zu diesem Prozess, da hier materielle Bedingungen für spätere Raumkonstitutionen, etwa die Raumaufteilung, festgelegt werden, die zwar an einem späteren Zeitpunkt uminterpretiert, aber auf Grund derWiderständigkeit der Materialität nicht ohne weiteres geändert werden kann.

Eine Rekonstruktion der Praktiken des Wohnens in einem kabylischen Haus mitLöws Theorieangebot würde zwar eine andere soziologische Perspektive einnehmen, inBezug auf die Verwendung von Technik jedoch nicht substantiell über Bourdieus Darstellung hinausgehen. Auch Bourdieu spart die Dinge nicht aus. Ganz im Gegenteilbindet er sie extensiv in seine Beschreibung des Bedeutungsgefüges der kabylischenGesellschaft ein. Das Argument ist ja gerade, dass sich die gesellschaftlichen Verhältnisse in der Aufteilung des Hauses widerspiegeln.

Wie aber lässt sich der Umstand einfangen, dass materielle Arrangements und Technik nicht nur gesellschaftliche Verhältnisse widerspiegeln, sondern auch an der Konfiguration von sozialer Koexistenz beteiligt sind, die sich dann natürlich auch wieder inihnen spiegelt? Diese Frage mag sich bei der Analyse der kabylischen Gesellschaftnicht aufdrängen, sie tut dies aber zu Beginn des 21. Jahrhunderts mit der Ausbreitungvernetzter Informationsinfrastrukturen (Internet) und dem globalen Satellitennavigationssystem GPS. In der Art, wie internetgestützte Dienste genutzt werden, spiegelt sichnicht nur die Beschaffenheit der sozialen Koexistenz, sondern diese wird durch ebensolche Dienste in ihrer Form beeinflusst. Das Konzept der „informellen Technisierung“verspricht hier eine Suchoptik zu bieten, mit der diese Beeinflussungen jenseits vonSachzwängen, „technischen Anforderungen“ und „funktionellen Notwendigkeiten“identifiziert werden können.

In den Ansätzen von Bourdieu und Löw kommen Infrastrukturen zu kurz. Infrastrukturen sind materiell-technische Strukturen, die über singuläre Situationen hinausreichen, also „reach or scope“ haben (vgl. Star 1999), und persistent sind. Löws Ansatzist hier allerdings erweiterungsfähig. Dazu muss die Konstitution von Räumen von derindividuellen Ebene, wo sie bei Löw angesiedelt ist, auf die Ebene von Praktiken verschoben werden. Räume können dann als von Praktiken erzeugt verstanden werden, diebestimmte Infrastrukturen integrieren.

Für die weiteren Überlegungen wird eine theoretische Perspektive gewählt, die dasSoziale nicht von Interaktionen, Individuen oder Systemen her denkt, sondern von Praktiken. Eine Praktik ist mit Schatzki ein „temporally unfolding and spatially dispersednexus of doings and sayings“ (Schatzki 1996: 89). Das bedeutet, eine Praktik ist eineEntität aus Taten und Gesagtem, die an unterschiedlichen Orten zu unterschiedlichenZeiten mit hinreichender Ähnlichkeit auftritt, so dass sie als dieselbe Praktik identifi-

105

Paul Gebeleinziert werden kann. Beispiele wären die Praktiken „ein Instrument spielen“, „zur Arbeitpendeln“, „einen Vortrag halten“ oder „Tennis spielen“. Zu unterscheiden ist dabeizwischen Praktik und Praxis (Reckwitz 2002: 249; 2003: 289). Eine Praktik ist, wiebereits gesagt, eine Entität, die eine gewisse analytische Abstraktion in sich trägt. Praxishingegen ist das tatsächliche ablaufende und alleinig beobachtbare soziale Leben. OhnePraxis, in der Praktiken immer wieder hinreichend stabil reproduziert werden, macht dieVorstellung einer Praktik keinen Sinn (vgl. Schatzki 1996: 90).

Damit Praktiken über Raum und Zeit eine gewisse relative Stabilität haben können,müssen sie stabilisiert werden. Dies geschieht über ihre jeweilige Organisation (Schatzki 2002: 77). Praktiken verschränken und integrieren Bedeutungen, Vorstellungen,Dinge, Technik, Regeln, Ziele und Emotionen auf die jeweilig eigene Weise. FürSchatzki erzeugen so organisierte Praktiken zusammen mit „material arrangements“soziale Phänomene (Schatzki 2010).Ein solches Phänomen ist die räumliche Dimension von Praktiken, also der Raum, der durch Praktiken erzeugt wird. Die Praktik in eine15–20 Kilometer entfernte Stadt zur Arbeit zu pendeln, wie sie Schivelbusch beschreibt,zeichnet sich durch eine bestimmte Organisation und die Integration bestimmter Technik aus. Dies zusammen macht die Praktik zu dem, was sie ist und was sie wiedererkennbar macht.

Der vorgestellte Ansatz erlaubt es, Technik und Materialität in ihrer Rolle als raumkonfigurierende Elemente nachzugehen. Materialität und Technik können auf vieleArten in Praktiken integriert werden. Sie wirken dabei formend und nicht determinierend. Auf welche Weise sie formen, ist theoretisch nur spekulativ zu beantworten unddamit eine empirische Frage.

Wie bereits erwähnt, ist für die Frage nach den Räumen, die durch Praktiken erzeugtwerden, ein besonderer Typ von Technik interessant: Infrastrukturen. Sie zeichnen sichdadurch aus, dass sie vernetzt sind und über einzelne Situationen hinausreichen, undzwar nicht nur bezüglich zeitlicher Stabilität – dies trifft für einzelne Artefakte auch zu–, sondern auch räumlich. Das heißt, sie verbinden Orte, machen bestimmte Orte überhaupt erst zu einem Teil einer Praktik, sie „legen“ diese Orte nahe oder machen andereschwer erreichbar. So ist es z.B. äußerst aufwändig, ohne Auto bei IKEA einzukaufen,da die Orte an denen IKEA-Kaufhäuser gebaut sind, Teil des Raumes der Praktik Autofahren sind und sich im Raum, der durch die Praktik „Fahren mit dem ÖPNV“ erzeugtwird, nur in schwer, mit viel Aufwand, zugänglichen Randbereichen befinden.

Wolfgang Schivelbusch beschreibt solche Zusammenhänge am Beispiel der Einführung der Eisenbahn in der Mitte des 19. Jahrhunderts, die das zeitgenössische Verständ 1 Im Folgenden wird das materielle Arrangement bei der Rede von einer Praktik stets mitgedacht.

106

Technisierter Raum: Die Praktik Geocaching105nis von Raum und Zeit herausgefordert und nachhaltig verändert hat. Entfernte Orte, diemit einer Bahnverbindung angebunden waren, rückten näher dadurch, dass sie in einemBruchteil der bisher gewohnten Zeit erreichbar waren. Auf der anderen Seite wurdeRaum, so Schivelbusch, „vernichtet“. Und zwar der Raum dazwischen, der nun ohneProbleme in der Eisenbahn sitzend durchquert werden konnte. Schivelbusch bezeichnetdies als zwei widersprüchliche Momente derselben Bewegung (vgl. Schivelbusch 1977:39). In einer Perspektive, die Räume als durch Praktiken erzeugt annimmt, die Infrastrukturen integrieren, stellt sich das, was Schivelbusch beschreibt, als sich wandelndeMobilitätspraktiken im Zusammenhang mit neu zu Verfügung stehenden Infrastrukturendar. Diese erzeugen andere Räume als die bisherigen Praktiken, weil das Bestimmenvon bedeutsamen Orten und das Zusammenfassen zu Räumen, also das Erzeugen vonRaum, durch Praktiken, die Eisenbahn integrieren auf andere Weise von Statten geht alsin Praktiken, die dies nicht tun. Die Infrastruktur Eisenbahn konfiguriert die Raumerzeugung der sie integrierenden Praktiken. Schivelbusch nennt das Beispiel der nachEinführung der Eisenbahn entstehenden Suburbs, in denen Menschen wohnen und esdank der Eisenbahn schaffen, jeden Tag zu ihrem Arbeitsplatz in der 15–20 Kilometerentfernten Stadt zu pendeln (Schivelbusch 1977: 37). Diese Form der sozialen Koexistenz ist keine kausale Folge der Erfindung der Eisenbahn. Es ist anzunehmen, dass auchandere Entwicklungswege möglich gewesen wären. Auch ist das materiell-technischeArrangement nicht nur ein Spiegel gesellschaftlicher Verhältnisse. Sondern: Der Modussozialer Koexistenz, hier im Speziellen der Modus der Organisation des Nebeneinanders, wird konfiguriert durch die darin eingebundene Technik und deren Folgen gehenüber ihre explizite Technizität hinaus, die mit Hilfe der Leitunterscheidung heil/kaputteinfangbar ist.

Die Stärke und auch der Reiz der Verwendung des Begriffs „Raum“ liegt in der damit einhergehenden Frage nach dem Bezugsystem, das dieser etabliert, also nach Bezugs- oder Orientierungspunkten, nach „Landmarken“ und Positionen in und Wegendurch solche Anordnungen. Dies trifft sowohl für metaphorische wie nichtmetaphorische Verwendungen zu. Für den hier zu diskutierenden Fall geht es um einennicht-metaphorischen Gebrauch von Raum, da es immer um Elemente mit geographischem Index geht und nicht um Argumente, Aussagen oder Wissen, wie beispielsweisein der Rede von einem „Wissensraum“. Jedoch geht es auch nicht darum, Raum auf dieErdoberfläche zu reduzieren und eine objektive „basemap“ als allen Raumphänomenenzugrunde liegendes Bezugsystem anzunehmen. Eine solche Perspektive wird in dersoziologischen Diskussion in der Regel als containerartiges Verständnis von Raumbezeichnet. Wenn es um Technisierungsprozesse geht, spezieller um Technisierungsprozesse von räumlichen Anordnungen, ob formell oder informell, dann geht es um die

107

106Paul Gebelein

Frage, wie Bezugsysteme technisiert werden.Formell, indem Schilder und Wegweiseraufgestellt werden, Trassen geschlagen oder Satelliten in die Erdumlaufbahn geschossen werden.Informell, indem solche Technisierungen über die Tatsache hinaus, dassnun Wege in einer bestimmten Weise beschrieben und Positionen z.B. als Zahlenkombination beschrieben werden können, eine Wirkungsebene haben, die in der Praxis dazuführt, bestimmte Dinge so und nicht anders zu machen. Die direkte Folge – schnellerTransport von A nach B etwa – wird von einer unmerklichen und in diesem Sinne informellen Veränderung der sozialen Raumvorstellung und -ordnung begleitet. In diesemSinne heißt es: Dieser technische Effekt liegt jenseits der Leitdifferenz „funktioniert/kaputt“.

Der leitende Gesichtspunkt „informeller Technisierung“ eignet sich nun dazu, Praktiken und das mit ihnen verbundene materielle Arrangement daraufhin zu untersuchen,ob und wo sich Elemente finden lassen, deren Geschichte bestimmte Technik einschließt, die aber für ihren Fortbestand nicht mehr auf diese angewiesen sind und sichso der Leitdifferenz heil/kaputt entziehen. So haben zum Beispiel Praktiken, die satellitengestützte Navigationsgeräte integrieren, dazu geführt, dass die Möglichkeit eineVerspätung zu entschuldigen, indem man auf die versteckte Lage des Ortes hinweist,aus der Menge der akzeptierten Entschuldigungen verschwunden ist. Jeder Ort, der mitHilfe des WGS 84 Rastersbenennbar ist, ist mit Hilfe eines Navigationsgerätes kontrolliert auffindbar. Ob im Einzelfall das GPS gestört oder ein Gerät mal kaputt ist,rettet im konkreten Einzelfall die Situation, jedoch führt dies zur Reparatur des Systemsund ändert nichts an der generellen Akzeptanz dieses Typs von Entschuldigung. 2. Raumerzeugung: die räumliche Dimension von Praktiken

Die Art und Weise, wie Räume durch Praktiken erzeugt werden, ist auf der einen Seitebedingt durch soziale und auf der anderen Seite durch technische Zusammenhänge, dieauf vielfältige Weise ineinandergreifen. Dies ist bereits deutlich geworden. Nun soll andem empirischen Fall der Frage nachgegangen werden, ob es über die handfeste Technisierung von Raumerzeugungen hinaus Effekte, Muster oder Regelhaftigkeiten gibt,die sich mit dem Konzept „informelle Technisierung“ in den Blick rücken bzw. beschreiben lassen. Die also nicht in einer Beschreibung als durch Technik induzierteImpulse erschöpfen, die sich in sozialen Zusammenhängen irgendwie fortsetzen, sondern vielmehr als informelle Technisierungsprozesse beschrieben werden können. 2 Das „World Geodetic System“ in der Version von 1984 ist das Referenzkoordinatensystem des GPS.

108

Technisierter Raum: Die Praktik Geocaching107 2.1 Geocaching Das Finden bestimmter Orte ist durch Navigationsgeräte und GPS technisiert. DieseTechnisierung führt umgekehrt dazu, dass Orte als mögliche Ziele zu Verfügung stehen,die bislang nicht ohne weiteres adressierbar waren. Alle Orte oder zumindest deren naheUmgebung, die vor GPS interessant waren, können mit GPS bis auf wenige Ausnahmeneinfach gefunden werden. Zu der Menge adressierbarer Orte gehören jetzt jedoch aucheinzelne Bäume, ein Findling im Wald oder eine Parkbank. Ohne GPS bedarf es insolchen Fällen Expertenwissens oder aufwändiger Beschreibungen, um diese verlässlichzu finden.

Eine Freizeitpraktik, die diese Möglichkeiten seit der ersten Stunde ausnutzt istGe- ocaching. Die Entstehung dieser Praktik, die in den Medien oftmals als „Schnitzeljagdfür Erwachsene“ beschrieben wird, ist gut nachvollziehbar, da die Idee das erste Mal inder Newsgroup „sci.geo.satellite-nav“ auftauchte, deren Archiv weiterhin abrufbar ist.Am 3. Mai 2000 schrieb David Ulmer dort eine Nachricht, in der er die Grundidee skizzierte, etwas an einem Punkt zu verstecken, die Koordinaten zu notieren und diese dannim Internet zu veröffentlichen, damit andere das Versteck finden könnten.Diese Ideefiel auf fruchtbaren Boden, verbreitete sich schnell und entwickelte sich zu der heuteunter dem Namen Geocaching bekannten Praktik.

Das Datum, an dem die Idee auftaucht, ist dabei kein Zufall, sondern zeigt den engen Bezug zu dem GPS: Am 2. Mai 2000 wurde auf Anweisung der Clinton-Regierungdie Funktion „Selective Availability“ (SA) abgeschaltet.SA sorgte für eine künstlicheUngenauigkeit bei der Positionsbestimmung für zivile Nutzer, die im Bereich von Abweichungen bis zu 100 Metern lag. Geocaching war unter diesen Bedingungen undenkbar. Diese politische Entscheidung, bei der niemand an Geocaching dachte, machte diePraktik überhaupt erst möglich.

Idealtypisch besteht Geocaching darin, einen durch Koordinaten bestimmten Ortaufzusuchen und dort einen Geocache zu suchen und zu finden. In der Regel wird zumAuffinden des durch die Koordinaten bestimmten Ortes ein GPS-fähiges Gerät, sei esein Mobiltelefon oder ein Spezialgerät, benutzt.

Ein Geocache ist in der einfachsten Ausführung ein kleiner Behälter, z.B. eine Filmdose, in der ein Logbuch enthalten ist. Der Finder trägt sich in dieses Logbuch ein undhinterlässt unter Umständen einen Gruß an denjenigen, der den Geocache versteckt hat. 3 http://goo.gl/5otf4e (gesehen 30.12.2012) 4 Die offizielle Erklärung dazu ist zu finden unter: http://www.gps.gov/systems/gps/modernization/sa/ (gesehen 03.01.2013)

109

108Paul Gebelein

Die Person, die den Geocache an diesem bestimmten Ort versteckt, das heißt „gelegt” hat, wird Owner des Geocaches genannt. Der Owner eines Geocaches kontrolliertin regelmäßigen Abständen, ob der Geocache noch wie beabsichtig zu finden ist, obetwas auszubessern ist oder ob das Logbuch voll ist. Bei dieser Gelegenheit liest er dasLogbuch.

„Einen Cache legen“ bedeutet, den Geocache an einem bestimmten Ort zu verstecken und die Koordinaten des Ortes mit Hilfe eines GPS-Gerätes zu bestimmen. DieseKoordinaten werden dann zusammen mit einem Namen und einer Beschreibung desGeocaches in einer über das Internet grundsätzlich frei zugänglichen Datenbank veröffentlicht. Diese Datenbankeinträge sind es, mit denen die Suche nach einem Geocachebeginnt und sie sind es auch, mit denen sie endet. Hier findet die Auswahl des Geocaches statt, der gesucht werden soll, und hier endet die Suche mit dem Eintrag in dasdigitale Logbuch des Geocaches.

Es bildete sich relativ schnell eine dezidierte Infrastruktur für die Praktik Geocaching heraus. Die ersten Geocaches wurden noch in der genannten Newsgroup veröffentlicht, jedoch ging es dort inhaltlich um etwas anderes. So kam es zur Gründungeiner eigenen Geocaching Newsgroup. Da eine Website wesentlich komfortabler ist, umdie Positionen von Geocaches miteinander zu teilen, entstand eine spezielle Website,die in die noch heute existierende Plattform www.geocaching.com überging.Die Infrastruktur des Geocachens besteht also aus prinzipiell zwei Säulen: spezielle Kommunikationswege und eine Datenbank für Geocaches. Wie diese beiden Säulen jeweils realisiert sind, hängt von Zeit und Ort ab und ist Veränderungen unterworfen. So wird etwadie genannte Website kontinuierlich weiterentwickelt, nicht zuletzt aufgrund von Druck,der von alternativen Websites aufgebaut wird; neuere Entwicklungen wie Foren, Blogsoder Podcasts tauchen als Kommunikationsmittel auf.

Neben der dezidierten Infrastruktur weist Geocaching, wie jede andere Praktik auch,ein Arrangement auf bestehend aus Infrastrukturen, die auch ohne diese Praktik existieren würden. Hier nimmt das GPS die herausragende Stellung ein, jedoch dicht gefolgtvon Internet. In mal engerer oder weniger enger Verbindung finden sich in dem infrastrukturellen Arrangement des Geocachings dann Infrastrukturen, wie Elektrizität, Straßen, Mobilitätssysteme etc.

Die Praktik Geocaching erzeugt dabei einen Raum, in dem sie stattfindet, bestehendaus den Orten, an denen Geocaches versteckt sind, und den Wegen zwischen ihnen. Diezentrale Aktivität bei dieser Erzeugung von Raum ist dasAuswählenvon Orten, also 5 Es gibt auch andere, jedoch ist www.geocaching.com, das von der Firma groundspeak Inc. mit Sitz in Seattle betrieben wird, die mit großem Abstand größte und sowohl weltweit als auch für Deutschland bedeutenste.

110

Technisierter Raum: Die Praktik Geocaching109des zu suchenden Geocaches. Dieses Auswählen ist technisiert. Aber es ist dies in einerweitergehenden Weise, als es das Finden eines Ortes mit einem Navigationsgerät ist. Eshandelt sich nicht nur um eine Ersetzung einer Aktivität durch eine Technologie, alsodie Delegation oder teilweise Delegation von Handlungen an Technik. Das Vorliegender Geocaches als Datenbank, die nach bestimmten Kriterien filterbar ist, hat Auswirkungen, die weiterreichen als lediglich den konkreten Akt des Auswählens zu prägenbzw. zu verändern. Dieses Mehr ist informell. In welcher Weise versuche ich nun zubeschreiben. 2.2. Informelle Technisierung und Raumerzeugung

Auf der Website www.geocaching.com ist die mit Abstand größte Datenbank mitGeocaches zu finden. Die Menge aller Geocaches kann nach verschiedenen Kriteriengefiltert werden. Tatsächlich handelt es sich nicht um eine Suche, wie sie von Suchmaschinen wie Google oder Bibliothekskatalogen bekannt ist. Bei jenem Suchen wird nachStichworten gesucht. Hier ist nur eine Filterung nach Kategorien möglich. So könnenz.B. Beschreibungen von Geocaches nicht nach Stichworten durchsucht werden, wasdurchaus eine denkbare Möglichkeit wäre. Kriterien, nach denen grundsätzlich gefiltertwerden kann, sind:

− die Art des Geocaches

− die Entfernung von einem bestimmten Ort gegeben durch Adresse oder Koordinaten

− die Entfernung von einer bestimmten Strecke

− gefunden/versteckt von einem bestimmten Account

− Schwierigkeitsstufen

Die Ergebnisse werden entweder als Liste dargestellt oder auf eine Karte geplottet, diein alle Richtungen verschiebbar, vergrößer- und verkleinerbar ist. Neben dieser relativreduzierten Filteroptionen findet erwartungsgemäß ein Austausch über Geocaches inden Foren und Blogs statt.

So weit, so „klassisch“ ist die Technik, die beim Geocachen verwendet wird. Wiegesehen ist das Benennen und Finden eines Ortes mit Hilfe von GPS technisiert. Dieinformelle Technisierung, die sich hierbei parallel vollzieht, ist an anderer Stelle zuidentifizieren: 6 In der Regel verbirgt sich hinter einem Account eine Person. Es gibt jedoch relativ viele Gruppe- naccounts von Paaren, Familien oder Gruppen („Teams“). 7 Auf „pocket-queries“, die es ermöglichen die Ergebnisse von Suchanfragen auf externe Geräte oder

111

110Paul Gebelein

Es ist möglich, um einen Punkt (in der Regel der Wohnort) einen Radius zu legenund wann immer ein neuer Geocache in diesem Bereich veröffentlicht wird, per Emaileine Benachrichtigung zu erhalten. Dadurch ist man immer auf dem Laufenden, was umeinen herum geschieht. Vor diesem Hintergrund ist die Praktik entstanden, zu versuchen, als erster einen neu veröffentlichten Geocache zu finden. Diese Art einen Geocache zu suchen heißt „First to find“ (FTF). In der Regel kann man davon ausgehen, dassca. eine halbe bis spätestens eine Stunde nach Veröffentlichung der erste Finder denGeocache erreicht hat. Oftmals bleibt dieser nicht lange alleine, sodass es zum Aufeinandertreffen von zunächst unbekannten Personen an, gemessen an alltäglichen undgewöhnlichen Räumen, ungewöhnlichen Orten kommt.

Mit der Definition eines Radius um einen Punkt wird ein Raum im Sinne eines Territoriums/Fläche definiert. Es gibt ein wohldefiniertes Innen und Außen entlang desUmfangs des Kreises. Auf diesem Territorium werden nun plötzlich und unvorhergesehen (mit Veröffentlichung) Punkte (Geocaches) markiert, die damit zu bedeutungsvollen Orten werden. Die Beziehung zwischen Territorium und Punkt besteht alleine darin,dass letzterer Bestandteil von ersterem ist. Das Territorium verwandelt sich so in einepotentielle Menge von Punkten. Das bedeutet, dass das persistente Kennzeichen diesesRaumes nicht die territoriale Außengrenze ist, sondern die Menge der Punkte. DerenRelationen zueinander und wie sie in anderen Räumen existieren mögen, spielen für dendurch diese Praktik erzeugten Raum keine Rolle mehr. Beispiele für solche anderenRelationen wären die Verbindung von Punkten durch Straßen, Plätze, organisatorischeZusammenhänge, Sichtachsen oder Quartiere. Die Transformation eines Territoriums ineine Menge von Punkten im Rahmen einer Praktik ist eine Erzeugung von Raum infolgeinformeller Technisierung. Bereits angelegt ist dieses Moment informeller Technisierung in der Edition von Reiseführern des Typs „100 Orte die man gesehen haben muss“,allgemein: der Liste. Durch die Verbindung mit der Technik des GPS, die es ermöglichtgrundsätzlich jeden Punkt auf der Erdoberfläche mit einer Zahlenkombination zu beschreiben, in einer Praktik erreicht es einen vorläufigen Höhepunkt. Einen Raum alseine Menge von relevanten Punkten zu verstehen, und nicht etwa als ein System vonWegen, ist nicht notwendigerweise an eine bestimmte Technik gebunden, wird aberdurch bestimmte Technik in den Bereich des Möglichen gerückt. Es handelt sich nichtum eine direkte unausweichliche Folge. Es ist möglich GPS dazu zu nutzen, um Orteleichter und sicherer aufzufinden, die ihre Bedeutung aus einer Position in einem territorialen Gefüge beziehen. Die informelle Wirkung, zu der GPS beiträgt, bringt unmerk 8 Vor allem bezüglich des Ortes. Bezüglich der Zeit gilt dies mit Abstrichen, weil die Personen, die Geocaches freischalten dies aus Gewohnheit zu ähnlichen Zeiten tun.

112

Technisierter Raum: Die Praktik Geocaching111lich und sanft das Verständnis von einem Ort und die Praxis des auf einen Ort Bezugnehmen in Form: Siekonfiguriertdieses.

Wenn ein Geocache gefunden wurde, trägt sich der Finder sowohl offline, als auchonline in das Logbuch des Geocaches ein. Dies dient als Beweis für den Fund. Onlinewerden diese Funde gezählt. Die Funde eines Accounts sind für andere leicht einzusehen und können auf verschiedene Arten statistisch aufbereitet werden. Neben der absoluten Zahl der gefundenen Geocaches sind Darstellungen nach Ländern, Schwierigkeitsgraden, Tag des Fundes und die durchschnittliche Fundzahl pro Tag Grunddarstellungsformen. Ein andere Linie sind sogenannte Abzeichen („Badges“). Sie kann manbekommen, wenn man eine bestimmte Anzahl eines Geocachetyps gefunden hat. Siefunktionieren als Individualisierung der Fundzahl. Generell haben alle Zahlen nicht nurdie Funktion der Darstellung, sondern auch motivierende Effekte: Der 100. oder 1000.gefundene Geocache, in möglichst vielen Ländern einen Geocache gefunden zu habenoder die Matrix aus 9x9 Schwierigkeitsstufen (Schwierigkeit zu finden / Schwierigkeitdes Geländes) zu vervollständigen bieten einen Anreiz, dem sich nur wenige entziehenkönnen.

Praktiker machen von solchen und weiterführenden Aufbereitungsmöglichkeiten unterschiedlich intensiv Gebrauch. Die Anzahl der Funde ist jedoch allgegenwärtig. Siegilt als Quantifizierung von Erfahrung und fließt z.B. in die Bewertung von Geocachesals interessant oder weniger interessant zu suchen ein: Geocaches, die von Personen mitwenigen Funden gelegt wurden sind für erfahrenere Praktiker einfach zu finden unddaher tendenziell uninteressant, während Geocaches gelegt von Praktikern mit vielErfahrung quantifiziert in Funden vertrauenswürdiger erscheinen. Die Erfahrung desBesitzers eines Geocaches wird also zur Eigenschaft des Geocaches und geht so in dieTopologie des Raumes ein. Diese Zahl ist nicht die einzige, die in diesem Zusammenhang relevant ist. Es ist jedoch ein zentraler Indikator. Darüber hinaus gibt es beispielsweise noch die Anzahl der von einer Person gelegten Geocaches und es gibt ein Systemvon Favoritenpunkten, mit denen Finder herausragenden Geocaches auszeichnen können.

In diesem Zusammenhang werden mindestens zwei Momente informeller Technisierung sichtbar. Es findet eine Hierarchisierung entlang von Fundzahlen unter den Praktikern der Praktik Geocaching statt, die sich auch in face-to-face Begegnungen fortsetzt. 9 Interessanterweise kann sich der „Erfinder“ dieser Faszination sehr gut entziehen. Dave Ulmer hat auf geocaching.com 17 geloggte Funde bei gleichzeitiger Selbstbeschreibung als „Inventor of Geoca- ching“ und regelmäßigen Besuchen auf der Website. 10 Dieses System ist eine neuere Entwicklung und funktioniert indem ein Account für zehn gefundene Geocaches einen Favoritenpunkt vergeben kann. Favoritenpunkte sind also knapp und müssen erarbei-

113

112Paul Gebelein

Damit einhergehend ist völlig klar, was die Aufstiegsregel in dieser Hierarchie ist: MehrGeocaches finden. Im Gegensatz zu den Favoritenpunkten, die von Findern an die Besitzer der Geocaches vergeben werden handelt es sich bei den Funden nicht um einesozial vergebene Auszeichnung, sondern um eine, die automatisch erteilt wird, wennbestimmte Kriterien (Anzahl) erfüllt sind.

Auf der anderen Seite gibt es auf der Seite des Suchenden das motivierende Momentbestimmte Geocaches noch suchen zu müssen, um bestimmte Zahlen zu erreichen. Diesdeutet auf informelle Technisierungsmomente auf der Ebene von Motivationen undEmotionen hin. Der technische Umstand, dass Funde gezählt werden führt zu einerKonfiguration von Zielen (mehr Funde loggen) und damit verbundenen Emotionen(mehr ist besser, hohe Fundzahl bedeutet ein gewisses Maß an Respekt und Wertschätzung).

Die Praktik Geocaching beinhaltet so genannte „Eventcaches“. Das sind Treffen vonGeocaching betreibenden Personen zu unterschiedlichsten Anlässen. Stammtische,gemeinsames Grillen oder eine gemeinsame Unternehmung jedweder Natur fallen darunter. Der Kreativität sind dabei keine Grenzen gesetzt. Die Idee besteht darin, anderePersonen zu treffen, die derselben Praktik nachgehen. Es geht hier in der Regel nichtdarum, einen Geocache zu finden, auch wenn aus solchen Treffen gemeinsame spontaneSuchaktionen entstehen können. Diese Events werden als „Eventcaches“ über den üblichen Weg der Geocachedatenbank wie jeder andere Geocache auch veröffentlicht. Dieunverbindliche Anmeldung erfolgt über das Onlinelogbuch des Eventcaches. Der Besuch eines Events kann daher nach dem Event als regulärer Cachefund geloggt werdenund zählt zu der Gesamtzahl der gefundenen Geocaches. Die Teilnahme an sozialenAktivitäten führt also wiederum zu mehr Ansehen in Form von höheren Fundzahlen. Andieser Stelle zeigt sich ein weiteres Moment informeller Technisierung. Die Praktikendes gemeinsam miteinander etwas Unternehmens richten sich informell nach dem Ablauf der Geocachesuche. Dies ist keine Notwendigkeit. Es gäbe viele andere Möglichkeiten, dies zu organisieren. Es wird jedoch, was keineswegs abwegig ist, die Vorlageder Suche nach einem Geocache genutzt. Zudem gibt es verschiedene Klassen vonEvents, die sich daran orientieren, wie viele Teilnehmer ein Event hat. So berichtete einInterviewpartner, dass er nur deshalb zu einem bestimmten Event gefahren ist, weil dieWahrscheinlichkeit groß war, dass dieses Event zu einem „Megaevent“werden würdeund er so was auch gerne im Logbuch stehen hätte. An dieser Stelle zeigt sich eine Verbindung zur Raumrelevanz der Anzahl und Art der Funde. 11 Ein Event mit mehr als 500 Teilnehmern.

114

Technisierter Raum: Die Praktik Geocaching113

Es finden sich, wie gesehen, verschiedene Momente informeller Technisierung inder Praktik Geocaching. Nicht jede Form, die Praktik zu praktizieren, ist davon gleichermaßen betroffen. Für die hiesigen Überlegungen wurden die Praktiken „Firstfind“, „Eventcaches“ und eine Art wie Erfahrung quantifiziert wird beispielhaft herausgegriffen.

Die verwendeten Infrastrukturen (GPS, WGS 84, Internet) konfigurieren die Art undWeise, wie Raum durch die Praktik Geocaching, in die sie integriert sind, erzeugt wird.Sie konfigurieren die Prozesse des Spacing und der Synthese auf der Ebene von Praktiken, also wo relevante Dinge (Geocaches) platziert werden (können) und wie diese zueinem Raum zusammengefasst werden. Sie machen bestimmte Taten, Handlungssequenzen oder Aktivitäten zu möglichen Bestandteilen der Praktik und bestimmen dieZugänglichkeit von Orten. Auf der anderen Seite erschweren sie Anderes bis hin zurVerunmöglichung. Dies äußert sich in harten formalen Bedingungen, wie etwa derPflicht einen Account auf der Website auf der die Geocaches verzeichnet sind zu haben,bis hin zu einer informellen Konfiguration, die nicht an formalen Bedingungen festzumachen ist, sondern vielmehr die betroffenen Bereiche in vergleichbarer Weise durchzieht, wie ein Nebel eine morgendliche Landschaft, jedoch deshalb letztendlich nichtweniger widerständig sein muss. 3. Fazit: Informell technisierte Räume

Neben der expliziten Technisierung von durch Praktiken erzeugten Räumen, z.B. durchdie Benutzung bestimmter Mobilitäts- oder Navigationstechnologien, gibt es Momenteinformeller Technisierung, die Räume konfigurieren und dabei nicht mehr auf formelleTechnik angewiesen sind. Diese spitzen das zu, was man als „soziale Folgen von Technisierung“ bezeichnen würde, und gehen über diese hinaus. Sie weisen nämlich weiterhin Eigenschaften von Technizität wie Wiederholbarkeit, Standardisierung oder einebestimmte Sequenzialität auf, sind jedoch nicht mehr auf Bereiche beschränkt, auf diedie jeweilige Technik Zugriff hat. Die Auflösung eines Territoriums in eine Menge vonPunkten verdeutlicht dies: Es ist nicht unbedingt nötig ein GPS-Gerät zu benutzen, umsich in einem solchen Raum aufzuhalten. Auch Praktiken der Raumerzeugung, die ohneIntegration von GPS auskommen, können diese Form von Konfiguration des Raumesaufweisen: Der Technisierungseffekt strahlt aus. Das GPS ist nicht die Ursache für dieseForm der Technisierung, sondern verbindet sich mit weiteren Techniken und Vorstel-

115

Paul Gebeleinlungen wie z.B. der Liste. Wie der Zusammenhang im Einzelnen konzeptionalisiertwerden muss, ist eine historisch zu beantwortende Frage.

Die hier eingenommene Perspektive auf Praktiken beinhaltet die Annahme, dasssich Teile von Praktiken in anderen Praktiken wiederfinden. Das bedeutet, dass das hierBeschriebene in dieser Kombination speziell für die Praktik Geocaching ist, dass Teiledavon aber ebenso in anderen Praktiken auftauchen. So findet sich z.B. die informelleTechnisierung von sozialen Hierarchien auch an anderen Stellen des Sozialen und nichtunbedingt zuerst beim Geocaching. Ebenso ist das Sammeln nichts geocachingspezifisches, sondern ist auch Teil anderer Praktiken. Die Art, wie im betrachteten Fall Raumerzeugt wird, ist jedoch speziell, da dies mit der speziellen Organisation zusammenhängt, die die Praktik Geocaching ausmacht und zu eben dieser wiedererkennbarenPraktik macht. Dieser Sachverhalt bedeutet aber nicht nur, dass in der Praktik Geocaching schon Bekanntes auftaucht, sondern dass auch in anderen Praktiken, ob schonexistierend oder noch nicht, Teile der Praktik Geocaching auftauchen (werden). Dahersind die Überlegungen anhand der Praktik Geocaching nicht auf diesen einen Fall beschränkt, sondern es ist anzunehmen, dass sie instruktiv für das Verstehen anderer Praktiken sind.

Literatur

116

Der Körper ist eine unhintergehbare Bedingung für die soziale Praxis des Hochleistungssports. Er gilt als ihr materialer Ausgangspunkt. Die Einbettung des Körpers inden sozialen Zusammenhang des Hochleistungssports verändert seine natürlichen Eigenschaften und sozialen Gebrauchsweisen in spezifischer Weise.Es wäre daher verkürzt, würde man ihn als bloßes Instrument zur Hervorbringung bestimmter Effekte –etwa sportlicher Höchstleistungen – begreifen. Die Erbringung sportlicher Höchstleistungen transformiert den Körper fortlaufend im Sinne seiner Anpassung an die Logikder Leistungssteigerung und Überbietung. Diese optimierende Anpassung erfolgtschrittweise und in praktischer Auseinandersetzung mit den dynamischen Anforderungen („citius,altius,fortius“) in diesem Lebensbereich.

Umgekehrt gilt freilich auch, dass die Entwicklung spezieller Sporttechnologiendurch die wachsenden Ansprüche der immer noch nicht ausgereizten Hochleistungskörper begünstigt wird. Eigneten sich die Turngeräte des 19. Jahrhunderts – Klettergerüste,Stangen, Leitern und Balken, später dann eigens entwickelte Geräte wie Barren, Reck,Bock oder Kasten – vor allem zur Normierung der Bewegungen und zur „Straffung undSpannung des Körpers“ (Alkemeyer 2003: 180), so änderte sich das Verhältnis im Zugeder Profilierung des modernen Sports seit dem letzten Drittel des 19. Jahrhunderts.Nicht mehr Formalisierung und Disziplinierung, sondern Mobilisierung, Beschleunigung und Entgrenzung stehen seitdem für den fortschrittlichen Körpergebrauch. Fortschritt meint hier „nicht eine simple Lageveränderung, in der ein Agent von A nach Bfortrückt. Fortschrittlich ist seinem Wesen nach nur derjenige ‚Schritt’, der zur Steigerung der ‚Schrittfähigkeit’ führt“ (Sloterdijk 1989: 36). Die so angelegte Bewegung sans phraseist keineswegs selbstgenügsam. Sie bedient sich szientifischer, apparativer 1 Marcel Mauss hat in einem Vortrag über „Die Techniken des Körpers“ aus dem Jahr 1934 vor der Société de Psychologie bereits „von der sozialen Natur des ‚habitus’“ gesprochen: „Diese ‚Gewohnhei- ten’ variieren nicht nur mit den Individuen und ihren Nachahmungen, sie variieren vor allem mit den Gesellschaften, den Erziehungsweisen, den Schicklichkeiten und den Moden, dem Prestige.“ (Mauss 1997: 202). In diesem Sinne führt auch der Hochleistungssport zur Ausbildung besonderer Techniken

117

116Franz Bockrathund biologischer Techniken, die im Hochleistungssport so eng miteinander verzahntsind, dass sich Mensch und Maschine zumindest tendenziell immer mehr annähern.

Auf den ersten Blick scheint es also, als würde der Begriff der informellen Technisierung im Hochleistungssport irrelevant sein. Wenn es stimmt, dass der Athletenkörperzur mechanischen Maschine wird, die selbst noch seine Expressionen und Leidenschaften der Utopie seiner Verbesserung unterstellt, dann liegt es nahe, den Hochleistungssport als eine technologische Erscheinungsform zu begreifen. Ändert man jedoch diePerspektive, indem man fragt, wie der Hochleistungssport sich als mittlerweile autonomes und globales Medium des Leistungsvergleichs etablieren konnte, dann geraten ebenjene Veränderungen in den Blick, die seine eigene Dynamik betreffen.

Diese Dynamik, so die hier vertretene Annahme, erschöpft sich nicht in technischenEntwicklungen und technologischen Zusammenhängen. Für das Verständnis des „riseof sport“ (Betts 1969: 145) als Ausdrucksmoment gesellschaftlicher Industrialisierungund Urbanisierung sind technologische Einflüsse zwar zentral und dementsprechendauch für die nachfolgenden Ausführungen bedeutsam. Die zunehmende Systematisierung des Leistungsdenkens im Hochleistungssport und seine Einbettung in übergreifende Vergleichskontexte beruht jedoch gleichermaßen auf sukzessiven Veränderungenkörperlicher Praktiken, institutioneller Regelungen und sozialer Anordnungen, die imBegriff des „Großapparats“ oder der „Totalmaschine“nicht aufgehen. Sie lassen sicheher als „Interdependenzgeflecht“ (Elias 1997: 71) charakterisieren, dessen Grenzenoffen sind, ohne jedoch beliebig auszufallen. Oder thematisch im Hinblick auf den Begriff der informellen Technisierung ausgedrückt: die Entwicklung des Hochleistungssports beinhaltet eine sich ausweitende Dynamik (1), die individuelle Kräfte als sozialeEnergien freisetzt (2) und im Zusammenspiel körperlicher, organisatorischer und kommunikativer Wechselwirkungen wirksam wird (3). Diese spezifische Konstellation istzugleich ein Beispiel für die Genese informeller Technisierungsstrategien (4). 2 Vgl. dazu etwa die Debatte über das so genannte Techno-Doping im Sport am Beispiel des beinam- putierten Leichtathleten Oskar Pistorius, der durch seine Teilnahme an internationalen Leichtathletik- Wettkämpfen unter Einsatz zweier high-tech -Unterschenkelprothesen ( Cheetah -Prothesen) die Frage provoziert, „ob es eine ‚Natur des Menschen’ gibt und ob diese Natur auf ethisch problematische Weise überschritten oder verletzt wird, wenn Enhancementtechnologien zum Einsatz kommen“ (Dede- rich/Meuser 2012: 147). Man muss diese Frage allerdings nicht unter ethischen Gesichtspunkten ver- handeln. Es zeigt sich auch so, dass der technologische Sport die Idee des natürlichen Körpers und die daran geknüpfte Zurechenbarkeit individueller Leistungen längst hinter sich gelassen hat. Zu den Kon- sequenzen vgl. König (1995) sowie Verch (2007). 3 Hier in Anlehnung an Günther Anders’ Überlegungen zur „Maschinenexpansion“ (vgl. Anders 1980: 427–428).

118

Informelle Technisierungsstrategien im Hochleistungssport117 1. Anpassende Veränderung des Körpers Es geht im Folgenden nicht darum, einzelne Etappen der Sportentwicklung nachzuzeichnen. Stattdessen soll die soziale Dynamik des Hochleistungssports selbst verdeutlicht werden. Da diese Dynamik, wie angedeutet, fortlaufend erzeugt wird und ihrejeweiligen Effekte zum Ausgangspunkt weiterer Entwicklungen gemacht werden, genügt es für ihr Verständnis, sich auf einzelne markante Beispiele zu beziehen.

Als Ausgangspunkt für die systematische Anreizung und Entgrenzung menschlicherBewegungen, der eng mit dem Projekt der wissenschaftlichen Aneignung des Körpersverbunden ist, dient hier das Modell der sich reformierenden Bildungsanstalten des 18.Jahrhunderts. Dies mag überraschen, da ein Zusammenhang des Philanthropismusmitdem englischen Sport jener Zeit gar nicht gegeben war. Da jedoch die neu eingeführtenMethoden objektiver Leistungsmessung mit der „Erfindung einer bürgerlichen Bewegungskultur“ (Eisenberg 1999: 96) einhergingen, die nur gut 80 Jahre später zu jenenDynamiken des verselbständigten Leistungsvergleichs führten, die uns heute selbstverständlich sind, sei auf das Programm einer pädagogisch angeleiteten „Arbeit am Körper“ (vgl. Bernett 1971: 27–28) hier zumindest verwiesen.

Wichtig für die „Arbeit im Gewande jugendlicher Freude“ – so GutsMuths’ (1793:209) Charakterisierung der philanthropischen Gymnastik – sei ein gezielter Aufbau derÜbungen sowie ihre Ausrichtung an den individuellen Stärken und Schwächen der Zöglinge: „Man beobachte, welches Glied dieses und jenes jungen Gymnastikers noch amschwächsten ist und gebe ihm dafür besonders Übung. Gewöhnlich ist Hand und Arm 4 Dieses Vorgehen lässt sich auch dadurch rechtfertigen, dass es kaum möglich ist, einen bestimmten Zeitpunkt für die Anfänge des Hochleistungssports zu fixieren. Während beispielsweise Norbert Elias das Gewaltniveau in den Wettspielen der Antike, des Mittelalters sowie in den modernen Sportwett- kämpfen miteinander vergleicht und auf die Organisation der Gewaltkontrolle in den jeweiligen Gesell- schaften bezieht, um den Begriff Sport historisch fassen zu können (vgl. Elias 2003: 257–263), bleibt die Verwendung des Begriffs „Hochleistungs-“ beziehungsweise „Spitzensport“ aus historischer Sicht unterbestimmt. Bei Christiane Eisenberg findet sich immerhin der Hinweis auf den englischen Begriff „ record “, der um die Wende vom 19. zum 20. Jahrhundert nicht mehr nur im Sinne von „Vermerk“ oder „Aufzeichnung“, sondern auch als „Höchstleistung“ verstanden wurde (vgl. Eisenberg 1999: 232– 233). Ähnliches gilt für den Begriff „Training“, der etwa zur gleichen Zeit eingeführt wurde, um die systematischen Vorbereitungen für die Erbringung sportlicher Höchstleistungen sprachlich zum Aus- druck zu bringen (vgl. ebd.: 177). Henning Eichberg geht sogar einen Schritt weiter, indem er zunächst detailliert vom „Aufstieg des patronisierten Sports 1700–1770, des Gentlemen-Sports 1775–1800, des Schulsports 1800–1830 und des bürgerlichen Vereinssports ab 1830“ (Eichberg 1973: 129) spricht. Jedoch fallen die historischen Bezüge zum leistungsorientierten Sport vergleichsweise allgemein aus, wenn der Autor resümiert, „daß das Spezifische des modernen Sports nicht zu erfassen ist abgelöst von seinem gesellschaftlichen Hintergrund – und dieser Hintergrund ist die rationale und sich industrialisie- rende Leistungsgesellschaft okzidentaler Prägung, wie sie sich seit der frühen Neuzeit herausgebildet hat“ (ebd.: 139). 5 Das erste Philanthropin wurde 1774 in Dessau von Basedow als „Schule der Menschenfreunde“

119

118Franz Bockrathder linken Seite weit schwächer, man lasse ihn sich oft an die linke Hand hängen, damitheben, tragen, ziehen usw., bis endlich Gleichgewicht da ist“ (ebd.: 517). Die gymnastischen Schriften der Philanthropen enthalten zum Teil sehr detaillierte Beschreibungenund Auflistungen so genannter Elementarübungen, die in ihrer Zusammensetzung zukomplexen Übungen eine systematisch angeleitete Verbesserung körperlicher Fertigkeiten und mentaler Leistungsbereitschaften bewirken sollten.Auch wenn der Maßstabdes individuellen Glücks der Schüler erzieherische Beachtung fand, überwog bereits derGedanke, dass der Prozess der „Vervollkommnung des einzelnen Menschen“ seinergesellschaftlichen „Brauchbarkeit aufzuopfern“ sei (vgl. Villaume 1969: 435). Es galt,dieses Unternehmen planmäßig auszuführen und penibel zu überwachen, um eine möglichst positive Bilanz zwischen pädagogischen Aufwendungen und gesellschaftlichnützlichen Erträgen zu erzielen.

Für die Leibesübungen bedeutete dies, dass mit buchhalterischer Genauigkeit dieLeistungen der einzelnen Schüler gemessen und registriert wurden. So berichtet beispielsweise der Begründer des Philanthropins in Schnepfenthal, Christian GotthilfSalzmann, über das methodische Vorgehen des Gymnastiklehrers GutsMuths, dieserführe „über alle Übungen eine getreue Tabelle, die ihn in den Stand setzt, bis auf denZoll und das Quintlein zu beurtheilen, wieviel jedes Zöglings Kräfte vermögen, und wieweit sie sich jede Woche vermehren“ (Salzmann 1788: 44). Erfasst wurden unter anderem Laufzeiten, Streckenlängen, Bahnumläufe, Durchschnittsgeschwindigkeiten „inFuß pro Sekunde, in zwei Dezimalstellen hinter dem Komma ausgerechnet“ (Eichberg1986: 122). GutsMuths selbst weist darauf hin, dass jeder, der sich im Gymnastikunterricht „durch Anstrengung“ auszeichnete, „einen kleinen Zweig mit 3 bis 6 Blättern[erhält; F.B.], den er als Zeichen seines Geschicks und seines Wohlverhaltens für diesenTag auf der Brust trägt. Hat er etwas Außergewöhnliches geleistet, was noch nie vorkam, so belohnt ihn wohl ein kleiner Kranz“ (GutsMuths 1793: 510). Um die Leistun 6 Nach dem Niedergang weiter Teile einer bis zum 30jährigen Krieg verbreiteten Spiel- und Festkul- tur entwickelten die Vertreter der philanthropischen Gymnastik – neben GutsMuths vor allem Villaume und Vieth – ein künstliches Übungssystem, das von der Planung einzelner Bewegungsabläufe bis zur panoptischen Anlage gymnastischer Übungsplätze sich erstreckte. Modern war die dadurch begründete bürgerliche Bewegungskultur insofern, als der Gymnastikunterricht sich nur anfänglich und aus Mangel einer eigenen Konzeption noch am Vorbild der „ritterlichen Künste“ – Fechten, Tanzen, Voltigieren und Übungen zur Verfeinerung des „Anstandes“ – orientierte. Da höfische Gepflogenheiten nach bür- gerlichem Selbstverständnis jedoch abgelehnt wurden, besannen sich die philanthropischen Leibeser- zieher schon bald auf das natur- und humanwissenschaftliche Wissen ihrer Zeit und erarbeiteten eine eigene, gleichsam am Reißbrett entworfene Übungssystematik. Über den Zusammenhang von Wissen, Technik und Körperdisziplinierung in den Leibesübungen der Philanthropen vgl. König 1989, S. 68–96. 7 GutsMuths, der sich über die Ungenauigkeit der gewöhnlichen Taschenuhren jener Zeit beklagte, versuchte die unvermeidlichen Messfehler wenigstens durch die mathematisch exakte Bestimmung des Verhältnisses von Weg und Zeit auszugleichen. Auch wenn die Berechnungen aufgrund der unsicheren Messergebnisse fehlerhaft blieben, beförderten sie gleichwohl die Illusion statistischer Genauigkeit.

120

Informelle Technisierungsstrategien im Hochleistungssport119gen seiner Zöglinge möglichst objektiv bestimmen zu können, entwickelte er schließlichsogar verschiedene Instrumente zur Messung der Stoß- und Schubkraft.

Spitzenleistungen und Rekorde einzelner wurden zwar registriert, nicht jedoch alssolche gefördert. Sie dienten eher als Anreiz und Erziehungsmittel zur Erhöhung derAnstrengungsbereitschaft. Die insbesondere von Basedow und Salzmann erarbeiteteLeistungserziehung, die eine ganze Reihe fein aufeinander abgestimmter Maßnahmenumfasste, zielte zuvörderst auf das Streben und den „Ehrtrieb“ (Basedow 1778: 472)jedes einzelnen. Nicht das zufällig Ererbte, sondern das mühsam Erarbeitete zählte,weshalb die erbrachten Leistungen in ein „gehöriges Verhältnis“ (GutsMuths 1793:279) zu den jeweiligen körperlichen Voraussetzungen gesetzt wurden.Dieses Denkenentsprach ganz der merkantilischen Vorstellung, wonach die individuellen Potenzialeund Fähigkeiten zu fördern seien, um den größtmöglichen Nutzen sowohl für den Zögling selbst als auch für die Erfüllung der wachsenden Ansprüche in Wirtschaft, Berufund Arbeit erzielen zu können. Jeder einzelne Schüler wurde als eine steigerbare Realität begriffen, dessen Glückseligkeit von der Entwicklung und Vervollkommnung seinernatürlichen Anlagen und Kräfte abhängig war. Dass damit zugleich die Glückseligkeitauf Erden und im Jenseits befördert wurde, erhöhte nach Auffassung der Philanthropennur die Zuständigkeit ihrer Erziehung.

Die Idee der humanen Perfektionierung entstand unter der Voraussetzung eines zwarnoch schichtmäßig aufgebauten, jedoch schon arbeitsteilig gegliederten Wirtschaftssystems. „Man muß arbeiten, und zwar in einer durch den Geldmechanismus bestimmtenWirtschaft unabhängig vom Bedarf, also immer und emsig und rational, weil Geld unabhängig vom Bedarf knapp ist“ (Luhmann/Schorr 1999: 69). Für das Programm derErziehung zur körperlichen Leistungsfähigkeit bedeutete dies, dass die „Arbeit im Gewande jugendlicher Freude“ den Aspekt ihrer Brauchbarkeit und Nützlichkeit hervorhob, wohingegen das Moment der Glückseligkeit immer mehr in eine ungewisse Zukunft verlegt wurde. Anders gesagt gab es im Übergang zur bürgerlichen Gesellschaftkeine Garantie mehr, dass die pädagogischen Aufwendungen zur Vervollkommnungdes Menschen tatsächlich Früchte tragen würden. Die Dynamik des gesellschaftlichen 8 So etwa das Meritensystem, das besondere Leistungen mit Fleißmarken und vergoldeten Nägeln belohnte. Letztere wurden – für alle Anstaltsmitglieder, Eltern, Besucher und Schulinspektoren sichtbar – neben dem Namen des Zöglings auf einer Meritentafel eingeschlagen und konnten bei Fehlverhalten durch einen schwarzen Nagel wieder entwertet werden. Vgl. dazu Geldbach (1980: 183–184). 9 „So berichtet die Schulchronik für 1790, daß ein Georg v. d. Bussche aus Hannover in diesem Jahr ‚8 Fuß und 2 Zoll’ und damit höher gesprungen sei ‚als je vorher ein Schnepfenthaler Zögling’.“ Aller- dings schränkt GutsMuths sogleich ein: „Das was bloß Produkt der Körpergröße ist, rechne man nie als

121

120Franz Bockrath

Fortschritts war gebunden an die Dynamisierung der gesellschaftlichen Verhältnisse. Dies hatte ganz praktisch zur Folge, dass die individuellen Leistungen erhöht werdenmussten, um nicht den Anschluss zu verlieren. An die Stelle des Glückseligkeitsversprechens qua Verbesserung der natürlichen Kräfte trat nach und nach das Prinzip derallgemeinen Konkurrenz, bei dem die Steigerung des Humanen nicht mehr als Zielsetzung, sondern als unhintergehbareconditiofungierte.

Dieser Übergang lässt sich exemplarisch an der veränderten Bedeutung des Begriffs„leisten“ veranschaulichen. Während die feudalgesellschaftliche Verwendung des Verbs„leistan“noch darauf abzielte, seine Schuldigkeit zu tun, regelmäßige Abgaben zuleisten und dabei möglichst treu und pflichtschuldig sich zu verhalten, änderte sichdieses Verständnis schon bald.Die Sache oder der Gegenstand, auf die sich das Leisten bezog, fiel schließlich seiner eigenen Dynamisierung zum Opfer: „Beim neuen Leistungsbegriff war dieses Objekt zunächst unbestimmt geworden (‚viel’, ‚wenig’, ‚etwasleisten’) und dann, wo es angebracht erschien, ganz fortgefallen“ (Eisenberg 1999:102). An die Stelle stabiler Vorgaben, wie seinen „Frohndienst“ oder „den Zehnten“leisten, traten vermehrt dynamische Steigerungsvorstellungen, die in quantifizierendenRelationen und abstrakten Bestimmungen – wie etwa Durchschnittsleistung, Mindestleistung, Höchstleistung, Spitzenleistung, Rekordleistung (vgl. dazu Eichberg 1986: 16) –zum Ausdruck gebracht wurden. Für die Dynamik der Sportentwicklung bedeutete dies,dass nun nicht mehr die Leistungen einzelner, sondern der Leistungsvergleich selber inden Fokus der Aufmerksamkeit rückte. Oder mit Blick auf das hier behandelte Themaausgedrückt: An die Stelle der Vorstellung vom menschlichen Körper als rational beherrschbare und systematisch steigerbare Maschinetrat nunmehr die Entfesselung dessportlichen Leistungsvergleichs, der eine Konkurrenz auch unter Abwesenden ermöglichte und für den modernen Hochleistungssport bis heute kennzeichnend ist.

Im Folgenden wird sich zeigen, dass die dadurch ausgelöste Universalisierungsdynamik des Sports inklassischenMaschinen- und Technologievorstellungen nicht auf 10 Diese Entwicklung führte nur 50 Jahre später zu der bekannten Formulierung aus dem Kommunis- tischen Manifest : „Alle festen, eingerosteten Verhältnisse mit ihrem Gefolge von altehrwürdigen Vor- stellungen und Anschauungen werden aufgelöst, alle neu gebildeten veralten, ehe sie verknöchern können. Alles Ständische und Stehende verdampft, alles Heilige wird entweiht, und die Menschen sind endlich gezwungen, ihre Lebensstellung, ihre gegenseitigen Beziehungen mit nüchternen Augen zu sehen“ (Marx/Engels 1980: 465). 11 Der althochdeutsche Begriff „leistan“ entspricht der mittel- und neuhochdeutschen Verwendung von „leisten“. Vgl. Grimm/Grimm (2004: Stichwort „leisten“). Zur Begriffsgeschichte siehe auch Bockrath (2012: 42–43). 12 Eisenberg (1999: 102) schränkt jedoch ein, dass eine präzise Datierung des veränderten Wort- gebrauchs „auf die zweite Hälfte des 18. Jahrhunderts […] nicht belegt und auch nicht haltbar“ ist. 13 Zum philanthropischen Verständnis des Körpers als „eine ziemlich unvollkommene Maschine“ vgl. insb. Vieth (1795: 54). Ähnlich bereits GutsMuths (1793: 54).

122

Informelle Technisierungsstrategien im Hochleistungssport121geht. Anstatt die „Zugriffe auf der Ebene der Mechanik ins Kleinste gehen zu lassen“,kommt es im weiteren Verlauf zu einer Entgrenzung körperzentrierter Zugriffsweisen,die ein soziales Kräftespiel beschreiben, das „von der Ausübung einer Souveränität bisin die feinsten Quentchen der individuellen Verhaltensweisen hinein“verschieden ist.Ähnlich wie in einem Kräfteparallelogramm eine resultierende Kraft aus wenigstenzwei bekannten Vektoren ermittelt werden kann, ist es zwar möglich, auch die Universalisierungsdynamik des Sports im Zusammenspiel sozialer Kräftekonstellationen zubegreifen. Allerdings können hierfür nicht mechanische Gesetzmäßigkeiten oder klassische Vervollkommnungsstrategien geltend gemacht werden. Vielmehr bleibt aufzuzeigen, wie die Systematisierung der Leistungskonkurrenz eine eigene Dynamik entfaltet,bei der die hiervon Betroffenen – anstatt über stabile Kontrollformen und Zwangsmechanismen – über flexible Eigenaktivierungen und organisatorische Selbstregulierungenin einem sich stetig erweiternden sozialen Vergleichshorizont figuriert werden. 2. Verselbständigung des körperlichen Leistungsvergleichs

Bevor der Sport im letzten Drittel des 19. Jahrhunderts in einigen Disziplinen eine eigene Universalisierungsdynamik einleiten konnte, die zugleich den entscheidenden Schrittzur Herausbildung des Hochleistungssportsmarkierte, war er lange Zeit durch Merkmale bestimmt, die dem heutigen Sportverständnis eher fremd sind. So berichten Norbert Elias und Eric Dunning (2003) etwa über „[v]olkstümliche Fußballspiele im mittelalterlichen und frühneuzeitlichen England“, die sich aus heutiger Sicht durch ein hohesMaß an Wildheit und Brutalität auszeichneten: „Die ländliche Bevölkerung einer bestimmten Gegend, mehr oder weniger freie Bauern, feierte Feste, die von zumeist nichtadligen Grundherren, den Gentlemen aus der Gentry, wenn auch nicht ausschließlich,wesentlich gestützt wurden. Man verstieß ganz offensichtlich gegen königliche Gesetzeund missachtete die Verbote der örtlichen Vertreter der Krone, doch dies hinderte dieBauern und die Grundherren ebensowenig, wie unvermeidliche Knochenbrüche und 14 So die Beschreibung der körperlichen Formung und Disziplinierung bei Foucault (1994: 175). An gleicher Stelle heißt es: „Gelehrig ist ein Körper, der unterworfen werden kann, der ausgenutzt werden kann, der umgeformt und vervollkommnet werden kann“ (ebd.). In einem anderen Zusammenhang bezieht sich der Autor direkt auf das Konzept der philanthropischen Erziehung (vgl. Foucault 1986: 40– 44). 15 Vgl. zur Unterscheidung der „zwei Machtökonomien“ der Überwachung sowie der Bevölkerungs- regierung ebenfalls Foucault (2004: 103). 16 Dieser Schritt ist auch mit der Wiederbegründung der Olympischen Spiele zur Zeit des Fin de sièc- le noch nicht abgeschlossen. Die ersten „olympischen Weltfestspiele“ (Coubertin) standen noch ganz im Zeichen, die Auswirkungen der vermeintlich „erkrankten Moderne“ zu kurieren und über feierliche Inszenierungen „neue, quasi-religiöse Bindungen zwischen den Menschen“ (Alkemeyer 1996: 75–76)

123

122Franz Bockrathgelegentlich tödliche Verletzungen, an dem Spiel festzuhalten“ (ebd.: 334). Das „Spiel“diente vor allem der Regelung von Konflikten im Sinne der zu jener Zeit geltendenMaßstäbe: „Es gab Konflikte innerhalb und zwischen den dörflichen Gemeinschaften.Ohne Zweifel trug man die Konflikte üblicherweise gewalttätiger aus, als dies später derFall war. Der Fußball und andere volkstümliche Spiele dienten dazu, Spannungen abzubauen“ (ebd.: 335). Eichberg ergänzt unter Verweis auf fußballähnliche Kampfspieledes Spätmittelalters und der frühen Neuzeit, es handele sich hierbei um „Spiele vollrabiater physischer Gewalt, die oft auf ungezeichnetem Territorium zwischen verschiedenen Dörfern die ganze Bevölkerung – oft auch mit Schlagstöcken oder gar Berittenen –zu kampfähnlichen Auseinandersetzungen brachten“ (Eichberg 1986: 35). Für das hierbehandelte Thema ist jedoch weniger das aus heutiger Sicht unzureichende Maß derAffektkontrolle oder die soziale Funktion der „spielerischen“ Spannungsentladungwichtig. Entscheidend ist vielmehr, dass die volkstümlichen Kampf- und Fußballspieleallenfalls rudimentäre Regelungen aufwiesen, die zudem keinerlei Leistungsbezügebesaßen. Zwar ging es auch hier darum, das „Spiel“ unter Aufbietung aller Mittel möglichst zu gewinnen, jedoch blieb der Erfolg oder Misserfolg ein singuläres Ereignis ohneweitere Bedeutung für künftige Auseinandersetzungen. Versucht man die Merkmale deräußerst heterogenen Kampfspiele des Spätmittelalters und der frühen Neuzeit zu systematisieren, dann bleibt festzuhalten, dass sie:zeitlichgesehen entweder spontan stattfanden oder in Anlehnung an den kirchlich oder berufsständisch geprägten Festtagskalender ausgeübt wurden;räumlichgesehen häufig an alltäglichen Orten beziehungsweise an nicht eigens dafür vorgesehenen Stätten ausgetragen wurden;sachlichgesehen amsingulären Ereignis orientiert blieben. Dies änderte sich erst ab Mitte des 18. Jahrhunderts, als mit Einführung des Fußballspiels an den elitärenpublic schoolsin Englandverbindliche Regelungen – über die Spielfeldmaße, die Spielzeit, die Spielerfunktionenetc. – getroffen wurden, die die Entwicklung zum sportlichen Fußballspiel vorbereiteten. Allerdings wäre es falsch, würde man hinter diesen Regelungen bereits die Absichtvermuten, dass durch sie die Leistungen der Schüler angereizt werden sollten. Sie erfüllten vielmehr den Zweck, die schulische Ordnung zu sichern und die Ausbildung vonTugenden wie Selbstdisziplin und Durchsetzungsfähigkeit zu fördern, die nach Auffassung der Reformer jener Zeit den „gentlemen of education“ gegenüber den „gentlemen of right“ sowie den „gentlemen of honour“ auszeichneten. Für die Systematisierung der 17 „Neben schriftlichen Regeln fehlte eine wie immer geartete zentrale Instanz, die die Spielweise hätte vereinheitlichen können. Man kann also nicht davon ausgehen, daß das ‚Spiel mit dem Fußball’ überall in gleicher Form betrieben wurde. Die örtlichen Gewohnheiten bestimmten die Spielweise, nicht das Regelwerk eines nationalen Verbandes. Das Spielgeschehen folgte weit weniger als heute bestimmten Regeln. Die wenigen durch Brauch und Sitte vorgegebenen Verbote schränkten eine kör- perbetonte, ja gewalttätige Spielweise kaum ein.“ (Elias/Dunning 2003: 328).

124

Informelle Technisierungsstrategien im Hochleistungssport123Leistungskonkurrenz war dies ein notwendiger Schritt. Ihre Ausweitung im Sinne einerräumlich und zeitlich übergreifenden Perspektivierung erfolgte freilich erst später.

Die eigentliche Dynamik des Leistungs- sowie des Vergleichsdenkens im Sport wirdgemeinhin mit zwei Faktoren in Verbindung gebracht: die Wettleidenschaft englischer gentlemenim 17. und 18. Jahrhundert sowie die Industrialisierung und Urbanisierungder sich modernisierenden englischen Gesellschaft im 18. und 19. Jahrhundert. Zähltendie Sportwetten, ähnlich wie andere Ausgabeverpflichtungen nachgeborener Adelssöhne, noch zum „Konkurrenzkampf um Status- und Prestigechancen“, so gelten dieAuswirkungen der gesellschaftlichen Industrialisierung und Urbanisierung als eigentliche Auslöser für die Entwicklung dersportsin England: Hierzu gehören etwa der Ausbau der Verkehrswege, die selbst entfernte Austragungsorte erreichbar machten, dieDurchsetzung fester Freizeit- und Feiertagstermine, die es ermöglichten, mehr Zeit inden Sport zu investieren, die wachsende Bedeutung der Städte als „kommunikativesBiotop für das Austragen und Erleben von Wettkämpfen“ (Werron 2010: 322) undschließlich die Entstehung der „middle class als neue Trägerschicht“ (Eisenberg 1999:47–56) des modernisierten Sportlebens im letzten Drittel des 19. Jahrhunderts.

Es ist nicht in Abrede zu stellen, dass die hier genannten Faktoren für die allmähliche Herausbildung des modernen Hochleistungssports wichtig sind. Aus historischerSicht spricht sogar einiges dafür, dass der „rise of sport“ eng an die „technological revolution“ (Betts 1969: 145) in der zweiten Hälfte des 19. Jahrhundert geknüpft war. Dochwas dem Sichtfeld der hier skizzierten zivilisations- (Elias/Dunning), sozial- (Eisenberg) und kulturgeschichtlichen (Eichberg) Erklärungszugänge entzogen bleibt, ist derProzess der Verselbständigung des sportlichen Leistungsvergleichs selbst, das heißtseine enorme Ausweitung, Ausdifferenzierung und Beschleunigung, die im Hochleistungssport heute bereits globale Ausmaße erreicht hat. Dass dieser Prozess mit klassischen körpertechnologischen Ansätzen nicht vollständig zu erfassen ist, wurde bereitsaus den Ausführungen zur „anpassenden Veränderung des Körpers“ deutlich. Wennhierauf dennoch Bezug genommen wurde, so deshalb, weil die philanthropischen Dressurtechniken und Disziplinaranordnungen aus dem letzten Drittel des 18. Jahrhundertsfür das Verständnis der Herausbildung „gelehriger Körper“ sowie der „Ökonomie und 18 Elias (2002: 111). Eisenberg (1999: 30) bemerkt in diesem Zusammenhang: „Wenn etwa ein nach- geborener Adelssohn, der weder Titel noch Vermögen erbte und bürgerlichen Geschäften nachgehen mußte, zu geringe Einsätze riskierte, lief er Gefahr, hinter den Konkurrenten zurückzubleiben und aus der ‚Society’ auszuscheiden.“ 19 Allerdings vergrößerte beispielsweise die Eisenbahn zunächst die Konkurrenz für den Sport, da der entstehende Freizeittourismus Mitte des 19. Jahrhunderts anfangs noch selten Sportveranstaltungen, sondern eher andere Ausflugsziele ansteuerte. Vgl. dazu Eisenberg (1999: 41). 20 Zum Kampf um den freien Samstagnachmittag und die Auswirkungen auf den „Profifußball (‚gate-

125

124Franz Bockrath

Effizienz der Bewegungen“ (Foucault 1994: 175) nach wie vor zentral sind. DieseMachttechniken der „Wertschöpfung“haben auch im modernen Hochleistungssportkeineswegs an Bedeutung verloren. Hinzu kommt jedoch ein weiterer Aspekt, den Foucault als zweiten Pol der „Macht zum Leben“ (Foucault 1986: 166) kennzeichnet. Neben die Auffassung vom „Körper als Maschine“ (ebd.) tritt nur wenig später das Interesse an der Bevölkerung als „Gattungskörper“ (ebd.), der anders regiert werden muss,um „das Wachsen der Körper und der Bevölkerungen, ihre Stärkung wie auch ihreNutzbarkeit und Gelehrigkeit“ (ebd.: 168) zu ermöglichen. Dieser „Eintritt des Lebensin die Geschichte“ (ebd.: 169), der vor allem im 19. Jahrhundert in Form konkreterMaßnahmen und Programmerealisiert wurde, organisiert sich bis heute mithilfe von„Apparaten (Gesundheits-, Verwaltungsapparaten), die hauptsächlich regulierend wirken“ (ebd.: 172) – und das heißt: „qualifizieren, messen, abschätzen, abstufen“ (ebd.).

Es ist hier nicht der Ort, um den von Foucault hergestellten Zusammenhang zwischen der „politischen Anatomie des menschlichen Körpers“ sowie der „Bio-Politik derBevölkerung“ (ebd.: 166; im Original hervorgehoben) auszubreiten. Für das hier behandelte Thema ist jedoch wichtig, dass die im letzten Drittel des 19. Jahrhunderts einsetzende Dynamik des Sports individuelle Kräfte als massenwirksame soziale Energienfreizusetzen vermochte. In sportlichen Wettbewerben, in denen die Herrschaft über dasLeben durch körperliche Leistungen veranschaulicht werden konnte, trafen nun nichtmehr bloß einzelne Gegner oder Gruppen, sondern die Mitglieder einer (Kollektiv-)Gattung aufeinander.Die Entwicklung des Sports zu einem biopolitisch relevantenDispositiv erfolgte freilich nicht von selbst. Die Verselbständigung des körperlichenLeistungsvergleichs konnte nur dadurch wirksam werden, dass sportliche Wettkämpfeein wachsendes öffentliches Interesse auf sich ziehen konnten. Die neue „Macht zum 21 „Die Entwicklung der Disziplinen markiert das Auftreten elementarer Machttechniken, die einer ganz anderen Ökonomie zugehören: es handelt sich um Machtmechanismen, die nicht durch Abschöp- fung wirken, sondern im Gegenteil durch Wertschöpfung, indem sie sich in die Produktivität der Appa- rate, in die Steigerung dieser Produktivität und in die Ausnutzung der Produkte vollständig integrieren“ (Foucault 1994: 281). Für den Sport ist dieses Zitat übrigens so aktuell und prägnant, dass wenigstens der zweite Teil dem Handbuchartikel über „Technische Systeme für die Trainingssteuerung“ (Hoh- mann/Edelmann-Nusser 2001) entnommen sein könnte. 22 So zum Beispiel im medizinisch-politisch-pädagogisch geprägten Gesundheits- und Hygienepro- gramm von Rudolf Virchow, das der körperlichen Ertüchtigung an Schulen eine zentrale Rolle zuwies und als „Humanismus unserer Zeit“ deklariert wurde. Deutlich wird hieran, wie sich im 19. Jahrhundert das öffentliche Interesse an der individuellen und kollektiven Gesundheit immer stärker vermischte. Vgl. dazu Bockrath (2009: 63–66). Foucault (1986: 171) selber spricht in diesem Zusammenhang von einer „Expansion der politischen Technologien […], die von nun an den Körper, die Gesundheit, die Ernährung, das Wohnen, die Lebensbedingungen und den gesamten Raum der Existenz besetzen.“ 23 Dies ist sicherlich ein Grund für die auch heute noch beobachtbare hohe Identifikationsbereitschaft vieler Zuschauer mit lokalen beziehungsweise nationalen Sportteams. Während territoriale Grenzen in politischer Hinsicht immer durchlässiger werden, wird dieser Trend im Kontext der öffentlichen Sport- wahrnehmung beharrlich unterlaufen.

126

Informelle Technisierungsstrategien im Hochleistungssport125Leben“ (Foucault 1986: 159), hier etwa indiziert durch stetig steigende Zuschauerzahlen , veränderte den Sport schließlich so nachhaltig, dass er mit seinen historischenVorläufern nur noch wenig gemein hatte. 3. Universalisierung des körperlichen Leistungsvergleichs

Quantitative Angaben etwa zur Zuschauerentwicklung in prominenten Sportarten gebennur einen ersten Hinweis auf ein mögliches „Kollektivinteresse“ (Foucault 2004: 112),das seine Wirkungen erst entfalten kann, wenn die daran geknüpften Wünsche undErwartungen aufgenommen beziehungsweise gesteigert werden. Im Sport gelingt dieseEntfaltung dadurch, dass es bereits im 19. Jahrhundert einzelnen Sportarten gelang,„sich diePotentiale der lokalen Begrenzungder Wettkämpfe durchÜberschreitung dieser Grenzenzu nutze zu machen“ (Werron 2010: 227–228; Hervorhebungen imOriginal). Dies klingt zunächst banal, spiegelt jedoch einen äußerst voraussetzungsreichen Vorgang, der „sich auf ein zirkuläres Zusammenspiel aus Regelvereinheitlichung,Ausbau des Wettkampfbetriebs und öffentlichem Gedächtnis stützt“ (ebd.: 228). DieserVorgang lässt sich als kommunikativ vermittelte Transformation begreifen, bei derräumlich, zeitlich und sachlich begrenzte Sportereignisse nach und nach in den Kontexteines allgemeinen und verselbständigten Leistungsvergleichs überführt werden. Hinsichtlich der Frage nach informellen Technisierungsstrategien ist anzumerken, dassdurch diese dynamische Umwandlung des Sports Wettkampfereignisse und ihre Beobachtungen immer mehr miteinander verschränkt wurden. Die dadurch erst ermöglichteAusrichtung des Leistungsvergleichs auf sportliche Höchstleistungen und Rekordebezeichnet gerade das, was weiter oben bereits als ‚Prozess der Verselbständigung dessportlichen Leistungsvergleichs’ gekennzeichnet wurde. Dieser Prozess kann nunmehr,zumindest in groben Zügen, am historischen Material veranschaulicht werden. Zu diesem Zweck wird das Beispiel des englischen Fußballs nochmals aufgegriffen, da der 24 Vgl. dazu exemplarisch die statistischen Angaben zu den Zuschauerzahlen für die Spiele der English Football League zwischen 1888/89 und 1913/14 sowie zum englischen Cup-Final zwischen 1875 und 1913/14 bei Eisenberg (1999: 46). Die Autorin bemerkt hierzu an gleicher Stelle: „Im letzten Jahrzehnt vor der Jahrhundertwende schnellten die Zuschauerzahlen der Fußballspiele in die Höhe. Hatte die durchschnittliche Zuschauerzahl bei Spitzenvereinen […] bis dahin bei maximal 4.000 bis 6.000 gelegen, so stieg sie nun innerhalb weniger Jahre auf über 10.000. In der Saison 1913/14 wurden die Spiele der English Football League von durchschnittlich 23.100 Menschen besucht. Das seit 1871 stets in London stattfindende Pokalfinale, das Schlagerspiel der Saison, erreichte in diesem Jahr mit 120.000 Zuschauern einen noch nie dagewesenen Rekord“ (Hervorhebung im Original). 25 So spricht Werron (2010: 13), sein theoretisches Anliegen selbst kommentierend, von einem „kom- munikationstheoretische[n] Verständnis des modernen Sports als ‚Weltsport’“, dessen Autonomie auf ein „zunehmend komplexes öffentliches Reden und Schreiben über die Wettkämpfe“ zurückzuführen

127

126Franz Bockrath

Prozess der Modernisierung dieser Sportart typische Merkmale der allgemeinen Sportentwicklung aufweist.

Die Frage nach derRegelvereinheitlichungbezieht sich auf die notwendigen Voraussetzungen für wettkampfsportliche Leistungsvergleiche. Zwar gab es schon vor 1850unterschiedliche Spiel- und Wettkampfkulturen, deren Anzahl und Bedeutung beständigzunahm, jedoch fehlten verbindliche Absprachen oder Regelwerke. „Mit anderen Worten: Der Sport wuchs, aber er wuchs noch nicht zusammen“ (Werron 2010: 347). Dieersten schriftlichen Regelaufzeichnungen – 1858 niedergelegt vom Sheffield F.C., 1863von der Londoner F.A. (Football Association) – waren noch sehr heterogen, ließengroße Auslegungsspielräume zu und orientierten sich nicht am Prinzip des Leistungsvergleichs. So variierte etwa die Anzahl der vorgesehenen Spieler (handicap), oder derBall durfte entweder nur mit dem Fuß (dribbling game) oder auch mit der Hand (hand- ling game) gespielt werden. Deutlich ist, „dass es hier nicht im engeren Sinne auf Leistungsvergleich, sondern eher auf die Herstellung ‚spannender’, ‚interessanter’, ‚herausfordernder’ Konstellationen ankam“ (ebd.: 357). Dies änderte sich erst im Zuge derallmählichen Umstellung des Wettkampfbetriebs. Werron führt hierfür zwei Entwicklungen an, die nicht von den Verbänden selbst initiiert wurden, sondern in der „Dynamik des öffentlichen Leistungsvergleichs“ (ebd.) begründet lagen. In einer ersten Phasevon 1868 bis 1874 wuchs die Anzahl der Fußballclubs zwar beständig, aber noch vergleichsweise moderat, so dass die Sheffielder und Londoner Regeln problemlos nebeneinander bestehen konnten. Erst in der zweiten Phase, ab Mitte der 1870er Jahre, „alsder F.A.-Cupan Popularität gewann und die vermehrte Gründung von Clubs undweiterer regionaler Verbände einsetzte“ (ebd.: 358), kam es um 1880 zu einer Vereinheitlichung des Wettkampfbetriebs unter Aufsicht der F.A. „Obschon also spätestensMitte der 1880er Jahre alle Clubs, soweit sie am Wettkampfbetrieb teilnahmen, der F.A.oder einer ihrer Regionalverbände angehörten, und die F.A. zunehmend eine aktiveRolle in der Steuerung des Prozesses übernahm, erwiesen sich nicht die Organisationszugehörigkeiten und -tätigkeiten als solche, sondern das Drängen in die Cupwettbewerbe und der mit dem Eintritt in die Verbände nicht identische Prozess der Regelübernahmen als entscheidend: Erst nach Adoption der Regeln war es praktikabel geworden, 26 „Das Experimentieren mit Ligensystemen etwa begann im amerikanischen Baseball in den 1870er Jahren, griff Ende der 1880er auf den britischen Fußball über und ist in unterschiedlichen Varianten zu einem zentralen Element der Wettkampforganisation vieler Sportarten geworden“ (Werron 2010: 26). Der Autor erläutert die Ausdifferenzierung und Globalisierung des Sports im historischen Teil seiner Arbeit am Beispiel dieser beiden Sportarten. Für den Fußballsport erscheint dieses Vorgehen plausibel; gegen die Verwendung von Baseball als vermeintlich geeignetes Exempel lassen sich jedoch begründe- te Einwände erheben. Vgl. dazu Bette (2011). 27 „F.A.-Cup“ steht für den Pokalwettbewerb der englischen Football Association, der erstmals 1871/72 ausgetragen wurde.

128

Informelle Technisierungsstrategien im Hochleistungssport127an mehreren Cupwettbewerben gleichzeitig teilzunehmen; erst jetzt konnten die Probleme des ‚pot hunting business’, die zur Gründung der Liga führten, sichtbar werden;und erst jetzt konnte der Verband in die Funktion einer nationalen Instanz zur Überwachung von Wettkampfbetrieb und Regeln hineinwachsen“ (ebd.: 359; im Original teilweise hervorgehoben). Folgt man dieser Einschätzung, dann relativiert sich zugleich dieBedeutung der Verbände als vermeintlicher Interessenzusammenschluss zur Einführungund Einhaltung verbindlicher Regelstandards. Nicht die regionalen und später auchnationalen Verbände sorgten dafür, dass der Leistungsvergleich im englischen Fußballauf der Basis gleicher Regeln stattfinden konnte, sondern ihre Rolle als Regel überwachende Organisation nahmen sie erst wahr, „nachdem sich die maßgeblichen Differenzierungsdynamiken längstaußerhalbder Verbände etabliert hatten“ (ebd.: 373; Hervorhebung im Original).

Werron weist mit Recht darauf hin, dass es keineswegs selbstverständlich war, dassdie Clubs sich den Verbänden unterwarfen, ein einheitliches Regelwerk akzeptiertenund sich in eine Leistungshierarchie einordneten, „welche die meisten von ihnen aufunteren Rängen einordnete und unmissverständlich mitteilte, wie wenig sie von ihrenLeistungen hielt“ (ebd.: 372). Ebenso wäre es möglich gewesen, dass die Clubs nachbereits etablierten eigenen oder jeweils neu auszuhandelnden Absprachen miteinanderin Konkurrenz getreten wären, wie dies bereits vor 1850 gängige Praxis war. Dass diesnicht geschah, „ist ein unwahrscheinlicher, ja erstaunlicher Vorgang, der sich nur begreifen lässt, wenn man die Eigenattraktivität und Eigendynamik berücksichtigt, die deröffentliche Leistungsvergleich seit Ende der 1850er Jahre entfaltet hatte“ (ebd.). Injedem Fall war mit der Regelvereinheitlichung nicht nur in dieser Sportart eine wichtigeBedingung für einen dauerhaften Leistungsvergleich erfüllt, der folgerichtig in regelmäßig ausgetragenen Wettbewerben in Serie gesetzt wurde und in Form von Listen,Tabellen und Berichten einen öffentlichkeitswirksamen Ausdruck fand. Die allgemeineAusrichtung auf die Erbringung von Höchstleistungen war damit zugleich regulativgesichert.

Der allmählicheAusbau des Wettkampfbetriebssorgte schließlich dafür, dass auf derBasis einheitlicher Regeln ein regelmäßiges Angebot von Vergleichsereignissen gewährleistet wurde. Anfänglich, das heißt bis in die 1880er Jahre hinein, gab es eine nochrelativ unübersichtliche Wettkampflandschaft. Nach dem Vorbild der Londoner F.A.kam es zur Gründung zahlreicher Regionalverbände, die das Ziel verfolgten, eigeneCup-Wettbewerbe anzubieten. Der F.A.-Cup galt inzwischen als Erfolgsmodell, dessenAustragungsmodus nach dem K.O.-Prinzip zahlreiche Überraschungen bereithielt. Eswar nicht selten, dass favorisierte Mannschaften schon in den ersten Runden gegenvermeintlich schwächere Gegner ausschieden. Dieser Umstand steigerte die Wett-

129

Franz Bockrathkampfspannung und erhöhte damit den Reiz für die Zuschauer. Die große Anzahl parallel ausgetragener Cup-Wettbewerbe hatte zur Folge, dass ambitionierte Clubs zur gleichen Zeit an verschiedenen Konkurrenzen teilnehmen konnten (pot hunting business).Die Angebotsvielfalt führte jedoch zu Koordinierungsproblemen: „Das System warattraktiv genug, um erste Einnahmen zu erzielen und lokale Publikumsinteressen aufsich zu ziehen, aber zu instabil, um Spielern und Vereinen eine verlässliche Geschäftsgrundlage zu schaffen“ (Werron 2010: 314–315; im Original zum Teil hervorgehoben).Die entscheidenden Gründe für den Erfolg des Cup-Prinzips sieht der Autor in derSchaffung eines „nationalen Vergleichshorizont[s]“, in der Aktivierung „städtisch[er](und kleinstädtisch[er]) Identifikationsressourcen“ sowie in der „Attraktivität des Wettkampfbetriebs“ (ebd.: 315). Mit Gründung der „Football League“ im Jahr 1888 gelanges schließlich, auch den unübersichtlichen Wettkampfkalender zu synchronisieren. Dieim K.O.-Modus ausgetragenen Cup-Spiele und das Ligensystem mit der Ermittlungeines nationalenchampionsaufgrund der während einer Saison gesammelten Punkte(averages) wurden in ihren Abläufen aufeinander abgestimmt. Für die Zuschauer erhöhte sich damit die Anziehungskraft, da nunmehr beides: „die kompetitive Attraktivitätder Cup-Spiele“ sowie der „kontinuierliche Leistungsvergleich der besten Clubs“(vgl.ebd.: 318), angeboten wurde. Damit waren bereits gegen Ende des 19. Jahrhunderts „dienoch heute bestehenden Grundstrukturen des Wettkampfbetriebs“ (ebd.: 320) im englischen Fußball etabliert.

Die Steigerungsaspiration als zentrales Merkmal des Hochleistungssports erhieltdurch den beschriebenen Ausbau des Wettkampfbetriebs eine organisatorisch verlässliche Basis. In Kombination mit den parallel einsetzenden Maßnahmen zur Regelvereinheitlichung bot sich nunmehr die Möglichkeit, sportliche Leistungen zu differenzierenund in ein relativ genaues Verhältnis zu setzen. Insbesondere das Punktesystem imLigabetrieb sorgte dafür, dass die Verlässlichkeit des Leistungsvergleichs insgesamterhöht wurde, da etwaige Zufälle oder Benachteiligungen im Verlauf einer Saison korrigiert werden konnten. Obwohl im Fußball exakte Leistungsmessungen, wie in den so 28 Die Spannung wurde noch dadurch erhöht, dass ab 1892 ein Zwei-Ligen-System mit Auf- und Ab- stiegsmöglichkeiten installiert wurde. 29 „[D]as hierarchische Ligensystem nebst Pokalwettbewerb ist zunächst nach Schottland, dann ins restliche Europa, nach Südamerika, Asien und Afrika exportiert worden. Parallel wurde 1904 der inter- nationale Fußballverband FIFA gegründet, der erneut die Rolle einer Meta-Organisation im Verhältnis zu allen nationalen Verbänden übernahm und bald auch Anstrengungen unternahm, eine Weltmeister- schaft zu veranstalten, die, nach zwischenzeitlicher Eingliederung in die Olympischen Spiele (1908) und nach Auseinandersetzung mit dem IOC um die ‚Amateurfrage’, allerdings erst ab 1930 tatsächlich ausgetragen wurde“ (Werron 2010: 321).

130

Informelle Technisierungsstrategien im Hochleistungssport129genannten c-g-s-Sportarten, nicht vorgesehen sind, bot der allmähliche Umbau desWettkampfbetriebs schon bald einen so stabilen Vergleichsrahmen, dass bereits 1885,also drei Jahre vor Gründung der „Football League“, der Professionalismus zugelassenwurde, womit der englische Fußball seinen zuvor noch spielerisch-geselligen Charakterimmer mehr einbüßte. Dieser Übergang lässt sich auch alstake off– Phase in der Entwicklung zum Hochleistungssport charakterisieren, da das Leistungsvergleichsdenkenvon nun an nicht mehr nur durch sportliche, sondern insbesondere auch durch wirtschaftliche Interessen beeinflusst wurde.

Die Perspektive auf den Sport erweitert sich erst, wenn auch das Publikum als öffentlicher Beobachter in die Überlegungen aufgenommen wird. Während die Regelvereinheitlichungen auf die Vergleichsbedingungen abzielten und der Ausbau des Wettkampfbetriebs die Vergleichsereignisse betrafen, ist die Einbeziehung des Publikums inden Kontext des Wettkampfgeschehens gleichbedeutend mit derAusweitung des Ver- gleichshorizonts– von der lokalen Perspektive über den nationalen Wettbewerb bis zuminternationalen Leistungsvergleich (vgl. Werron 2010: 271–276). Für diese Ausweitungbedurfte es allerdings bestimmter technologischer Voraussetzungen, die es erst ermöglichten, das Publikum in großem Umfang als Beobachter und Beurteiler in das Wettkampfgeschehen mit einzubeziehen. Für eine qualifizierte Erweiterung der Vergleichsperspektive war es nötig, auch auf räumlich entfernte oder zeitlich zurückliegende wettkampfsportliche Ereignisse Bezug nehmen zu können. Möglich wurde dies durch einenfür die Sportentwicklung markanten Einschnitt:

131

130Franz Bockrath

Nicht nur war es möglich, Informationen über Spielergebnisse und Wettkampfverläufeschneller zu verbreiten und aufzunehmen, sondern es erhöhte sich insgesamt die Zugänglichkeitsleistung: „Die Leistung, auf die es entscheidend ankam, erbrachte dieTelegraphie nicht als Draht zwischen Ort des Wettkampfes und Orte des Erlebens, sondern als Netz von Drähten, das eine potentiell unbegrenzte Vielzahl von Orten in Beobachtungsknoten wie Sportverbänden oder Presseredaktionen zusammenführte“ (ebd.:256; im Original teilweise hervorgehoben). Die neue Art der Berichterstattung bildetezugleich ein neues Beobachtungsarrangement, das nicht nur Zwischenstände und Endergebnisse übermittelte, sondern auch Vorberichte, Hintergrundinformationen, Meinungsäußerungen, Statistiken und ähnliches in Umlauf brachte.

Für die Fußballentwicklung in England lässt sich das Bedürfnis nach öffentlicherVerbreitung von Informationen zuerst in den 1860er Jahren nachweisen. Aus Anlasseines Spiels zwischen Sheffield und London wurde die Vereinbarung getroffen, dass:„Notices of the match shall be placed in Bell’s Life in London, The Sporting Life, TheSportsman“ (ebd.: 263) – den führenden Sportblättern jener Zeit. In den 1880er Jahrenentstanden die ersten „football specials“, die noch vor Gründung der „Football League“im Jahr 1888 ein breites Publikum ansprachen, dessen Interessen bereits über lokaleEreignisse hinausreichten. Und in den 1890er Jahren „eroberten die Sportnachrichtendann auch die ‚normalen’ Tageszeitungen Großbritanniens, die ein ‚sports consciousness’ auszubilden begannen und dadurch zu einer neuen, problematischen Konkurrenzfür die spezialisierten Blätter wurden“ (ebd.: 266). Als Folge dieser Entwicklung erweiterte sich der Horizont, in dem Vergleiche möglich waren, zusehends und es kam zurAusbildung neuartiger Bewertungskriterien „in Richtung Leistungsvergleich“ (ebd.:273). Für den Fußball bedeutete dies, dass beispielsweise zwischen Einzel- und Mannschaftsleistungen unterschieden wurde, die ab 1872 – dem Jahr des ersten Länderspielszwischen England und Schottland –, auch im internationalen Rahmen verglichen undbewertet werden konnten. Die Entstehung und Etablierung eines öffentlichen Leis 32 Interessant ist, dass die technische Einrichtung und öffentliche Nutzung elektromagnetischer Tele- graphienetze genau in den hier behandelten Zeitraum „der beginnenden Ausdifferenzierung des moder- nen Sports“ fällt. Vgl. Werron (2010: 254).

132

Informelle Technisierungsstrategien im Hochleistungssport131tungsvergleichshorizonts führte schließlich zu der „historisch neuartige[n] Idee dergleichzeitigen Konkurrenz unter Abwesenden“, die „sich in Rekordbegriff, Ligaformat,nationalen Titelkämpfen und Weltmeisterschaften […] Wirkung verschafften“ (ebd.:292; im Original teilweise hervorgehoben). Im verselbständigten Leistungsvergleich, solässt sich der Gedankengang zusammenfassen, fanden sportliche Höchstleistungenschließlich beides: ihren spezifischen Ausdruck sowie ihr spezifisches Ausdrucksfeld. 4. Informelle Technisierung als historische Konstellation

Bis hierher wurde deutlich, dass körperliche und soziale Dynamiken im Sport nicht„eindimensional“ verlaufen in dem Sinne, dass erwünschte Leistungen durch stabileFormen (Elementarübungen, Bewertungsmaßstäbe, Regelwerke, Leistungshierarchienetc.) einfach hervorgebracht werden, sondern dass diese Effekte auf komplexe und kontingente Formen der Beobachtung zurückzuführen sind:

Im philanthropischen Programm der humanen Perfektionierung war die Beobachtung zunächst noch auf den je einzelnen Schüler begrenzt, der als prinzipiell steigerbareRessource angesehen wurde. Die „politische Anatomie des menschlichen Körpers“(Foucault 1986: 166) setzte dementsprechend beim Einzelnen an, der in einer „vernünftigen, der menschlichen Natur angemessenen Erziehung“ (Salzmann 1788: 59) auf dieGesellschaft und ihre Einrichtungen hin vervollkommnet werden sollte. Die Methodender philanthropischen Gymnastik waren trotz dieser noch vergleichsweise allgemeinenerzieherischen Ausrichtung bereits so spezifisch, dass Selektionen und Zuweisungen aufder Basis von Leistungsvergleichen schon sehr bald an Bedeutung gewannen und denAnforderungen von Arbeit, Beruf und Wirtschaft angeglichen wurden.Die verändernde Anpassung des Körpers bereitete diese Entwicklung mit vor; aufgrund der individualisierenden Beschränkung der Beobachtungsperspektive war eine Steigerung der lebendigen Kräfte über das Maß realisierbarer Zwecke hinaus jedoch noch nicht im Blick.

Dies änderte sich erst im Zuge der Entwicklung des modernen Sports, dem es gelang, individuelle Kräfte als soziale Energien freizusetzen, die mit der Aufforderungauftraten, gesteigert und überschritten zu werden. Möglich war dies, weil die allmähliche Umstellung des Wettkampfgeschehens von geselligen Ereignissen auf sportlicheKonkurrenzen mit Formen der öffentlichen Beobachtung und Beschreibung einherging,die zugleich den Horizont der Vergleichsmöglichkeiten erweiterten. Schrittweise wurde 33 So etwa in der neuhumanistischen Formel vom „Lernen des Lernens“ bei Wilhelm von Humboldt, die als Reaktion auf die sich verschärfenden Anforderungen an den Einzelnen zu verstehen ist, ausge- bildete Erfahrungsmuster und Wissensformen möglichst selbst bestimmt und flexibel an die sich immer rascher verändernden gesellschaftlichen Bedingungen anzupassen. Vgl. dazu Bockrath (2008: 102–

133

132Franz Bockrathder Wettkampfbetrieb transformiert und auf größtmögliche Vergleichbarkeit ausgerichtet, um den Erwartungen eines wachsenden und zunehmend fachkundigen Publikumsgerecht zu werden. Die Wechselwirkungen zwischen öffentlichen Beobachtungsformenund organisiertem Wettkampfbetrieb – das heißt die Ausweitung und Verselbständigungdes Vergleichshorizontes einerseits sowie die Ausdifferenzierung des Sports andererseits –, konvergierten in der Ausrichtung auf sportliche Höchstleistungen und Rekorde,denen seither keine Grenzen mehr gesetzt sind.

Für diese historisierende Betrachtungsweise informeller Technisierungsstrategiensportbezogener Entwicklungen bleibt somit festzuhalten, dass die operativen Bedingungen (körperliche Perfektionierung, sportlicher Leistungsvergleich) und die hierauf bezogenen kommunikativen Operationen (Selbstbeschreibungen, öffentliche Beobachtungen) so miteinander verschränkt sind, dass Veränderungen in der Regel auf beiden Ebenen wirksam werden, ohne jedoch ineinander aufzugehen. So gesehen verweist dieEntwicklung des Sports auf realisierte Möglichkeiten, die qua öffentlicher Beobachtungund Beschreibung rekursiv beeinflusst und sukzessiv verändert werden. Die eingeschlagene Richtung der Steigerungs- und Überbietungslogik ist damit vorgegeben, eine bestimmte Zielsetzung hingegen nicht.

Literatur

134

Informelle Technisierungsstrategien im Hochleistungssport133

135

134Franz Bockrath

136

Vaterschaft ist ein Rechtsbegriff, der eine Verwandtschaftsbeziehung zwischen einemMann und einem Kind definiert. Diese Tradition geht auf das römische Recht zurück, indem das heutige deutsche Familienrecht wurzelt. Durch die Vaterschaft entstand eineklare Struktur von Rechten und Pflichten der Beteiligten: Der Vater konnte als römischer pater familiasüber das Leben und Aufwachsen seines Kindes entscheiden. DasKind genoss daraus folgend den Schutz, in einer Familie aufzuwachsen. Diese Traditionzeigt einen sehr reichhaltigen, auf väterliche Herrschaft und Verantwortung, auf Rechteund Pflichten gestützten Begriff von Vaterschaft.

Anders sieht es heute aus: Wir finden im Familienrecht die Begriffe „Abstammung“und „biologischer Vater“; letzterer erhält Rechte, die lediglich auf eine biologischeBeziehung gestützt werden; von einer Bekanntschaft, sozialen Beziehung oder Verantwortung kann dabei gänzlich abgesehen werden. Diese „biologischen Väter“ fordernRechte ein, während parallel die Rechte der rechtlichen Eltern eingeschränkt werden.Ein privater Vaterschaftstest kann ein Familiengefüge auf den Kopf stellen, noch bevorein Gericht über die fragliche Vaterschaft urteilt. Wie ist diese Situation entstanden?

Die Veränderungen, die am rechtlichen Modell von Vaterschaft sichtbar werden,sollen hier versuchsweise als informelle Technisierung beschrieben werden. Die heutigeDiskussion über Vaterschaftstest und Vaterschaft im Familienrecht muss sich stets aufdie überprüfbare Abstammung beziehen. „Familie“ wird in diese Form der genetischenBeziehungen gebracht. Die günstigen genetischen Vaterschaftstests haben die weitverbreitete private Nutzung dieser Tests möglich gemacht, eine große Diskussion eröffnet und ein neues Gesetz erforderlich gemacht (vgl. § 1598 a BGB). Die entscheidendeVeränderung im Familienrecht aber liegt etwas weiter zurück: Anfang des20. Jahrhunderts wurden erstmals erbbiologische Gutachten auf wissenschaftlicher 1 Dieser Aufsatz wurde den Herausgebern Ende 2012 übergeben und gibt den damaligen Stand der Richtlinien etc. wieder. 2 Eine ausführliche Darstellung der Geschichte der Vergewisserung über Vaterschaft findet sich in

137

136Maxine Saborowski

Grundlage angefertigt, von Gerichten in familienrechtlichen Prozessen angefordert undals gültige Beweismittel anerkannt. Diese Umbruchszeit soll genauer betrachtet werden.

Informelle Technisierung bezeichnet auch eine Veränderung durch Technisierungund Verwissenschaftlichung des Sozialen wie der Familienbeziehungen: Wenn Biologen als Experten neben Juristen treten und Abstammungsgutachten als neue Beweismittel anbieten, wenn diese Gutachten in Vaterschaftsprozessen anerkannt werden undstaatliche Unterhaltszahlungen zu vermeiden helfen, weil Väter festgestellt werdenkönnen, so geht es auch um Ansprüche auf Sozialleistungen und um die Anerkennungvon Expertengutachten bei der Anspruchsklärung. Dabei bekommen die Abstammungsgutachten unmerklich eine große Aussagekraft: Wenngleich jedes Gutachten einer gerichtlichen Würdigung im Verfahren bedarf, so sprechen doch inzwischen auch dieJuristen im Vergleich mit der rechtlichen Verwandtschaft von der biologischen als der„tatsächlichen Abstammung“ und bringen dabei die Familienbeziehungen in die Formder genetischen Abstammung.

Der Historiker Lutz Raphael (1996: 167) schreibt zur Vorgeschichte einer Technisierung des Sozialen: „Den Anfang machten bereits im 19. Jahrhundert Mediziner undPsychiater, die vor allem bei der Frage der Zurechnungsfähigkeit vor Gericht als Gutachter hinzugezogen wurden; ihnen folgten in unserem [20.] Jahrhundert Kriminologenund Psychologen.“ Es entstand Streit zwischen Strafrechtlern, die traditionell für dieBeurteilung dieser Fragestellungen ausgebildet waren, und den neuen Experten. Ebensowehrten sich die Juristen zuerst gegen die Abstammungsgutachten, bevor diese neuenBeweismittel anerkannt wurden. Raphael führt weiter aus:

Neben der Beurteilung von Zurechnungsfähigkeit ist z.B. das Kindeswohl ein neuesRechtsgut, für dessen Gefährdungsbeurteilung Psychologen zuständig sind. Betrachtetwerden soll zunächst die Vorgeschichte des 20. Jahrhunderts, bevor anschließend dieEinführung von erbbiologischen Gutachten in das Gerichtswesen dargestellt wird. AmEnde sollen die heutigen Testverfahren erläutert sowie im Hinblick auf die These derTechnisierung analysiert werden.

138

Technisierung im Familienrecht137 1. Vaterschaft in der Rechtsgeschichte Vaterschaft ist traditionell über die Ehe vermittelt und beruht auf einer Vermutung: Eswird vermutet, dass der Ehemann der Kindesmutter Vater des Kindes ist. Durch diesesehr einfache Zuordnung bekamen eheliche Kinder stets einen Vater. Das Recht hat sichnicht in die Familien eingemischt: Das Vertrauen in die väterliche Autorität und Sorgefür die Familie hat eine Überprüfung von außen überflüssig gemacht. In diesem Sinneschützt das Recht die Patrilinearität, die sich in den meisten Kulturen findet. Patrilinearität meint, dass der Familienbesitz entlang der männlichen Linie weitergegeben wird.Die Frau zieht nach der Hochzeit zur Familie des Mannes, die Kinder tragen den Namenund das Wappen der väterlichen Familie etc. Um Blutsverwandtschaft, in dem Sinnewie wir heute Abstammung verstehen, ging es in der rechtlichen Vermutung der Vaterschaft nicht, sondern primär um die Erhaltung der familiären und patriarchischen Ordnung. Das Recht zielte mit der Vaterschaft auf eine andere Ebene als auf die Zeugung,wobei es diese beiden Ebenen – rechtliche neben leiblicher Vaterschaft – kannte undunterschied. So existierte im römischen Recht wegen ihrer natürlichen Verwandtschaftein Eheverbot für Väter gegenüber ihren unehelichen Töchtern, während sie zugleichrechtlich nicht verwandt waren (Leineweber 1978: 21). Uneheliche Kinder hatten vonAnfang an keine Rechte gegen ihre Väter und damit eine Randstellung, die erst spätermoralisch problematisch wurde.

Der Makel der Unehelichkeit war wirksam, weil man Unzucht lange Zeit als Straftatansah. Dies änderte sich gegen Mitte des 18. Jahrhunderts, als aufgrund neuer bevölkerungspolitischer Überlegungen der häufig vorkommende Kindsmord – als Folge einerunehelichen Geburt – für mindestens ebenso problematisch gehalten wurde wie dieUnzucht. Als Ausweg aus dieser Situation erklärten zwei preußische Edikte von 1756und 1765 die Unzucht für straffrei (Jerouschek 1988: 230). Ledig schwangere Frauensollten weder ihre Schwangerschaft verheimlichen noch das Kind heimlich töten müssen. Damit war für uneheliche Kinder der erste Schritt aus dem Strafrecht heraus getan:Ihre Existenz war rechtlich gesehen kein Anlass mehr für ein Strafverfahren. Vielmehrwar ein unterhaltsrechtlicher Anspruch gegen ihren Erzeuger im Prinzip denkbar. Eineklare Trennung zwischen dem Familienrecht und dem Unterhaltsrecht für unehelicheKinder bestand allerdings.

Sichtbar ist diese Rechtstradition beispielsweise imAllgemeinen Landrecht für die Preußischen Staatenvon 1794, das eine der ersten systematischen Kodifikationen desPrivatrechts darstellt. Gänzlich von der ehelichen Vaterschaft getrennt war das Unehelichenrecht, in dem es nicht um Verwandtschaft, sondern um die Suche nach dem Erzeuger des Kindes als einem „Täter“ ging. Diese Täterschaft hat imPreußischen Landrecht

139

138Maxine Saborowskieine Unterhaltspflicht des Erzeugers begründet, aber keine Verwandtschaft gestiftet.Dies ist zu betonen: Allein innerhalb der ehelichen Familie gab es Vaterschaft im Sinneeiner (rechtsgültigen) Verwandtschaft des Vaters mit seinem Kind. Der (außereheliche)Erzeuger hatte höchstens eine unterhaltsrechtliche Beziehung zu seinem Kind, die aberaußerhalb des eigentlichen „Familien“-rechts geregelt war. 2. Rechtliche Beweisformen und Vergewisserungstechniken im18. und 19. Jahrhundert

Die Mittel, deren sich die Gerichte im Rahmen eines Verfahrens bei Vaterschaftsfragenum 1800 bedienten, waren auf ihre Art differenzierte und institutionalisierte juristischeTechniken: Es wurden Zeugen vernommen, Beweise gesammelt und Eide gesprochen.Unterhalb dieser offiziellen Ebene kamen auch in der Familie oder in der sozialen Gemeinschaft Praktiken zur Anwendung, die der außergerichtlichen Klärung dienten. DasRecht spiegelte das Verhalten wider, das bei Unklarheit über den Vater in einer Gemeinschaft zu finden war.

Betrachtet man das beginnende 19. Jahrhundert, so wurden Gerichte im Hinblick aufVaterschaftsfragen dann aktiv, wenn ein verheirateter Vater die Ehelichkeit seines Kindes anfocht oder wenn eine Frau ein uneheliches Kind hatte und dessen Unterhaltsanspruch gegen den Vater gerichtlich durchsetzen wollte. Die Argumente, die die verheirateten, anfechtenden Männer vorbrachten, um die Unmöglichkeit ihrer Vaterschaft zubeweisen, waren klassischerweise die Abwesenheit in der Empfängniszeit, belegbardurch den Nachweis eines Auslandsaufenthaltes oder andere Umstände. Da die Feststellung des Unterhaltsanspruchs eines unehelichen Kindes nur unterhaltsrechtliche, aberkeine familienrechtlichen Folgen hatte, galten für die Frage nach dem Erzeuger in diesem Verfahren teilweise andere Kriterien als für die Anfechtung. Ein weiterer Klagetyp,den es im Zusammenhang mit der Vaterschaft gab, war die Klage eines unehelichenKindes auf Anerkennung der Ehelichkeit. Dabei musste das Kind – je nach Rechtslage –beweisen, dass es durch nachfolgende Ehe der Eltern als legitimiert gelten müsse, dasses in bestehender Ehe gezeugt worden war, dass es von einer verheirateten Mutter in derEhe geboren wurde oder Ähnliches.

Bei einem unehelichen Kind fehlte im Prinzip die Ehe als Grundlage für die Vermutung der Vaterschaft. Aber gerade kleine und geschlossene soziale Gemeinschaften wieDörfer hatten im 18. und 19. Jahrhundert ihre eigenen ungeschriebenen Regeln, wie siemit unehelichen Kindern umgingen (Schulte 1997; Becker 1990): Teilweise war dasHeiratsalter sehr hoch, daher waren voreheliche Beziehungen verbreitet und toleriert,was zu klaren Partnerschaftsstrukturen auch unter Unverheirateten führte. Vor der Ehe-

140

Technisierung im Familienrecht139schließung schon Kinder zu bekommen war dann auch keine Schande: Man wusste, werder Vater war und dass das Paar früher oder später heiraten würde.

Sobald die Dorfgemeinschaft einer Frau mit unehelichem Kind keinen unverheirateten Partner zuordnen konnte, kamen Praktiken zum Einsatz, die eine Klärung bewirkensollten: Man redete über die Frau und man erwartete, dass irgendjemand irgendetwaswusste oder gesehen hatte. Dass die Mutter den Vater verheimlichte, war für das Dorfverdächtig: Es konnte sich nur um eine verbotene Beziehung handeln, um einen Verstoßgegen die Normen des Dorfes. Oft gab es Anhaltspunkte für den Vater oder außergerichtliche Einigungsversuche. Die Gerichte wurden selten einbezogen: Sie mussten ggf.eine Abwägung der Glaubwürdigkeit der verschiedenen Parteien leisten oder die Höheder Ansprüche einschätzen.

An einem Beispiel (Königliches Preußisches Hof- und Kammergericht 1783:892 ff.) einer Vaterschaftsklage eines unehelichen Kindes auf Feststellung der Ehelichkeit wird deutlich, auf welchen Arten von Beweismitteln die Entscheidungen der Gerichte beruhten: Die belastbarste Art von Beweis war das Geständnis. Ein Geständniswurde dadurch verstärkt, dass andere Personen bestimmte Handlungen bezeugen konnten. Insgesamt hatte der beklagte Mann sich wie ein Vater zu dem klagenden Kind verhalten und durch diese Handlungen stillschweigend das Kind als das seinige anerkannt,wurde geurteilt. Übernahm ein Mann im alltäglichen Umgang die väterliche Verantwortung für ein Kind, so war dies ein wichtiger Hinweis darauf, dass er auch rechtlich alsVater zu gelten hatte (vgl. die noch heute in Frankreich üblichepossession d’état).

Gab es eine unzureichende Beweislage und widersprüchliche Angaben der vor Gericht streitenden Parteien, so war oft eine Glaubwürdigkeitsprüfung die letzte Möglichkeit der Rechtsfindung. DasAllgemeine Preußische Landrechtlieferte eine Reihe vonKriterien, mit denen die Bescholtenheit – und damit die Unglaubwürdigkeit – einerPerson ermittelt werden konnte (vgl. ALR II, 1, §§ 1108–1113). Eine solche Einschätzung half den Gerichten bei der Entscheidung, welche Partei sie zum Eid zulassen wollten. Das Schwören eines Eides bedeutete, dass man eine Eidesformel nachsprechenmusste, die das Gericht formuliert hatte. Mit einem Eid konnte die beklagte Partei ihreUnschuld schwören, oder eine klagende Partei konnte schwören, dass ihre Anklage derWahrheit entspreche. Im ALR wurden diese Formen „Reinigungseid“ und „Erfüllungseid“ genannt (vgl. ALR II, 1, § 1108). Sie waren im Mittelalter sehr verbreitet gewesenund verloren danach zunehmend ihre Gültigkeit, weil Zeugenaussagen und Geständnisse für beweiskräftiger gehalten wurden. Mangelte es aber an Beweisen, so griff manauch im beginnenden 19. Jahrhundert auf den Eid zurück.

In dieser Zeit beauftragten die Gerichte teilweise auch Ärzte damit, für den zu entscheidenden Fall ein Gutachten zu erstellen. Es ging dann zum Beispiel um die konkrete

141

140Maxine Saborowski

Empfängniszeit, den Reifegrad des Kindes bei der Geburt, die Zeugungsfähigkeit einesMannes und Ähnliches. Fahner, einer der berühmtesten Gerichtsmediziner, äußerteZweifel daran, ob man überhaupt über objektive Maßstäbe verfüge, um die genanntenSachverhalte zu beurteilen (Fahner 1795: Bd. 1: 197 ff.). Im Zweifelsfall riet er seinenKollegen, die medizinischen Urteile nach Maßgabe des gesunden Menschenverstandszu fällen. Die „gerichtliche Arzneikunde“, wie dieser heute als Rechtsmedizin bezeichnete Bereich früher oft genannt wurde, war zu Fahners Zeit eher eine Art Fallkunde alseine wissenschaftliche Disziplin.

In der Zeit des 18. und auch ins 19. Jahrhundert hinein nutzten Gerichte bei Vaterschaftsfragen verschiedene Beweismittel: Geständnisse waren die wichtigsten unterihnen. Belastende Zeugenaussagen konnten die Bereitschaft zum Geständnis erhöhen.Auch das allgemeine Verhalten, die Tugendhaftigkeit oder Bescholtenheit einer Person,war relevant. Medizinische Gutachten wurden in manchen Fällen eingeholt: Sie solltenbegleitende Fragen wie die nach der Empfängniszeit beantworten helfen. War die klagende Partei nicht in der Lage, eindeutige Beweise zu liefern, und konnte die beklagtePartei ebenso wenig einen überzeugenden Gegenbeweis vorbringen, so waren die Richter darauf angewiesen, die Glaubwürdigkeit der beiden Parteien zu prüfen und eine derbeiden zum Eid zuzulassen.

Diese Beweismittel waren juristische Techniken, die sich über die Jahrhundertehinweg entwickelt hatten. Die Techniken wurden für die unterschiedlichsten Arten vonstraf- oder zivilrechtlichen Verfahren verwendet, ob es nun um Mord, Vaterschaftsoder Eigentumsfragen ging. Die damaligen Gerichtsmediziner hatten ihre Lehrbüchermeist nach Deliktformen unterteilt und boten eine Sammlung der exotischsten Fälle, diesie erlebt oder gehört hatten. Sie lehnten sich also an die juristische Kasuistik an. Ausdiesem Arsenal von Techniken bedienten sich die Gerichte bei der Beurteilung vonfraglicher Verwandtschaft – und die Techniken entsprachen dem, was man beurteilenwollte: Verantwortlichkeiten, Verhaltensweisen, Vergehen gegen die sozialen Normen. 3. Der Übergang zum 20. Jahrhundert: Erste wissenschaftlicheAbstammungsgutachten Anfang des 20. Jahrhunderts brachten die neuen Erkenntnisse der Biologie über dieregelgeleitete Vererbung von Eigenschaften ein neues Beweismittel in die rechtlichenVerfahren bei Vaterschaftsfragen: Eine wissenschaftliche Begutachtung der Wahrscheinlichkeit einer Abstammung wurde möglich. Die Biologie brachte das Modelleiner substanzhaft vermittelten genetischen Verwandtschaft von Eltern und Kindern insSpiel. Die äußerliche Ähnlichkeit von Eltern und Kindern war lange bekannt. Früher

142

Technisierung im Familienrecht141wurden die Prozesse, wie diese Ähnlichkeit entstehen konnte, mit metaphysischen Einflüssen erklärt: durch einen göttlichen Beitrag oder durch die gestaltende Kraft der elterlichen Seelen. Die Biologie der Jahrhundertwende legte nun ein empirisches Modell fürdie Vererbung von Eigenschaften vor, das mit Unterstützung der Statistik Aussagenüber die Wahrscheinlichkeit der Abstammung eines Kindes von einem bestimmtenElternpaar erlaubte. Die Regeln, die von Gregor Mendel bereits im 19. Jahrhundertentdeckt worden waren und um 1900 wiederentdeckt wurden, ermöglichten eine Bestimmung von Wahrscheinlichkeiten für das Auftreten von polymorphen erblichenEigenschaften in der Folgegeneration. Somit wurden individuelle Abstammungsprüfungen machbar: Man verglich die erblichen Eigenschaften von mutmaßlichen Eltern undKindern miteinander und konnte dadurch Rückschlüsse auf ihre Verwandtschaft ziehenoder die Abstammung vom Vater ganz ausschließen. Es entstand ein naturwissenschaftliches Modell für die Abstammung.

Die Blutgruppen waren das erste für erbbiologische Abstammungsgutachten relevante Merkmal, für das die Vererbungsregeln ermittelt wurden. Nachdem Landsteiner1901 das AB0-System der Blutgruppen entdeckt hatte, arbeitete der Wiener Medizineran einem sicheren Blutgruppennachweis (Fabricius 2002).Dieser wurde zuerst imklinischen Bereich verwendet. Für Abstammungsgutachten konnte man den Nachweisder Blutgruppen erst nutzen, als man „ihre lebenslängliche Unveränderlichkeit, ihreVererbbarkeit und den dominanten Erbgang der Agglutinogene A und B“ entdeckt hatteund „zu völlig sicheren Methoden der Feststellung der Blutgruppen gelangt war“ (Reche 1938: 370). Ab Mitte der 1920er Jahre wurden die Blutgruppen für Abstammungsgutachten verwendet. Der Berliner Arzt Fritz Schiff führte seit 1924 die ersten Blutgruppengutachten in Fällen strittiger Vaterschaft für deutsche Gerichte durch (Schiff1926).Parallel wurden in Wien 1926 erste gerichtliche Blutgruppengutachten (kombiniert mit einer biometrischen Untersuchung) vom Landgerichtsrat in Auftrag gegebenund von Otto Reche durchgeführt (Kröner 1999: 258; Harrasser 1957: 9).Zu Anfangwiesen die Juristen die Blutgruppengutachten zurück, denn die Biologen selbst warennoch skeptisch, wie sicher die Feststellung der Blutgruppe sei. Auch war die Nutzung

143

142Maxine Saborowskider Gutachten nur in wenigen Fällen möglich: Wie Schiff betonte, können sie nur inwenigen Fällen überhaupt Ergebnisse liefern, da oft die Konstellation von Mutter undKind keine Vorhersage über eine bestimmte oder eine unmögliche Konstellation miteinem Vater erlaubt. Nur bei ca. 15 bis 25 Prozent der Familienkonstellationen könneman die Blutgruppenmerkmale des Vaters so eindeutig vorhersagen, dass ein Gutachtensinnvoll sei (Schiff 1926: 367 bzw. 371; Kröner 1999: 257). Schiff ist daher beim Einsatz der Gutachten und bei der Aufklärung unter Juristen sehr vorsichtig gewesen. Reche (1938: 371) beschreibt: „Die Juristen lehnten zunächst fast einstimmig die Blutgruppenmethode als gerichtliches Beweismittel ab.“ Mehr und mehr aber wurden dieExpertengutachten in das Rechtssystem integriert. In einem Urteil des Berliner Kammergerichts vom 4. April 1930 wurde, so Reche (1938: 371), der „Beschluss [gefasst],daß man die Beweiskraft der Blutgruppenprobe nicht mehr verneinen dürfe. // Seitdemwird in Deutschland der Blutgruppenprobe eine größere Beweiskraft zugebilligt alseinem Eide.“Österreich folgte kurz darauf:

Innerhalb von fünf Jahren war aus einem neuen Verfahren, einem zusätzlichen undumstrittenen Hilfsmittel in der Beweisführung, ein anerkanntes und sogar als notwendigvorausgesetztes Beweismittel geworden: Die erbbiologischen Expertengutachten hattenihren festen Platz in den Verfahren zu Vaterschaftsfragen eingenommen. Es gab weiterhin intern unter den Gutachtern kritische Stimmen, die die Grenzen der Verfahren betonten. „Die Mehrheit der Anthropologen und Rassenhygieniker stellte aber die neueMöglichkeit, nun auch ihre praktische Daseinsberechtigung demonstrieren zu können,in den Dienst ihrer Professionalisierungs- und Institutionalisierungsinteressen und kamden Anforderungen der Nationalsozialisten bereitwillig und unkritisch nach.“ (Kröner1999: 259)

Im Zuge dieser Institutionalisierung stieg die Nachfrage, und es erfolgte eine Vereidigungspflicht für Gutachter. Der Eid verschwand aus dem Gerichtssaal: Er diente nichtmehr der Beweisführung, sondern der Sicherung der Qualität der Gutachten. Harrasser(1957: 11) schreibt: „in Deutschland nimmt die Zahl der erstellten Gutachten ungefähr 6 1930 erschienen auch die ersten deutschen Richtlinien für die Durchführung dieser Blutgruppengut- achten.

144

Technisierung im Familienrecht143von 1935 an stark zu, die erste Regelung des Gutachterwesens (mit Aufstellung einerSachverständigenliste) erfolgte im Jahre 1936.“

Blutgruppengutachten, die damals auf den zwei Systemen AB0 und MN beruhten,waren vor allem zum Ausschluss von Vaterschaften und weniger für positive Bestätigungen geeignet. Man begann dann, nach weiteren vererbbaren Eigenschaften mit lebenslanger Konstanz zu suchen. Bei vielen Eigenschaften war man sich längere Zeitnoch unsicher, ob sie lebenslänglich stabil sind und ab wann die Eigenschaften bei Kindern endgültig ausgeprägt sind. Breit angelegte Studien erfolgten, die die Erbgänge vonnormalen äußerlichen Eigenschaften bei kinderreichen Familien sowie eineiigen Zwillingen analysierten. Nach Sammlung einer umfassenden Datengrundlage, die sichereAussagen ermöglichte, wurden auch diese Merkmale für erbbiologische Gutachtenverwendet (Hochleitner 1982: 72). Diese Gutachten waren sehr aufwendig und erforderten die Anwesenheit möglichst vieler Familienmitglieder als Vergleichspersonen, wennein positiver Vaterschaftsnachweis geführt werden soll. Erst in fortgeschrittenem Alter,etwa ab dem 3. Lebensjahr des Kindes, ist die Untersuchung möglich, da sich einigeMerkmale erst zu dieser Zeit ausgeprägt haben.

Derartige morphologische Vergleiche hatte man früher nur genutzt, wenn das KindMerkmale einer anderen Rasse (z.B. eine dunkle Hautfarbe) aufwies, was nicht von denehelichen Eltern kommen konnte. „Man hat sich damit lange begnügt und ist merkwürdigerweise nicht auf den Gedanken gekommen, auch familiengebundene Erbmerkmalefür einen Abstammungsnachweis auszuwerten“, kommentierte Reche diese Entwicklung (1938: 370). Konkret wurde für die Gutachten

Da die Blutgruppenmerkmale klar voneinander zu unterscheiden sind und ihre Vererbungsregeln früh bekannt waren, waren die serologischen Gutachten die Vorreiter imBereich der erbbiologischen Gutachten: Sie haben die Rechtsprechung davon überzeugt,dass erbbiologische Gutachten sicher sind (Harrasser 1957: 10). In der Praxis wurden

145

144Maxine Saborowskidie äußeren und die Blutgruppenmerkmale in Kombination miteinander untersucht. DenZusammenhang und die besondere Leistungsfähigkeit beider Typen von Gutachtenbeschreibt Reche folgendermaßen:

In der Zeit des Nationalsozialismus stagnierte die weitere Erforschung der Blutgruppenmerkmale in Deutschland und Österreich. Zum einen hatten viele jüdische Ärzte andiesem Thema gearbeitet – auch Schiff war Jude – und konnten ihre Forschung aufgrund der politischen Verhältnisse nicht mehr fortsetzen. Zum anderen haben Rassenbiologen die Aussagekraft von Blutgruppengutachten zurückgewiesen, weil es keineMöglichkeit gab, die Rassenzugehörigkeit über das Blut nachzuweisen. Dies konntendie morphologischen Gutachten leisten.Man kombinierte also bei gerichtlich beauftragten Abstammungsgutachten beide Methoden, denn man wollte bei der Vaterschaftsbegutachtung die Reinheit der Rasse mit überprüfen.Dies war allerdings im Hinblickauf die jüdische „Rasse“ gar nicht möglich: Zwar wurden in Österreich die Möglichkeiten der wissenschaftlichen und objektiven Begutachtung der Abstammung durch Anthropologen sehr gewissenhaft weitererforscht. „Bei den in der Regel vorliegenden Fragennach einer ‘jüdischen Abstammung’ waren aber keine rassenanthropologischen Merkmale zu objektivieren, da sich die deutschen Juden äußerlich nicht vom Rest der Bevölkerung unterschieden.“Die Konstellation war meistens: Ein Mann galt als Halbjude 9 Reche unterscheidet hier begrifflich zwischen serologischen und (erbbiologisch-) anthropologischen Methoden der Begutachtung, Harrasser fasst beide – die Untersuchung der Blutgruppen- und der äuße- ren Merkmale – unter den allgemeinen Begriff der erbbiologischen Gutachten zusammen. 10 Ein großer Teil der Literatur über diese erbbiologischen Abstammungsgutachten ist von Autoren verfasst worden, die Anhänger einer faschistischen Rassenhygiene waren (z.B. Reche und von Ver- schuer) oder die später diese Autoren unkritisch aufgenommen haben (z.B. Harrasser). Zur Geschichte des erbbiologischen Ähnlichkeitsvergleichs in Deutschland und Österreich in der Zeit des Nationalsozi- alismus vgl. Kröner 1999. 11 Vgl. Mayer/Müller, Der Standard vom 17./18.04.2010; ferner: Rücker 1938. Schiff wies 1926 auf ein Verfahren hin, in dem das Gericht die russische Rassenzugehörigkeit des Kindes hinterfragt hat, und vermerkte, dass Blutgruppengutachten hierzu keine Aussage treffen könnten. 12 Kröner 1999: 259.

146

Technisierung im Familienrecht145mit deutscher Mutter und wollte beweisen, dass sein jüdischer Vater aber nicht seinleiblicher Vater sei, sondern dass er ein uneheliches Kind seiner Mutter sei. Oft lebteder Vater gar nicht mehr und man hatte nur Fotos für die Begutachtung zur Verfügung.Diese Form der Begutachtung war auch unter den Gutachtern selbst umstritten: EinigeAnthropologen entzogen sich der Forderung zu begutachten, indem sie „aufgrund der inder Regel mangelhaften Faktenlage“ ablehnten (Kröner 1999: 263).

In Deutschland ließ der Reichsjustizminister 1936 in einer Verordnung verlauten,dass die rassenkundlichen Gutachten sehr relevant seien, und in der Folge wurden inden deutschen gerichtsmedizinischen Instituten viele Gutachten angefordert. Rechebetont:

Bis dahin bestand nämlich das Problem, dass man niemanden zur Entnahme einer Blutprobe oder zum Erscheinen bei einem Untersuchungstermin zwingen konnte, wenn erbzw. sie nicht wollte. Ein Verfahren konnte also an der Weigerung der Beteiligtenscheitern. Dies wollte man natürlich bei den behördlich angeordneten rassekundlichenGutachten in Vaterschaftsfeststellungsverfahren vermeiden – insbesondere angesichtseines anderen neuen Gesetzes von 1938, das dem Staatsanwalt das Recht auf eine behördliche Anfechtung der Vaterschaft verlieh, „wenn es im öffentlichen Interesse oderim Interesse des Kindes lag.“ (Kröner 1999: 260)

Abschließend sei nochmals darauf hingewiesen, dass bei der Entwicklung der Blutgruppen- und der morphologischen Gutachten nationalsozialistische Interessen an derKlärung der Rassenzugehörigkeit eines Kindes eine sehr große Rolle spielten. DieseInteressen haben mit dazu geführt, dass die Gutachten gesetzlich anerkannt und schließlich gar erforderlich gemacht wurden. Zwar war die jüdische Rassenzugehörigkeit garnicht wissenschaftlich prüfbar, wie mit Verweis auf Kröner und Schiff beschriebenwurde. Da jedoch die humanbiologischen Gutachter sehr um die Professionalisierungihrer Arbeit bemüht waren, haben viele auch die wissenschaftlich nicht beantwortbarenAufträge angenommen (vgl. zur „Integration der Humanwissenschaften in eine rassistische Vernichtungspolitik“ auch Raphael 1996: 185). So wurde das Gutachterwesenformalisiert und es wurden Gutachten produziert, obwohl teilweise nicht klar war, wie

147

146Maxine Saborowskidie Ergebnisse zustande gekommen sind. Die große Nachfrage nach – rassekundlichen –Abstammungsgutachten in der Zeit der nationalsozialistischen Herrschaft war alsomaßgeblich für die Verankerung dieser Gutachten im deutschen Rechts- und Gerichtswesen. Zugleich aber sind die Gutachten nicht bloß ein Resultat dieser Herrschaft: Entwickelt hatten sich die Forschung und die Verfahren auch schon vor der gegenseitigenAnnäherung von Gutachtern und Juristen bzw. nationalsozialistischer Verwaltung.

Es lässt sich sowohl auf Seiten der Juristen als auch auf Seiten der Mediziner bzw.Biologen zu Beginn des 20. Jahrhunderts eine Annäherung oder auch Mischung desjuristischen Konzepts von Verwandtschaft und des biologischen Modells von Abstammung beobachten. Der Mediziner Schiff vergleicht in seinem Text von 1926 den altenRechtssatz zur Vaterschaft mit den aktuellen naturwissenschaftlichen Erkenntnissen:„Der alte Rechtssatz ‘Pater semper incertus’, der dem Juristen als ein unabänderlichesNaturgesetz erscheint, ist für uns Mediziner nur der Ausdruck unzulänglicher erbbiologischer Kenntnisse.“ (Schiff 1926: 375) Verwechselt hat Schiff dabei, dass es „demJuristen“ um eine andere Art von Verwandtschaft geht als die Blutsverwandtschaft, dieer nachprüfen konnte. In der Diskussion um dasBürgerliche Gesetzbuch für das Deut- sche Reich(BGB), das zum 1. Januar 1900 in Kraft getreten ist, wird anerkannt, dassdie Zeugung innerhalb und außerhalb der Ehe der gleiche Vorgang sei. Damit rückendie Vaterschaftsvermutung gegenüber dem Ehemann und die Suche nach dem Vatereines unehelichen Kindes auf eine Ebene. Im ersten Entwurf zum neuen BGB (1888)äußerte einer der Autoren Folgendes:

Begrifflich bietet die juristische Sprache noch genügend Differenzierung, um zwischendem „natürlichen Begriff der Verwandtschaft“ bzw. der „Blutsgemeinschaft“ und derzivilrechtlichen „Familienverbindung“ zu unterscheiden. Festzuhalten ist aber, dass die 13 Es wäre daher sehr interessant, als Vergleich die gerichtliche Etablierung der Abstammungsgutach- ten in einem europäischen Nachbarland zu untersuchen. Dabei hat man es in einem anderen Land oft auch mit einer anderen Rechtstradition zu tun: In Frankreich war im Code civil die Ausforschung der Vaterschaft verboten, daher trafen Vaterschaftstests im 20. Jahrhundert auf eine andere Vorgeschichte. In England herrschte mit dem common law eine strukturell ganz andere Rechtstradition als in Kontinen- taleuropa. Daher wäre es weniger ein Vergleich als vielmehr eine andere Rechtsgeschichte und eine andere Technisierungsgeschichte.

148

Technisierung im Familienrecht147Juristen auf diese Differenzen aufmerksam gemacht haben, da ein Arzt wie Schiff manche Rechtssätze für überflüssig erklären wollte, weil er mit naturwissenschaftlichenBeweismöglichkeiten genauer urteilen zu können glaubte. Zugleich waren es die Familiengerichte, die Gutachten in Auftrag gegeben und damit die Weiterentwicklung angetrieben haben. Auf der verfahrenstechnischen Ebene ändert sich also das rechtlicheModell von Verwandtschaft. 4. Humangenetische Abstammungsgutachten im 21. Jahrhundert:Vom Gericht in den Alltag

In den 1990er Jahren ermöglichten die Entdeckung und die Nachweisbarkeit von genetischen Polymorphismen-Vererbungssystemen einen direkten genotypischen Vergleichvon Verwandten.Durch diese Entdeckung entstanden der genetische Fingerabdruck inder Forensik sowie die neuen Abstammungsgutachten – der genetische Vaterschaftstest.Es können verschiedene Körperzellen oder sogar Zellfragmente verwendet werden,weshalb eine Blutabnahme entbehrlich ist. Daher kann auch aus wenigen Hautschüppchen ein genetischer Fingerabdruck gewonnen werden, was besonders für die Forensikvon Bedeutung ist, aber auch die heimliche Beschaffung von Proben für einen Vaterschaftstest ermöglicht. Blutgruppengutachten dagegen haben zur Voraussetzung, dassrelativ frische Blutproben der zu prüfenden Personen vorliegen.

Die genetischen Abstammungs- und Identifikationsgutachten nutzen die nichtcodierenden Abschnitte der DNA. Wie die gesamte DNA werden auch die nichtkodierenden Bereiche aus dem mütterlichen und väterlichen Erbgut zusammengestellt.Ihre Zusammensetzung ist also erblich (Fabricius 2002: 378). Die Regeln der Vererbung, auf denen die Blutgruppensysteme wie auch die genetischen Testsysteme beruhen, erlauben die Berechnung der Wahrscheinlichkeit für eine direkte Vererbung, alsofür eine Verwandtschaft ersten Grades. Jeder Erbgang weist eine unterschiedlich hoheWahrscheinlichkeit auf, bestimmte Erbgänge können sogar ausgeschlossen werden.Dazu sind auch bevölkerungsstatistische Erkenntnisse sehr wichtig, denn Polymorphismen bestimmter Merkmale treten in manchen Bevölkerungen häufiger auf als in anderen – diese Verteilung zu kennen macht das Ergebnis eines individuellen Vergleichs ineinem System mehr oder weniger aussagekräftig. 14 Hier wird nur die direkt für die Geschichte der genetischen Abstammungsgutachten relevante Ent- wicklung der Humangenetik geschildert. Zum komplexen Kontext vgl. Lily Kay, Das Buch des Lebens (Kay 2005). 15 Die Gutachter greifen auf Datenbanken wie die der Universität Düsseldorf (Institut für Rechtsme-

149

148Maxine Saborowski

Für Gutachten nach den aktuellen Richtlinien sind mindestens vier Ausschlusskonstellationen in einem Blutgruppen- oder genetischen System erforderlich, um zudem Ergebnis zu kommen, dass die Vaterschaft ausgeschlossen werden kann. Fernermuss ein zweiter Test mit dem gleichen Untersuchungsmaterial erfolgen. Ist das Ergebnis ebenso negativ, so wird die „kombinierte Allgemeine VaterschaftsChance (AVACH)“ berechnet, die „mindestens 99,999 % betragen“ muss (GEKO2012: 5).

Auch ein positiver Nachweis einer Verwandtschaft ersten Grades, zum Beispiel einer Vaterschaft, muss mit mehreren Konstellationen (Untersuchung von mindestens 15STR-Systemen) und mit einer Mindestwahrscheinlichkeit von 99,9 Prozent bewiesenwerden: „Ein W[ahrscheinlichkeits]-Wert ≥99,9 % […] oder analoge statistische Maßzahlen entsprechen dem verbalen Prädikat ‘Verwandtschaftshypothese praktisch erwiesen’.“ (GEKO 2012: 7) Es gibt also keinen positiven wissenschaftlichen Beweis, denndie Vaterschaft kann stets nur mit an Sicherheit grenzender Wahrscheinlichkeit nachgewiesen werden. Daher weist Grün (2003: 192) darauf hin, dass verbale Prädikationenwie „praktisch erwiesen“, mit denen die Sachverständigen ihre Abstammungsgutachtenzusammenfassen dürfen, von Richtern mit Vorsicht zu behandeln seien. Letztlich müssen die Richter die Gesamtheit der vorgebrachten Beweise und Umstände würdigen unddaraus eine Entscheidung fällen. Dadurch wird die formale Unabhängigkeit der juristischen Entscheidung von den Expertengutachten betont.

Neben den privaten Laboren gibt es auch öffentliche Institute, zum Beispiel universitäre Institute für Rechtsmedizin, Humangenetik oder Blutgruppenforschung, die Vaterschaftstests anbieten. Die Zahl der gerichtlich beauftragten Tests hatte in Deutschlandim Jahr 2000 ihr Maximum erreicht, mit bis dahin etwa 15.000 Tests jährlich, danachgab es nur noch ungefähr die Hälfte (Orel 2008: 17). Die private Nachfrage nach genetischen Vaterschaftstests hatte im Jahr 2003 ihren Höhepunkt.Orel (ebd.: 18 ff.) vermutet, dass zu Anfang ein gewisser Nachholbedarf vorlag und die Nachfrage gesunken ist,nachdem dieser Bedarf gedeckt war. PCR Polymorphisms – a Worldwide Database“. http://www.uni-duesseldorf.de/WWW/MedFak/ Sero- logy/dna.html (16.01.2011). 16 Zur großen Popularität der Tests haben auch zahlreiche Fernseh-Shows beigetragen, die den Fami- lien die Ergebnisse von Vaterschaftstests vor laufender Kamera verlesen haben.

150

Technisierung im Familienrecht149 5. Richtlinien und Regelungsversuche auf verschiedenen Ebenen Im Jahr 2002 haben einige Sachverständige für Abstammungsgutachten aus den öffentlichen Instituten gemeinsam mit Vertretern der Bundesärztekammer und dem RobertKoch-Institut die amtlichen „Richtlinien für die Erstattung von Abstammungsgutachten“ aktualisiert. Darin haben sich die Sachverständigen verpflichtet, keine Tests ohneIdentifikation und Einverständniserklärung aller Familienmitglieder durchzuführen.Wer Vaterschaftstests ohne Einwilligung aller untersuchten Personen durchgeführt hat,handelte zu dieser Zeit gegen die Richtlinien, was aber noch keine Straftat darstellte, daman sich in einem rechtsfreien Raum bewegte: Der Status der Richtlinien und damitihre Geltungswirkung war umstritten. Seit Inkrafttreten des Gendiagnostikgesetzes imJahr 2010 ist es bei Strafandrohung verboten, Tests ohne vorherige Information undEinwilligung aller Beteiligten durchzuführen. Schon 2008 wurde in dem neuen „Gesetzzur Klärung der Vaterschaft unabhängig vom Anfechtungsverfahren“, § 1598 a BGBfestgelegt: Bei gerichtlich genehmigten Tests muss die Probenentnahme durch einenArzt erfolgen, der die Identität der Personen feststellt.

Seit Juli 2012 gibt es die neue Richtlinie der Gendiagnostik-Kommission (GEKO),die die „Anforderungen an die Durchführung genetischer Analysen zur Klärung derAbstammung und an die Qualifikation von ärztlichen und nichtärztlichen Sachverständigen gemäß § 23 Abs. 2 Nr. 4 und Nr. 2b GenDG“ beschreibt. Die Sachverständigenmüssen seit Februar 2011 eine Akkreditierung vorweisen, diese stellt inzwischen dieDeutsche Akkreditierungsstelle (DAkkS) aus. Zuvor gab es eine unabhängige „Kommission zur Feststellung der Qualifikation von Abstammungsgutachtern“ (KFQA), dieauf Antrag die wissenschaftliche und praktische Qualifikation eines Sachverständigenüberprüfte. 6. Informelle Technisierung im Familienrecht

Ausgehend von den gerichtlich beauftragten Gutachten in Vaterschaftsfragen, breitetensich die genetischen Vaterschaftstests Ende des 20. Jahrhunderts in den privatenGebrauch aus: Das Wissen um die Abstammung wurde bezahlbar, leicht verfügbar undinteressant. Eine Technik, die für gerichtliche Zwecke entwickelt wurde, wird überwiegend privat in Anspruch genommen. Dies dient vielleicht der Vorklärung, ob ein gerichtliches Verfahren überhaupt sinnvoll wäre, oder auch dem Stillen der Neugier. Faktist jedenfalls, dass die Vaterschaftstests von gerichtlichen Verfahren völlig unabhängigdurchführbar sind und durchgeführt werden. Einige Fragen schließen sich an: WelcheFunktion hat dieses Beweismittel im privaten Raum? Dient es den Privatpersonen dazu,

151

150Maxine Saborowskidie Entscheidungsautorität des Familienrichters zu übernehmen und selbst über denFortbestand bzw. die Neuordnung der Familie zu urteilen? Hat sich eine juristischeTechnik, das Gutachten, hier unbemerkt in den allgemeinen und privaten Gebrauchausgebreitet? Diese „Privatisierung“ der Tests kann sehr gut als informeller Effekt charakterisiert werden.

Zu beachten ist, dass durch die „Privatisierung“ des Beweismittels ‘Vaterschaftstest’eine zunehmende praktische Vermischung der zu unterscheidenden Konzepte von biologischer, sozialer und rechtlicher Vaterschaft zu beobachten ist: Wenn ein Mann erfährt, dass der Vaterschaftstest die Möglichkeit einer Vaterschaft ausschließt, ist ermeist nicht mehr bereit, für dieses „fremde“ Kind Unterhalt zu zahlen oder mit ihm zuleben. Aber die Unterhaltspflicht ergibt sich aus der rechtlichen Vaterschaft, die trotzdes neuen Wissens um die fehlende biologische Abstammung weiter besteht. Auch diesoziale Vaterschaft, die auf praktischer Verantwortung und dem Zusammenleben gründet, ist eine Ebene der Entscheidung, nicht der Biologie. Erst eine erfolgreiche gerichtliche Anfechtung kann die rechtliche Beziehung beenden, und eine Entscheidung für eineTrennung beendet die soziale.

Ein Vaterschaftstest war zu Zeiten der großen Nachfragewelle um 2003 leicht gemacht, heute ist er nur wenig aufwändiger: Das Testkit bestellte man per E-Mail. Dannsammelte man zu Hause Mundschleimhaut der Familienmitglieder und schickte sie insLabor. Für den Test zahlte man etwa 250 Euro. Das Ergebnis kam per Post. Das bedeutet: Kein Antrag, keine Fristen, keine Gründe. Man musste nicht an einen bestimmtenOrt gehen; man war nicht auf einen Arzt angewiesen; man brauchte nicht viel Geld;man musste das Interesse an der Abstammung höchstens den Angehörigen erklären,keinem Gericht; und das Ergebnis lag dann im Briefkasten. Das lief alltäglich, unauffällig und harmlos. Nicht so harmlos ist allerdings die Wirkung, die das Testergebnis haben kann. Dem Vorliegen oder Fehlen der Abstammung wird eine ungeahnte Bedeutung beigemessen. Die Beziehung zur Partnerin, zu den Kindern wird hinterfragt undauf eine neue Grundlage gestellt. Wenn gemeinsam gelebte Beziehungen im Vergleichmit der biologischen Abstammung nicht mehr in ihrer Bedeutsamkeit artikuliert werdenkönnen, hat dies auch biografische und familiengeschichtliche Effekte. Unmerklichgeschieht hier eine Veränderung dessen, worauf Vaterschaft gegründet wird. Nichtmehr die rechtliche oder soziale Verantwortung, die für ein Kind übernommen wurde,„zählt“, sondern die Abstammung, die mit einem Vaterschaftstest nachgewiesen oderausgeschlossen werden kann. Das geht so weit, dass nun „biologische Väter“ Rechtebekommen sollen – für das Familienrecht eine sehr ungewöhnliche Konstruktion. Siekann als Technisierung verstanden werden, insofern nämlich die Abstammungsgutachten Verwandtschaft auf eine eindeutige Form gebracht haben, die in bestimmtem Sinne

152

Technisierung im Familienrecht151greifbarer ist als das, was Vaterschaft im Recht eigentlich bedeutet: Eine Beziehung, dievon gegenseitigen Rechten und Pflichten geprägt ist und auf Verantwortung und Vertrauen beruht. Dafür muss dem Vater bzw. der Familie ein Freiraum gelassen werden,der nun durch die Formalisierung der Abstammung scheinbar überflüssig, faktisch abereingeschränkt wird. Das hat auf verschiedene Bereiche des Rechts eine Wirkung, z.B.auf das Umgangsrecht für „biologische Väter“.

Es stellt sich die Frage, wie sich hier die Kennzeichnung der Veränderungen als (informelle) „Technisierung“ von der vielfach zu findenden Beschreibung als „Biologisierung“ (des Rechts, der Familienbeziehungen etc.) unterscheidet. Die Begriffe hebenunterschiedliche Aspekte hervor. Von „Biologisierung“ zu sprechen ist spezifischer,insofern als die Richtung der Formung konkret bezeichnet wird: „Familie wird nichtmehr sozial definiert, sondern als biologische Einheit“. Der Vorteil des Begriffs derTechnisierung liegt demgegenüber darin, dass er ergebnisoffen ist und auch inhaltlichscheinbar widersprüchliche Effekte als ErgebnisseeinesTechnisierungsprozesses zubeschreiben erlaubt. Zur Technisierung im Familienrecht könnten damit auch Effektewie die Verrechtlichung des Biologischen (also Rechte für „biologische Väter“) gezähltwerden, also etwas, was über eine „Biologisierung“ noch hinausgeht.

Die Prozesshaftigkeit der Technisierung kann daran abgelesen werden, dass überLeit- und Richtlinien, Qualitätsstandards, freiwillige oder notwendige Akkreditierungund dergleichen – also auf einer Qualitäts- und Prozess-Sicherungs-Ebene – ständigdiskutiert und reguliert wird. Hier gibt es scheinbar jährlich neue Bündnisse und Zerwürfnisse zwischen dem Bundesverband, der Arbeitsgemeinschaft der Sachverständigen, dem Robert-Koch-Institut und der Bundesärztekammer sowie neuerdings der Gendiagnostikkommission (GEKO). Auch die Zuständigkeit für die früher freiwillige undinzwischen vorgeschriebene Akkreditierung der Labore bzw. der Sachverständigen hatgewechselt: Von 2004 bis 2011 war es die „Kommission zur Feststellung der Qualifikation von Abstammungsgutachtern“ (KFQA), seit 2012 ist es die „Deutsche Akkreditierungsstelle“ (DAkkS). Mit diesen Normierungsbestrebungen sichert sich das Recht ab:Es reguliert fortwährend neu die Vorschriften für die Erstellung von Gutachten und dieQualifikation oder Weiterbildung der Gutachter, um sicherzustellen, dass die Vaterschaftstests, die vor Gericht verfahrensentscheidende Beweismittel darstellen, vomAblauf und von der Qualität her nicht angefochten werden können. Ebenso versuchtman, das Grundrecht auf informationelle Selbstbestimmung durch die Regulierung derTests zu schützen und die Durchführung von Tests im Detail zu kontrollieren. Dabeientsteht der Eindruck, dass diese Regulierungsversuche der Technisierung hinterherlaufen, dass jede Richtlinie aufs Neue versucht, die Regeln der flexiblen Technik zu definieren, die sich unterdessen doch schon wieder ändert.

153

152Maxine Saborowski

Was im Rahmen dieser Regulierungsbemühungen unter den Tisch gefallen ist, isteine Diskussion darüber, wofür private Vaterschaftstests eigentlich benutzt werden oderauch nicht benutzt werden sollten und in welcher Relation das Testen und das Wissenüber die Abstammung zu den Familienbeziehungen und dem familiären Vertrauen steht.Hier zeichnen sich Effekte ab, die beobachtet und diskutiert werden sollten. Ergebnisseeiner solchen Diskussion könnten eine Orientierung für die aktuelle Gesetzgebung geben, wenn soziale, biologische und rechtliche Vaterschaft differenziert und teilweisegegeneinander angerechnet wird.

Literatur

154

Technisierung im Familienrecht153

155

154Maxine Saborowski

156

Die Frage nach dem Trauern scheint von technikphilosophischen Problemstellungenweit entfernt. Dennoch möchte ich den Umgang mit dem Sterben und mit den im Todeines Menschen erlebten Verlusten unter dem Gesichtspunkt von Technisierungsprozessen betrachten. Man mag die Rede davon, dass hier „Techniken“ am Werk sind, alsvage Analogie auffassen. Tatsächlich beschränke ich meine Überlegungen auf die durchdie Trauerpsychologievorgenommene begriffliche Modellierung von Einstellungen zumSterben, auf einen Diskurs also, der Trauerpraktiken formen soll. Wie die Umsetzungtrauerpsychologischer Programme praktisch bewerkstelligt wird, wäre ein gesondertesThema. Wir können freilich davon ausgehen, dass es diese Umsetzung durch Behandlungen erstens gibt und dass sie zweitens bis heute in hohem Maße durchdrungen istvon den begrifflichen Angeboten, von denen ich sprechen möchte. Wenn das Trauerneine psycho- und sozialtechnische Seite hat, so ist der Diskurs über ‚richtiges‘ und ‚gutes‘ Trauern in hohem Maße selbst bereits Teil dieser Technik: Das Trauern selbst wieauch der Umgang mit Trauernden vollziehen sich in hohem Maße sprachlich und werden, wenn überhaupt, dann mit diskursiven Mitteln wirksam. Trauerbeistand, Trauerkurse, Therapien Trauernder behandeln allenfalls indirekt den Körper. Entspannungsübungen, Massagen, Pharmaka mögen zum Einsatz kommen. Eigentliches Medium desTrauerns und des Umgangs mit Trauernden ist jedoch das Ringen um Worte – vominneren Monolog über die tastende Suche nach Ausdrucksmitteln bis zur Verhaltensanweisung. Und ein besonderer Glaube an eine direkte und auch eine steuernde Wirksamkeit von Worten gehört zu Praktiken des Trauerns hinzu.

Mit der Annahme einer für Trauerdiskurse anschlussfähigen und auch ausbaufähigen Technizität des Trauerns bewege ich mich so zwar gewissermaßen am äußerstenmetaphorischen Rand des Konzeptes der Technisierung. Trotzdem kann man, das sollim Folgenden deutlich werden, im Zusammenhang mit dem Trauern von Technik undim Zusammenhang mit trauerpsychologischen Diskursen von Technisierung reden.Allerdings geht es eben nicht um irgendwelche Gerätetechnik, die etwa am Sterbebettzum Einsatz käme, und es wird auch nicht beispielsweise die pharmakologische Ein-

157

Petra Gehringflussnahme auf das Sterben oder auf Trauerzustände thematisiert. Vielmehr geht es mirtatsächlich um Diskurse, welche auf die Erlebensperspektive und den auf das Erlebenabgestimmten Umgang der Beteiligten mit der Trauer abzielen. Hier skizziere ich einenmit der Entstehung der Sterbepsychologie der 1970er Jahre beginnenden Umbau – undeine Neuformung des Soseins von Sterben und Trauer selbst. Diese Neuformung lässtsich sicher nicht als die Ersetzung eines „Natürlichen“ durch etwas Artifizielles beschreiben. Sie kann aber doch – wenngleich im diffusen Großmaßstab einer verändertensozialen Praxis – als „produktive“ Erfindung in einem technischen Wortsinn betrachtetwerden. Und auch als „Leistung“, welche in einem Feld hoher Komplexität die Merkmale der Standardisierung, Simplifizierung und Trivialisierung verwirklicht sowie etwas „technisch“ verlässlich herstellt und (abrufbar) bereitstellt.

Dass von „Technik“ und gleichwohl von Sachverhalten die Rede ist, die allein dasintersubjektive Gebaren und das Gefühlsleben betreffen, macht die Betrachtung begrifflich schwierig. Verfremdungseffekte sind unvermeidlich, da ich gerade nicht bei der ausmeiner Sicht wenig hilfreichen Rede von „Sozialtechniken“ bleiben will und auch nichteinfach die an den Machthistoriker Foucault angelehnte Rede von „Selbsttechniken“übernehmen möchte. Denn es geht mir um Technisierungseffekte, die weniger durch„Ethik“ angeleitet werden als durch einen verwissenschaftlichten und professionalisierten (wenn auch medikalisierungskritischen) Therapiediskurs. Wir haben also eine disziplinarische Gemengelage vor uns: Wo hier vom ‚Ich‘ die Rede ist, wirken immer auchandere auf dieses Ich ein.

Ob der Diskurs, den ich untersuche, tatsächlich im Sinne der Programmatik diesesBandes eine „informelle Technisierung“ anzeigt, ist eine Frage, die ich erst einmal zurProbe stelle. Gleiches gilt für die Frage, worauf die Charakterisierung eines die Gesellschaft entlastenden, psycho- und soziotechnischen Verfahrens als „informell“ genauabzielt. Für Formen sorgen die hier zur Diskussion gestellten Trauerdiskurse ja sehrwohl. Informell erscheint allerdings ihr Auftreten als Begleitung, Beratung und zwanglos helfende Therapie. Und informell sind auch die Effizienzgewinne, die der Trauerdiskurs – als Trauertechnik betrachtet – erbringt, denn als in einem technischen Sinneproduktiv stilisiert sich Trauerpsychologie gerade nicht. 1 Dass Foucaults Konzept der Selbsttechniken grundsätzlich auch für den Problemkreis der Trauer anschlussfähig bleibt, soll damit nicht bestritten werden. Ich plädiere aber für eine gewisse Vorsicht beim Transfer des auf die Selbstführungsliteratur der Antike zugeschnittenen Ansatzes in den Kontext des modernen „Subjekts“; vgl. Gehring 2011, 2012.

158

Technisiertes Abschiednehmen157 1. Trauern und Trauerkonventionen Eine umfassende Kulturgeschichte der Trauer existiert meines Wissens nicht. Zeugnissen der Seelsorge und schönen Literatur wie auch sozialgeschichtlichen Untersuchungen zur Sterbekultur lässt sich aber entnehmen, dass erstens in Europa immer getrauertwurde und dass es sich zweitens um eine gravierende Erfahrung handelt, um eine individuelle Grenzsituation, aber auch um einen kritischen Grenzfall des Sozialen, denn inder Trauer stellt sich die Frage der Teilbarkeit, wer trauert fällt potenziell aus der Gemeinschaft heraus. Allem voran hat Trauer stets dem Verlust eines geliebten Menschengegolten. Betrauert wurde aber auch der erforderliche Abschied beim bevorstehendeneigenen Tod: Trauern gilt zeitlich Vergänglichem, das sich nicht zurückholen lässt. AlsUnterfall solcher Verlusterfahrungen mögen auch Gewissheiten des Misslingens gelten,Einsichten in Nichtwiedergutmachbares, Einsichten in Scheitern. Betrauert wird besiegelte Unmöglichkeit.

Akzeptieren wir für den Moment die formale Bestimmung der Trauer als bedingtdurch tiefgreifenden Verlust. Eine historische Diagnose scheint dann möglich: DasSterben, verstanden als Preisgabe von schlechterdings allem, wie auch das Trauern umGestorbene, also um Menschen, die wir schlechterdings vollständig verloren haben,hatten über sehr lange Zeit den Charakter eines teilbaren, also eine ganze Gemeinschaftereilenden und zu mehreren gelebten Kummers. Dem entsprach zweitens die Grundvorstellung, dass die Trauer für Trauernde bedeutet, von etwas erfasst zu werden – voneiner „finsteren Wolke“, einem schlimmen Zustand, einem Schmerz. Sie ist eine Passion, keine Aktivität. Zugleich gilt die Trauer als schlecht, als etwas, das weichen soll, imchristlichen Mittelalter gilt sie zeitweilig sogar als Sünde (vgl. Hühn 1998). Wenn dieTrauer zu etwas gut ist, dann etwa dazu, Treue und Liebe auszudrücken sowie den Zusammenhalt einer Gemeinschaft, die nicht zuletzt den Hinterbliebenen Rückhalt gibt.Das Motiv des Ausdrucks trauernder Innerlichkeit in grenzenloser Hingabe an die Trauer wurde an der Schwelle zur Moderne wichtiger und durch die Romantik pathetischüberhöht. Ansonsten gilt es weiterhin, zwar angemessen zu trauern, vor allem aber dieTrauer zu überwinden. Traditionell sorgten hierfür schlicht Fristen. Die Zuweisungeiner Trauerrolle folgt einer Konvention, aufgrund derer das Trauern irgendwann definitiv sein Ende zu finden hat. Auch Trauerkleidung wird für eine festgelegte Zeit getragen. Trauerzeit herrscht damit als in festen Grenzen zuerkannter Sonderzustand. Mitdessen Ende steht pauschal die Rückkehr zum Normalleben an.

Traditionsreiches Paradigma des Sterbens wie auch des Trauerns ist das Abschiednehmen. Phänomenologisch wie auch moralisch legt das Bild des Abschieds wenig fest– man kann sich heiter verabschieden, knapp und hastig oder sogar im Zorn. Der Ab-

159

Petra Gehringschied kann von ritualisierten Übergangsriten begleitet sein und einhergehen mit Verpflichtungen, mit der Weitergabe von Rollen, mit religiös spezifiziertem Erwarten.Ohne auf die diesbezügliche Formenvielfalt einzugehen, können wir festhalten, dass dasSichverabschieden in früheren Zeiten tatsächlich auch ganz handfest die Sterbesituationen bestimmte. Sterbestunden waren tatsächlich Stunden des Abschieds von möglicherweise vielen Personen, die zum Sterbebett gerufen werden, um das Sterbebett sitzen, miteinander und mit dem Sterbenden interagieren, wobei im Angesicht des Todesauch der Sterbende kommuniziert. Rechte und Dinge werden dann noch weitergegeben,Aufträge ausgesprochen, Versprechen abgenommen etc.

Dass mit der Praxis des häuslichen Sterbens – infolge Verlagerung des Sterbens indie Klinik – der soziale Charakter der Sterbesituation geschwunden ist, ist vielfachvermerkt worden. Von einer „Ausbürgerung“ und „Medikalisierung“ des Todes sprechen Philippe Ariès, Ivan Illich und andere sozialhistorische Medizinkritiker der 1960erund 1970er Jahre. Von einer Prüfung für die Gemeinschaft ist der Tod zum einsamenDrama hinter Klinikwänden geworden. Auch die Bestattung verschwindet aus demöffentlichen Raum. Dazu verblasst die ganzheitliche Idee des Todes als Schlag, derjeden treffen kann, als allgemeines Übel, das über der Welt liegt und als ethische Herausforderung, mit der man ‚nun einmal’ lebt, aus der man aber auch täglich neue Kräfteableiten kann. Und man vermisst die alten Bilder der „Ruhe“, die man im Tod erlangenkann (vgl. Ariès 1978). Der Tod verwandelt sich in der Moderne, so die medikalisierungskritische Diagnose, zu einem „gesichts- und gestaltlosen“ Phänomen ohne Würde(Illich 1976: 143), zu einem „verdrängten“, dadurch in vorher nicht gekannter Weise„unheimlichen“ Abstraktum. Und auch die alten Trauerkonventionen sind dahin. 2. Sterbepolitisch engagierte Psychologie

Ich lasse das vorerst so stehen – und gehe zu meiner Fragestellung über. Mein Interessegilt nicht dem, was man in der Sprache von damals dieMedikalisierungnannte, sonderneinePsychologisierungdes Sterbens hätte nennen können. Ebenfalls in den beginnenden 1970er Jahren taucht nämlich ein Diskurs auf, der sich genau auf jenes angeblichausgebürgerte, unsichtbare Sosein des modernen Todes bezieht: der eine mit der Verlagerung des Sterbens in Kliniken einhergehende „Verdrängung“ beenden will und derden Anspruch erhebt, dem Tod einen Platz im Bewusstsein des Einzelnen wie auch imRaum der Gesellschaft zurückzugeben. Es ist ein politisch engagierter, aber auch Wissenschaftlichkeit beanspruchender Diskurs, der pathetisch einfordert, die Sterbenden inden Kliniken nicht allein zu lassen und Medizin zu ergänzen durch Psychologie – wobeies an Wissen fehlt und psychologisches Neuland betreten werden muss. Gefordert wird

160

Technisiertes Abschiednehmen159eine nichtmedizinische (oder jedenfalls nicht konventionell-medizinische) Sterbebegleitung mit einer zweifachen Adresse: Den Sterbenden wie auch ihren Angehörigen gilt essich zuzuwenden, um „Trauerarbeit“ zu leisten. Aus der Taufe gehoben wird hierfürsowohl ein wissenschaftliches Modell als auch eine quasi-therapeutische Praxis.

Der neue Diskurs hat keinen klaren Namen, aber ein klares Entstehungsdatum, nämlich das Jahr 1969, Erscheinungsjahr der StudieOn Death and dying(deutscher Titel Interviews mit Sterbenden), geschrieben von der US-amerikanischen Ärztin ElisabethKübler-Ross. Das Buch wurde in eine Vielzahl von Sprachen übersetzt und ist eines dermeistverkauften Bücher des 20. Jahrhunderts. Umstritten war es immer, auch seinewissenschaftliche Fundierung wurde vielfach angezweifelt und heute hört man vermehrt, es sei ja längst passé. Gleichwohl hat es irreversibel Maßstäbe gesetzt. In derTrauerpsychologie wie auch in der Hospizarbeit bis hin zur ärztlichen Palliativmedizinsind Begriffe und Modelle bis heute durchweg vom Kübler-Ross’schen Vorbild geprägt. Ich komme darauf zurück, stelle aber zunächst das vor, was man die durch Kübler-Ross populär gemachte „Theorie“ jenes neuen psychologischen Diskurses von Sterben und Trauer nennen kann.

Kübler-Ross’ Untersuchung dokumentiert Gesprächsausschnitte mit Patienten, diedas Sterben vor sich haben. Ziel der Interviews ist es, Sterbende in einer möglichstoffenen Form zu Wort kommen zu lassen. Sie sollen ohne Einschränkungen sagen, wassie bewegt. Nur gegen Widerstände des Normalbetriebs im Krankenhaus seien solcheGespräche überhaupt führbar gewesen, wird im Text betont (Kübler-Ross 1969: 27,205 ff.). Das Fragespektrum ist breit. Die Patienten werden nach ihren Erfahrungen inder Klinik gefragt, nach ihrem inneren Umgang mit dem eigenen, ernsten Zustand sowie nach ihren Gedanken und Gefühlen in der Situation des Sterbenmüssens. Die Forschungsfragen, die Kübler-Ross ihrer Auswertung voranstellt, sind im weiteren Sinnesozialwissenschaftlicher Art. Sie lauten: Wie wird heute, unter medikalisierten Bedingungen, im Krankenhaus gestorben? Was wissen wir darüber, wie Sterbende den Toderleben – einen Tod, der womöglich in der Krankenbehandlung verschwindet? Undschließlich: Wie kann der Tod im Krankenhaus „humaner“ werden?

Daneben gewinnt Kübler-Ross aus dem Gesprächsmaterial psychologische Thesenzum Trauererleben. Das Buch postuliert ein fünf-Phasen-Modell, dem die Auseinandersetzung eines Menschen mit Sterben und Tod zu folgen pflegt. Es ist wahrscheinlicheines der bekanntesten psychologischen Theoreme überhaupt. Die erste typische Reak160 2 Eine spontane Umfrage in einer 2009 durchgeführten Fortbildungsveranstaltung für u.a. medizini- sche Doktoranden/innen verschiedener Hochschulen ergab: Wo in der Medizinerausbildung das Thema psychologischer Umgang mit dem Sterben behandelt wurde (dies war an 5 von 6 Universitäten der

161

Petra Gehringtion auf die Gewissheit, dass der eigene Tod in absehbarer Zeit bevorsteht, ist KüblerRoss zufolge ein Nichtwahrhabenwollen und damit verbunden eine Haltung der Selbstisolation. Nein, nicht ich, so lautet der psychische Reflex. Die Betroffenen schieben dasThema von sich und wollen darauf nicht angesprochen werden. Dem folgt eine zweitePhase des Zorns.Die anderen dürfen weiterleben: wie ungerecht!Hier schwingt Neidmit, aber auch eine mehr oder weniger große Menge Aggression. Je nach Gemütslageder Beteiligten bricht diese Aggression auch offen aus. Als eine dritte Phase identifiziertKübler-Ross ein Verhalten, das sie „Verhandeln“ nennt. Die Betroffenen versuchen, imGespräch mit ihrer Umgebung, mit den Ärzten oder – ist Religion im Spiel – vielleichtauch mit Gott kleine zeitliche Spielräume zu erwirken:Wenn ich dies und jenes tue, erhöht sich dann vielleicht die Wahrscheinlichkeit, dass es noch ein bisschen länger dauert, bis es soweit ist? Lass mich noch so lange leben, dass ich den Geburtstag mei- nes Sohnes erlebe. In einer vierten Phase machen sich dann Resignation und Verzweiflung breit. Erst in einer fünften Phase finden Sterbende dann schließlich eine innereZustimmung zur eigenen Lage, gewinnen Ruhe und beginnen in Gelassenheit auf daseigene Leben zurückzublicken. In dieser fünften Phase bereitet sich die sterbende Person innerlich befreit auf das eigene Sterben vor.

Trauer soll ebenso funktionieren. Sind wir betroffen durch das Sterben einer Person,die wir lieben, so machen wir schrittweise, Kübler-Ross zufolge, ganz Ähnliches durchwie die Sterbenden selbst. Das Modell der fünf Phasen gilt somit auch für diejenigen,die mit einem Sterbenden die Zeit bis zum Tod durchleben, sowie für diejenigen, denenjemand (auch plötzlich) gestorben ist. Trauernde erleben ebenfalls eine Zeit des Leugnens, des Zorns, des beschwörenden Verhandelns mit dem Schicksal und der Depression, bevor sie sich der Welt wieder zuwenden können und ihr Verlust in guter Weisebewältigt ist.

Die fünf Phasen sind, so Kübler-Ross, „Verteidigungsmaßnahmen im psychiatrischen Sinn“ (Kübler-Ross 1969: 120). Im Normalfall folgten sie aufeinander, sie könnten sich freilich auch überlappen, Abweichungen in der Dauer seien möglich und insbesondere die Erreichung der fünften Phase könne fraglich sein. Helfen soll daher eine amPhasenmodell orientierte Therapie. Zwar hegten Schwerstkranke, Sterbende und Trauernde während aller Phasen tief im Inneren stets eine verbliebene Hoffnung, welche siezur Gelassenheit hinführen könne. Gleichwohl bedürfe es, so Kübler-Ross, nicht seltenprofessioneller Begleitung, damit Sterbende oder Trauernde nicht im Unglück einerPhase verharren. Entsprechend solle Unterstützung geleistet werden, damit das Loslassen gelingt. Auch Trauernde müssen also „begleitet“ werden – aus den Phasen des Abstreitens, der Aggression, des Verhandelns, der Isolation in eine des Friedens hinein(Kübler-Ross 1969: 151 f.).

162

Technisiertes Abschiednehmen161

Kübler-Ross fordert eine intensive Auseinandersetzung mit dem Tod: Zum Sterbenund Trauern gehört ein Wissen, das man nur durch psychologische Aufklärung unddurch Auseinandersetzung mit der Phasendynamik erwerben kann. Auf der Ebene desMedizinsystems und der Gesellschaft im Ganzen ist eine „Humanisierung“ des Sterbensgefordert. Anfangen allerdings müsse jede und jeder bei sich – und das sei nicht einfach. Denn: „In unserem eigenen Unterbewußtsein können wir den eigenen Tod nichtbegreifen, sondern halten uns für unsterblich“ (Kübler-Ross 1969: 19). Eben diesemFehlurteil aber müssen wir uns stellen. Leugnen wir nämlich die schmerzliche Wahrheit, so verursacht dies Angst und Aggression. Daher gelte es, auf Wunschdenken undVerdrängung zu verzichten: „Vielleicht müssen wir“, heißt es im Text durchaus suggestiv,

Für unser eigenes Leben ist es folglich psychisch und politisch bedeutsam, die fünfPhasen respektieren zu lernen. Eine bloße Geschmackssache ist der kundige Umgangmit den eigenen Gefühlen insbesondere für das Weiterleben von Trauernden nicht, dennwer die Realität des Verlustes eines geliebten Menschen nicht „annehmen“ lernt, wirdseelisch Schaden nehmen. Unterlassene Trauer deformiert die Persönlichkeit, wie überhaupt das reflexhafte Ausweichen vor dem Tod unterschwellig pathologische Züge hat.

Kübler-Ross formuliert auch eine Institutionenkritik: Die Medizin muss sich ändern,die Klinik muss für das Sterben eigene Räume schaffen, es müssen ausgebildete Sterbeund Trauerbegleiter her. Die Diagnose erweitert sich aber zu einer umfassenden Sozialkritik. Eine Gesellschaft nimmt Schaden, die sich der Realität des Todes nicht stellt. Siewird „inhuman“ und riskiert bedenkenlos Menschenleben. Kehrseite der Todesverdrängung sind aggressive Technikentwicklung und namentlich Krieg.

Die große Botschaft vonOn Death an Dyingist folglich eine dreifache: Zum erstenmuss jeder von uns die Konfrontation wagen mit dem eigenen und dem fremden Tod,den Blick abzuwenden ist Verleugnung, Verdrängung, Flucht. Zum zweiten richtet sichder Appell an das Medizinsystem: Professionalisierung ist nötig. Mit der psychologischen Eigengesetzlichkeit des Sterbens gilt es durch Anleitung richtig umzugehen – imWege einer therapieartigen Zuwendung, die vor allem aus hinhörenden Gesprächenbesteht, aber auch interveniert. In der Leugnungsphase muss man geduldig nachhaken,in der Zornphase darf man die Aggressionen nicht persönlich nehmen, in der Verhandlungsphase gilt es zu erkennen, welche situative Bedeutung das Feilschen um kleine

163

162Petra Gehring

Besserungschancen für das Ringen des Sterbenden um inneren Frieden hat. Und in derDepressionsphase darf man den Kontakt zu den Sterbenden nicht verlieren, damit siedie Phase der Zustimmung und des ruhigen Zugehens auf den Tod schlussendlich aucherreichen.

Für Trauerkommunikation und für ein erneuertes Verhältnis zum Sterben plädiertKübler-Ross drittens aus gesamtgesellschaftlichen Gründen. Es sind die Lebenden, diein den Gesprächen mit den Sterbenden bereichert werden, und die Gesellschaft insgesamt wird besser werden, wenn „wir alle“ eine Gelassenheit wiederfinden, welche dasTodestabu der Moderne uns nahm:

Worte wie „Abschiednehmen“ verwendet Kübler-Ross reichlich und überhaupt magman bei der Lektüre vonOn death and dyingdurchaus an Motive der antiken Ethikdenken. Diemeditatio mortisund andere Formen der Konfrontation mit dem Tod warenals Übungen der persönlichen Haltung schon in vorchristlichen Zeiten bekannt. Es gehtKübler-Ross jedoch weniger um ethische Praktiken der Sorge um sich, um die individuelle, sich selbst gewidmete Übung und eigentlich auch nicht um Abschied. Vielmehrgilt es, auf eine objektive innere Dynamik angemessen zu reagieren und vor allem ergebnisorientiert – mit dem Ziel der erfolgreichen Bewältigung eines drohenden Traumas.

On death and dyingrät ja nicht, etwas zu tun, das man auch unterlassen kann. Teufelskreisartig steigert vielmehr die Verdrängung eine Angst, durch welche falschesBewusstsein sich zur Krankheit auswächst. Rebellion gegen das Unabwendbare, unbändiger Wille zum Leben, Weigerung, dem Sterben ins Auge zu blicken: All dies verursacht nicht nur, sondern potenziert gegebenenfalls die unbewusste, unterschwellig wirksame Destruktionsenergie, in welche Furcht, der wir uns nicht stellen, sich verwandelt.Betroffenen die Augen zu öffnen sowie sie sanft zu lenken ist daher legitim. Denn fälligist „Arbeit“, um Schaden abzuwenden, Trauerarbeit. Im Widerstreben der Betroffenen,sich möglichst rechtzeitig und möglichst intensiv „auseinanderzusetzen“, steckt mehr

164

Technisiertes Abschiednehmen163als bloße Unlust. Hier sind destruktive Kräfte der Verdrängung und der Neurose amWerk.

Tatsächlich orientiert sich Kübler-Ross mit dem Modell des Trauerns als Arbeit ohne ihn zu zitieren, jedoch in den Grundmustern erkennbar an Sigmund Freud, von demauch der Ausdruck „Trauerarbeit“ stammt. In dem AufsatzTrauern und Melancholie entfaltet Freud recht präzise, warum diese Wendung, das Trauern sei Arbeit, nicht etwaeine Metapher sein soll. Sie gründe sich vielmehr auf ein energetisches Modell. „Worinbesteht nun die Arbeit, welche die Trauer leistet?“ fragt Freud – und dann folgt einelängere Erläuterung, die ausgeht vom Faktum einer durch das Individuum als unausweichlich erkannten Realität (etwa im Falle eines Verlustes):

Unverkennbar zeigt diese Passage das Trauergeschehen als einen Kampf widerstreitender Kräfte – im Rahmen eines energetischen Gesamtmodells, in welchem von innen her„Hemmungen“ entstehen, solange die Realität noch nicht den Verzicht auf den gewohnten Objektbezug durchgesetzt hat – noch nicht „der Respekt vor der Realität den Siegbehält“, wie es im Zitat heißt. Die Libido muss sich „lösen“, was durch mühsame Überbesetzung und Kompromissbildung gleichsam Stück für Stück zu geschehen hat: Erinnerung für Erinnerung, Erwartung für Erwartung müssen abgetragen werden. Beharren,Sträuben und Realitätsdruck stehen gegeneinander – und wie bei einer Maschine wirddie Antriebsenergie (die Libido), anstatt frei nach außen zu gehen, innerlich gebundenund zeitweilig quasi in falscher Richtung verbraucht. Die Arbeit der Trauer gleicht hiereinem Aufräum- oder Reinigungsvorgang, der Triebe wieder löst und den psychischenApparat in sein normales Funktionieren zurückzuführt. Der Grund, warum die Trauer-

165

Petra Gehringarbeit das Ich zeitweilig, wie Freud sagt, „absorbiert“ (1916: 431), scheint so tatsächlichphysikalischer Natur zu sein: Die an der Realität zutage tretende Hemmung der anachronistischen, aber beharrlichen Objektbindungen muss beseitigt werden. Man mag anein ungewolltes, kompliziertes Stauwehr oder auch eine massiv störende Verkettungvon elektrischen Widerständen denken, welche den Fluss der Libido an der falschenStelle „binden“, verwirbeln und verhindern. Ist umgekehrt die Arbeit an den hartnäckigen Objektbindungen geleistet, kann der Fluss ungehemmt fließen und das Ich wendetsich der Realität wieder zu.

Dass Freuds Energetik des Seelenlebens sich bewusst in der Nähe einer möglichennaturwissenschaftlichen Erklärung hielt, ist bekannt. Die Libido ist in der psychoanalytischen Kur einer sprachlichen Intervention zwar zugänglich, sie ist dennoch aber einquasi-physikalischer Stoff. Wie das genau gehen soll, ist unklar, so blieb Freuds Regulationsmodell bis heute eine vieldeutige Hypothese. Vulgärpsychologische FreudAdaptionen neigen dazu, die Maschinenmetapher zu verwischen, von der die Libidotheorie lebt: Das Grundmodell des teils selbstregulativen, teils auf regulative Interventionen angewiesenen Regelkreises im Inneren eines nicht in puncto Information, aber inpuncto Emotion funktional geschlossenen Apparats. Bei Kübler-Ross sind es die bekannten Wendungen von Druck, Stau, Widerstand, Hemmung, Bindung und Lösung,die auf Freuds Apparate-Vorstellung verweisen. Vor allem aber bindet sie durch diezentrale – und dann auch praktisch wichtige – Rolle des Terminus „Arbeit“ ihre Konzeption der Trauerphasen an die naturalistische Energetik Freuds. Aller Technikskepsiszum Trotz findet sich folglich im Inneren von Kübler-Ross‘ Trauertheorie der Appell anein quasi-mechanisches, an ein physikalistisches und damit im engen Sinne des Wortes technischesRegulationsmodell.

Mir kommt es nicht darauf an, hier gewissermaßen eine heimliche Maschinenideologie zu entlarven. Die Analogie zur nichtmenschlichen Natur, die Psyche als Apparat,ist nicht verwerflich – und wo es um seelische Zwänge geht ja auch naheliegend. DreiPunkte möchte ich aber festhalten, welche die mit dem Regulationsmodell behaupteteProzessstruktur des Trauerns betreffen: Bestimme ich das Trauern als Arbeit und damitals geforderte eigene Aktivität, so hat es erstens eine tendenziell variable Zeitgestalt –oder mindestens eine Zeitgestalt, welche die Frage nach der Art und Weise ihrer Beendigung aufwirft, die Zeit als solche beendet es nicht. Zweitens handelt es sich generellnicht länger um einen Zustand, der über mich kommt, mich erfasst, um mich dann wieder loszulassen, sondern es handelt sich um eine Aufgabe, um ein Projekt. Und drittens 3 Der späte Freud modifiziert seinen Ansatz: der Objektverlust hat weniger eine neuerliche Objektbe- setzung zur Folge als eine Gestaltung des Ichs und Charakterbildung, vgl. Freud 1923: 256.

166

Technisiertes Abschiednehmen165hat die als Arbeit bestimmte Trauer zwar möglicherweise ein soziales Substrat, aber dieBedeutung der Gemeinschaft tritt hinter diejenige der professionellen Assistenz zurück.Primär ist auch für das Trauern die einfache Alternative eines Objekt- oder aber Selbstbezugs. So fehlt der Trauer das Tragische des Ringens um eine direkte Teilbarkeit desErlebens und der Verlusterfahrung, ihr fehlt überhaupt die breite Adressierung. „Verarbeiten“ als Auftrag setzt Individualisierung und Subjektivierung voraus.

Das Modell des Trauerns als Störung und Störungsverarbeitung einer inneren Energetik läuft somit auf einen Bruch mit dem traditionsreichen Paradigma des Abschiednehmens hinaus. Das funktionelle Paradigma einer Arbeit, die auf einen an Bahnengebundenen und also mit einer gewissen „Eigenträgheit“ versehenen Emotionshaushaltverwandt werden muss, passt nicht mit dem alteritätsethischen Topos der Verabschiedung zusammen. Wo im alten Paradigma – Abschied – freimütig und entschieden diePreisgabe eines Vertrauten geleistet werden soll, etwa im Wege eines pathetischen Sichlossprechens, vielleicht eines Entscheidens, vielleicht eines Danks, jedenfalls performativer Aussagen, die nicht zu trennen sind von einer Geste gegenüber jemandem, dahaben wir im neuen Paradigma – Arbeit – kein Pathos des Augenblicks mehr vor uns.Statt dessen einProjekt, und zwar eines, das sich zunächst einmal in der Zeit unbestimmt erstrecken kann und das ohne jeden sozialphilosophischen oder gar ethischenBezug auskommt. Stattdessen richtet es den oder die jeweils „Betroffene“ auf sich selber aus.

Es wäre nun viel zu sagen. Trauer, Zeit und „Anderer“ – wo genau liegt im reorganisierten Dreieck die Brisanz? Was die Zeit angeht: Mir scheinen über JahrhunderteFormen einer Terminierung der Trauer elementar. Der Abschied ist eine Form der Beendigung, vielleicht die Beendigungsgeste schlechthin. Trauerrituale, auch sozialeKennmarken des als Zustand anerkannten Trauerns (etwa die Trauerkleidung oder derTrauerhaarschmuck) besitzen das schon erwähnte typische Merkmal einer feststehendenBefristung. Auch rituelle Formen des trauernden Erinnerns (wiederkehrende Jahrestageetc.) folgen nicht der Eigenzeit eines subjektiven Projekts, sondern der brutalen Weltzeitdes Kalenders. Mit anderen Worten: Im Paradigma des Abschieds kann Trauern wederein seine eigene Prozesszeit entfaltendes noch ein potenziell unendliches Projekt sein.Eben dies – Eigenzeitlichkeit und Unklarheit hinsichtlich des Endes – scheinen mirhingegen wichtige Züge eines als „Arbeit“ bestimmten Trauerns zu sein.

Dazu kommt, dass Trauerarbeit zugleich ‚etwas‘ bearbeitet – auch dies im Gegensatz zum Abschied, einem Modus der zweiten-Person-Perspektive ohne Objektbezug 4 „Subjektivierung“ meint hier die moderne Form einer gedanklich-reflexiven Selbstunterwerfung, die das Ichsagen erst für legitim halten darf, wenn es – idealerweise in Echtzeit – mit einer denkenden

167

166Petra Gehringoder auch einen Ichbezug, der vorrangig wäre. Kübler-Ross legt den Eindruck mindestens nahe, dass für die Trauerarbeit das zu erreichende Ziel zählt: ihr Ergebnis ist dasErreichen der fünften Phase. Bei Freud hingegen gilt die Trauerarbeit wohl einem Verharrenden, das es zu lösen gilt, vielleicht auch neurotischen Widerständen. Ob dabeiaber eine Logik der aufeinanderfolgenden Schritte stimmig denkbar wäre oder gar etwasproduziert wird, bleibt fraglich. Auch Freud spricht von der „Vollendung“ des Trauerns– die Trauerarbeit hält nicht lebenslang an. Dennoch meint Freuds Terminologie nichtArbeit im Sinne von „Werk“ (ergon), sondern Arbeit im Sinne von Aufwand, Verrichtung (energeia). Sie ist nicht durch einen Zielzustand, sondern durch eine den Prozesssteuernde Zielgröße bestimmt.

Es liegt mir fern, die Technizität des Paradigmas der Arbeit als solche moralisch unter Verdacht zu stellen – etwa weil es nicht „human“ sei, die Trauer in die Nähe eineskybernetischen Vorgangs zu rücken. Bemerkenswert ist aber, dass die Figur der Selbstbearbeitung und des Objektverhältnisses den Bezug auf den oder die Anderen vollständig ersetzt. Trauer mag immer ein Stück weit narzisstisch gewesen sein – und Ethikimmer eine Form der Arbeit an sich selbst. Dennoch gleicht Kübler-Ross’ in Phasenaufgeteiltes Projekt der Bewältigungsarbeit eher einem Format der Selbstentfaltung oderSelbstentwicklung, als dass es um Abstandnahme und Loslösung vom Anderen, umGemeinschaft oder um so etwas wie eine radikale Fremderfahrung ginge.

Dass bei Freud und Kübler-Ross ein gewisser Determinismus im Spiel ist, zeigt dieVersäumnisdrohung: die Gewissheit, dass Arbeit nicht liegenbleiben darf, dass sie wartet und dass nichterledigte Trauerarbeit sich rächt sowie gegebenenfalls nachgeholtwerden muss. Hier erst denke ich, nähern wir uns dem Punkt, der es tatsächlich erlaubt,im Zusammenhang mit der Trauerpsychologie von einer Technisierung zu reden. Deroder die Trauernde wird ‚in Gang gesetzt‘, sofern allein ein bestimmtes Schema derEigenarbeit aus der Trauer herausführt, wobei – alles andere wäre Verdrängung – dieTrauerarbeit erst einmal in die Trauer hineinzugehen hat, um dann auf geordnete Weiseherauszuführen. 4. Trauern als produktive Leistung

Auch Trauerpsychologie heute pflegt die Warnung vor dem Rückfall und der Pathologie. Die einschlägige Literatur bedient sich sanfter Beratungsprosa. Aktuelle Arbeitenwerden in puncto Versäumnisdrohung jedoch eher noch deutlicher als Kübler-Ross:Wer nicht trauert, wird nicht erst in Schwierigkeiten kommen, er verhält sich bereitskrank. Und hinter einer seelischen Erkrankung wird nicht selten versäumte oder verkehrte Trauer stecken.

168

Technisiertes Abschiednehmen167

Von „pathologischer Trauer“ spricht beispielsweise Verena Kast, eine vielgeleseneSchweizer Trauerpsychologin (Kast 1982: 8). Fehle die Trauer oder falle sie zu geringaus, seien Depressionen die Folge. Ähnlich fatal: das Festhängen oder „Feststecken“ inder Trauer. Kast kritisiert Kübler-Ross’ Phasenschema als überholte Doktrin, um dannein eigenes, in der Sache jedoch nur leicht verändertes Phasenmodell neu einzuführen.Nach Kast haben wir es mit lediglich vier Phasen zu tun, sie heißen „Empfindungslosigkeit“, „Aufbrechende Emotionen“, „Suchen und Sich-Trennen“ sowie „Neuer Selbstund Weltbezug“ (Kast 1982: 71). Kast betont, wie sehr sowohl Reihenfolge als auchIntensität und vor allem Dauer der Phasen durcheinandergehen können. Jede von ihnenkann wiederkehren. Nichts soll schematisch gelten. Die Annahme eines psychischenDrucks, durch welchen der Trauerprozess inneren Notwendigkeiten zu folgen hat, bleibtdennoch bestehen. Orientieren kann man sich im Zweifel umso mehr nur mehr dann,wenn es professionelle Hilfe, nämlich eine therapeutische Anleitung gibt.

Ein wiederkehrendes Thema bei Kast sind denn auch die Blockaden und „Rückfälle“, durch welche der Trauervorgang zu einem, nicht nur was seinen Ausgang, sondernauch was seine Dauer anbelangt, höchst individuellen Vorgang wird. Manchmal kanndie Trauer glücken, oft aber geht sie auf Jahre mit eigenartigen Träumen und Verhaltensweisen einher. Sie bringt uns – wo Schwierigkeiten nicht behandelt werden – aufeinen womöglich lebenslangen problematischen „Weg“. Anders als Kübler-Ross behandelt Kast nicht Sterbende, deren Ringen um die geforderte Haltung der Tod allemalbeenden wird, sondern ihre Klienten sind Hinterbliebene sowie ganz allgemein Therapiebedürftige, bei denen das Therapiegespräch dann ggf. auf das Thema einer unverarbeiteten Trauer hinführt. Die Trauerpsychologie hat sich damit von der Psychologie desSterbens gelöst. Klare Grenzen des Syndroms Trauer bietet Kast nicht. Generell scheintdas Theoriegerüst der Trauerpsychologie mager zu sein.Die Behandlung soll im Wesentlichen darauf beruhen, Patienten in unverarbeitete Trauerphasen zurückzuversetzen,um dann gleichsam nachholend so lange in diese einzutauchen, bis die Typik dernächstfolgenden Phase sich zeigt und irgendwann ein nicht näher bestimmter Normalzustand erreicht ist. Bei Kast wird die Metaphorik der Arbeit denn auch, wie schonangedeutet, durch Weg-Metaphern ergänzt, die sich auf variable zeitliche Längenmaßeprojizieren lassen. Ausdrücklich wird vor „schneller“ Trauer, vor Verdrängung und„unabgeschlossenen“ Trauerprozessen gewarnt sowie implizit auch davor, sich nichtdurch professionelle Hilfe abzusichern: 5 Wo Wissenschaft beginnt oder doch nur Ratgeberansprüche erhoben werden, ist der Trauerexpertise

169

168Petra Gehring

Trauerpsychologische Ratgeber sind begrifflich vielfach inkonsistent, die Grenzen zurErbauungsliteratur sind fließend. Dennoch (oder vielleicht gerade darin) realisiert derDiskurs der Trauer als Arbeit am Leitfaden der Motive von Kübler-Ross ein klares Ziel.Es geht um ein psycho- und gefühlstechnisches Aktivierungsschema: um Prüfung imSinne einer fortwährenden Leistung, im Zuge derer eine als herstellbar postulierte Innerlichkeit im wahrsten Sinne des Wortes „erarbeitet“ werden soll. Die angeleitete Verlustbewältigung fungiert als Schlüssel, als eine Art therapeutisches Passepartout. AllesWeitere – Was ist wie auf die Trauer bezogen? Wo auf dem „Weg“ befinde ich mich? –kann zur individuellen Verhandlungssache werden, sofern ich die Bearbeitung dessen,was ansteht, als produktiv erlebe. Der Tod rückt in weite Ferne.

An die Stelle von öffentlichen Trauerformen sowie Konventionen der Diskretion,nämlich jener befristeten Sonder- und Freiräume der Trauer, sind mit der Sterbe- undTrauerpsychologie die variablen Zeitspannen einer angeleiteten Auseinandersetzunggetreten. Diese flaggt Normalität aus – Trauer geht uns alle an–, setzt aber mit Pathologisierung ein und mündet in einen Prozess, der im Zweifel beliebig lange und komplexe Behandlungsgeschichten zeitigen kann. Ähnlich dem Analytiker um 1900, aberweniger exklusiv hat ab den 1970er Jahren in der Beratungsmoderne, in der wir unsbefinden, ein neuer „Begleiter“ die Bühne betreten: der Trauerexperte, der die sozialenEnergien der Trauer nicht teilt, sondern sie kanalisiert, indem er Trauernde lehrt, denBlick möglichst produktiv nur auf sich selbst zu richten. 5. Informelle Technisierung

Damit noch einmal zur Technisierungsfrage. Ist die zur „Arbeit“ geronnene Trauerlediglich eine Form, die ältere Formen ablöst, oder ist sie darüber hinaus eine in besonderem MaßetechnischeForm? Sollte man also tatsächlich nicht nur von „Psychologisierung“, sondern von einer Technisierung sprechen – oder gar von einer „informellen“Technisierung, wie es dieser Band programmatisch tut?

Meine abschließende Antwort lautet in der Hauptsache Ja. Die dem verlorenen Anderen gewidmeten, die unter Trauerndenmitteilsamen, dieimprovisatorischenund viel 6 Tatsächlich ersetzen Appelle an die Normalität und Ubiquität des Gegenstandes vielfach das fehlen- de Argument für die Triftigkeit des trauerpsychologischen Zugangs: Früher oder später gehe Trauer schließlich jeden an, daher könne niemand sagen, dass er oder sie sich nicht konfrontieren und auch einlassen muss. – Mit dieser Begründung, alle seien „betroffen“, daher sei auch das Buch zum Thema unabweislich, gleitet Beratungsrhetorik ins Missionarische hinein.

170

Technisiertes Abschiednehmen169leicht auch die mit den Erfordernissen fester Formen verbundenenrigidenMomente imUmgang mit der Trauer erscheinen aus trauerpsychologischen Phasenmodellen durchweg abgezogen zu sein. Die Geste der Rückgewinnung eines durch Medikalisierungverlorenen Raumes ist jedenfalls verkehrt. Kübler-Ross gibt der Trauer nicht etwaszurück, das ihr immer zu Eigen war, sondern schafft ein gänzlich neues Koordinatensystem. So ist ein Operationsfeld entstanden, in welchem – mittels des zunehmend flexiblen Schemas der aufeinanderfolgenden Phasen – Trauer durch Experten angeleitetwird, um in bestimmter Weise emotional durchlebt und bearbeitet zu werden.

Ich habe Trauerarbeit als ein produktionsorientiertes Verfahren umrissen, das sichan die Stelle des Abschieds setzt. Entstehen kann (und soll) in der Trauer ein durch denVerlust gestärktes, sich in seinen Gefühlen auch jenseits der exemplarischen Verlusterfahrung selbst steuerndes Ich. Dass der in der beschriebenen Weise geforderte Aktivitätsstil eines – nennen wir es „Normaltrauerns“nicht nur Standards zu genügen hat,allem voran den beschriebenen Phasen, sondern dass er als Disziplinierung wie auch alsertüchtigende Technik betrachtet nachhaltig wirksam sein dürfte, braucht man nicht zubetonen. Psychotechnik und Selbsttechnik greifen in den habituellen Mustern des „Arbeitens“ zusammen. Auch die Trauer produziert Subjektfassungen. Sie soll nicht bloß Zustandsein, sondernChance. Man macht etwas aus sich. Dass (und wie) dies unterSupervision geschieht, lässt allerdings individuellen Wegen wenig Raum.

Die auf diese Weise technisierte, ins Therapieschema eingerückte Normaltrauer generiert Mehrwerte, über die man weiter nachdenken sollte. Sich trennen können alslebenslanges Drama, aber auch als Schlüsselkompetenz? „Da der Tod wirklich eineRealität ist, geht es in unserem Leben immer auch um Trennung und Abschiednehmen“,heißt es ebenso platt wie kryptisch bei Kast (1982: 160). Ich lese diese Sentenz nicht alsRückerinnerung einer quasi-stoischen Übung, sondern als Trivialisierung des Weltenbruchs, der im Tod des anderen liegt. Technik war der Umgang mit Abschiedszwängenwohl immer. Das Phasenmodell führt hier aber neue Normalitäten und ein Moment derprofessionellen Kontrolle ein, das bisher nicht dagewesene Selbstverständlichkeiten undauch neue subjektive Reflexe schafft.

Was das Attribut „informell“ angeht bleibe ich zögernd. Ein Schema wie das derTrauerphasen bleibt allerdings tatsächlich auffällig weich. Es glättet zu viel und ordnetzu wenig, um tatsächlich – gerade im Vergleich zu durchritualisierten Selbstverständlichkeiten – als „Formgebung“ gelten zu können. Es wird interveniert, es werden Anstrengungen gelenkt und Sollwerte ausgemacht, jedoch bleibt alles reprogrammierbar.Diese Flexibilität lässt Trauerbehandlungen ins Offene fortlaufen: zwischen Beratung, 7 Gemeint ist das Trauern, jenseits dessen es in folgenreicher Weise pathologisch wird.

171

170Petra Gehring

Therapie, Coaching, Selbstfindung und Fortbildung könnte sie im Grunde alles Mögliche sein. Es ist nicht auszuschließen, dass gerade darin ihre neue Nützlichkeit liegt.Begrifflich bleibt die Versuchung groß, „informell“ zunächst so zu verstehen als hießees schlicht: nicht deklariert. Wenn, dann scheint jener betont ergebnisoffene, individualisierende wie auch betont selbstreflexive Charakter der Traueraufgabe gerade aber indem Sinne „informell“ zu sein, dass hier die Form im vordergründig Formlosen liegt.

Literatur

172

„Tests are the devices by which mental abilities can be measured.” (Viteles 1921: 57) Die Debatten um die Philosophie der Psychologie und die Psychometrie sind bislangprimär wissenschaftsphilosophisch geführt worden. Im vorliegenden Beitrag betrachteich die angewandte Psychologie dagegen primär technikphilosophisch. Folgende Annahmen bewegen mich dazu, die ich an dieser Stelle zwar nicht ausführlich begründen,aber zumindest am Fall der Psychometrie exemplarisch demonstrieren kann:

1. Die Psychologie ist vor allem dort erfolgreich gewesen, wo sie Anwendungen/Applikationen entwickelte.

2. Diese Anwendungen stellen Techniken dar.

3. Die angewandte Psychologie ist daher technikphilosophisch und zumindestnicht allein wissenschaftsphilosophisch zu betrachten.

Mit anderen Worten: Die angewandte Psychologie hat nie aufgehört,Psychotechnikzusein, selbst dort, wo sie diesen Ausdruck als Titel für eine historische und vergangeneGestalt der praktischen Psychologie (miss-)versteht. Paradigmatisch lässt sich dieseÜberlegung an den psychologischen Mess- und Prüfungstechniken durchführen. Dabeiwerde ich mich in diesem Beitrag mehr systematisch als historisch mit einer Begründung dieses Gedankens befassen.

Dass psychologische Prüfungen Techniken sind, erscheint als irgendwie uneigentliche Redeweise. Selbst dort, wo hochstandardisierte Prüfungsformen an die Stelle vonpädagogischem Takt, subtilem Gehör und geschulter Urteilskraft treten und die Antworten keinen Graubereich gestatten wie bei Intelligenztests, scheint sich der Rede von der„Technik“ in Gedanken ein „Quasi-“ voranstellen zu wollen. Inwiefern lassen sich psychologische Prüfungsformen wie Intelligenz-, Kompetenz- oder Persönlichkeitstests alsTechniken begreifen? In der Psychologie wird zumindest zu jener Zeit, in der sich dieangewandte Psychologie auch als Psychotechnik bezeichnete, von Prüfungstechniken 1 Vgl. für mehr historisch orientierte Ausführungen Kaminski 2010, 2011, 2013.

173

172Andreas Kaminskigesprochen: „Tests are the devices by which mental abilities can be measured.“ (Viteles1921: 57) Endet mit der Psychotechnik die kurze Ära der Prüfungstechniken? Dagegenspricht, dass die damals entwickelten und die gegenwärtigen Prüfungsformen eine hoheKontinuität aufweisen. Was begann also um 1900 mit dem psychologischen Prüfungswesen? Inwiefern gehören Psychologie und Testbewegung zu der umfassenden Verwissenschaftlichung und Technisierung des Sozialen in der Moderne, die viel seltener betrachtet werden als die Ingenieursleistungen im Brückenbau und Schiffsbau? (Raphael1996).

Im Nachfolgenden unternehme ich den Versuch, die Rede von „Prüfungstechniken“zu begründen und zu präzisieren. Dazu muss der Modus, in dem diese Techniken inErscheinung treten, verstanden werden. Es handelt sich, so die These, um informelleTechniken. Diese sind keine uneigentlichen Techniken, die daher nur in uneigentlicherRede als Technik bezeichnet werden dürften. Die Beziehung zwischen Individuen undTechnik ist im Falle informeller eine andere als im Falle klassischer Technik. MeineArgumentation entwickelt sich wie folgt: Zunächst werde ich eine naheliegende Annahme aufgreifen, worin das Technische psychologischer Prüfungsformen besteht.Anschließend zeige ich die Mängel dieser Annahme auf. Dadurch wird eine Betrachtung psychologischer Prüfungsformen möglich, die freilegt, inwiefern sich an dieserStelle informelle Technik und Macht kreuzen. 1. Prüfungstechniken als Messtechniken

Dass psychologische Prüfungsformen Techniken sind, lässt sich mit einem relativ einfachen Hinweis zeigen: Es handelt sich um Messtechniken. Messtechniken sind letztlichTechniken, die mit dem klassischen Technikbegriff verstanden werden können. Auchwenn sie hier aus Papier und Stift zu bestehen scheinen, funktionieren sie nicht andersals klassische Maschinen: Es gibt Eingabewerte, nämlich die Responsen auf Aufgaben,sowie Ausgabewerte, nämlich die Bestimmung eines Intelligenzgrades, Kompetenzniveaus oder Persönlichkeitstyps. Immer, wenn die gleichen Eingaben erfolgen, erfolgendie gleichen Ausgaben. Hierin gleicht die psychologische Prüfungsform anderen Messtechniken und hierin gleichen beide klassischen Maschinen. Bei gleicher Raumtemperatur soll das Thermometer die gleiche Temperatur anzeigen, bei gleicher Länge zeigt einZollstock die gleiche Größe diverser Körper an. Prinzipiell funktionieren auch PaperPencil-Tests nicht anders – und damit nicht anders als ein Fahrkartenautomat, bei demauf gleiche Eingaben gleiche Ausgaben erfolgen.

Diese Reproduzierbarkeit und damit die verlässliche Erwartbarkeit des Verhältnisseszwischen Eingabe und Ausgabe werden durch die Transformationsregel gewährleistet.

174

Maßstäbe der Macht173Die Entwicklung der Transformationsregel zeigt, dass auch so genannte paperpencil-Tests keineswegs auf Papier und Stift als technische Elemente beschränkt sind.Es handelt sich hierbei um einen aufwendigen Prozess, in dem die Transformationsregelkonstruiert wird. In diesen geht eine Reihe von Techniken ein: mathematische wie Korrelations- oder Faktorenanalysen, probabilistische Modelle wie die Normalverteilung,Datensammlungen, Typenbildungen, Eichungs- und Standardisierungsverfahren. DieGüte eines Tests wird dann durch Kriterien wie Validität, Reliabilität oder Objektivitätangegeben. Dabei handelt es sich letztlich umtechnischeKriterien: Ein Test soll seineFunktion und nur diese erfüllen (Validität), und zwar mit der erforderten Präzision (Reliabilität) und unter Abschirmung störender Einflüsse (Objektivität). Die Güte führtletztlich zu verlässlichen, robusten Erwartungen aufgrund abgesicherter Wiederholbarkeit (Reproduzierbarkeit).

Eine Voraussetzung ist dabei bislang unerwähnt geblieben: Die Transformationsregel beschreibt die Abbildung zweier Wertemengen aufeinander. Es handelt sich um einemathematische Funktion. Die Voraussetzung dafür ist, dass sich der Geist mathematischmodellieren lässt. 2. Die Kritik an der Psychometrie – und ihr blinder Fleck

Die Kritik an der Psychometrie hat vielfach an dieser Voraussetzung angesetzt. Aktuellwird diese Kritik in drei unterschiedlichen Versionen vorgebracht. Ihnen gemeinsam ist,dass sie die Frage nach der Möglichkeit der Messung geistiger Phänomene stellen.

Die erste kritische Position zur Psychometrie geht davon aus, dass eine Messunggeistiger Leistungenprinzipiell möglichist, faktisch allerdings noch Defizite bestehen.Für diese gleichsam reformerische Position handelt es sich weniger um methodische alsum theoretische Mängel. So geht Denny Borsboom etwa prinzipiell davon aus, dass diePsychometrie möglich ist (Borsboom 2005). Defizite bestünden weniger in der Methodenentwicklung als in der Entwicklung angemessener Gegenstandstheorien. Viel Sorgfalt, so Borsboom, wurde auf die Entwicklung von Messtechniken und Messmethodenverwandt. Damit korrespondiere jedoch nicht in gleichem Maße die Entwicklung einersubstanziellen Theorie des Gegenstands, der gemessen wird. Ohne eine solche Gegenstandstheorie aber, so Borsboom, könne die Frage nach der Validität der Messung garnicht geklärt werden (2005). Jedoch stünde die Psychometrie noch am Anfang einervergleichsweise kurzen Geschichte, in der sich bereits abzeichnet, wie der Weg erfolgreich fortzusetzen wäre (Markus 2012 und Borsboom 2012).

Die zweite kritische Position geht davon aus, dass noch nicht geklärt ist,obdie Messung geistiger Eigenschaften und Leistungenüberhaupt möglichist. Dies könne der Fall

175

174Andreas Kaminskisein oder auch nicht – eine Entscheidung hierüber stünde letztlich noch aus. JoelMichell hat diese einflussreiche Position in einer Reihe von Publikationen entwickelt(Michell 1994, 1997, 2005). Michell zerlegt die Frage nach der Möglichkeit der Psychometrie in zwei Aufgaben, die beide erfüllt werden müssten: eine wissenschaftlicheund eine methodisch-technische Aufgabe. Die wissenschaftliche Aufgabe bestündedarin zu zeigen, dass die Bedingung der Messung, nämlich die quantitative Natur desGegenstands, erfüllt ist. Um Kriterien angeben zu können, wann ein Gegenstand quantitativ ist, wendet sich Michell Überlegungen des Mathematikers Otto Hölder (1901) zu,der „Axiome der Quantität“ angab. Michell geht davon aus, dass der Nachweis, dass einGegenstand quantitativer Natur ist, nur empirisch zu führen sei – und er entwirft dazumögliche Testverfahren, welche die Erfüllung der Axiome empirisch prüfen sollen.Seine Kritik an der Psychometrie besteht nun im Kern darin, dass diese die erste, nämlich die wissenschaftliche Aufgabe, nie angenommen habe. Statt zu zeigen, dass ihrGegenstand quantitativ ist, habe sie ihn einfach so behandelt, als wenn dies feststünde.Die Psychologie habe sich vor allem der Ausarbeitung und Verfeinerung von Methodenzugewandt, die aber allesamt nutzlos wären, wenn sie auf etwas Anwendung fänden,worauf sie nicht angewandt werden können. Michell kritisiert insbesondere, dass –vermittelt über Stanley Stevens spezifisch auf die Psychologie zugeschnittene und ungemein wirksame Definition von Messung (Stevens 1946, 1959) – die Psychometrie garnicht mehr erkenne, dass noch immer ungeklärt sei, ob sie überhaupt möglich ist odernicht. Die Psychometrie habe diese Frage gleichsam verdrängt.

Die dritte Position geht davon aus, dass die Messung geistiger Eigenschaften undLeistungen wohlunmöglichist. Selbst dann, wenn der von Michell geforderte Nachweiseiner quantitativen Natur des Geistes erbracht würde, wäre die Psychometrie eine unmögliche Wissenschaft. Denn der Gegenstand, die Psyche, erfülle weitere Bedingungen,welche Voraussetzung der Messung seien, nicht. Eine Kritik der Psychometrie auf dieser Linie hat beispielsweise Trendler vorgebracht (Trendler 2009). Um messbar zu sein,müsse ein Gegenstandsbereich zum einen kausal simplifiziert werden können: Bis aufeinige wenige Kausalrelationen müssten alle anderen ausgeschlossen werden können.Zum anderen müssten die dann verbleibenden Relationen nach Trendler gezielt manipuliert werden können. In den Naturwissenschaften seien deshalb Apparate und technischeUmgebungen geschaffen worden, welche beide Bedingungen realisierten. Bei der Psyche sei dies nicht in der gleichen Weise möglich. Weder die kausale Reduktion noch diekausale Manipulation sei hier in ausreichendem Maße gegeben. Es bestehe auch keineAussicht, dass sich dies ändern könnte. Daher sei die Psychometrie keine möglicheWissenschaft (zu Einwänden vgl. Markus und Borsboom 2012).

176

Maßstäbe der Macht175

Was ist diesen drei kritischen Positionen gemein? Die erste geht von einer prinzipiellen Möglichkeit aus, fordert jedoch Optimierungen; die zweite erachtet es als ungeklärt, ob die Möglichkeit einer Messung des Geistes gegeben ist; die dritte bestreitet dieprinzipielle Möglichkeit. Diese drei prominenten Kritiklinien zielen darauf ab, nach derMöglichkeit oder Unmöglichkeit der Psychometrie zu fragen. Thematisiert wird jeweilsdie Relation Messung/Geist. Alle drei Positionen prüfen, ob dieses Verhältnis angemessen konzipiert werden kann. Ist der Gegenstand geeignet, um messbar zu sein (Position2 und 3)? Ist die Mess- und Gegenstandstheorie geeignet, um ihn zu messen (Position 1)?

Die Perspektive, in der diese Kritik erfolgt, erscheint so selbstverständlich, dass esin der Tat schwerfällt, zu erkennen, was damit außer Blick gerät. So wertvoll sie ist,bleibt dabei doch ein wichtiger Punkt unberücksichtigt:Die Psychometrie ist wirksam, gleichgültig, ob sie wissenschaftstheoretisch betrachtet möglich ist oder nicht. Durchdie Frage nach derMöglichkeitder Psychometrie ist außer Blick geraten, dass sie eine Wirksamkeithat, selbst wenn ihre Ansprüche wissenschaftstheoretisch gesehen nichtlegitim sein sollten. Diese Wirksamkeit der Psychometrie besteht darin, dass sie diesozialen Selbstverhältnisse ändert. Subjekte steuern ihr Verhalten in anderer Weise,seitdem es Intelligenztests oder Kompetenzmessungen gibt, sie arbeiten an sich selbst inOrientierung an den Skalen der Messung.

Um diese Wirksamkeit besser zu verstehen, muss die Psychometrie mit klassischenMessverfahren verglichen werden. 3. Ein Gegenstand, der sich zum Maßstab verhält, der an ihnangelegt wird

Wenden wir uns also der Frage zu: Worin unterscheidet sich die Psychometrie vonklassischen Messpraktiken? Exemplarisch können wir die Längen- oder Temperaturmessung mit der Messung von Intelligenz vergleichen. Übliche Unterscheidungsversuche gehen zurück auf die Differenz intensiver und extensiver Größe, wie sie Kant in der Kritik der reinen Vernunftentwickelte, um dort bereits die Messbarkeit geistiger Größen zu bestreiten.Die daran (mehr oder minder deutlich) anknüpfenden Unterscheidungsversuche argumentieren wie folgt:

1.Geistige Größen sind nicht additiv: Dieser Ansatz geht auf Norman CampbellsTheorie der fundamentalen Messung zurück. Campbell nimmt an, dass sich Kriterien 2 Vgl. den zweiten der vier Grundsätze, die „Antizipationen der Wahrnehmung“ (Kant 1781/1787:

177

176Andreas Kaminskifür Gegenstände angeben lassen, die messbar sind (Campbell 1920). Zu diesen Kriterienzählt, dass die Größen transitiv, asymmetrisch und vor allem: additiv sein müssen. Additiv seien Gegenstände, wenn sich empirische Operationen der Addition für sie angeben lassen. Nur dann seien auch entsprechende mathematische Operationen mit diesenGrößen erlaubt. Mit Blick auf Gewichte oder Länge heißt dies: Es können Gewichte ineine Waagschale dazugelegt werden oder eine Länge könne durch Hinzulegen einesweiteren Körpers verlängert werden (=empirische Operation der Addition). PsychischeGrößen ließen keine solchen Operationen zu. Das Problem an diesem Kriterium ist, dassCampbell neben fundamentalen auch abgeleitete Größen („derived magnitudes“) nennt,die sich indirekt messen ließen. (Campbell 1920: 274 ff.) Dichte beispielsweise gestatteauch keine unmittelbare empirische Operation der Addition. Sie sei aber indirekt messbar, nämlich durch andere Größen, welche additiv sind. Es kann nicht ausgeschlossenwerden, dass sich solche indirekten Verfahren auch für psychische Größen finden lassen, was die Psychophysik beispielsweise versucht hat. Damit würde dieser Vorschlagallerdings zu dem Streit zurückführen, ob geistige Größen quantitativ sind oder nicht.Aus diesem Grund eignet sich das Kriterium nicht, es führt zurück zu der offenen Frage,die Michell stellt (1997, 2000, 2005).

2.Es gibt kein psychisches Maß:Könnte die Besonderheit der Psychometrie nichtdarin bestehen, dass es kein psychisches Maß gibt bzw. ein solches nicht als stabilerStandard festgesetzt werden kann? Dann würde sich die Messung des Geistes von derMessung der Natur dadurch unterscheiden, dass es zwar in beiden Bereichen keinegleichsam vorgegebenen Maße gibt, aber in der äußeren Natur solche zu finden sind, diesich aufgrund ihrer größeren Stabilität und Vergleichbarkeit zur Verwendung als Maßeignen. Zwar hatte Fechnermit seinem cleveren Gedanken, die gerade eben noch bemerkbaren Unterschiede der Empfindung als psychisches Maß zu wählen, einen denkbaren Ausweg ersonnen (Fechner 1858), aber ungeachtet des Streits um die Psychophysik scheint eine derartige Lösung bei anderen geistigen Phänomenen (als denen derEmpfindung) nicht möglich zu sein. Allerdings ließe sich dagegen einwenden: DieGeschichte der Messpraktiken zeigt, dass auch andere, inzwischen als klassisch geltende Bereiche zu Beginn ähnliche Probleme aufwarfen. So hat Chang in seiner Studie zurGeschichte der Temperaturmessung detailliert dargelegt, wie schwierig es lange Zeitwar, „fixed points“ der Temperaturmessung zu finden und so zu definieren, dass siepraktisch umgesetzt werden konnten (Chang 2004). Man hat zwar schnell versucht,augenfällige Markierungen wie das Sieden oder Gefrieren von Wasser als Orientierungspunkte zu nutzen, um Messgeräte zu standardisieren, zu eichen und zu skalieren.Die Lösungsversuche warfen jedoch neue Probleme auf, denn: Wann kocht Wasser?Wann friert es? Diese scheinbar natürlichen „fixed points“ stellen für das bloße Auge

178

Maßstäbe der Macht177eher Strecken („ranges“) als Punkte dar und sind daher zur Festlegung von Eichpunkteneines Thermometers nicht brauchbar, wie Chang zeigt. Auch Intelligenz weist keinenunmittelbaren, augenfälligen Fixpunkt auf. Das psychische Maß 1 IQ scheint zudemeinen anderen Status als 1 Meter oder 1 Grad zu haben. Aber auch hier ist es durchstatistische Verfahren möglich geworden, „fixed points“ zu bilden: durch die Konstruktion von Durchschnittspunkten auf einer Verteilungskurve (Terman 1916).

Diese naheliegenden Unterscheidungsversuche zwischen klassischen und psychischen Messungen scheitern folglich. Insbesondere aber legen es die Unterscheidungsversuche nahe, Subjektivität als etwas mathematisch Unergründliches, als gleichsamromantisch Unbestimmbares zu denken, das sich der Quantifizierung entzieht. Dernachfolgende Vorschlag, worin sich klassische und psychische Messungen unterscheiden, geht nicht von einer romantischen und unergründlichen Subjektivität aus.

Der zentrale Unterschied zwischen den Messpraktiken besteht darin, dass in derPsychometrie sich der Gegenstand zum Maßstab verhält. Dies gilt für die Messung derso genannten äußeren Natur nicht. Kein Körper, an den ein Lineal angelegt wird, orientiert seine Größe an dem Maßstab – etwa um größer zu werden oder zu wirken. KeineTemperatur, die gemessen wird, orientiert ihre Wärme am Maßstab des Thermometers,der angelegt wird. Zwar verändern die Messgeräte auch hier den zu messenden Zustand.Der Punkt ist aber nicht, dass dies vernachlässigbar ist in diesen Fällen (was durchauszutrifft für die allermeisten Zwecke), sondern dass der Messgegenstand sich eben nichtam Maßstaborientiertund entsprechend sein Verhalten daran ausrichtet, sondern durchihn lediglichverändertwird. Subjekte, an die psychometrische Messtechniken angelegtwerden, orientieren sich dagegen am Maßstab, das heißt am Prüfungskriterium. Personen, die etwa einem Intelligenztest unterzogen werden, werden sich häufig so verhalten,dass das Ergebnis ihnen eine möglichst große Intelligenz bescheinigt. Wer einem Kompetenztest unterzogen wird, wird in der Regel ebenfalls versuchen, möglichst kompetentzu sein. Vergleichen wir dies mit der Längenmessung, müsste man sagen, dass einDing, dessen Maß genommen wird, sich streckt, um möglichst groß zu wirken.

Damit wird ein genereller Unterschied zwischen den psychometrischen Prüfungstechniken und den klassischen Messpraktiken erkennbar. In der Psychometrie ist dasKriterium kein äußerliches. Vielmehr verhält sich das Subjekt zu dem Kriterium, welches an es angelegt wird. Die klassische Relation ist jene zwischen Messung und Gegenstand. Diese haben auch die kritischen Positionen zur Psychometrie im Blick, wiegezeigt wurde. Sie fragen danach, ob diese Relation möglich ist und angemessen konzipiert wird. Hier wird aber nun deutlich, dass diese Relation zwischen Messung undGegenstand in diesem Gegenstand, nämlich dem Subjekt, selbst vorkommt, von ihmreflektiert wird und auf sein Verhalten einwirkt. Im Kontext der Psychometrie verhält

179

178Andreas Kaminskisich der Gegenstand zu diesem Verhältnis. Darin gründet die Wirksamkeit der Psychometrie, welche ungeachtet ihrer wissenschaftstheoretischen Möglichkeit besteht.

Worin genau besteht allerdings die Wirksamkeit psychologischer Prüfungsformen?Was heißt es, dass der Maßstab kein äußerlicher ist und dass Subjekte sich an ihm orientieren? Eine erste Präzisierung gewinnt man durch einen simplen Hinweis, der bedeutsame Konsequenzen freilegt. Jegliche Messung ist selbstverständlich nicht einebloße Zählung, sondern die Zuordnung einer Zahl zu etwas, das gemessen wird. DasKriterium, der Maßstab, hat stets auch eine qualitative Dimension. Diese qualitativeDimension muss notwendig eine Bestimmung darüber sein, was Subjektivität ausmacht.Mit der Einführung neuer psychologischer Prüfungsformen (wie Intelligenz- oder Kompetenztests) wird folglich nicht lediglich ein neuer Test gegeben oder eine Zählungvorgenommen, sondern Subjektivität neu und anders verstanden. Der Maßstab ist eineBestimmung, was der Möglichkeitsraum der Subjekte ist: was Subjektivität kennzeichnet und wie Subjekte darin sein können. Neue Prüfungsformen (nicht bloß neue Prüfungsformate) verändern daher das Möglichkeitsraster von Subjektivität. Der Maßstabist folglich nicht lediglich eine Skala, sondern vielmehr eine Dimension der Subjektivität. Intelligenztests bestimmen nicht nur eine generelle Leistungsfähigkeit, sonderndamit sie dies tun können, müssen sie angeben, was Subjekte sein können (zum Beispiel„intelligent“ oder um andere Maßstäbe zu nennen: „willensschwach/-stark“, „extrovertiert“, „konfliktfähig“). Das, was Subjekte sein können, was Subjektivität ausmacht,worin Subjektivität (auch) besteht, verändert sich mit dem Erscheinen von Intelligenztests. Auf einer ersten Ebene ändert sich damit dasSelbstverständnisvon Personen, dienun die Frage an sich stellen, wer sie wohl sind und sein können, wenn etwa ihre Intelligenz gemessen wird. Bei den Intelligenztests rückt dies besonders in den Vordergrund,da hier bis heute ein Zusammenhang mit schulischem und beruflichem Erfolg behauptetwird. Intelligenztests gelten als Prognoseinstrument – sie geben an, die Zukunft einerPerson in einer wichtigen Dimension vorauszusagen. Das Selbstverständnis verändertsich aber durch messende Verfahren auch in anderen Bereichen des Geistes. So definieren auch Persönlichkeits- und Kompetenztests ein Raster möglicher Subjektivität. Sieentwerfen einen Möglichkeitsraum, wie Subjekte allgemein sein können – und verortendas Individuum an einer spezifischen Stelle dieses Raums.

Neben dem Selbstverständnis sind psychometrische Testformen auf einer weiterenEbene wirksam – derArbeit an sich, der Arbeit am eigenen Selbst. Der Maßstab eröffnet nicht nur ein Verständnis dafür, was und wie Subjekte sein können, sondern er dientauch zur Selbststeuerung und damit Selbstformung, umFormen des Könnens auszubilden. Die Skala des Maßstabs ist eine Wertskala. Sie ermöglicht daher die Orientierungnach unten und oben. Sie gibt ein Feedback darüber, wo man ist und ob man Fortschrit-

180

Maßstäbe der Macht179te erzielt. Übung, Selbststeuerung, Selbstformung sind die Aspekte dieser Ebene derWirksamkeit psychometrischer Verfahren.

Ich glaube, dass damit deutlich wird, warum es nicht ausreicht, zu fragen, ob dieMessung möglich ist. Sie ist wirksam und die Wirksamkeit besteht darin, einerseits denMöglichkeitsraum von Subjektivität im Allgemeinen zu verändern und andererseitsdurch die Arbeit von Subjekten an sich selbst, die sich an diesem Maßstab orientieren,eine Selbstformung in Gang zu setzen. Gleichgültig, ob das Geistige quantitativ verfasstist oder nicht, gleichgültig, ob es sich in wissenschaftstheoretischer Perspektive alsmessbar erweist oder nicht: Dadurch, dass sich das Gemessene zum Messenden verhält,ist die Messung wirksam, und zwar geradeweiles sich zum Messenden verhält. DieKonsequenz ist: Unsere Gesellschaft und unser Selbstbezug (weil ein anspruchsvollerBegriff von Selbst nur im sozialen Bezug zu anderen gedacht werden kann) ändert sichmit der Psychometrie – und mit der Einführung neuer psychometrischer Prüfungsformen. Denn diese verändern das Selbstverständnis und die Arbeit an sich selbst. Um1900 wird der Mensch intelligent, um 1970 wird er kompetent (um nur zwei Zäsurendieser psychometrischen Geschichte der Subjektivität zu nennen).

Diese machtanalytische Perspektive auf Prüfungen ist aber nicht ohne Konsequenzfür die wissenschaftsphilosophische Analyse der Psychometrie. Es stehen hier keinezwei Perspektiven nebeneinander, die sich wenig zu sagen haben: auf der einen Seitedie wissenschaftstheoretische Perspektive, auf der anderen Seite die durch die Philosophie der Subjektivität inspirierte Perspektive. Denn die Reflexivität des Maßstabs hatKonsequenzen für wissenschaftstheoretische Fragen.

Exemplarisch lässt sich dies am sog. Lynn-Flynn-Effekt erläutern. Dabei handelt essich um einen Effekt, der in der Geschichte der Intelligenzmessungen auftritt und zuerstvon Richard Lynn, einem Psychologen, und dann vor allem von James R. Flynn, einemPolitologen, in den 1980er Jahren in getrennten Publikationen entdeckt wurde. DerEffekt besteht in einer signifikanten Zunahme des Intelligenzgrades im Zeitraum mehrerer Jahrzehnte. Der Hintergrund ist folgender: Intelligenztests müssen immer wieder neunormiert werden. Dies geschieht, indem ein repräsentatives Sample von Testpersonen(das Standardisierungs-Sample) ausgewählt wird, um den Test zu normieren. Die Normierung wird durch den Sample-Durchschnitt vorgenommen, der per Definition als 100Punkte bestimmt wird. Durch diese jeweilige Neu-Normierung werden Veränderungendes Intelligenzgrades des Standardisierungs-Samples unsichtbar. Flynns Einfall setztehieran an. Er errechnete die Scores für die späteren Testsamples anhand der frühestenNormierung, die in seinen Daten auf das Jahr 1932 zurückgeht. Dabei ergab sich, dassdie späteren Samples einen kontinuierlichen, relativ linearen und für alle Gruppen derNormalverteilung gleichermaßen feststellbaren Anstieg des Intelligenzgrades aufwie-

181

Andreas Kaminskisen, wenn sie einheitlich mit der Standardisierung von 1932 errechnet wurden. Flynnuntersuchte auf diese Weise Testsamples von 1932 bis 1978 und stellte eine Zunahmedes Durchschnitts um 13,8 Punkte fest (Flynn 1984).

Für diesen Effekt sind unterschiedliche Erklärungen gesucht worden: von der Ernährung über veränderte Umwelteinflüsse (Medien) bis zum medizinischen Fortschritt. Voneinigen Forschern ist erwogen worden, dass von den Schulen bis zur Arbeitswelt intellektuellere und abstraktere Denkweisen für die Breite der Bevölkerung zum Alltag gehören, als es vor einhundert Jahren der Fall war. Ohne mich damit einer monokausalenErklärung anschließen zu wollen, findet sich hier – natürlich in Form einer Abduktion,eine andere Schlussform ist nicht verfügbar – ein Ansatz, der mit den Überlegungen deszweiten Teils sehr gut zusammenpasst. Intelligenzprüfungen würden demnach nicht nureinen anderen Maßstab an Personen angelegt haben als etwa den bloßer Memorierungsaufgaben. Denn Subjekte verhalten sich zu dem Maßstab, der zugleich ein Wertmaßstabist, indem er schulischen, beruflichen und finanziellen Erfolg in Aussicht stellt. DieArbeit an sich, die Selbststeuerung in Bezug auf diesen Maßstab, die Übungen in denSchulen, zu Hause sind andere geworden. Sofern Intelligenz eine (nicht lediglich natürliche) Disposition ist und jede Disposition durch Arbeit entwickelt werden muss, ist esvielleicht gar nicht so verwunderlich, dass sich mit der großen Evidenz, welche dieIntelligenzprüfungen hatten und noch haben, die Denkform der Subjekte verändert hat.Sie denken in der Breite nicht nur andereInhalte, sie denken in andererForm– als esvor zweihundert Jahren der Fall war. Und sie arbeiten an diesem Denken, es ist nichteinfach da. 4. Psychologische Prüfungsformen als informelle Technik

Scheinbar haben wir die Ausgangsfrage aus dem Blick verloren, aber das ist nicht derFall. Rekapitulieren wir dazu den bisherigen Gang der Untersuchung. Die Ausgangsfrage lautete: Inwiefern lässt sich angemessen von Prüfungstechniken sprechen? Handeltes sich dabei nicht um eine uneigentliche Redeweise? Die erste Antwort lautete: Diepsychometrischen Prüfungsformen sind Techniken, insofern es Messtechniken sind.Ihre Technizität besteht darin, Messtechnik zu sein. Messtechniken, so allgemein gesprochen, sind jedoch technisch im gleichen Sinne wie andere Techniken auch – sieweisen die gleichen allgemeinen Sacheigenschaften von klassischer Technik auf (Wiederholbarkeit, Verlässlichkeit, Erwartbarkeit), nur dass sie eine spezielle Funktion haben. Es sind eben Techniken zum Messen, so wie es Techniken mit anderen Funktionengibt, etwa Rechen- oder Kältetechniken. Wäre es dabei geblieben, würde es keine Notwendigkeit geben, den Begriff der informellen Techniken in diesen Kontext einzufüh-

182

Maßstäbe der Macht181ren. Messtechniken des Geistes sind aber nicht lediglich Techniken mit einer spezifischen Funktion. Dies machte der nächste Schritt deutlich. Die Kritik an der Psychometrie zielte darauf, ob diese Techniken ihre Funktion erfüllen können, mit anderenWorten: ob Messtechniken des Geistes möglich sind. Es konnte jedoch gezeigt werden,dass diese Frage an einem entscheidenden Punkt vorbeigeht: der Wirksamkeit der psychometrischen Techniken jenseits ihrer wissenschaftsphilosophischen Möglichkeit.Diese Wirksamkeit lässt sich nicht mehr im Rahmen des klassischen Maschinenbegriffsverstehen, das Modell von Eingabe, Transformation, Ausgabe reicht dafür nicht aus.Psychologische Prüfungstechniken sind zwar weiterhin Messtechniken (auch wennoffen ist, ob sie ihre Funktion erfüllen können), aber orthogonal dazu handelt es sich uminformelle Techniken, die das Selbstverständnis und die Selbstformung verändern.

Doch in welcher Weise geschieht dies?

1.Zunächst lässt sich feststellen, dass Prüfungstechniken Subjektivität und ihren Sozialraum in-formieren.Das heißt: Personen verstehen sich und ihre Lage im Sinne derRangreihenfolge im Sozialraum von den Prüfungs- und Messtechniken her. Der Maßstab entwirft eine Dimension von Subjektivität und verortet die Individuen darin mitBlick auf andere. PrüfungstechnikenbringenSubjekte zudemin Form, insofern sie ansich selbst arbeiten, um ihre Rangstellung zu verbessern. Sie orientieren sich und ihrHandeln am Maßstab, den sie als regulative Instanz nutzen.

2.Dies geschiehtinformell, insofern es unmerklich, unscheinbar ist, wie Prüfungstechniken Subjektivität verändern. Dass sich das Möglichkeitsraster von Subjektivität durchdiese Techniken verändert, dass Subjekte sich anders zu sich selbst verhalten, sich anders verstehen und anders an sich arbeiten, sich regulieren und optimieren, bleibt unscheinbar. Denn: Die Prüfungstechniken werden primär als Messtechnik betrachtet, unddiese messen lediglich etwas, was ohnehin und gleichsam natürlich gegeben ist. Sieerscheinen so als bloße Repräsentationsinstrumente vorhandener Eigenschaften. In derTat jedoch bilden sie diese nicht bloß ab. Sie bringen Subjekte in Form, indem sie derenSelbstverhältnis unmerklich verändern. Die Unmerklichkeit betrifft jedoch auch dasVerhältnis zwischen Individuen und Technik. Dass Technik unthematisch ist, sofern sievertraut ist und funktioniert, wurde gerade an der klassischen Technik herausgearbeitet(Heidegger 1927: §§ 15 f.; Merleau-Ponty 1945: § 21; Kaminski 2010a: 137–168). DieUnmerklichkeit, um die es nun geht, ist davon jedoch zu unterscheiden, sie beruht nichtauf Vertrautheit und Habitualisierung (und der dadurch eintretenden Entlastung). Unmerklich ist diese Technik, insofern ihre Wirksamkeit nicht in Erscheinung tritt. Manverhält sich zu dieser Technik auch dann, wenn man nicht eine Prüfung absolviert, einen Intelligenztest ausfüllt. Der Grund dafür ist keineswegs rätselhaft: Prüfungstechni-

183

Andreas Kaminskiken betreffen den Möglichkeitsraum von Subjektivität (vgl. Kaminski 2013). Es gehtalso grundlegend um das damit ins Spiel gebrachte Selbstverhältnis, das etwa auch beimLesen eines Textes, beim Reparieren eines Autos, bei der Frage, wie „andere mich sehen“ ein Wahrnehmungs- und Urteilsgesichtspunkt sein kann.

3.Prüfungstechniken lassen sich auch nicht dem Anwendungskontext gegenüberstellen.Sie sind ihm gegenübernicht stabil, sondern in ihn so verwoben, dass sie ihn verändernund dadurch auch ihr eigenes Wirken und Funktionieren verändern. Nehmen wir denTestfall: Eine klassische Maschine erzeugt auf den gleichen In- den gleichen Outputund dies deshalb, da ihre Transformationsfunktion stabil bleibt, sofern sie durch denAnwendungskontext und ihr Hineinwirken in diesen nicht mitverändert wird. Angesichts der psychologischen Messtechniken könnte der Eindruck entstehen, dass diesedoch die Bedingung klassischer Maschinen erfüllten. Dies ist aber nicht der Fall. Wiegesehen ist ihr Funktionieren an eine Eichung gebunden, die sie in ihrer Applikation aufden Anwendungskontext gewinnt. Der jeweilige Eichpunkt verändert sich jedoch mitder Anwendung der Prüfungen auf den Kontext, wie der Lynn-Flynn-Effekt bei denIntelligenzprüfungen zeigt. Tritt dieser Effekt auf, weil sich Individuen am Prüfungsmaßstab orientieren und selbst formen, so verändert also die technische Anwendung denAnwendungskontext und damit sich selbst, insofern die Transformationsregel (aufgrundneuer Eichpunkte) verändert wird.

4.Ferner ist ihre Wirksamkeit dadurch gekennzeichnet, dass auf sie die für klassischeTechnik zentrale Leitdifferenzfunktioniert/kaputtnicht angewendet werden kann.Selbst wenn die Prüfungstechniken, wiederum als Messtechniken betrachtet, nicht funktionieren, weil die Bedingungen für Messungen nicht erfüllt wären, sind die Prüfungstechniken als Selbsttechniken wirksam. Man wüsste gar nicht zu sagen, was in Bezugauf diese „kaputt“ heißen könnte.

5.Schließlich führt die prüfungstechnische Wirksamkeit zurMachtthematik. Prüfungstechniken verändern den Möglichkeitsraum von Subjektivität, hieß es zuvor wiederholt.Darin liegt aber, Prüfungstechniken eröffnen (und verschließen) Möglichkeiten desSelbstverständnisses und der Selbstformung. Es handelt sich daher um einen modalenMachtbegriff, den die Prüfungstechniken erfordern.Wer sich als minderintelligent 3 Ein modaler Machtbegriff wurde insbesondere von Foucault ausgearbeitet, allerdings ist die Textla- ge nicht so offensichtlich: In Die Ordnung der Dinge (1966) und Archäologie des Wissens (1969) wird die Modalproblematik von Foucault an vielen Stellen thematisiert und ins Zentrum der Fragen, was ist eine diskursive Formation, was das historische Apriori oder die Archäologie, gestellt. Der Machtbegriff kommt jedoch nur selten vor, woraus meines Erachtens irrtümlich geschlossen wird, dass die Macht- problematik in dieser Phase des Werkes keine oder nur eine untergeordnete Rolle spielt. Es lässt sich jedoch zeigen, dass Foucault gerade auch in diesen Werken mit einem modalen Machtbegriff operiert. Vgl. dazu Gehring 2004.

184

Maßstäbe der Macht183betrachtet oder von anderen so beurteilt wird, für den öffnen und verschließen sichverschiedene Felder (einfache Berufe, höhere Schule, Immigration, Stellung im Militärusw.).

Die Weise, in der Prüfungstechniken wirksam sind, ist, wie man anhand dieser fünfMerkmale sehen kann, informell. Prüfungstechnik ist Messtechnik und informelleTechnik zugleich.

Literatur

185

184Andreas Kaminski

186

Die folgenden Seiten nehmen einige Elemente einer Geschichte der Prüfungstechnikenwieder auf, die ich unter dem Titel „Das Dispositiv der Eignung“ dargestellt habe (Gelhard 2012). Diese Elemente betreffen durchweg den Zeitraum zwischen 1900 und 1950und zeigen bereits die Tendenz, das klassische psychotechnische Projekt einer Auswahlgeeigneter Schüler und Mitarbeiter auf weitere Lebensbereiche zu öffnen und konzeptionell so zu erweitern, dass es nicht mehr allein auf Selektionszwecke zugeschnitten ist.Scheinbar heterogene Ansätze wie die klassische psychotechnische Eignungsprüfungund die Entdeckung der Bedeutung zwischenmenschlicher Beziehungen für die Produktivität von Arbeitsgruppen werden dabei zu immer umfassenderen Ensembles zusammengesetzt. In den folgenden 50 Jahren steigert sich diese Tendenz zur beständigenIntegration heterogener Elemente und Erweiterung des psychotechnischen Anwendungsfeldes noch, weshalb es sich verbietet, die skizzierte Darstellung ihrer ersten 50Jahre einfach chronologisch „fortzusetzen“. Stattdessen sollte man zunächst systematisch die Dynamik der Entgrenzung in den Blick nehmen, die für die zweite Hälfte deszwanzigsten Jahrhunderts besonders charakteristisch ist. Im Rahmen eines kurzen Aufsatzes muss das notwendigerweise zu Lasten der Diskussion des empirischen Materialsgehen, ich glaube aber, dass dieser Zwischenschritt wichtig ist.

Als Diskussionsgrundlage dient mir dabei Luc Boltanskis und Ève Chiapellos Studieüber denNeuen Geist des Kapitalismus, die sich aus drei Gründen besonders anbietet:

1. Boltanski und Chiapello entwickeln eine These über den spezifischen Charakterdes Kapitalismus der 1990er Jahre, deren Begründung sich an zentralen Stellender Argumentation auf eine Verschiebung im Feld der Prüfungstechniken stützt.

2. Sie präsentieren in diesem Rahmen eine Reihe von empirischen Befunden, diegeeignet sind, meine Überlegungen zum Dispositiv der Eignung zu stützen. 1 Was den Gebrauch des Ausdrucks Psychotechnik angeht, so beschränke ich ihn nicht auf die weni- gen Jahre, in denen er von den deutschsprachigen Protagonisten der angewandten Psychologie verwen- det worden ist, sondern beziehe ihn auf das gesamte Feld der konsequent anwendungsorientierten Psychologie seit 1900. Ich verweise auf Andreas Kaminskis treffende Formulierung in seinem Beitrag „Maßstäbe der Macht“ in diesem Band: „Die angewandte Psychologie hat nie aufgehört, Psychotechnik

187

186Andreas Gelhard

3. Sie entwickeln zur Analyse dieser Befunde einen begrifflichen Rahmen, dermeiner Ansicht nach nicht durchgehend geeignet ist, die genannten Befunde angemessen zu analysieren und der daher Gelegenheit gibt, einige begrifflicheÜberlegungen zur Erschließung des Feldes anzustellen.

Als Stein des Anstoßes erweist sich dabei vor allem das Konzept der Kompetenz, vondem sich Boltanski und Chiapello eine Korrektur gerade derjenigen Entgrenzungseffekte erhoffen, die es – meiner These zufolge – unterstützt und beschleunigt. 1. Der neue Geist des Kapitalismus

Ausgangspunkt der soziologischen Analysen imNeuen Geist des Kapitalismusist dieFrage, weshalb sich der Kapitalismus so erfolgreich alle Formen von Kritik einverleibenkonnte, die im Laufe der Jahre gegen ihn ins Feld geführt worden sind. Nach Boltanskiund Chiapello ist das vor allem auf einen Mangel zurückzuführen, der kapitalistischeOrdnungen zu sehr effektiven Kompensationsleistungen veranlasst: Sie sind so konsequent auf Kapitalakkumulation ausgerichtet, dass ihnen jede eigene Ethik und letztlichalle nicht ökonomischen Rechtfertigungsmuster fehlen. Der Kapitalismus ist „wohl dieeinzige, zumindest jedoch die wichtigste historische Ordnungsform kollektiver Praktiken, dievon der Moralsphäre völlig losgelöstist.“Da nach Boltanski und Chiapellokeine gesellschaftliche Ordnung ohne ein Mindesteinverständnis der beteiligten Akteureauskommt, ist dieser vollständige Mangel an Rechtfertigungsmustern zunächst als Defizit zu verbuchen. Der Mangel wird aber zur Stärke, wo sich Techniken des Moralimports ausbilden, die letztlich alles verarbeiten können, was die tradierten Lebensformenund kulturellen Muster anbieten. Dieser Punkt ist für den Grundgedanken des Bucheszentral: „Der kapitalistische Geist wandelt sich, um dem Rechtfertigungsbedürfnis derjenigen Menschen zu begegnen, die zu einem bestimmten Zeitpunkt am kapitalistischenAkkumulationsprozess beteiligt sind“ (60). Dabei geht es nicht nur darum, die Beteiligung am Akkumulationsprozess für möglichst viele Akteure „attraktiv zu gestalten“,sondern er muss auch ethisch-politischen Anforderungen gerecht werden, die sich unterden Begriff „Gemeinwohl“ fassen lassen (60). Nach Boltanski und Chiapello liegt darindie wichtigste Quelle für die integrative Kraft des Kapitalismus: Er entwickelt, mangelseigener ethischer Ressourcen, die Fähigkeit, Rechtfertigungsmuster zu adaptieren, die„zumeistzu ganz anderen Zweckenentwickelt wurden als zur Rechtfertigung des Kapitalismus“ und die „sogar auskapitalismusfeindlichenIdeologien“ stammen können (59). 2 Für eine erste knappe Skizze dieser These vgl. Gelhard 2011, Kap. II.6. 3 Boltanski/Chiapello 1999: 58. Nachweis dieser Ausgabe im Folgenden ohne weitere bibliographi- sche Angaben mit Seitenzahl im Text.

188

Entgrenzung der Psychotechnik187Kritik kann in diesem Zusammenhang geradezu „als Motor für die Veränderung deskapitalistischen Geistes“ fungieren, indem sie ihm ethische Rechtfertigungsmuster und„Gerechtigkeitsstrukturen“ liefert, „deren Relevanz er sonst nicht einmal erkennen würde“ (68).

Ich möchte diese These hier nicht als ganze zur Diskussion stellen. Meine Aufmerksamkeit gilt im Folgenden nur den historischen Voraussetzungen und philosophischenKonsequenzen einer spezifischeren These, die es Boltanski und Chiapello erlaubt,Techniken der „Prüfung (épreuve)“in der doppelten Funktion als stabilisierendes Moment der kapitalistischen Ordnung und als prädestinierten Ansatzpunkt ihrer Kritikauftreten zu lassen. Diese These lautet, dass der spezifische Charakter einer Gesellschaftdurch zwei Momente definiert werden kann: Erstens durch die Art der Prüfungspraktiken, mittels deren sie den Zugang zu Ausbildungsmöglichkeiten, Arbeitsstellen, gesellschaftlichem Ansehen und ökonomischen Gütern regelt; zweitens „durch die Konflikte,die sich am Gerechtigkeitsgehalt dieser Prüfungen entzünden“ (360).

Nach Boltanski und Chiapello wird die Frage nach der Gerechtigkeit der dominierenden Prüfungstechniken im Laufe der 1990er Jahre besonders problematisch, weileine tiefgreifende Umstrukturierung der Arbeitsverhältnisse zu einer „Desorganisation“der Eignungsprüfungen führt: Lebenslange Anstellungsverhältnisse mit klarem Aufgabenprofil weichen zunehmend informellen Organisationsformen, in denen alles daraufankommt, „ein lockeres Netzwerk von Arbeitskollegen“ zu unterhalten, das nach Abschluss eines befristeten Projekts die nötigen Anschlussmöglichkeiten sichert (206). DerBegriff des Projekts steht dabei als Inbegriff für alles, was die neue Ordnung von dergeradlinigen Planungslogik der 1960er Jahre unterscheidet: Alle Beteiligten sind sichbewusst, dass ihr Engagement von begrenzter Dauer sein wird und dass sie schon während des laufenden Projekts den Übergang zum nächsten vorbereiten müssen, wenn sienicht irgendwann auf der Strecke bleiben wollen (156 f.). Die dazu benötigten Fähigkeiten sind bei weitem nicht nur fachlicher Natur, sondern umfassen auch und vor allemKontaktpflegekompetenzen: Wo der Übergang von einem Projekt zum anderen denCharakter einer Prüfung annimmt, ist „Kontakt“ das entscheidende „Kapital“, das dieKontinuität des beruflichen Werdegangs sichert (172 f.). 4 Die deutsche Fassung des Neuen Geistes des Kapitalismus übersetzt épreuve , um dem weiten Be- deutungsspektrum des französischen Ausdrucks gerecht zu werden, durchgehend mit „Bewährungspro- be“ (vgl. die Anmerkung des Übersetzers: 711 f.). Da der Begriff der Bewährung im Deutschen eine deutlich informellere Note hat als der Begriff der Prüfung gebe ich épreuve im Folgenden durchgehend mit „Prüfung“ wieder. Zur Rechtfertigung dieser Modifikation verweise ich auf die terminologischen Überlegungen in Abschnitt 3. Die Zitate aus dem Neuen Geist des Kapitalismus werden an den entspre-

189

188Andreas Gelhard

Welche zentrale Bedeutung Boltanski und Chiapello in diesem Zusammenhang demProblem der angemessenen Prüfungspraktiken beimessen, zeigt sich schon daran, dasssie sowohl ihre Krisendiagnose als auch ihren Vorschlag zur Überwindung der Krise andiesem Thema ausrichten. Ihre Diagnose lautet, dass die steigende Verbreitung projektbasierter Arbeitsformen von einer Dynamik der „Desorganisation“ getrieben wird, diedie Grenzen zwischen beruflicher Eignungsprüfung und Berufsalltag verschwimmenlässt und den Beteiligten jede Möglichkeit nimmt, sich dauerhaft an verlässlichen Maßstäben zu orientieren. Inbegriff dieser Dynamik ist nach Boltanski und Chiapello die„Entinstitutionalisierung“ der gängigen Prüfungsformate, die bis in die 1980er Jahreberufliche Karrieren regelten (366). Eine rechtlich stark reglementierte Praxis, in derseltene Prüfungsereignisse mit klar beschreibbaren Settings nicht nur den Zugang zuBildungsabschlüssen, sondern auch die Einstellung und den weiteren beruflichen Karriereweg regelten, ist einer Situation gewichen, in der die häufigen Wechsel befristeterVerträge und beruflicher Projekte durch eher informelle Dynamiken geregelt werden,die nur noch schwer nachvollziehbaren Kriterien folgen.

Natürlich wollen Boltanski und Chiapello damit nicht sagen, dass die traditionellenFormen der beruflichen Eignungsprüfung und des Vorstellungsgesprächs, bei denen eineinziger Termin über die berufliche Laufbahn der kommenden 40 Jahre entscheidet, perse gerechter sind als die in den 1990er Jahren aufkommenden Praktiken. Wichtig istihnen nur, dass sich die Gerechtigkeitsfrage an diese Formate überhaupt sinnvoll stellenlässt. Wer nach Ablauf eines Projekts nicht weiterkommt, weil ihn alle aus ihren Adressbüchern gestrichen haben, wird sich kaum darauf berufen können, dass das ungerecht ist (vgl. 173). Zu einem ernsthaften Problem wird diese Deregulierung der Prüfungspraxis allerdings nur, weil die Zahl der Prüfungsereignisse – und der Ereignisse,die sich als Prüfungsereignisse interpretieren lassen – in der „projektbasierten Polis“signifikant steigt. Dieser Effekt der Entgrenzung wird derzeit gern unter dem Schlagwort „Burnout“ diskutiert, für Boltanski und Chiapello muss der Leidensdruck des Einzelnen aber vor allem deshalb zur Sprache gebracht werden, weil er Symptom einestieferliegenden Problems ist: Wo potenziell „alles zu einer Prüfungssituation wird, inder man sich Tag für Tag bewähren muss“, steigt nicht nur der Druck auf den Einzelnen, sondern es wird auch deutlich schwieriger, nachvollziehbare Gerechtigkeitsstandards aufrechtzuerhalten (366 f.). 2. Vom Test zur Kraftprobe?

Der neue Geist des Kapitalismusbeschreibt offenkundig eine Dynamik der Entgrenzung. Ich möchte mich im Folgenden nicht mit der Frage beschäftigen, ob sich diese

190

Entgrenzung der Psychotechnik189Diagnose in allen Details empirisch bestätigen lässt, sondern zu zeigen versuchen, dassBoltanski und Chiapello in ihrer Auseinandersetzung mit dem Thema der verschiedenenPrüfungsformen eine begriffliche Vorentscheidung treffen, die ihnen den angemessenenUmgang mit dem Thema erschwert. Gemeint ist die Unterscheidung zwischen klarreglementierten, standardisierten und in gewissem Maße auch formalisierten Prüfungsformaten (épreuve légitime) und offenen, agonalen, informellen Prüfungsereignissen(épreuve de force). Problematisch ist in diesem Zusammenhang weder die klare Hervorhebung der Prüfung als zentrale Schaltstelle gesellschaftlicher Selektionsprozessenoch die grundsätzliche Unterscheidung zwischen einem eher formalen und einem eherinformellen Modus des Prüfens. Problematisch ist die gleichsam eingebaute Asymmetrie des Begriffspaares, die schon in der Wahl des Terminusépreuve légitimesichtbarwird.

Der Einsatzpunkt, an dem man einen ersten SchrittmitBoltanski und Chiapello gehen kann, lässt sich klar umreißen: Sie heben als einen besonderen Vorzug des Prüfungsbegriffs hervor, dass er mit „einer verengt-deterministischen Sicht des Sozialen“bricht (72). Die überzeugende Begründung für diese Behauptung lautet, der Begriff derPrüfung erlaube es, der „Ungewissheit“ menschlichen Handelns besser gerecht zu werden als Theorien, die auf die „Allmacht der Strukturen“ oder das „Gewicht der verinnerlichten Werte“ abheben (72). Die Unterscheidung zwischenépreuve légitimeund épreuve de forcefolgt unmittelbar aus dieser Grundsatzüberlegung. Ich zitiere die einschlägige Passage im Zusammenhang:

Das sieht zunächst nach einem aussichtsreichen begrifflichen Rahmen für die weiterenAnalysen aus. Die Risiken scheinen dabei eher auf Seiten des Begriffs der Kraftprobezu liegen. Wer davon ausgeht, dass die Kontrahenten in einer Kraftprobe nicht nur zeigen, „wozu sie fähig sind“, sondern „wer sie überhaupt sind“, der könnte dazu neigen,das agonale Moment des Zweikampfs zu romantisieren und gegen das latente Gewaltpotenzial institutionalisierter Prüfungsformate auszuspielen. Schon die unmittelbar

191

190Andreas Gelhardfolgenden Seiten zeigen aber, dass Boltanski und Chiapello den entgegengesetzten Wegeinschlagen. Weit entfernt von einer romantischen Überhöhung der Kraftprobe neigensie vielmehr dazu, sie als eine bloß defizitäre Form der Prüfung zu betrachten, dienoch nichtodernicht mehrdurch Konventionen und Institutionen eingehegt ist. Der „Standpunkt“ einer institutionell verankerten „Gerechtigkeit“, den Boltanski und Chiapello zurBestimmung derépreuve légitimeheranziehen, ist so offenkundig auch ihr eigener, dasser schon in den konzeptionellen Rahmen ihrer Analyse eingeht. Von diesem Standpunktaus betrachtet dürfen die gestellten Anforderungen und die erlaubten Ressourcen ineiner Prüfung „nicht unbestimmt bleiben“, wenn sie wirklich legitim sein soll; sie mussdem Muster des „Wettrennens“ oder der „Lateinprüfung“ entsprechen, deren Rahmenbedingungen „im Vorfeld festgelegt worden“ sind (73).

Man kann diese Unterscheidung zwischen verschiedenen Modi der Prüfung auchneutral formulieren, wenn man sich an den von Boltanski und Chiapello gewähltenBeispielen der Lateinprüfung und des Zweikampfs orientiert. Diese Beispiele sind prägnant, werden von Boltanski und Chiapello aber so schnell mit der Unterscheidung Gerechtigkeit/Gewalt kurzgeschlossen, dass die gesamte weitere Argumentation in diesemFahrwasser bleibt. Ich möchte dagegen vorschlagen, Lateinprüfung und Zweikampf alszwei Modi der Prüfung zu unterscheiden, die man alsTestundBewährungsprobe bezeichnen kann.

UnterTestverstehe ich ein Geschehen, das einen erkennbaren Anfang, ein erkennbares Ende und einen wiederholbaren Ablauf hat. Zu dieser Grundstruktur gehört auchdie klare Festschreibung der Rollen von Prüfer und Prüfling. Der Prüfer beurteilt denPrüfling, und es ist nicht vorgesehen, dass sich dieses Verhältnis im Laufe desselbenTests umkehrt oder dass es auch nur in Frage gestellt wird. DasGerechtigkeitspotenzial des Tests liegt in den klar festgelegten, benennbaren und notfalls einklagbaren Anforderungen und Rahmenbedingungen, unter denen er stattfindet. Die von Boltanski undChiapello so genannteépreuve légitimeist in ihren Grundzügen immer ein Test. Das Gewaltpotenzialdes Tests liegt dagegen in der asymmetrischen Rollenverteilung zwischen Prüfer und Prüfling, die die Möglichkeit der Blamage nur für den Prüfling reserviert.

Eines der wichtigsten Kennzeichen des Tests ist so selbstverständlich, dass es erstim Kontrast zurBewährungbesonders auffällt: Während eines Tests handelt der Prüfling im Modus des „als ob“, um dem Prüfer eine Prognose über künftige Handlungen zu 5 Das ist der Grund, weshalb ich in meinen Zitaten von der deutschen Übersetzung des Neuen Geistes abweiche, der das französische épreuve mit „Bewährungsprobe“ wiedergibt. Nach dem von mir vorge- schlagenen Sprachgebrauch ist épreuve die Prüfung, die im Modus des Tests oder im Modus der Be- währung auftreten kann.

192

Entgrenzung der Psychotechnik191gestatten. Der Rückschluss von (Sprech-)Handlungen auf individuelle Dispositionen desProbanden soll die Antizipation von künftigen Handlungen ermöglichen (er wird denSatz auch morgen noch übersetzen können; er wird ein guter Mitarbeiter unseres Unternehmens sein, weil er bei Problem x die Lösungsmöglichkeiten y und z beherrscht etc.).

DieBewährungdagegen findet nicht im Modus des „als ob“ statt, sondern in Handlungsvollzügen, die nicht ausschließlich dem Zweck der Prüfung dienen. Sie beruht aufder Möglichkeit,jedeHandlung immerauchals einen Beweis von Fähigkeiten, Charakterzügen oder moralischen Einstellungen zu betrachten. Prüfungen im Modus der Bewährung haben folglich weder eine definierbare Dauer noch eine wiederholbare Struktur. Auch die Rollenverteilung zwischen Prüfer und Prüfling ist nicht festgeschrieben.Die paradigmatische Bewährungsprobe ist dyadisch strukturiert, wobei beide Partnereinander gegenseitig prüfen oder, wenn man so will, auf die Probe stellen.

DasGerechtigkeitspotenzialvon Bewährungssituationen liegt vor allem darin, dasses keine privilegierte Prüferposition gibt: die Beteiligten agieren grundsätzlich auf Augenhöhe und agieren immer zugleich in der Position des Prüfers und des Prüflings.Eben darin liegt aber auch dasGewaltpotenzialder Bewährung. Im Falle der Konfrontation (Zweikampf) bleibt die Situation ohne Mittler oder kann nur aufgelöst werden,indem einer der Beteiligten sich zum urteilenden Dritten erhebt.

Wenn Boltanski und Chiapello als einen der besonderen Vorzüge des Prüfungsbegriffs hervorheben, dass er mit deterministischen Konzeptionen des Sozialen bricht unddie „Ungewissheit“ hervorhebt, „die aus handlungstheoretischer Sicht in unterschiedlichem Maße den Situationen des Sozialen innewohnt“ (72), so verweist das zunächstgerade nicht auf die von ihnen bevorzugten Testformate mit klar angebbaren Rahmenbedingungen, sondern auf Prüfungen im Modus der Bewährung. Dem versuchen sieauch gerecht zu werden, indem sie betonen, man dürfe die Kraftprobe und die legitimePrüfung nicht „als ein streng getrenntes Oppositionspaar“ auffassen. Der einzige Gesichtspunkt, unter dem sie das begriffliche „Kontinuum“ zwischen beiden in den Blicknehmen, ist aber der, ob sie „mehr oder weniger gerecht“ sind, wobei die Kraftprobevon vornherein nur als Quelle „versteckter Ressourcen“ erscheint, die die Ergebnisseeiner „angeblich legitimen Prüfung verzerren“ können. Als Beispiel verweisen Boltanski und Chiapello auf die „ungleichen sozialen Voraussetzungen“, die die „Ergebnisse einer Schulprüfung beeinflussen“ können (73).

Damit ist die Stoßrichtung aller weiteren Argumente festgelegt. Grundtenor allerLösungsvorschläge, die Boltanski und Chiapello anbieten, ist die Überzeugung, manmüsse der Dynamik der Desorganisation traditioneller Prüfungsformate durch Einführung neuer Verfahren und Standards „entgegenwirken“ (371). Wenn Boltanski undChiapello betonen, dass die Prüfungimmer aucheine Kraftprobe ist, in der die Kontra-

193

Andreas Gelhardhenten nicht nur zeigen, was sie können, sondern „wer sie überhaupt sind“, so ist andieser Stelle noch nicht zu erwarten, dass die Kraftprobe in der Folge nur noch als Verfallsform der Testformate auftritt. Genau das ist aber der Fall. Die in der zitierten Passage angedeutete Dialektik von Test und Bewährung kommt nirgendwo zum Austrag,sondern wird – implizit, aber deutlich – nach dem Muster der Hobbesschen Vertragstheorie aufgefasst, die den Wegfall institutioneller Strukturen nur als Rückkehr zurbeständigen Kriegsneigung des Naturzustandes deuten kann. Boltanski und Chiapellosprechen zwar von einerVerschiebungder traditionellen Prüfungsformate, meinen aberdenVerfallder einmal erkämpften „Kontroll- und Gerechtigkeitsstandards“ und resümieren: „Im Anschluss an diese Auflösungsprozesse bleiben nur noch die Kraftproben“(361).

Für Boltanski und Chiapello ergibt sich daraus die Forderung, der Auflösung institutionalisierter Prüfungsformate mit klar reglementierten Settings gegenzusteuern unddafür zu sorgen, dass alle Beteiligten wieder mit deutlichen Erwartungen konfrontiertwerden, die sich erfüllen/nicht erfüllen lassen und deren angemessene Überprüfung sichbei Regelverstößen rechtlich einfordern lässt. Sie schlagen daher unter anderem eineinklagbares „Recht aufemployability“ vor, das die Unternehmen dazu verpflichtensoll, die Kompetenzen ihrer Mitarbeiter so weit zu fördern, dass sie im Falle des Projekt- oder Stellenwechsels leichter eine Arbeit finden (427–436). Dass sie gerade diesemVorschlag besondere Bedeutung beimessen, zeigt sich unter anderem daran, dass sie ihnin einem späteren Interview wieder aufgreifen, das dem Grundanliegen ihres Buchesgewidmet ist. Sie betonen darin erneut, dass die Leistungen vieler befristet Beschäftigterund Projektarbeiter „nicht angemessen anerkannt werden“ und hoffen, die „Idee derKompetenzen“ könne hier „vielleicht eine Lösung“ bieten (Boltanski/Chiapello 2000:176). Die Konzepte der Kompetenz und des Einstellungskapitals sollen eine interneRestrukturierung von Prüfungsverfahren ermöglichen, indem sie nur schwer kontrollierbare Kraftproben wieder stärker auf „Gerechtigkeitsbelange“ ausrichten und in Wertigkeitsprüfungen verwandeln (422). Solange die Unternehmen nicht in die Pflicht genommen werden, das Einstellungskapital ihrer Angestellten durch entsprechende Fördermaßnahmen zu erhöhen, sehen Boltanski und Chiapello die Gefahr, dass die Verantwortung für berufliche Misserfolge und soziale Unsicherheit immer nur den Erwerbstätigen zugerechnet werden kann. Die „Verpflichtung zu einem Ausbau des Einstellungskapitals durch die Unternehmen“ soll dagegen die Verantwortung auf mehrere 6 Im Schlusskapitel des Buches ist noch deutlicher davon die Rede, dass in der Kraftprobe nur das „Eigeninteresse des Stärkeren“ zur Geltung komme: „Keine ‚unsichtbare Hand‘ wird mehr leiten, wenn die Institutionen und Konventionen erst einmal zusammengebrochen sind“ (549).

194

Entgrenzung der Psychotechnik193Schultern verteilen und die Möglichkeit offenhalten, vor einem Arbeitsgericht das Rechtauf angemessene Kompetenzentwicklung einzuklagen (429). 3. Der Trend zum Informellen

Um zu zeigen, weshalb dieser Lösungsvorschlag problematisch ist, muss man nocheinmal bei der Diagnose ansetzen, deren Ergebnis man als einen Trend zu informellenPrüfungsformaten bezeichnen kann. Was heißt in diesem Zusammenhang „informell“?Die Antwort fällt sehr einfach aus, wenn man nur diejenigen Befunde desNeuen Geis- tesberücksichtigt, die sich mit dem Schema „Vom Test zur Kraftprobe“ vereinbarenlassen (A) und sie stellt dieses Schema in Frage, wenn man auch die gehaltvollerenBeobachtungen von Boltanski und Chiapello in die Überlegungen mit einbezieht (B).

(A) Möchte man an der These festhalten, dass es sich bei dem bemerkten Trend zumInformellen um eine Verschiebung vom Test zur Kraftprobe handelt, so lassen sich vorallem zwei Merkmale der diagnostizierten Entgrenzungsdynamik angeben:

(1) Die Zahl der Prüfungsereignisse – oder der Ereignisse, bei denen es sich möglicherweise um eine Prüfung handeln könnte – steigt.

(2) Die klar reglementierten Settings der klassischen Testformate, die keinenZweifel darüber zulassen, ob man sich gerade in einer Prüfungssituation befindet oder nicht, fallen weg.

Es ist klar, dass die unter (2) diagnostizierte Unschärfe eine wichtige Voraussetzung fürdie unter (1) berücksichtigte Schwierigkeit ist, Prüfungsereignisse von anderen Ereignissen zu unterscheiden. Betrachtet man beide Punkte getrennt, so erscheint Punkt (1)vor allem deshalb problematisch, weil er den Druck auf den Einzelnen erhöht, bei demder Eindruck entstehen kann, dass „alles zu einer Prüfungssituation wird“ (367). Punkt(2) betrifft dagegen eher die Schwierigkeit, ohne klare Verfahrensregeln einen gerechten Verlauf der Prüfung zu gewährleisten und das Umschlagen legitimer Prüfungsformen in bloße Kraftproben zu verhindern (369). Dabei kann man beide Probleme alsEffekte einerEntgrenzung des Prüfungsgeschehensbegreifen, das sich zumindest vonden Beteiligten nicht mehr auf klar angebbare Zeiten und Orte einschränken lässt.

(B) Gegen dieses einfache Schema möchte ich geltend machen, dass Effekte der Entgrenzung sich nicht ausnahmslos auf eine Dynamik der Deregulierung zurückführenlassen. Die bloße Abwesenheit benennbarer Verfahrensregeln und institutionell verankerter Settings bietet noch keine hinreichende Bestimmung dessen, was Boltanski undChiapello als Trend zum Informellen diagnostizieren. Angesichts der materialreichen

195

194Andreas Gelhard

Analysen der projektbasierten Polis erweist sich die Grundunterscheidung von legitimerPrüfung und Kraftprobe häufig als zu eng. Das zeigt sich vor allem in den Beschreibungen der kommunikativen Techniken, die auch unter dem Gesetz der kreativen Kurzfristigkeit für die notwendige Kontinuität der Arbeitsprozesse sorgen. Die Fähigkeit, zwischenmenschliche Kontakte zu knüpfen und zu pflegen wird unter diesen Bedingungenzu einer Grundfertigkeit, die nahezu unabhängig von den fachlichen Anforderungeneines bestimmten Berufsbildes gefordert sind. Wenn die paradigmatische Prüfung imgeglückten Übergang zwischen zwei Projekten besteht, dann bemisst sich die Höhe desKapitals, das man in diesen Prüfungen ausspielen kann, vor allem „an der Zahl und derQualität der Kontakte“ (172–176).

An diesem Punkt liegt das Missverständnis nahe, der „neue Geist“ des Kapitalismusverlange von allen Beteiligten ein zynisches Zocken mit Kontakten, das rein strategischen Zielsetzungen folgt. Dem steht aber die Grundthese des Buches entgegen, dassjede Gesellschaftsordnung auf ein gewisses Maß an Akzeptanz bei allen Beteiligtenangewiesen ist. Die Rede vom „Geist“ zielt gerade auf die im weitesten Sinne ethischeDimension des Kapitalismus, die er aus der kulturellen Überlieferung importieren muss,weil er sie selber nicht ausbilden kann. Auch das geradlinigste System der Kapitalakkumulation benötigt „in der Alltagsrealität verankerte Gründe zur Mitwirkung am Akkumulationsprozess, die mit den Werten und Anliegen derjenigen übereinstimmen,deren Teilnahme bewirkt werden soll“ (59).

Wenn der informelle Charakter der neuen Prüfungsformate negativ durch die Abwesenheit klar benennbarer Regeln bestimmt werden kann, so verlangt seine positive Bestimmung die Berücksichtigung genau dieser Produktion von Akzeptanz, die nach Boltanski und Chiapello nur im Rückgang auf die „normativ-ethische Dimension der projektbasierten Polis“ zu erklären ist: Man kalkuliert nicht einfach mit Kontakten, sondernsetzt auf persönliche Beziehungen, vertraut auf wechselseitige Hilfe, teilt gemeinsamErlebtes, verlässt sich auf das Wort des Anderen und handelt mit Verantwortungsbewusstsein. „Das, worauf es wirklich ankommt, istunveräußerlich,immateriell,infor- mell“ (165).

Der Ausdruck „informell“ bezeichnet in diesem gehaltvolleren Zusammenhang offensichtlich nicht nur die Abwesenheit von Regeln, sondern den gesamten Bereich zwischenmenschlicher Beziehungen, der nicht bloßen Effizienzanforderungen folgt. Boltanski und Chiapello neigen dazu, auch diesen Trend zum Informellen als Symptomeiner korrekturbedürftigen Entgrenzungsdynamik zu deuten, die die traditionelle Grenzezwischen „Beruflichem“ und „Privatem“ auflöst. Wie ich in meinen Überlegungen zumDispositiv der Eignung gezeigt habe, handelt es sich dabei aber weder um eine unkontrollierte noch um eine neue Entwicklung. Ausbildungsprogramme, die neben den klas-

196

Entgrenzung der Psychotechnik195sischen Testformaten eher informelle Methoden der Verhaltensbeobachtung in sozialenKontexten einsetzen, gibt es spätestens seit Beginn der 1950er Jahre. Das von Boltanskiund Chiapello analysierte Paradigma des Projektwechsels wird schon in diesen Programmen als Rollenspiel simuliert, das die Kontaktpflegekompetenzen des Probandenfeststellen soll. Den methodischen Rahmen liefert dabei die gerade aufkommendeGruppendynamik (vgl. Gelhard 2012, Abschnitt 4).

Boltanski und Chiapello liefern reiches Material zur Geschichte dieser systematischen Aufwertung von Kommunikation und Kontakt in der zweiten Hälfte des 20. Jahrhunderts. Ihre Analysen bleiben aber oft auf halber Strecke stecken, weil ihr eigentliches Interesse dem Projekt einer rechtlich abgesicherten Re-Formalisierung des Informellen gilt und die einmal formulierte Grundunterscheidung zwischen legitimer Prüfung und Kraftprobe sie zwingt, „Informelles“ als Abwesenheit von Regeln zu begreifen. An einigen Stellen bemerken sie zwar, dass das Feld zwischenmenschlicher Kontakte, das sie als dereguliertes Spielfeld des neuen Kapitalismus beschreiben, seinerseitszum Gegenstand von Tests geworden ist; der Zuschnitt ihrer begrifflichen Instrumenteerlaubt es aber nicht, diesen Umstand in das entworfene Gesamtbild zu integrieren. DieBeobachtung, dass unter Mitwirkung der „postbehavioristischen Psychologie“ neueTestformate entstanden sind, die deutlich „tiefer in das Seelenleben“ eingreifen als diefrüheren Formate, wird zwar formuliert, bleibt aber folgenlos (145). Dasselbe gilt fürdie verschärft auftretende „Kontrollproblematik“ in der projektbasierten Polis, dereneinzige Lösung letztlich darin besteht, „dass die Mitarbeitersich selbst kontrollieren“(121).

Um in diesem Punkt einen Schritt weiterzukommen, möchte ich eine Überlegungvon Andreas Kaminski aufgreifen, der den informellen Charakter von Prüfungstechniken als eine spezifische Form derunmerklichen Wirksamkeitauffasst. Dabei geht esnicht um eine Form von Unauffälligkeit, die durch Vertrautheit und Gewöhnung zustande kommt, sondern darum, dass es die Prüfung von Subjekten mit einem „Gegenstand“ zu tun hat, der sich nach den angelegten Maßstäben richten, sich in seinem Verhalten an ihnen orientieren und nach einer Verbesserung des Ergebnisses streben kann.Anders als bei der Messung rein physikalischer Größen bedeutet die Einführung neuerMenschen-Maße nach Kaminski daher immer auch eine Verschiebung des „Möglichkeitsraums“, in dem sich ein Subjekt bei der Ausbildung seines Selbstverhältnissesorientiert. Seiner Begriffsbestimmung zufolge ist die Prüfung von Subjekten nicht unmerklich, weil sie zur Routine geworden wäre, sondern weil sieauch dann wirkt, wenn sie gar nicht vollzogen wird. 7 Vgl. Kaminskis Beitrag in diesem Band: „Maßstäbe der Macht“.

197

196Andreas Gelhard 4. Ingenieursgeist und Zwischenmenschliches

Kaminskis Überlegungen betreffen den Unterschied zwischen psychometrischen Verfahren und anderen Messtechniken, und sie konstatieren bereits für hoch formalisiertePrüfungsformate, dass man nicht sinnvoll sagen kann, wo der Einzugsbereich der Prüfung beginnt und wo er endet. Die Dynamik der Entgrenzung ist also keineswegs aufPrüfungen im Modus der Bewährung festgelegt. Auch Tests verändern den Möglichkeitsraum, in dem sich die geprüften Subjekte nach dem Ende der Prüfung und außerhalb ihres Settings bewegen. Das Ergebnis der Lateinprüfung ist ebenso Bestandteileines Möglichkeitsraumes, in dem ein Subjekt sein Selbstverhältnis ausbildet, wie dasRollenspiel, in dem der Proband seine zwischenmenschliche Geschicklichkeit unterBeweis stellen soll. Bezieht man diese Einsicht auf die Untersuchungen von Boltanskiund Chiapello, so bedeutet das erstens, dass man die diagnostizierte Dynamik der Entgrenzung nicht einfach auf eine Verschiebung vom Test zur Kraftprobe zurückführenkann und zweitens, dass die Beschreibung einer Situation, in der das ganze Leben zurPrüfung zu werden scheint, einer neuen Erklärung bedarf.

Der erste Punkt dürfte inzwischen hinreichend klar geworden sein. Mit Blick aufden zweiten Punkt ist nun zweierlei entscheidend: Die Pointe von Kaminskis Argumentbesteht in dem Nachweis, dass Prüfungstechniken auch dann hoch wirksam sein können, wenn sich wissenschaftstheoretisch nachweisen lässt, dass sie gar nicht seriös„messen“, was sie zu messen beanspruchen. Sein Argument erklärt entsprechend,dass die von Boltanski und Chiapello konstatierte Entgrenzung des Prüfungsgeschehensprinzipiell möglich und letztlich immer schon geschehen ist. Damit bleibt eine ehergesellschaftstheoretische Frage, wie sie durch denNeuen Geist des Kapitalismus aufgeworfen wird, zunächst noch offen: Weshalb kann zu bestimmten Zeiten und unterbestimmten gesellschaftlichen Bedingungen der Eindruck entstehen, dass es sich umeine dynamischere, weiter reichende, aus Sicht der Beteiligten auch stärker belastendeForm von Entgrenzung handelt als zu anderen Zeiten und unter anderen Bedingungen?

Ein Teil dieser Frage lässt sich nur durch ausgedehnte historische Untersuchungenbeantworten, die unter anderem zeigen müssen, welche Prüfungsformate zu einer bestimmten Zeit in besonderem Maße als „normal“ akzeptiert und von Subjekten in dieGestaltung ihres Selbstverhältnisses aufgenommen werden. Die Umstellung von Prüfungstechniken, die vorwiegend der moralischen Grundunterscheidung erlaubt/verbotenfolgen auf solche, die das psychotechnische Schema geeignet/ungeeignet variieren,kann dabei nur einen ersten groben Rahmen bieten (vgl. Gelhard 2012, Abschnitt 1).

Neben den historischen Bedingungen des Umgangs mit Prüfungstechniken lassensich aber auch allgemeine Strukturmerkmale von Prüfungsformaten angeben, die dem

198

Entgrenzung der Psychotechnik197Effekt der informellen Wirksamkeit von Prüfungen besonders stark entgegenkommen.Ich möchte daher die These aufstellen, dass der Trend zum Informellen unter bestimmten Umständen nicht nur mit der Entwicklung psychotechnischer Testformate kompatibel ist, sondern von diesen Formaten geradezu gefördert und hervorgerufen werdenkann. Ein Blick in die Geschichte der Prüfungstechniken zeigt, dass in regelmäßigenAbständen stark reglementierte Testformate auftauchen,die strukturell auf die Erzeu- gung von Entgrenzungseffekten angelegt sind. Zwei wichtige Merkmale solcher Testformate sind:

(1) Sie bieten Verfahren an, die der Prüfling selbst, ohne Mitwirkung Dritter oderaufwendige Prüfungssettings, anwenden kann.

(2) Sie greifen im Möglichkeitsraum menschlicher Existenz nicht nur einen bestimmten Sektor – wie Intelligenz, fachliches Können, moralische Überzeugungen, persönliche Vorlieben – heraus, sondern sind darauf angelegt, möglichst viele Sektoren dieses Raumes abzudecken.

Das ist der Punkt, an dem der eingangs erwähnte Abriss zur Geschichte der psychotechnischen Prüfung zwischen 1900 und 1950 systematisch fruchtbar gemacht werden kann.Exemplarisch lässt sich das an den Namen Hugo Münsterberg, Elton Mayo und KurtLewin festmachen. Münsterberg kann als programmatischer Vertreter der frühen – sichselbst noch so bezeichnenden – Psychotechnik gelten, die versucht, die unterschiedlichsten Probleme industrieller Arbeitsprozesse zu lösen, indem sie die „psychischenEigenschaften“ der Beschäftigten feststellt und eine möglichst exakte Passung zwischenden Anforderungen einer Aufgabe und den Fähigkeiten des Beschäftigten herstellt.Vorbild für die Selbstbeschreibung dieser radikal anwendungsorientierten Psychologieist dabei das Berufsbild des Ingenieurs, der technische Mittel zur Bewältigung vorgegebener Probleme entwickelt.Dem gegenüber steht Mayo für die Entdeckung, dass zwischenmenschliche Beziehungen, Gefühle und Atmosphärisches wichtige Faktoren fürdie Produktivität einer Arbeitsgruppe sind. Wie schwer vereinbar diese beiden Ansätzezunächst sind, zeigt sich schon an ihren unterschiedlichen Strategien gegen die motivationshemmende Wirkung monotoner industrieller Produktionsabläufe. Wo Münsterbergvorschlägt, die üblichen psychotechnischen Prüfungsformate einzusetzen, um diejenigen Probanden auszuwählen, die am wenigsten unter langweiligen Arbeitsabläufenleiden, führt Mayo ausführliche Testreihen durch, die mit verschiedenen Formen der 8 „Die angewandte Psychologie stellt, wie jede technische Wissenschaft, fest, was geschehen soll, aber doch nur in der Art, daß sie sagt: du mußt diese Wege beschreiten und diese Hilfsmittel benutzen, falls du dieses oder jenes bestimmte Ziel erreichen willst. Ob dieses Ziel das richtige ist, das geht die

199

198Andreas Gelhard

Erleichterung und Auflockerung des Arbeitsprozesses experimentieren. In einer programmatischen Reflexion dieser Testreihen schreibt her:

Offensichtlich ist die Ausrichtung wissenschaftlicher Forschung am Modell technischerAbläufe, wie sie Münsterberg ausdrücklich propagiert, für Mayo die Quelle allen Übels.Angesichts dessen kann es als einer der entscheidenden Wendepunkte in der Geschichteder Psychotechnik angesehen werden, dass dennochbeideAnsätze in ein übergreifendespsychotechnisches Dispositiv integriert werden konnten. Die Voraussetzungen dafürschufen Sozialpsychologen wie Kurt Lewin, die sich ebenso als Psycho-Ingenieureverstanden wie Münsterberg, ihre Techniken aber von vornherein auf das von Mayoerschlossene Feld der zwischenmenschlichen Beziehungen ausrichteten. Auch für Lewin sind die Ingenieurwissenschaften das maßgebliche Vorbild für eine konsequentanwendungsorientierte Psychologie. Anders als die traditionelle Psychotechnik, derenwichtigstes Ziel darin bestand „Individuen ‚auszulesen‘, die Maschinen bedienen konnten“, muss es nach Lewin aber darum gehen, Probleme zu beheben, deren Ursache vorallem in „mangelnden Fähigkeiten im Umgang mit dem sozialen Leben“ zu suchen sind(Lewin 1945: 439 und 445).

Als Zwischenresultat kann man also festhalten, dass sich die Verfahren der klassischpsychotechnischen Eignungsprüfung im Laufe der 1920er Jahre auf das „weiche“ Problem der zwischenmenschlichen Beziehungen öffnen,ohnedabei den „harten“ Ansprucheiner wissenschaftlich ausweisbaren Überprüfung und Kontrolle der Probanden aufzugeben, und dass spätestens seit den 1940er Jahren psychologische Konzepte entstehen, die bewusst auf die Integration des „harten“ Anspruchs mit den „weichen“ Themenausgerichtet sind. Eines der erfolgreichsten Produkte dieser Neuausrichtung der psychotechnischen Forschung ist das psychologische Feedback-Konzept, das in den folgendenJahrzehnten in zahlreiche Techniken der schulischen und industriellen Eignungsprüfungeingebaut worden ist (vgl. Bröckling 2008). Dieses Konzept kommt einer Entgrenzungdes psychotechnischen Feldes vor allem im Sinne von Punkt (1) entgegen, weil es ermöglicht, traditionelle Prüfungsformate auf Techniken der Selbstprüfung und Selbstkontrolle umzustellen. Lewins Adaption des Feedback-Begriffs für die Sozialpsycholo-

200

Entgrenzung der Psychotechnik199gie steht am Anfang einer Entwicklung, die Boltanski und Chiapello als zunehmendeUmstellung auf Konzepte der „Selbstorganisation“ und „Selbstregulierung“ beschreiben (165).

Was Punkt (2) – die Besetzung möglichst vieler Sektoren im menschlichen Möglichkeitsraum – angeht, muss man zunächst konstatieren, dass psychologische Prüfungstechniken in dem skizzierten Zeitraumfaktischschon in sehr unterschiedlichen Lebensbereichen angewendet wurden. Was die ersten Psychotechniker in Schulen und Unternehmen einführten, wird von den Verfechtern des Social Management auch zur „geplanten Verhaltensänderung“ im Alltag und zur Steuerung politischer Prozesse eingesetzt. Es fehlt aber noch ein psychologisches Konzept, das geeignet ist, den disparatenAnforderungen dieser verschiedenen Lebensbereiche mit einem einheitlichen Set vonBegriffen und Verfahren zu begegnen. Man wird hier auch in der Folgezeit nicht „das“Konzept identifizieren können, dem diese Funktion allein zufiele. Aber zu den wichtigsten psychologischen Neuentwicklungen der zweiten Jahrhunderthälfte, die diese Funktion mit einigem Erfolg erfüllten, gehört mit Sicherheit das Konzept der Kompetenz. 5. Das Konzept der Kompetenz

Als David McClelland zu Beginn der 1970er Jahre forderte, nicht mehr Intelligenz,sondern Kompetenzen zu testen, ging es ihm vor allem darum, berufliche Eignungsprüfungen passgenauer und gerechter zu gestalten (McClelland 1973). Anders als die zudieser Zeit in den USA weit verbreiteten Intelligenztests, die in unterschiedlichstenBerufsfeldern dieselben Testformate verwendeten, um eine nicht weiter spezifizierbareBefähigung-zu-allem zu prüfen, sollten die neuen Formate eine ganz auf die Anforderungen einzelner Berufe zugeschnittene Auswahl ermöglichen. Neben seiner psychologischen Sachkenntnis brachte McClelland dabei auch seine Expertise als Unternehmensberater ein und forderte seine Kollegen auf, den Schreibtisch zu verlassen, um sichein genaues Bild von den spezifischen Anforderungen einzelner Berufsfelder zu machen.

Dabei ging es McClelland nicht nur um die Optimierung von ökonomischen Arbeitsabläufen, sondern auch darum, die diskriminierenden Seiteneffekte der in den USAvorherrschenden Lehre von der angeborenen Intelligenz zu vermeiden. Einer seinerunmittelbaren Gegner war Lewis W. Terman, der den bis heute verwendeten StanfordBinet Intelligenztest breitenwirksam durchgesetzt hatte. Termans These, dass es sich beiIntelligenz um eine vollständig angeborene Disposition handelt, war in den Augen McClellands nicht nur falsch, sondern trug auch zur Zementierung sozialer Ungleichheitbei. Den Dogmen der Intelligenzprüfung setzte er daher die nicht weniger rigide These

201

200Andreas Gelhardentgegen, dass letztlich jede menschliche Eigenschaft optimierbar ist: „Es ist schwierig,wenn nicht unmöglich, eine menschliche Eigenschaft zu finden, die nicht durch Training oder Erfahrung verändert werden könnte“ (ebd., 8).

Einer der wichtigsten Effekte dieses Grundsatzes war, dass sich der Kontakt zwischen angewandter Psychologie und pädagogischem Mainstream beträchtlich intensivieren ließ. Schon die ersten Psychotechniker zu Beginn des 20. Jahrhunderts hattenihre Testformate mit großem diplomatischem Geschick in die Schulen gebracht und inAussicht gestellt, das noch uneingelöste Versprechen herkunftsunabhängiger Bildungschancen auf psychologischem Wege zu verwirklichen. Dabei setzten sie aber ausschließlich auf Mittel der Selektion und hatten auf Seiten der Erziehung wenig attraktive Angebote zu machen. Die rigideren US-amerikanischen Konzepte der Intelligenzmessung verschärften dieses Problem noch, weil man vollständig angeborene Dispositionen per definitionem nicht schulen, sondern nur testen kann. Den Weg aus dieserSackgasse eröffnet McClelland. Er setzt der Doktrin der angeborenen Intelligenz dieLehre entgegen, dass sich letztlich jede menschliche Eigenschaft trainieren lässt undzieht daraus den Schluss: „Wir müssen aufhören, immer nur über Selektion nachzudenken und damit beginnen, der Evaluation von Erziehungsprozessen mehr Aufmerksamkeit zu schenken“ (ebd., 13).

McClellands erfolgreicher Schachzug bestand darin, die psychologische Testentwicklung für die Anforderungen der schulischen Erziehung zu öffnen, ohne die Logikberuflicher Eignungsprüfung dabei im Grundsatz anzutasten. Der Begriff der Kompetenz konnte so von vornherein als Gelenk zwischen dem Bildungssystem und jenemKomplex psychotechnischer Testformate fungieren, den man als Dispositiv der Eignungbezeichnen kann. Wie erfolgreich das Konzept später werden würde, zeichnet sich beiMcClelland aber erst ganz andeutungsweise ab. Nachdem die Festlegung auf Kognitivesbeseitigt und die Trainierbarkeit von allem deklariert worden war, dauerte es noch zweiJahrzehnte, bis sich das expansive Potenzial des Kompetenz-Konzepts in vollem Maßezeigen konnte. Dieses Potenzial bestand nicht darin, dass Kompetenztests irgendeinepsychische Eigenschaft genauer, zuverlässiger oder angemessener feststellen konntenals die traditionellen Intelligenzprüfungen. Es bestand vielmehr in der Möglichkeit, zujedem beliebigen Bereich des menschlichen Lebens die passende Kompetenz zu erfinden, indem man das Repertoire von den fachlichen über die kommunikativen und sozialen bis hin zu den emotionalen und moralischen Kompetenzen erweiterte. Unter derAnnahme, dass man angeborene psychische Dispositionen misst, hätte eine solche Expansion des Einzugsbereichs noch zu absurden Konsequenzen geführt. Mit McClellandsDogma der universellen Trainierbarkeit wird es aber möglich, psychotechnische Testszu entwickeln, die zwischenmenschliche Beziehungen auf individuelle Fähigkeiten

202

Entgrenzung der Psychotechnik201herunterrechnen und auftretende Probleme als Mangel sozialer, kommunikativer oderemotionaler Kompetenzen interpretierbar machen.

Damit wird verständlich, warum die entsprechenden Test- und Trainingsformate besonders geeignet sind, den Eindruck einer endlosen Kette von Prüfungssituationen hervorzurufen: Der Verlauf jeder Situation, an der menschliche Akteure beteiligt sind, lässtsich auf deren (soziale, kommunikative, personale, emotionale, moralische) Kompetenzen zurückrechnen und folglich kann man auch jede beliebige Situation zum Trainingindividueller Kompetenzen nutzen, ganz gleich, ob sie zu diesem Zweck initiiert wurdeoder nicht. Wer mit Hilfe von Fragebögen, Interviews, Rollenspielen und FeedbackReports gelernt hat, sich selbst als Ensemble von Kompetenzen zu interpretieren, kannbeginnen, die Dynamik der informellen Wirksamkeit von Prüfungstechniken bewusst zunutzen und zu gestalten. Das klassische Versprechen der Psychotechnik, dass die Auslese der „bestangepaßten Individuen“ nicht nur dem Vorteil der „Stellunggebenden“dient, sondern auch zur persönlichen Entfaltung der „Stellungsuchenden“ beiträgt(Münsterberg 1912: 34), kehrt wieder in der Vorstellung vom effektiven „Projektteam“,in dem „alle Beteiligten auch etwas für sich (ihre berufliche Qualifikation, ihre kommunikative Kompetenz, ihre Persönlichkeit) gewinnen“ können (Klopotek 2004: 217).

Das gesteigerte Gewaltpotenzial der entsprechenden Techniken beruht dabei nichtnur darauf, dass sie potenziell jeder Situation des menschlichen Lebens den Charaktereiner Bewährungsprobe verleihen, sondern auch und vor allem darauf, dass sie es erlauben, jede beliebige kollektive Dynamik auf individuelle Dispositionen zurückzuführenund die Verantwortung für Dysfunktionalitäten vollständig dem einzelnen Beteiligtenzuzurechnen. Anders als Boltanski und Chiapello es suggerieren, sind diese Effekteallerdings nicht die Folge einer „Desorganisation“ bewährter Prüfungsformate, sondernFolge des systematischen Auf- und Ausbaus neuer Organisationsformen von gesellschaftlich wirksamen Prüfungstechniken, die nicht weniger strengen Regeln folgen undhäufig einen noch höheren Grad der Formalisierung aufweisen als die traditionellenFormate. Die Herausgeber desHandbuchs Kompetenzmessung, das gut fünfzig aktuelleVerfahren erfasst, können sich nicht nur auf eine Reihe politischer Beschlüsse auf EUEbene berufen, sondern vermerken auch den außerordentlich hohen Anteil quantitativauswertbarer Verfahren (Erpenbeck/von Rosenstiel 2007: xi–xv). 6. Ausblick

Unter den aktuellen Prüfungsformaten, die die Entgrenzung des psychotechnischenFeldes beschleunigen, ist also genau das Konzept von besonderer Bedeutung, das Boltanski und Chiapellogegendie Effekte der Entgrenzung ins Feld führen wollen: das

203

202Andreas Gelhard

Konzept der Kompetenz. Ihre Hoffnung, das Konzept könnte vielleicht einen Ansatzpunkt bieten, um wieder zu klareren Gerechtigkeitsstandards zu finden, ist also mitVorsicht zu genießen. Das bedeutet aber nicht, dass ihre Überlegungen keine geeignetenMittel zur Analyse der derzeitigen Situation bereitstellten. Beseitigt man das normativeGefälle aus der Unterscheidung zwischenépreuve légitimeundépreuve de force, indemman sie, wie vorgeschlagen, als Unterscheidung zwischen Test und Bewährungsprobereformuliert, so lässt sich daraus vielleicht ein erster Ansatz für eine neue Beschreibungdes Feldes gewinnen. Ein guter Test liefert dem Prüfer eine haltbare Prognose überkünftige Handlungen des Prüflings, und er konfrontiert den Prüfling nur mit Erwartungen, die möglichst klar formuliert und folglich auch erfüllbar sind (Beispiel: Lateinprüfung). Die Herausforderung im Geschehen der Bewährung liegt dagegen gerade in derUnvorhersehbarkeit des Anderen und in der Möglichkeit, dass Erwartungen auch enttäuscht werden können (Beispiel: Zweikampf). In ihr muss erstgeleistetwerden, wasder Test als Bedingungvoraussetzt: die Reduktion von Ungewissheit auf ein erträgliches Maß und die Herausbildung erwartbarer Handlungsmuster. Dabei kommt ein Zugins Spiel, der sich im begrifflichen Rahmen desNeuen Geistesnur schwer abbildenlässt: Die Bewährung ist immer auchSelbstprüfung. Sie ist kein Crashtest, bei dem manirgendetwas gegen irgendeine Wand fahren lässt, um zu sehen, was davon übrigbleibt,sondern ein Geschehen, in dem einersichdem anderen – seinem Blick, seinem Urteil,seiner Waffe –aussetzt.Die Prüfung im Modus der Bewährung ist, nur scheinbar para- dox, Selbstprüfung zu mehreren. An diesem Punkt wäre es den Versuch wert, die vonBoltanski und Chiapello hervorgehobene Dynamik eines Verfalls vom Test zur Kraftprobe zumindest probeweise umzukehren: Bewährung ist nicht das, was übrig bleibt,wenn die Regeln von Tests sich auflösen, sondern ein Test ist eine reglementierte, vonTeilnahme auf Beobachtung umgestellte Bewährungssituation, die immer an die Dynamik der Bewährung zurückgebunden bleiben muss, wenn sie sich nicht zu einem autoritären Kontrollmechanismus verfestigen soll.

Literatur

204

Entgrenzung der Psychotechnik203

205

204 Autorenverzeichnis Bockrath, Franz, Dr., Professor für Sportwissenschaft, Fachgebiet Sportpädagogik undSportgeschichte, an der TU Darmstadt. bockrath@ifs-tud.de

Gebelein, Paul, Soziologe, wissenschaftlicher Mitarbeiter in der Informatik an der TUDarmstadt. gebelein@ifs.tu-darmstadt.de

Gelhard, Andreas, Dr. phil., wissenschaftlicher Leiter des Forum interdisziplinäre Forschung und wissenschaftlicher Mitarbeiter des philosophischen Instituts der TU Darmstadt. gelhard@fif.tu-darmstadt.de

Gehring, Petra, Dr. phil., Professorin für Philosophie, Fachgebiet Theoretische Philosophie, an der TU Darmstadt. gehring@phil.tu-darmstadt.de

Harrach, Sebastian, Dr. phil., wissenschaftlicher Koordinator am Ubiquitous Knowledge Processing Lab, TU Darmstadt. harrach@ukp.informatik.tu-darmstadt.de

Hubig, Christoph, Dr. phil., Professor für Philosophie, Fachgebiet Philosophie der wissenschaftlich-technischen Kultur, an der TU Darmstadt. hubig@phil.tu-darmstadt.de

Kaminski, Andreas, Dr. phil., wissenschaftlicher Mitarbeiter am Institut für Philosophie der TU Darmstadt. kaminski@phil.tu-darmstadt.de

Nordmann, Alfred, Dr. phil., Professor für Philosophie, Fachgebiet Philosophie undGeschichte der Wissenschaften, an der TU Darmstadt. nordmann@phil.tu-darmstadt.de Palfner, Sonja, Dr., wissenschaftliche Mitarbeiterin am Zentrum Technik und Gesellschaft der TU Berlin. sonja.palfner@tu-berlin.de

Saborowski, Maxine, Dr. des., Philosophin, wissenschaftliche Mitarbeiterin an derAlice Salomon Hochschule Berlin. saborowski@ash-berlin.eu

ULB + wbg
Impressum
Zur Philosophie informeller Technisierung
Edition Universitätder Wissenschaftlichen Buchgesellschaftund der TU Darmstadtmit der Carlo und Karin Giersch-Stiftung Gedruckt mit der Unterstützung derCarlo und Karin Giersch-Stiftung
1

2

3

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

4

5

6

7

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

8

9

Wir danken den Autorinnen und Autoren für ihre Neugierde und die gemeinsame Arbeit. Ein großer Dank gebührt Ferdinand Rausch und Sebastian Hoenisch für ihre Unterstützung bei der Gestaltung und Hubig, Christoph (2006): Die Kunst des Möglichen I. Technikphilosophie als Reflexion der Medialität. Bielefeld: Transcript.

10

11

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

12

13

14

15

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

16

17

18

Nordmann 2008b; vgl. auch Kaminskis Beiträge in diesem Band. Jasanoff, Sheila (2002): Citizens at Risk: Cultures of Modernity in the US and the EU. In: Science as Culture 11, S. 363–380.

19

20

21

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

22

23

24

25

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

26

27

28

29

30

31

32

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

33

34

35

36

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

37

38

39

40

Zur Genese der Grid-Initiative siehe Palfner/Tschida 2012: Grid, so unsere These, ging über Tech- nologieentwicklung deutlich hinaus – Grid wurde auch ein Versammlungsort für neue Konstellationen der Macht im wissenschaftlichen Gefüge in einem umfassenden Sinn: Es stellte die Akteure nicht nur vor technische, sondern auch vor soziale, rechtliche, politische und organisatorische Herausforderun- gen. 12 CORDIS ist ein Community Research and Development Information Service im Rahmen der Euro- päischen Kommission. „TextGrid ist ein Forschungsverbund, dessen Ziel es ist, den Zugang und den Aus- tausch von Informationen in den Geistes- und Kulturwissenschaften mit Hilfe mo- derner Informationstechnologie (Grid) zu unterstützen. Seit 2006 wird eine inter- netbasierte Plattform aufgebaut, die Wissenschaftlern Werkzeuge und Dienste für die Auswertung von textbasierten Daten in unterschiedlichen digitalen Archiven bietet – unabhängig von Datenform, Softwareausstattung oder Standort“

41

42

43

44

45

46

47

48

49

50

51

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

52

53

54

55

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

56

57

58

59

60

Ein instruktiver Ansatz die Veränderung, das Auftauchen und Verschwinden von sozialen Prakti- ken über die Zeit zu fassen, findet sich bei Elizabeth Shove (Shove et al. 2012). Informelle Technisierungsstrategien im Hochleistungssport Von der Anpassung des Körpers zur Universalisierung des LeistungsvergleichsFranz Bockrath „Die Allianz von Telegraphie und Presse, nicht schon die Presse allein, bezeichnet den folgenreichsten Medienumbruch in der Geschichte des modernen Sports.

61

62

63

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

64

65

66

67

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

C-g-s steht für die physikalischen Einheiten centimetre, gram, second. In einzelnen Sportarten, wie etwa in der Leichtathletik, ist es möglich, exakte Leistungsmessungen unter Anwendung dieser Einhei- ten vorzunehmen. 31 Werron (2010: 317) vertritt hier übrigens eine gegenteilige Auffassung: „Zweifellos gab es genuin wirtschaftliche Interessen, den Wettkampfbetrieb zu verstetigen und auf die Einnahmebedürfnisse professioneller Clubs abzustimmen. Aber es gab auch genuin sportliche Gründe, die sich nicht unmit- telbar aus ökonomischen Interessen und Motiven der involvierten Clubs, sondern nur aus den sich verdichtenden Strukturdynamiken im Horizont des Publikums erschließen lassen, insbesondere aus der Abstimmung von verfeinertem Leistungsvergleich und erweitertem Leistungserleben.“ Dies schließt freilich nicht aus, dass die beschriebenen Strukturdynamiken und ökonomischen Interessen sehr gut miteinander verträglich waren; die Rede von „genuinen Interessen“ und „genuinen Gründen“ blendet waren, um den modernen Wettkampfbetrieb kognitiv zu begleiten“ (ebd.: 231–

91

92

93

94

Die Bezeichnung als „AB0-System“ wurde erst 1928 international üblich. Landsteiner erhielt 1930 für seine Entdeckung den Nobelpreis. 4 Schiff (1926: 370) spricht von 16 Prozessen in Deutschland, für die er bereits Gutachten angefertigt hat, darunter 14 zivilrechtliche Verfahren (Unterhaltsklagen und Ehelichkeitsanfechtung). Weiter (1926: 374) führt er aus, dass er seines Wissens die ersten Gutachten überhaupt für Abstammungsver- fahren für Gerichte angefertigt habe. Reche, der (1938) in der nationalistischen Zeitschrift „Volk und Rasse“ schrieb, ignoriert den Artikel des jüdischen Arztes Schiff vollständig. 5 Harrasser verweist auf einen Artikel von Ottmar von Verschuer von 1944 aus der Zeitschrift Der Erbarzt und ignoriert Schiffs Artikel von 1926, ebenso wie Reche es getan hat. Der Erbarzt war eine „Schon 1931 entschied der Wiener Oberste Gerichtshof, daß das Fehlen einer erb- biologischen Untersuchung in einem Vaterschaftsprozeß einem Verfahrensmangel gleichkäme. Damit war der Ähnlichkeitsvergleich nicht nur als Beweismittel an- erkannt, sondern gewissermaßen vorgeschrieben.“ (Kröner 1999: 258, vgl. Reche

95

96

97

98

Vgl. auch Reche 1938: 373: „Die Zahl der seit 1926 in Deutschland [inklusive dem annektierten Österreich] angefertigten Gutachten dürfte schon 1000 übersteigen.“ 8 Harrasser verweist auf die „Richtlinien der Deutschen Gesellschaft für Anthropologie für die Erstat- tung anthropologisch-erbbiologischer Abstammungsgutachten in gerichtlichen Verfahren“ von 1950 „Während also bei der ausschließlichen Verwendung der Blutgruppen nur die si- chere Möglichkeit eines Ausschlusses einer Vaterschaft – noch dazu in verhält- nismäßig nur wenigen Fällen – besteht, ist bei der Verwendung der anthropolo- gisch-erbbiologischen Methode die Möglichkeit gegeben, nicht nur eine Vater- schaft auszuschließen, sondern auch mit ziemlicher oder großer Sicherheit wahr- scheinlich zu machen oder zu beweisen ; der Blutgruppenmethode gegenüber ein sehr großer Vorteil. // Der Einfachheit wegen wird man bei jedem Abstammungs- nachweis zuerst die Blutgruppenmethode verwenden, denn mit ihr wird ein be- stimmter Hundertsatz der Fälle bereits aufgeklärt werden können. Zeitigt die

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123