Mythos Objektivität

Zuletzt aktualisiert am 10. März 2020.

Im Jahr 2007 legten Lorraine Daston, Direktorin am Max-Planck-Institut für Wissenschaftsgeschichte in Berlin und Peter Galison, Professor für Wissenschaftsgeschichte und Physik in Harvard, eine opulente Geschichte des wissenschaftlichen »Sehens« – im wörtlichen und metaphorischen Sinn – vor, die um den Begriff der Objektivität kreist.

Die Untersuchung umfaßt zwei Jahrhunderte der abendländischen Wissenschaftsentwicklung, vom 18. Jahrhundert bis zur Gegenwart, und zeichnet die immanenten Wandlungen nach, die das Verständnis wissenschaftlichen Erkennens durchlaufen hat. Die Autoren analysieren die bildliche Darstellung von Erkenntnissen in wissenschaftlichen Atlanten und Forschungsberichten, aus denen sich diese Wandlungen ablesen lassen. Einen Kernbefund ihrer Untersuchung fassen die beiden Wissenschaftshistoriker in folgenden Sätzen zusammen: »Objektivität ist nur eine von mehreren epistemischen Tugenden, nicht das A und O der Erkenntnistheorie. Objektivität ist weder ein Synonym für Wahrheit oder Gewißheit noch für Genauigkeit oder Präzision … Objektivität ist weder [historisch] unvermeidlich noch unumstritten … Wissenschaft ohne Objektivität kann es geben, hat es gegeben und gibt es.« Über das Gegenstück der Objektivität schreiben sie: »Subjektivität ist die Vorbedingung für Wissen: ein Selbst, das weiß … Subjektivität ist keine Schwäche des Selbst, die man wie Kurzsichtigkeit korrigieren kann oder wie eine blühende Phantasie in Schach halten könnte. Sie ist das Selbst.«

Mechanische Objektivität

Was verstehen Daston und Galison unter Objektivität? Sie ist ein bestimmtes Verständnis des wissenschaftlichen Sehens, des Erkennens, das sich im Zusammenhang mit bestimmten Technologien des Wahrnehmens und Abbildens im Lauf des 19. Jahrhunderts herausgebildet hat, ein Verständnis des wissenschaftlichen Sehens, das im »Blindsehen« das Ideal des menschlichen Erkennens sah. »Objektivität«, das war »mechanische« Objektivität, ein epistemisches Vorhaben, das darauf abzielte, die Beteiligung des erkennenden Selbstes am Zustandekommen der Erkenntnis zu unterdrücken und durch eine Kombination technischer Verfahren die Natur gleichsam automatisch abzubilden. Die neuen technologischen Verfahren, insbesondere die Fotografie, ermöglichten, »nur das abzubilden, was an der Oberfläche der Dinge zu sehen war, und nicht das, was Deduktion oder Interpretation nahelegten«. Die Maschine wurde gegen Ende des 19. Jahrhunderts zum Modell für wissenschaftliches Erkennen. Sie verkörperte einen Beobachter, der die menschliche Beobachtungsfähigkeit bei weitem übertraf, und versprach Bilder, Abbilder der Wirklichkeit, die nicht von der Subjektivität des Beobachters verunreinigt waren.
Daston und Galison vertreten nicht die These, das neue Ideal der Objektivität sei durch die Erfindung und Entwicklung der genannten Technologien des Beobachtens und Abbildens verursacht worden, sie erkennen aber eine Wechselwirkung zwischen der Etablierung dieser Technologien und der Ausbreitung der neuen Metaphysik der Objektivität. Diese Metaphysik zielte auf die »wirklichen« Tatsachen, von denen vorausgesetzt wurde, dass sie unabhängig vom menschlichen Subjekt Bestand hätten und durch seinen Versuch, sie zu erfassen, nur verfälscht werden könnten. Der einzige Ausweg aus diesem Dilemma schien in Methoden der Beobachtung zu liegen, die einen möglichen Beitrag des menschlichen Subjekts bei der Erfassung der »objektiven Wirklichkeit« eliminierten.
Erkenntnistheoretisch ausgedrückt, war die Ideologie der Objektivität Folge einer Zurückdrängung der Ideen im Erkennen, die für die unmittelbar vorangehende Epoche der entscheidende Faktor beim Zustandekommen der Erkenntnis waren. Mit dieser Epoche befassen sich die Autoren ebenfalls. Sie sehen in ihr eine legitime Erscheinungsform von Wissenschaft und halten sie nicht für abgetan, zumal auch das Ideal der Objektivität inzwischen relativiert ist und zwar durch Entwicklungen in der Wissenschaft selbst.

Naturwahrheit

In der Zeit der Aufklärung und des Idealismus suchten Forscher nach Ideen und Typen, in denen ihrer Auffassung nach die Naturwahrheit zum Ausdruck kam, in der zweiten Hälfte des 19. Jahrhunderts nach Objektivität ohne subjektive Beimischungen, und seit dem frühesten zwanzigsten Jahrhundert, als sie sich von den Übertreibungen der Epoche der Objektivität abzuwenden begannen, nach einer kontrollierten Interpretation, die aus einem geschulten Urteil hervorgehen sollte. »Die Objektivität, die um die Mitte des neunzehnten Jahrhunderts als eine epistemische Tugend aufkam«, schreiben Daston und Galison, »hat die Naturwahrheit nicht entthront, sowenig, wie die Wende zum geschulten Urteil im frühen zwanzigsten Jahrhundert die Objektivität ausschaltete. Man sollte diese Reihenfolge nicht in Analogie zur Ablösung eines politischen Regimes oder einer wissenschaftlichen Theorie durch Nachfolger sehen, die ihre Triumphe auf den Trümmern des Vorangegangenen feiern, sondern sich lieber vorstellen, dass neue Sterne aufblitzen, die nicht die älteren ersetzen, aber die Topographie des Himmels verändern.«
Was ist unter »Naturwahrheit« zu verstehen? Goethe wie Linné war das Bestreben gemeinsam, in der Vielfalt der Erscheinungen das Typische, Regelhafte, Urbildliche zu erfassen. Wirklich war für sie nicht die zufällige Erscheinung, sondern das Gesetz, das sich in dieser Erscheinung manifestierte. Nur die aufmerksamsten und erfahrensten Beobachter vermochten die genuinen Arten von Varietäten zu unterscheiden, die wahren spezifischen Merkmale einer Pflanze zu erkennen. Das Auge des Geistes mußte mit den sinnlichen Augen zusammenwirken, die Vernunft mußte aus den zufälligen Daten die Regelhaftigkeiten herausschälen. Den Forschern, die nach der »Naturwahrheit« strebten, ging es nicht darum, platonische Ideen auf die sinnliche Welt zu projizieren, aber sie glaubten, sie könnten diese platonischen Ideen aus den Sinnesdaten herauslösen. Wissenschaft zielte im Zeitalter der Aufklärung auf Allgemeinheit, auf einen nie gesehenen, aber gleichwohl realen Archetyp, auf ein Vernunftbild der Wirklichkeit: die Wirklichkeit war vernünftig und die Vernunft das Organ, das sie verbindlich zu erfassen vermochte. Im achtzehnten Jahrhundert waren jene Phänomene typisch, die auf einen zugrundeliegenden Typus zurückgingen, aus dem sich individuelle Phänomene ableiten ließen. Auch wenn das Typische selten, wenn überhaupt, in einem einzelnen Exemplar verkörpert war, vermochte der scharfsinnige Beobachter es doch aufgrund seiner Erfahrungen intuitiv zu erfassen, so wie Goethe die Urpflanze. Das Sehen war kein bloß physiologischer Akt oder eine subjektive Zutat zum objektiv Gegebenen, sondern »Akt eines integrationsfähigen Gedächtnisses und des Unterscheidungsvermögens: das gesehene Urbild war das Emblem einer ganzen Klasse von Erscheinungen, nicht nur Porträt oder Abbild eines einzelnen Objekts.« In der Mitte des neunzehnten Jahrhunderts dagegen hatte sich die Forschung dem Nominalismus zugewandt: man glaubte, nur das Einzelne sei real, und »wer von diesem abweiche, öffne Einstellungen im Dienst dubioser Theorien oder Systeme Tür und Tor.« Während die Naturforscher des 18. Jahrhunderts in der Empirie, in der Welt der Objekte, die Quelle des Zufälligen und Unregelmäßigen sahen, über das nur die sehende Vernunft hinausführen konnte, die das Typische und Archetypische erfaßte, wandte sich die Epoche der Objektivität von diesen angeblich subjektiven Zutaten ab und suchte nach den unverfälschten Tatsachen unter Ausschluss des erkennenden Subjekts.

Geschulter Blick

Aber der Glaube an die mechanische Objektivität erodierte gegen Ende des 19. Jahrhunderts an seinen eigenen Widersprüchen. Dem Subjekt war nicht zu entkommen, die vielversprechenden Vorteile der Automatisierung erschienen immer zweifelhafter, nicht zuletzt den wirklichen Experten. Im frühen zwanzigsten Jahrhundert kamen mehr und mehr Wissenschaftler zum Schluss, dass die Subjektivität nie ganz auszurotten war. Wenn das Ziel der Erkenntnis eine vollständige Reproduktion der tatsächlichen Wirklichkeit unter Ausschluss jeglicher subjektiver Zutaten war, wozu dann überhaupt noch die Reproduktion? War dann nicht der Verzicht auf jeden Versuch, die ohnehin unerreichbare Objektivität zu erfassen, die notwendige Konsequenz, das heißt, der Verzicht auf das Erkennen? Zu Anfang des 20. Jahrhunderts versuchten die Wissenschaftler der Instabilität der Objektivität in zwei Richtungen zu entkommen: die einen verließen das Reich der Sinne und flohen »vor der üppigen, verwirrenden Vielfalt der Einzelheiten zu den kargen Strukturen der Mathematik und Logik« (Wiener Schule, logischer Positivismus); die anderen gaben die rigorose Treue zur Objektivität auf und »entschieden sich für das geschulte Urteil, das weniger ein Willensakt war als eine Fertigkeit, die man lernen und praktizieren konnte.«
Während die Flucht in die strukturelle Objektivität, in eine Wissenschaft ohne Bilder, in den logischen oder mathematischen Formalismus führte, setzte sich in vielen naturwissenschaftlichen Disziplinen das Ideal des geschulten Blicks und des intuitiven Urteils durch. Je deutlicher die Grenzen der verfahrensgesteuerten mechanischen Objektivität wurden, umso mehr erkannte man, dass die Objektivität allein nicht ausreichte. Die komplexen Familien von Phänomenen, mit denen es die Wissenschaften zu tun hatten, verlangten nach einem geschulten Urteil, das sie zu klassifizieren, zu glätten und zu interpretieren vermochte, ohne strikten Regeln zu gehorchen. Was zunehmend benötigt wurde, war ein geübter, physiognomischer Blick. Sogar Naturwissenschaftler und Mathematiker begannen sich auf intuitive Kriterien zu berufen. Das geschulte Urteil begann als notwendige Ergänzung aller Bilder zu gelten, die Maschinen herstellen konnten. Dieses »geschulte Urteil« setzte Übung voraus. Einübung in kollektive Denkstile und Denkformen.
Vielsagend sind die diesbezüglichen Schilderungen von Daston und Galison: »Zukünftige Wissenschaftler übten ihre Fähigkeiten zuerst in der Wiederholung von Übungen, die schon zum Repertoire des Fachs gehörten. Angehende Chemiker mußten bekannte Verbindungen zur Synthese bringen; junge Physiker wiederholten gut gesicherte Ergebnisse und lösten alte Probleme aufs neue; Studenten der Zoologie übten Klassifizieren anhand von Modellen und Exemplaren bekannter Arten. Disziplin und Pflichtbewusstsein spielten in diesen Übungen eine Hauptrolle, ganz gleich, ob die Studenten in Neumanns Physikseminar lernten, wie man eine Präzisionsmessung macht, oder die Medizinstudenten in Edinburgh beim Mikroskopieren gedrillt wurden, ›bis jeder sein Instrument so genau kannte wie ein gelernter Soldat sein Gewehr und bis er in der Handhabung [des Mikroskops] so perfekt war, wie der Veteran in der Gebrauchsanweisung für Waffen‹ «. Die beiden Herausgeber eines amerikanischen »Atlas der Elektroenzephalographie« erklärten 1941: »Das Lesen eines Elektroenzephalogramms verlange ähnliche Fähigkeiten wie die Aufgabe, eine neue Sprache in einem fremden Alphabet und einer ungewohnten Schrift zu entziffern. Sie gaben zu, dass Enzephalographie nicht leicht zu meistern war, versprachen aber, nach drei Monaten Übung könne eine durchschnittlich begabte Person 98 Prozent Treffsicherheit erreichen. Zum Experten kann man durch Schulung werden, und vom Experten wird erwartet, dass er lernt – zu lesen, zu interpretieren und aus dem Wust von uninteressantem Artefakt und Hintergrund ausgeprägte, signifikante Strukturen zu extrahieren.« »In einem enzephalographischen Atlas von 1962 steht die erstaunliche Formulierung: ›Das Enzephalogramm ist eher eine empirische Kunst als eine exakte Wissenschaft.‹« Was hier für die medizinische Forschung zum Ausdruck gebracht wurde, gilt ebenso für die Teilchenphysik und andere Disziplinen. Die Fähigkeit, technologisch erzeugte Bilder empirischer Sachverhalte zu beurteilen, mußte in einer langen Lehrzeit erworben werden, sie beruhte auf einer Schulung des Auges, »wissenschaftliches Sehen« wurde zu einer »empirischen Kunst«. Ein führender britischer Nebelkammerphysiker schrieb 1952: »Um fachkundiges Interpretieren zu lernen, muss man zunächst viele exemplarische Photographien der verschiedenen Arten bekannter Vorfälle studieren. Erst wenn man alle bekannten Ereignistypen wiedererkennen kann, wird man das bisher Unbekannte entdecken.«
Je mehr die Wissenschaftspraxis sich vom Ideal der mechanischen Objektivität entfernte, eine umso größere Bedeutung erlangte die Kunst des geschulten Urteils, das nicht objektivierbar war, sondern erst die Objekte schuf. Damit kehrten, wenn auch auf einer anderen Ebene der Wahrnehmung, das Subjekt und die Idee wieder in die Wissenschaft zurück. Die Objekte der Wissenschaft sind nicht gegeben, sie werden in einem doppelten Sinne erzeugt: sie werden durch Technologien erzeugt, die jene Bilder liefern, die vom geschulten Urteil interpretiert werden, das die »Ideen« in den Bildern sieht. Objektivismus als Ideologie beruht auf einem Selbstmißverständnis der wissenschaftlichen Praxis oder auf ihrer Unkenntnis.
Noch bedeutender wird der Anteil der Subjektivität in einem Forschungsgebiet, das sich in den 1990er Jahren zu etablieren begann, dem das letzte große Kapitel der Untersuchung gewidmet ist: dem der Nanotechnologie. Hier wird das Sehen zum Erzeugen. Technologien wie das Rasterkraftmikroskop erzeugen nicht nur Wirklichkeiten, sondern schaffen zugleich die Bilder dieser Wirklichkeiten. In der Welt der Nanotechnologie kommt die Funktion des Bildes als »Abbild von Wirklichkeit« an ihr Ende, da das Bild die Wirklichkeit erzeugt, die es abbildet. Hier stellt sich eine neue Frage nach der Ethik der wissenschaftlichen Forschung. Es geht nicht mehr nur um die Ethik des Abbildens oder Interpretierens vorausgesetzter Wirklichkeiten, sondern um die Ethik des Erzeugens. Die Frage ist nicht mehr: sind die Bilder oder Interpretationen richtig, die wir erzeugen, sondern sind die Wirklichkeiten richtig, die wir erzeugen?

Lorraine Daston, Peter Galison: Objektivität, Suhrkamp 2007

Kommentare sind geschlossen.