Die Revolution hat längst stattgefunden – I – Anthroposophie als Paradigma der Wissenschaft

majorek_cover_1Ein grandioses Werk von geradezu enzyklopädischen Ausmaßen hat vor kurzem der in der Schweiz lebende Philosoph Marek B. Majorek vorgelegt, ein Werk, das für Jahrzehnte den Stil der Diskussionen bestimmen wird, in dem über die Frage der Wissenschaftlichkeit der Anthroposophie gesprochen werden dürfte. Ein Werk, das man unmöglich ignorieren kann, da es auf der Höhe der wissenschaftstheoretischen und -geschichtlichen Forschung steht und aus dieser Forschung die Argumente schöpft, die zweierlei verdeutlichen: die grundlegenden epistemologischen Defizite der heute praktizierten Wissenschaftsformen und die ebenso grundlegende Überlegenheit der Anthroposophie als Wissenschaft gegenüber diesen Formen. Und dies gilt nicht nur für die akademischen Geisteswissenschaften, sondern auch für die Naturwissenschaften.

Majoreks Werk ist ein Ozean glänzender Einsichten, ein Schatzhaus bestechender Logik, eine beeindruckende Synthese der Kritik der Mythen der szientistischen Moderne, die sich der Sprache und Logik dieser Moderne bedient, um sie zu demontieren. Der Autor führt den Leser nicht nur durch die Wissenschaftsgeschichte, sondern auch durch die Geschichte der Theorie der Wissenschaften, insbesondere im 20. Jahrhundert, und zeichnet in kristallener Schärfe die Aporien nach, in die diese Theorie aufgrund ihrer mangelhaften reflexiven Voraussetzungen geraten ist. Dabei stützt er sich auf die umfangreiche Literatur dieser Disziplinen (wovon allein schon das 50-seitige Literaturverzeichnis zeugt) und entwickelt seine Kritik in enger Anlehnung an Autoren, die diese Diskussion selbst maßgeblich bestimmt haben, spart aber auch ihnen gegenüber nicht mit kritischen Rückfragen.

In vierzehn Kapiteln setzt sich der Autor auf rund 1500 Seiten auf hohem gedanklichem Niveau mit einer Vielfalt von Themen auseinander. Wann ist die Wissenschaft entstanden? Wissenschaftshistoriker wie Shapin, Russo und Fara haben darauf hingewiesen, dass es weit vor der »wissenschaftlichen Revolution« im 16., 17. Jahrhundert der abendländischen Geschichte Menschen mit exaktem Wissen von der Natur gab. Ohne ein solches hätten die Erbauer von Stonehenge ihr gigantisches astronomisches Observatorium nicht errichten können. Die ägyptischen Priester im Alten Reich vermochten die Nilfluten adäquat vorauszusagen. Bereits die babylonischen Astronomen beobachteten und katalogisierten nicht nur das Himmelsgeschehen, sondern prognostizierten es auch. Die heutige Astronomie bzw. Astrophysik unterscheidet sich in ihren Vorgehensweisen nicht wesentlich von ihren Vorgängern, auch wenn ihre Instrumente und ihr Weltbild wesentlich anders sind.

Aber die Qualität der Instrumente oder die Art der jeweiligen Metaphysik kann für den wissenschaftlichen Status einer Disziplin kaum entscheidend sein. Needham hat festgestellt, dass die alten Chinesen mindestens 250 Erfindungen vor ihren europäischen »Raubkopierern« gemacht haben, während die arabische Kultur der europäischen im Mittelalter um rund 800 Jahre voraus war. Die Araber zeichneten sich nicht nur durch ihre medizinischen Kenntnisse, sondern auch durch ihre präzisen astronomischen Beobachtungen aus.

Auch im alten Griechenland gab es zahlreiche Forscher, die aus heutiger Perspektive als Wissenschaftler bezeichnet werden müssten. Sie führten in der Physik, Anatomie, Zoologie und Botanik Experimente durch, wendeten systematisch quantitative Messungen an und beobachteten Naturphänomene unter künstlich geschaffenen Bedingungen. Sogar die Naturphilosophie des Mittelalters war keineswegs bloß spekulativ. Roger Bacon experimentierte, und die neuzeitliche Wissenschaft entstand nicht etwa dadurch, dass sie sich von der Spekulation befreite, sondern vielmehr aus der naturphilosophischen Spekulation. Bis ins 19. Jahrhundert verstanden sich Naturforscher als Naturphilosophen. Versteht man unter Wissenschaft die Anwendung der Mathematik auf Naturphänomene muss man vielleicht zu Newton zurückgehen. Versteht man darunter aber die Durchführung von Experimenten, gelangt man bis zu den hellenistischen Griechen zurück, und hält man die exakte Beobachtung für maßgeblich, kann man den Babyloniern oder den Erbauern von Stonehenge dieses Prädikat nicht absprechen. Die Schwierigkeit, der Wissenschaft ein präzises Geburtsdatum zuzusprechen, ist durch die Schwierigkeit ihrer Definition bedingt.

Auch die Wissenschaftstheorie ist keine Erfindung des 19. oder 20. Jahrhunderts. Bereits Francis Bacon betonte die Notwendigkeit einer systematischen Erforschung der Phänomene, während Descartes methodische Hinweise für die effiziente Problemlösung gab, und Newton die Formulierung eines Axiomensystems an den Anfang der Naturphilosophie stellte, dessen Korrelation mit der Beobachtung untersuchte und die aus dem System abgeleiteten Deduktionen durch empirische Beobachtung zu verifizieren suchte. Der Astronom John Herschel veröffentlichte 1830 eine wissenschaftstheoretische Arbeit, in der er zwischen dem Entdeckungs- und Begründungszusammenhang unterschied und darauf hinwies, dass für die Beurteilung der Angemessenheit einer Theorie irrelevant sei, nach welchem Verfahren sie aufgestellt wurde. Er sprach von Hypothesen, von Induktion, der Übereinstimmung der Theorien mit der Erfahrung, dem Wert extremer Erfahrungen für die Bestätigung, der Beobachtung unerwarteter Resultate, dem »experimentum crucis« und der Bedeutung der Falsifizierung. John Stuart Mill sah das wichtigste Ziel der Wissenschaft im Nachweis ursächlicher Zusammenhänge und beschrieb vier Methoden induktiver Ursachenforschung, kannte jedoch auch die Deduktion, die mit der Verifikation von Gesetzeshypothesen arbeite. Ernst Mach schließlich begründete jenen phänomenalistischen Positivismus, der für den logischen Positivismus und sein Forschungsprogramm von entscheidender Bedeutung war.

Mit diesem logischen Positivismus (Neupositivismus) und seinem Programm der antimetaphysischen Tatsachenforschung setzt sich das zweite, mit rund 260 Seiten umfangreichste Kapitel des Buches auseinander. Auch wenn der logische Positivismus »heute tot ist« und sich die Einsicht durchgesetzt hat, dass »nahezu alles an ihm falsch« war, wie sein Hauptvertreter Alfred Ayer in England bekennt, widmet Majorek ihm diese umfangreiche Untersuchung, weil dieser Positivismus die Wissenschaftstheorie mehr als drei Jahrzehnte, bis in die 1960er Jahre vollkommen dominierte und einige seiner Grundannahmen, trotz seines Bankrotts, auch heute noch zum Credo des orthodoxen Wissenschaftsbetriebs gehören.

Die Angehörigen des Wiener Kreises einte ihre (nicht empirisch begründete) Ablehnung der klassischen Philosophie und der Metaphysik sowie das Bestreben, die Wissenschaft durch die Eliminierung überempirischer Elemente zu vereinheitlichen. Deutlich geht dies aus dem 1929 erschienenen »Manifest der wissenschaftlichen Weltauffassung« hervor, das im Kern eine Polemik gegen die »zunehmenden metaphysischen Tendenzen« im damaligen Geistesleben war. Ziel des Wiener Kreises war die Etablierung einer »Einheitswissenschaft«, die in einem neutralen Formelsystem dargestellt werden sollte, das von den Schlacken der Symbolik der historischen Sprachen frei war. Die Analyse der traditionellen philosophischen Probleme führe zur Einsicht, dass diese teils als Scheinprobleme entlarvt, teils in empirische Probleme umgewandelt werden könnten. Als Mittel der Demontage der Philosophie erschien die »logische Analyse«. Diese zeige, dass es nur zwei Formen von Aussagen gebe: jene der empirischen Wissenschaft, die sich auf empirisch Gegebenes zurückführen ließen und die völlig bedeutungsleeren und sinnlosen Aussagen der Metaphysik. Herkömmliche Philosophen und Theologen brächten nichts als sinnlose Sätze hervor. Die wissenschaftliche Weltauffassung dagegen sei streng empirisch und positivistisch. Es gebe nur Erfahrungserkenntnis, die auf dem unmittelbar Gegebenen beruhe. Es gebe keinen Weg zu inhaltlicher Erkenntnis neben dem der Erfahrung, es gebe kein Reich der Ideen, das über oder jenseits der Erfahrung stünde. Die wissenschaftliche Weltauffassung, die der Wiener Kreis propagierte, war Materialismus im Gewande des »modernen Empirismus«.

Im Abstand von achtzig Jahren ist klar, dass viele der Behauptungen, die von den Autoren als unerschütterliche Wahrheiten betrachtet wurden, nichts als unbegründete, willkürliche und sogar unverständliche Annahmen waren. Den Kern des logischen Positivismus bildeten eine Reihe von Glaubensüberzeugungen: dass wissenschaftliche Erkenntnis auf unmittelbaren Beobachtungen beruhe, aus denen sich induktiv allgemeine Gesetze ableiten lassen und dass die auf diesem Wege entstandenen Theorien, sofern sie empirischen Prüfungen standhalten, gültig sind. Dass nur solche Aussagen überhaupt Bedeutung enthalten, die sich empirisch verifizieren lassen, dass alle anderen Aussagen aus der Wissenschaft ausgesondert werden können, und dass der Fortschritt der Wissenschaft durch theoretische und ontologische Reduktion erreichbar sei: Psychologie lasse sich auf Biologie, diese auf Chemie und diese schließlich auf Physik reduzieren. Und alle wissenschaftlichen Erklärungen würden letztlich von einer einheitlichen, physikalischen Theorie aufgesogen.

Der Glaube der Positivisten an gesichertes Wissen durch Induktion hat sich jedoch als trügerisch erweisen. Heute sind sich die Wissenschaftstheoretiker einig, dass jede Form empirischer Erkenntnis grundsätzlich unsicher ist.

Drei Hauptwerke des logischen Positivismus unterzieht Majorek einer gründlichen Analyse: die »Allgemeine Erkenntnislehre« von Moritz Schlick, Rudolf Carnaps »Logischen Aufbau der Welt« und Wittgensteins »Tractatus logico-philosophicus«. In dichter Beschreibung referiert er die Grundthesen der Autoren und setzt sich kongenial mit ihren Selbstwidersprüchen und unreflektierten Voraussetzungen auseinander. Allein schon diese Auseinandersetzung hätte für eine Buchveröffentlichung ausgereicht. Seine Kritik kann hier nicht detailliert nachgezeichnet werden, aber wenigstens das Fazit: Schlick blendete die Tatsache aus, dass sich die natürliche Welt nicht zwingend an die Geometrie hält, Wittgenstein erlag einem Fetischismus der Logik und Carnap dem Irrtum, der Reichtum der Erfahrung lasse sich auf bloße Strukturen reduzieren. Alle drei teilten die Ablehnung dessen, was sie als Metaphysik betrachteten. Es ist eine Ironie der Geschichte, so Majorek, der hier den bereits genannten Ayers zitiert, dass ihre Werke aus heutiger Sicht zum großen Teil als metaphysische Konstruktionen erscheinen.

Bereits in den 1930er Jahren stellte Karl Popper die Grundannahme des Wiener Kreises in Frage, dass Theorien durch empirische Methoden überprüft, bestätigt oder widerlegt werden könnten. Er wies darauf hin, dass alle induktiven Schlüsse lediglich Verallgemeinerungen der bisherigen Erfahrung seien, und jede Verifikation empirischer Aussagen logisch unmöglich sei, weil sich nicht ausschließen lasse, dass die empirisch festgestellten Regelmäßigkeiten von zukünftigen Erfahrungen widerlegt werden. Wissenschaftliche Theorien könnten folglich niemals empirisch verifiziert, sondern bestenfalls falsifiziert werden. Das gesicherte Wissen, das die Positivisten anstrebten, lasse sich also auf empirischem Wege nicht erreichen, sondern lediglich ein Fortschritt des Wissens durch allmähliche Aussonderung von Irrtümern.

Den positivistischen Glauben, die Wissenschaft ließe sich auf einem Fundament theoriefreier Erfahrung errichten, zertrümmerten in den 1950er und 1960er Jahren Quine, Sellars, Hanson, Toulmin und Thomas Kuhn. Quine wies nach, dass sich empirische und theoretische Termini nicht strikt trennen lassen, Sellars zog die Relevanz nicht-epistemischer Tatsachen für die Begründung theoretischer Aussagen in Zweifel, Hanson wies darauf hin, dass die Wahrnehmung stets von theoretischen Hintergrundannahmen geprägt sei, und Toulmin zeigte, dass theoretische Überlegungen nicht rein empirisch begründet, sondern von den Idealen und Paradigmen des jeweiligen Forschers abhängig sind. Thomas Kuhn schließlich legte in seinem revolutionierenden Werk 1962 dar, dass wissenschaftliche Disziplinen durch kontingente Paradigmen konstituiert werden, die quasi-metaphysische Annahmen enthalten, dass die Übergänge zwischen wissenschaftlichen Theorien von vortheoretischen Entscheidungen abhängen und Gestaltcharakter aufweisen. Wenn der geregelte Fortschritt der Wissenschaft, wie Popper annahm, ihr Rückgrat bildet, und dieser Fortschritt von außerwissenschaftlichen, irrationalen Faktoren bestimmt wird, drohe langfristig möglicherweise die Zunahme, statt die Abnahme der Irrationalität. Das Buch Kuhns änderte, wie Ian Hacking 2012 schrieb, das Bild der Wissenschaft »für immer«. Die Bedeutung von Kuhns Untersuchung lag insbesondere darin, dass er die Frage nach dem Wesen der Wissenschaft nicht mehr normativ verstand (Wie soll die Wissenschaft sein?), sondern dass er den Blick auf die tatsächliche Arbeit der Wissenschaftler lenkte und danach fragte, was sie tatsächlich tun. Heute stehen wir vor dem merkwürdigen Paradoxon, dass der logische Positivismus und mit ihm der Glaube daran, dass die empirische, experimentierende Wissenschaft der einzige Weg zur Erforschung der Rätsel der Natur sei, theoretisch tot ist, dass aber gleichzeitig weltweit Millionen von Wissenschaftlern weiterhin an das empiristische Forschungsprogramm glauben. Die Anhänger dieses Glaubens malen das apokalyptische Szenario eines Rückfalls in das finstere Mittelalter an die Wand, falls dieses Dogma aufgegeben werde, ihnen ist aber entgegenzuhalten, dass man nicht zwingend zurückgehen muss, sondern auch vorwärts gehen kann.

Infolge des Zerfalls des logischen Empirismus etablierten sich eine Reihe von wissenschaftstheoretischen Paradigmen, welchen sich Majorek im dritten Kapitel seines Buches zuwendet: die Soziologie der Wissenschaften, die feministische Wissenschaftstheorie, das Paradigma der qualitativen Forschung und das Kompromissmodell der Wissensgewinnung.

Die Soziologie der Wissenschaften geht bis auf Ludwig Fleck und seine Lehre vom Denkstil und Denkkollektiv zurück. Der Denkstil ist die gemeinschaftliche Tendenz eines Denkkollektivs zu »selektiver Wahrnehmung und zu entsprechender geistiger und praktischer Verwendung des Wahrgenommenen«. Ohne soziale Bedingtheit ist Erkennen überhaupt nicht möglich, das Wort Erkennen hat nur im Zusammenhang mit einem Denkkollektiv Bedeutung. Wie später Kuhn spricht Fleck davon, dass Wissenschaftler, die unterschiedliche Paradigmen repräsentieren, in unterschiedlichen Welten leben, sie gemäß ihren Denkgewohnheiten interpretieren und sich gegen jegliche Veränderungen immunisieren. Die Konsequenz aus solchen Überlegungen zog Paul Feyerabend, der die orthodoxe Vorstellung, Theorien würden an Tatsachen überprüft oder durch diese widerlegt, verabschiedete, und behauptete, Tatsachen würden durch Theorien konstituiert. Was die Wissenschaft voranbringe, sei nicht die Widerlegung alter Theorien, sondern die Aufstellung neuer Theorien, durch welche die alten überhaupt erst überprüft werden könnten. Nur echte Alternativen zu den bestehenden Theorien, ermöglichten eine solche Prüfung. Keine Theorie war Feyerabend unorthodox genug, um nicht ernst genommen zu werden. »Es gibt keinen klar formulierbaren Unterschied zwischen Mythen und wissenschaftlichen Theorien«, so Feyerabend. »Die Wissenschaft ist eine der vielen Lebensformen, die die Menschen entwickelt haben, und nicht unbedingt die beste. Sie ist laut, frech, teuer und fällt auf. Grundsätzlich überlegen ist sie aber nur in den Augen derer, die bereits eine gewisse Position bezogen haben oder die die Wissenschaften akzeptieren, ohne jemals ihre Vorzüge und Schwächen geprüft zu haben.«

David Bloor entwickelte aus den Ansätzen Flecks in den 1970er Jahren das »strenge Programm« einer Wissenssoziologie, die mittels genauer Beobachtung des alltäglichen wissenschaftlichen Geschäfts zwei Hauptthesen zu untermauern suchte: dass die Wissenschaft nicht auf dem Fundament absoluter Wahrheiten steht, sondern ein Konstrukt aufgrund kontingenter soziokultureller Gegebenheiten ist und dass sich hinter ihrer Fassade der Objektivität persönliche Interessen, zufällige Umstände und der Druck der Wirtschaft verbergen. Latour und Woolgar untersuchten 1979 das »Leben im Labor« und kamen zu teilweise parodistischen Ergebnissen: der primäre Fokus der Wissenschaftler bestehe in der Herstellung von Artikeln, die in Fachzeitschriften publiziert werden könnten, die im Labor konstruierten Tatsachen hätten nur im Kontext des Labors und der mit diesem verbundenen Netzwerke Bedeutung, die Wissenschaftler würden vor allem von der Suche nach Anerkennung getrieben und seien von Autoritäten abhängig, ihre Aktivität sei nicht auf die Wirklichkeit gerichtet, sondern auf die künstlichen Gebilde, die sie als »Tatsachen« konstruierten, sie befassten sich also nicht mit der Natur, sondern nur mit ihren eigenen Artefakten.

Diese Forschungsrichtung wurde in den folgenden 20 Jahren in den »Science and Technology Studies« weitergeführt. Ihre zunehmend kritischen Ergebnisse riefen eine Gegenbewegung auf den Plan, die sich aufgerufen sah, die Reputation der Wissenschaft zu verteidigen. Die Auseinandersetzung um Orthodoxie und Heterodoxie der Wissenschaft Ende der 1990er Jahre wurde in den USA als Krieg um die Wissenschaften (»science wars«) bezeichnet. Auf der einen Seite stand die »scientific community«, auf der anderen Seite die hauptsächlich linke Riege der Kritiker der Wissenschaften, aber auch eine ganze Reihe weiterer »gefährlicher« Bedrohungen der Vernunft: der wissenschaftliche Kreationismus, New-Age-Alternativen, Astrologie, Ufologie, Postmodernismus, alternative Medizin usw. Wie meist bei solchen Auseinandersetzungen war das Fazit ein »sowohl als auch«: der Einfluss sozialer Komponenten auf die Produktion wissenschaftlichen Wissens ist heute unbestritten, aber der Vorwurf, die Wissenschaft verdanke ihre Macht bloßer Täuschung und geschickter Manipulation hat sich als unbegründet erwiesen. Außerdem verwickeln sich Kritiker der Wissenschaft, die vorgeben, die Wissenschaft wissenschaftlich zu erforschen und gleichzeitig behaupten, diese sei grundlegend von irrationalen Faktoren bestimmt, in einen performativen Selbstwiderspruch: Die These, es gebe keine sichere Erkenntnis, widerlegt sich selbst. Jedenfalls führt die Anerkennung der sozialen Bedingtheit der Erkenntnisgewinnung und des tiefgreifenden Wandels von Wissenschaft zu einer Relativierung des Wertes ebendieser Wissenschaft. Es kann nicht ausgeschlossen werden, dass die heute »akzeptierten Argumente« in Zukunft nicht mehr akzeptiert werden und dass solche, die heute als wissenschaftlich unzulässig gelten, wissenschaftlich salonfähig sein werden. Nach all diesen Auseinandersetzungen ist es bedeutend schwieriger geworden, Wissenschaft als solche zu definieren und sie von »Pseudowissenschaft« abzugrenzen.

Ebenso wir mit der Wissenssoziologie setzt sich Majorek mit der feministischen Kritik auseinander. Diese reicht von Simone de Beauvoir bis zu Luce Irigaray: Wissenschaft ist grundsätzlich androzentrisch und geschlechtsblind, Frauen und ihre besonderen Sichtweisen werden in den wissenschaftlichen Untersuchungen unsichtbar gemacht. Statt Forscherinnen mit ihren persönlichen Eigentümlichkeiten aus dem Forschungsprozess zu eliminieren, sind sie vielmehr in den Mittelpunkt der Betrachtung zu stellen. Das Denken ist nicht nur sozial, sondern auch leiblich situiert. Insbesondere das Ideal der Objektivität wird dadurch in Frage gestellt: die Forderung, die Erkenntnisobjekte kühl und distanziert zu beobachten, ist Ausdruck einer androzentrischen Verzerrung. Statt vom »mainstream« sollte daher man besser vom »malestream« der Forschung sprechen. Drei Alternativen bieten sich angesichts der postulierten grundsätzlichen »androzentrischen Subjektivität« der Wissenschaft an: man kann die Vernunft als objektives Instrument der Erkenntnisgewinnung verabschieden, was jedoch zum oben erwähnten performativen Selbstwiderspruch führt; man kann die für Frauen typischen Methoden der Wissensgewinnung zur Geltung bringen, entweder indem man die männliche Erkenntnisweise durch die weibliche ersetzt, weil man sie grundsätzlich für überlegen hält, wofür aber der Beweis bisher nicht erbracht wurde, oder indem man sie durch die weibliche Form des Wissens ergänzt. Daraus ergeben sich moderate bis radikale Formen einer feministisch erweiterten Methodologie, mit welchen Majorek sich auseinandersetzt. Porträtiert werden Longinos »kontextueller Empirismus«, der im sozialen Charakter der wissenschaftlichen Forschung gerade die Garantie ihrer Zuverlässigkeit und somit Objektivität erblickt, Hardings »strenge Objektivität«, die verlangt, dass man die Hintergrundannahmen der wissenschaftlichen Theorien einer eingehenden Prüfung unterzieht, der »andere Stil«, der auf der persönlichen, intimen, affektiven Beziehung der Forscherin zu ihrem Erkenntnisgegenstand und ihrer Bereitschaft beruht, die Komplexität der untersuchten Phänomene zu achten und Ausnahmen und Unterschiede zuzulassen (McClintock, Brito, Carson), Kellers »dynamische Objektivität«, die zwar die Distanz zwischen dem Selbst und dem anderen anerkennt, aber auch ihre zeitweilige Aufhebung durch die Liebe zulässt, Codes »Erkenntnis als Menschen-Kenntnis«, die zwischenmenschliche Beziehungen als Modell jeder objektiven Erkenntnis auffasst, und schließlich Irigarays radikaler Feminismus, der für den Abschied von Vernunft und Logik plädiert.

Majorek weist zurecht darauf hin, dass die Aufwertung der positiven Rolle der Gefühle und Beziehungen in der Erkenntnis und die Anerkennung der Werte im Erkenntnisprozess längst überfällig sei, er unterschlägt aber auch nicht die ernsthaften Schwierigkeiten, die zentrale Annahmen der feministischen Erkenntnistheorie aufwerfen: so führt die These, dass jegliche Erkenntnis leibabhängig sei, zum Ergebnis, dass es keine objektive Erkenntnis gibt, was wiederum dazu führt, dass diese Erkenntnis keinen Anspruch auf Objektivität erheben darf. Außerdem stimmen Männer und Frauen bezüglich der Objektivität mathematischer Wahrheiten trotz aller anatomischen Unterschiede überein.

Das Paradigma der qualitativen Forschung hat eine lange Vorgeschichte im 20. Jahrhundert, die bis auf die Feldforschungen von Anthropologen wie Malinowski zurückgeht. Sie blickt aber auch auf eine philosophische Vorgeschichte zurück, für die Husserls Phänomenologie, Heideggers Existenzphilosophie, Gadamers Hermeneutik, der französische Existentialismus, die kritische Theorie der Frankfurter Schule, der Strukturalismus und die Postmoderne stilbildend waren. Die qualitative Forschung verabschiedet sich in denkbarer Radikalität von praktisch allen Axiomen des dominierenden wissenschaftlichen Paradigmas. Wissenschaft ist aus ihrer Sicht keine absolute, transzendente Aktivität, sondern in der realen, kontingenten Welt situiert, der Forscher verschwindet nicht aus dem Bild, das er von ihr entwirft, sondern ist Teil dieser Welt, die nicht unabhängig von ihm existiert, sondern durch den Prozess seiner Untersuchungen sichtbar wird. Forschung lässt die Welt nicht unverändert, sondern verwandelt sie, sie produziert daher nicht das eine objektive Bild der Welt, sondern stets nur vorläufige, kontingente Repräsentationen der Wirklichkeit. Wissenschaft forscht nicht nach absoluten Gesetzen, sondern interessiert sich für die Bedeutung der Phänomene, denen sie begegnet, eine Bedeutung, die diesen jedoch nicht aufgezwungen, sondern von den beteiligten Personen selbst zugeschrieben wird. Qualitative Forschung ist durch eine Vielfalt von Methoden gekennzeichnet und bedient sich aus einer praktisch unbegrenzten Vielzahl an Theorieangeboten. Aufgrund dieser Offenheit wird der Forscher zum »Bastler« (»Bricoleur«), der sich an pragmatischen Gesichtspunkten orientiert und sich nie im voraus festlegt. Die Befreiung von der Zwangsjacke der Hypothesenbildung, der Erhebung quantitativer Daten und ihrer statistischen Verarbeitung ist ein unbestreitbares Verdienst dieses Paradigmas. Allerdings führt die methodologische Freiheit auch zu einer relativen Bedeutungslosigkeit ihrer Resultate. Die Befreiung tendiert zur Beliebigkeit. An die Stelle kontrollierter Beobachtung, treten episodische punktuelle Beschreibungen, die manchmal solipsistische Züge annehmen, an die Stelle strenger Theoriebildung ein unverbindliches Sammelsurium von Ideen, an die Stelle der Auseinandersetzung mit dem Forschungsobjekt die Auseinandersetzung mit sich selbst. Auch die qualitative Forschung, insofern sie das Ideal der sicheren Erkenntnis aufgibt, oder die Auffassung vertritt, sichere Erkenntnis sei prinzipiell unzugänglich, verfällt der Paradoxie des Relativismus. Zwar müssen jene Aspekte der Wirklichkeit, die der Positivismus radikal ausgrenzte, ebenfalls erforscht werden, aber nicht auf Kosten der Strenge und Objektivität der Erkenntnis.

Schließlich behandelt Majorek das von Philip Kitcher vorgetragene Modell der »Konsenspraxis«. Kitchers Theorie kann als Synthese der Diskussionen der Jahrzehnte nach dem Zerfall des Programms des logischen Empirismus betrachtet werden. Sie versucht, drei Diskursstränge zu verbinden: die Ergebnisse der Wissenschaftsgeschichte, jene der Wissenssoziologie und jene der Kognitionspsychologie, durch die das Subjekt des Wissens miteinbezogen wird. Der Titel seines Buches »Wissenschaft als Legende, Objektivität ohne Illusionen« deutet auf die Hauptthesen: mit »Legende« meint er die Auffassung, dass Ziel der Wissenschaft sei es, eine wahre Erkenntnis der Natur zu erlangen und die Überzeugung, sie sei darin ziemlich erfolgreich gewesen. Ebenfalls zur Legende erklärt er die Behauptung, sie fuße direkt auf Beobachtung und Experiment. Diese Ansicht blende die Komplexität der Prozesse der Überzeugungsbildung aus. Mit »Illusion« meint er, dass der Glaube an die »Reinheit der Wissenschaft« Schiffbruch erlitten habe. Die Entwicklung der Wissenschaft müsse vielmehr realistisch aus ihrem sozialen und menschlichen Kontext verstanden werden. In den Mittelpunkt seiner Untersuchungen stellt Kitcher das Netz sozialer Beziehungen, in die der einzelne Wissenschaftler eingebunden ist, seine Abhängigkeit von der Autorität seiner Kollegen und seine menschliche Beschränktheit. Abhängig ist sein Erkennen außerdem von unterschiedlichen Ausgangsinformationen, unterschiedlichen Arten der Verarbeitung dieser Informationen, unterschiedlichen Dispositionen des Schließens sowie von verschiedenen epistemischen und außerepistemischen Zielen. Für Kitcher steht also nicht die Wahrheit oder die gewisse Erkenntnis im Vordergrund, sondern die Art und Weise, wie die Gemeinschaft der Wissenschaftler nach der Wahrheit sucht und zu ihren Überzeugungen, ihrem »Konsens« gelangt. Ähnlich wie schon Lakatos geht es Kitcher vor allem um den Fortschritt der Wissenschaft und nicht um die Wahrheit oder Objektivität. Zwar dynamisiert er die Diskussion über die wissenschaftlichen Vorgehensweisen, gleichzeitig schneidet er aber diese Diskussion von der Kontrolle durch die reale Welt ab. Er sucht nach Wegen, die wissenschaftliche Methode zu verfeinern, bleibt aber die Antwort darauf schuldig, warum eine verfeinerte Methode zu besserer Erkenntnis führen wird. Außerdem gewinnt die Autorität oder Tradition in Kitchers Modell eine Stellung, die man früher eher mit Glaubenssystemen zu assoziieren pflegte. Alle Elemente der individuellen Forschungspraxis sind in einer bestimmten Tradition situiert und die kollektive Konsenspraxis ist lediglich ein Resultat der Kombination dieser Traditionen. Die Begründungskraft der Kitcherschen Wissenschaft reduziert sich, plakativ gesagt, auf das Motto: »Es gilt, wovon die etablierte wissenschaftliche Gemeinschaft sagt, dass es gilt.«

Majorek ist nicht nur in der Geschichte der Wissenschaftstheorie und dieser selbst bewandert, sondern weist sich auch als gediegener Kenner der empirischen Wissenschaften und ihrer Probleme aus. Von dieser gediegenen Kenntnis zeugt das vierte Kapitel, das sich mit offenen Fragen, Rätseln und Problemen der Mainstream-Wissenschaft beschäftigt. Darin behandelt der Autor anerkannte empirische Rätsel der Naturwissenschaft, solche Rätsel also, die von der scientific community selbst als solche bezeichnet werden. Die Behandlung dieser Rätsel steht unter der von Kuhn inspirierten Leitfrage: Welche Probleme sind innerhalb des herrschenden Paradigmas wirklich unlösbar und müssen daher als echte Anomalien gelten und welche können möglicherweise gelöst werden? Was die anerkannten Rätsel anbetrifft, so kann Majorek auf Listen zurückgreifen, die von der Zeitschrift »Science« veröffentlicht wurden, die zu ihrem 125jährigen Bestehen die scientific community gefragt hatte: »What Don’t We Know?«

Die Liste dessen, was wir anerkanntermaßen nicht wissen, ist lang. Die Redaktion wählte 25 Hauptprobleme aus und veröffentlichte 100 weitere Fragen. Sie reichen von Fragen nach der Essenz des Universums und der biologischen Basis des Bewusstseins über Fragen der Organregeneration und der Differenzierung von Zellen zu ausgewachsenen Organismen bis hin zur Entstehung des Lebens und der Erklärung des Gedächtnisses. Ebenso ungelöst ist die Natur der Gravitation, des Schlafes, des Traums, die Struktur des Wassers, die Synchronisation der biologischen Uhren, die Frage nach den menschlichen Rassen oder warum Schwangere den Embryo nicht abstoßen.

2012 wandte sich dieselbe Zeitschrift den »Mysterien der Astronomie« zu und zählte acht ungelöste Rätsel auf: Was ist die dunkle Energie, dieses vielleicht tiefste Geheimnis der Astrophysik? Wo sind die Baryonen verschwunden? Hintergrund dieser Frage ist die Tatsache, dass von den 5 % der gewöhnlichen Materie, aus der Sterne, Planeten, interstellarer Staub und Gas bestehen, nur weniger als die Hälfte lokalisiert werden können (die restlichen 95 % bestehen ohnehin aus dunkler Materie und dunkler Energie, die erst recht vollkommen rätselhaft sind). Wie explodieren Sterne? Was hat das Universum reionisiert? Was ist die Quelle der stärksten kosmischen Strahlung? Hintergrund dieser Frage ist die Entdeckung des sogenannten Gottesteilchens (Higgs-Bosons), das sich nahezu mit Lichtgeschwindigkeit bewegt und mit der Energie eines auf 100 Kilometer pro Stunde beschleunigten Baseballs auf die Detektoren auftraf. Warum ist das Sonnensystem so bizarr? Entgegen der Erwartung sind die Planeten nicht einförmig aufgebaut, sondern alle unterscheiden sich wesentlich voneinander. Warum diese Vielfalt? Niemand weiß es. Schließlich die Frage: Warum ist die Sonnenkorona so heiß? Entgegen dem zweiten Hauptsatz der Thermodynamik steigt die Temperatur der Sonne in ihrer Korona, die sie als eine Art Plasma umgibt, nachdem sie sich auf dem Weg vom Kern abgekühlt hat, wieder an. Warum sie um das zweihundertfache ansteigt, obwohl sie sich abkühlen sollte, weiß bis heute niemand.

Aber nicht nur die Astronomie hat eine Fülle solcher Rätsel zu bieten. Ähnlich verhält es sich mit der Biologie, der die Zeitschrift »Science« ebenfalls einen Schwerpunkt widmete. Hier nur eine kleine Auswahl: Woher wissen die Organe, dass sie aufhören müssen, zu wachsen? Warum begehen so viele Neuronen bei der Gehirnentwicklung Selbstmord? Wie beeinflussen Mikroben die Entwicklung von Tieren? Wie entstehen aus Genen vollständige Organe? Wie lässt sich die Verschiedenheit eineiiger Zwillinge erklären? Wie können Pflanzensamen über Jahrtausende ihre Lebensfähigkeit erhalten? Woher wissen undifferenzierte Stammzellen, wann sie sich in eine bestimmte Zellart umbilden müssen, so dass ein bestimmtes Organ entstehen kann? Wie lässt sich die Morphogenese erklären?

Zu all diesen Fragen fügt Majorek ein Liste von halboffiziellen Problemen hinzu, die sich aus Forschungsresultaten ergeben. Dazu gehört das Rätsel des programmierten Zelltods (Apoptose), die Frage, woher die Zellen wissen, wo sie sich innerhalb des Organismus zu einem bestimmten Zeitpunkt befinden, die Frage, wie sich die spezifischen Formen der kooperativen Kommunikation zwischen Pflanzen oder Pflanzen und Nützlingen in der Evolution herausbildeten, wie es möglich ist, dass sich der Skarabäus an der Milchstraße orientiert, wie sich die Monarchfalter bei ihren tausende von Kilometer langen Wanderungen orientieren, die sich außerdem auf mehrere Generationen verteilen, wie sich Vögel und andere Tiere bei ihren Migrationen orientieren. Sechzehn weitere »persönliche Rätsel« des Autors kommen hinzu, die darum nicht weniger brisant sind.

Neben empirischen Rätseln enthält das empirische Forschungsparadigma aber auch eine Reihe theoretischer Probleme. Dazu gehört, dass eine Theorie aus logischen Gründen empirisch nie endgültig bewiesen oder bestätigt werden kann, wodurch sich die Behauptung, die Wissenschaft hätte »etwas bewiesen«, grundsätzlich als falsch erweist. Auch Poppers Falsifikationismus ist keine Lösung, denn wie sich in der wissenschaftstheoretischen Diskussion zeigte, ist die Falsifikation keine leichte Aufgabe. Mit diesem Problem befasst sich die Duhem-Quine-These. Der französische Physiker Pierre Duhem machte schon zu Beginn des 19. Jahrhunderts darauf aufmerksam, dass ein physikalisches Experiment niemals eine isolierte Hypothese widerlegen kann, sondern sich immer auf eine ganze Gruppe von Hypothesen bezieht. Werden aufgrund von Hypothesen Voraussagen gemacht, die anschließend nicht eintreten, belehrt diese Tatsache lediglich darüber, dass mindestens ein Element in der Deduktionskette falsch war, aber nicht, um welches Element es sich handelte. Daraus schloss Duhem, dass das experimentum crucis in der Physik unmöglich sei. 1951 veröffentlichte Quine einen Aufsatz mit dem Titel »Zwei Dogmen des Empirizismus«. Er stellte fest, dass es unmöglich sei, die Wahrheit eines isolierten Satzes gestützt auf vermeintlich klar umrissene Sinnesdaten festzulegen und dass es daher unmöglich sei, wissenschaftliche Behauptungen isoliert zu bestätigen oder zu widerlegen. Letztlich könne nur die Wissenschaft als Ganze empirisch überprüft werden. Nach der Duhem-Quine-These können wir nicht nur einzelne Hypothesen überprüfen, sondern müssen gleichzeitig unzählige weitere Behauptungen und Annahmen überprüfen. Wenn die empirischen Prüfungen nicht nach unseren Erwartungen ausfallen, wissen wir nicht, ob die überprüfte Theorie oder Hypothese oder eine bzw. mehrere dieser zusätzlichen Annahmen falsch sind oder aber beides.

Kathleen Okruhlik wies 1994 darauf hin, dass Annahmen, die einmal in die Formulierung einer Ursprungstheorie Eingang gefunden haben und von ihren Nachfolgetheorien stillschweigend übernommen werden, nicht neutralisiert werden, auch wenn sie falsch sind. Denn wenn die gleichen Annahmen in allen miteinander konkurrierenden, aber dem selben Paradigma verpflichteten Theorien enthalten sind, werden die Voraussetzungen aller Theorien von der Wirklichkeit abweichen. Die von Okruhlik feministisch verstandene Kritik lässt sich auch auf andere prätheoretische Annahmen der wissenschaftlichen Forschung übertragen: Wird zum Beispiel die materialistische Ideologie von der Mehrheit der Forscher als gültig akzeptiert, wird sie nicht mehr oder nur sehr schwer aus den formulierten Theorien zu eliminieren sein, weil die ihr widersprechenden Phänomene lange Zeit als Anomalien eingestuft oder einfach ignoriert werden. Es kann daher nicht ausgeschlossen werden, dass wir im wissenschaftlichen Alltag in den angeblich rein empirischen Ergebnissen nur das sehen, was uns unsere prätheoretischen (metaphysischen) Annahmen, die uns oft nicht einmal bewusst sind, zu sehen erlauben. All diese Probleme lassen sich unter den Nenner »Unterdeterminiertheit der Theorie« durch empirische Daten subsumieren.

Dieser Unterdeterminiertheit steht das Problem der zu vielen Daten gegenüber, durch das die Wissenschaft auf der praktischen Seite an ihre Grenzen stößt. Ein extremes Beispiel dafür ist der Atlas-Teilchen-Detektor des CERN in Genf. Dieses Gerät mit einem Gewicht von 7000 Tonnen stößt die unglaubliche Menge von 60 Terabyte Daten pro Sekunde aus, die unmöglich alle gespeichert werden können. Die Daten müssen gefiltert werden. Aufgrund der Menge muss diese Filterung automatisch und innerhalb von Mikrosekunden erfolgen. Diese Entscheidungszeit ist so kurz, dass ihre Mechanismen in die Hardware des Detektors eingebaut werden mussten. Eine zweite Entscheidungsstufe übernehmen Softwareprogramme, die auf mehreren hundert Computern laufen, deren Entscheidungszeit einige Hundertstel Sekunden beträgt. Eine dritte Stufe, die sich im Sekundenbereich bewegt, verläuft ebenfalls automatisch, aufgrund von Algorithmen. Am Ende dieses Prozesses ist die Datenmenge von 60 Terabyte pro Sekunde auf ein Gigabyte reduziert, d.h. von 60.000 Teilchenkollisionen bleibt nur eine übrig und nur deren Daten werden gespeichert. Wer garantiert, dass den Physikern nicht wichtige Ereignisse entgehen?

Ähnlich verhält es sich in der Chemie. Chemische Reaktionen laufen zu schnell ab, um sie in echten Experimenten studieren zu können. Stattdessen muss auf Computersimulationen ausgewichen werden. Nicht viel anders sieht es beim menschlichen Gehirn aus. Es ist so komplex, dass man kaum hoffen kann, seine Funktionsweise jemals detailliert zu ergründen. 2013 versuchte eine Gruppe von Wissenschaftlern, die vollständige Aktivität von 1% des Gehirns während des Zeitraums einer Sekunde am Computer zu simulieren. Sie bediente sich des viertschnellsten Computers der Welt. Dieser benötigte für seine Simulation vierzig Minuten. Wenn man von einer bloß linearen Zunahme der Komplexität der Gehirnaktivität ausgeht, was vermutlich unzutreffend ist, würde die Simulation der gesamten Gehirntätigkeit während einer Sekunde an diesem Supercomputer zweieinhalb Tage dauern. Während man noch vor vierzig Jahren davon ausging, an der Kommunikation der Nervenzellen im Gehirn seien zwei bis drei Botenstoffe beteiligt, weiß man inzwischen, dass an der Aktivität einer durchschnittlichen Synapse – einer einzelnen – 300.000 Proteine beteiligt sind. Das menschliche Gehirn besteht aber aus schätzungsweise 100 Milliarden Nervenzellen.

Nicholas Rescher, einer der führenden Wissenschaftstheoretiker der Gegenwart, vertritt daher die Auffassung, das empiristische Forschungsprogramm werde nie zu einem Abschluss kommen, nicht zuletzt aus finanziellen und physikalischen Gründen. Angesichts des exponentiellen Zuwachses an Komplexität erweist sich auch das berühmte Ockhamsche Rasiermesser, das Prinzip der Sparsamkeit (Ökonomie) in der Annahme von Erklärungsmitteln und ontologischen Entitäten (epistemische und ontologische Parsimonie) als frommer Wunsch. Während vor Jahrzehnten von der »heiligen Dreifaltigkeit« der Physik, den drei letzten Elementen Proton, Neutron und Elektron gesprochen wurde, kennt die Physik inzwischen sechs Arten von Quarks, sechs Arten von Leptonen und zwölf Arten von Austauschteilchen für die Kraftfelder, plus das Higgs-Boson. Weil aber jedes Quark mit einer der drei verschiedenen Farbladungen geladen ist, müssen sie dreifach gezählt werden, man kommt also auf achtzehn Quarks. Für jede Art von Quarks und Leptonen gibt es schließlich die entsprechenden Antiteilchen, so dass man sie doppelt zählen muss. Mithin kommt man auf 36 Quarks und Antiquarks, 24 Leptonen und Antileptonen, plus zwölf Austauschteilchen und das Higgs-Boson, macht insgesamt 61 Arten von Elementarteilchen. Durch die Annahme von Strings, die unterhalb dieser Elementarteilchen eine tiefere Schicht der physischen Wirklichkeit darstellen sollen, vereinfacht sich der »Aufbau der Wirklichkeit« keineswegs. Denn die Strings sind zwar in sich einheitlich, aber die Mathematik, die notwendig ist, um ihr Verhalten zu beschreiben, ist so komplex, »dass sie die Fähigkeiten der heutigen Physiker und Mathematiker so weit übersteigt, dass es in voraussehbarer Zukunft wohl kaum zu einer abschließenden Formulierung der sie betreffenden Theorien kommen wird«. (Dawid). Es ist wohl die größte Paradoxie des Ökonomieprinzips, so Majorek, »dass uns die Flucht vor Gott und seinen Engeln im Namen des Einfachheitsprinzips zur Idee der Multiversen geführt hat, die nicht einige Tausend geistige Wesenheiten, sondern 10500 Universen braucht, um unser Universum erklärlich zu machen. 10500 Universen werden gebraucht, um die einzigartige Koinzidenz der Naturgesetze und Naturkonstanten, welche in unserem Universum herrscht und das Leben (uns Menschen) möglich macht, erklären zu können.« Wenn man die Wahrscheinlichkeit der Koinzidenz aller Bedingungen berechnet, welche für die Entwicklung des intelligenten Lebens auf der Erde notwendig sind, kommt man auf die Idee, dass es die angesprochenen 10500 zufällig zusammengewürfelten Universen braucht, um eines zu erhalten, das genau dem unsrigen entspricht. Kann man das Ockhamsche Prinzip noch extremer verletzen?

Dies führt auf die Frage, was Naturgesetze eigentlich sind. Wenn sie, wie behauptet wird, lediglich »Verallgemeinerungen unserer Erfahrungen« und »kontingente Behauptungen über die Natur« sind, warum werden sie dann als »Gesetze« bezeichnet und woher wissen wir, dass sie universell gelten und unveränderbar sind? Der Physiker Henning Genz schrieb 2002, es sei durchaus denkbar, dass Naturgesetze weder allgemeingültig noch notwendig seien. In der Tat geht auch die Theorie der Multiversen davon aus, dass es unzählige Universen mit jeweils ganz unterschiedlichen Naturgesetzen gibt.

Eine nicht weniger dringende Frage ist die, warum die von uns »erdachten« Naturgesetze überhaupt auf die Natur anwendbar sind, warum letztere sich »nach ihnen richtet«. Man kann sich eine Menschheit vorstellen, die auch ohne die Kenntnis von Naturgesetzen oder abstrakte Theorien überlebt; noch heute existierende »Naturvölker« beweisen es und die vorgriechische Menschheit überlebte ebenfalls. Die Frage ist, was die scheinbar nutzlose Eigenschaft des abstrakten Denkens für evolutive Vorteile brachte und warum sie bis heute überlebte. Aus der Sicht der Darwinschen Evolutionstheorie ist die Übereinstimmung unserer Gedanken mit der Realität äußerst unwahrscheinlich. Man könnte sie damit erklären, dass die Evolution solche Gehirnstrukturen hervorbrachte, die neben den auf das praktische Überleben gerichteten Gedanken auch abstrakte Gedanken produzieren, die mit der Wirklichkeit übereinstimmen. Allerdings führt diese Reduktion bestimmter Gedanken auf bestimmte Hirnstrukturen zu ernsthaften Problemen: sie setzt nämlich die Möglichkeit jedes rationalen Diskurses, ja der Rationalität überhaupt außer Kraft. Die heute dominierende Position des neuronalen Determinismus führt zur unhaltbaren Konsequenz, dass unterschiedliche Meinungen aus unterschiedlichen Funktionsweisen des Gehirns resultieren. Folglich können Meinungsverschiedenheiten nicht durch rationale Argumentation behoben werden, sondern nur mittels operativer Eingriffe. Der neuronale Determinismus führt also zur Ersetzung des rationalen Diskurses durch Gehirnchirurgie.

Dies nur einige der »tieferen Rätsel des wissenschaftlichen Paradigmas«. Hinzu kommt ein lesenswertes Unterkapitel über Imageprobleme der Naturwissenschaft, die mit Fällen von Betrug, dem Mangel an Reproduzierbarkeit von Ergebnissen und mit unterdrückten Daten zusammenhängen. Das vierte Kapitel mündet in einem weiteren Höhepunkt dieses ersten Bandes, einer detaillierten Auseinandersetzung mit drei empirischen Problemen des wissenschaftlichen Paradigmas: der Frage, ob das Gehirn den Geist hervorbringen kann, ob die Gene die Morphogenese erklären können und ob die Proteine die Leistungen vollbringen können, die ihnen zugeschrieben werden. Diese bescheiden als »Exkurs« bezeichnete Auseinandersetzung nimmt fast hundert Seiten ein. Unmöglich, sie hier en détail nachzuzeichnen. Das Fazit der kritischen Auseinandersetzung jedenfalls ist, dass alle drei Fragen mit einem klaren Nein beantwortet werden können.

Fortsetzung

Marek B. Majorek, Rudolf Steiners Geisteswissenschaft. Mythisches Denken oder Wissenschaft, narr francke attempto, Tübingen 2015, 1586 S. in 2 Bänden, Euro 196,–

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.