Die fundamentalen Denkfehler im Treibhausmodell

Der Diplombiologe Michael Kalisch weist in seinem Essay auf die fundamentalen Denkfehler im Treibhausmodell hin. Zur Geschichte des Treibhauseffekts. Ein Gastbeitrag.

Die fundamentalen Denkfehler im Klimamodell

Wasserdampf in Form von Wolken spielt bei der Klimabildung eine zentrale Rolle. Die chaotischen Prozesse entziehen sich bisher jeder exakten Modellierung. (Foto: © Lorenzo Ravagli).

Das Gros der Atmosphäre besteht aus Gasen, die Wärme weder als Strahlung absorbieren noch emittieren können (und zwar bekanntermaßen: bereits Tyndall hat vor gut 160 Jahren hierzu die Empirie geliefert). Diese Gase nehmen aber geleitete Wärme am Boden auf, woraus – so muss man annehmen – ein permanenter Konvektionsprozess entsteht, so lange der Boden erwärmt wird. (Konvektion ist das Aufsteigen erwärmter Luft vom Boden in die Höhe, womit zugleich Wärme transportiert wird). Folge ist eine Atmosphäre, die einen »gigantischen Wärmespeicher« darstellt, wenn auch, verglichen mit den Weltmeeren, einen kleinen.

Man muss die grundsätzliche Frage stellen, wieso die Erde mit gasförmiger Hülle umgeben ist – von Gasen (O2, N2), die erst oberhalb von minus 190-180 Celsius-Grad ihren Siedepunkt erreichen. Bei Temperaturen wie im freien Weltraum wären sie Flüssigkeiten oder Festkörper, wenn sie nicht irgendwie erwärmt werden können. Dass sie gasförmig sind, wird einfach als selbstverständlich hingenommen. Ihre Temperatur am Boden, die uns das Leben ermöglicht, muss also direkt damit zusammenhängen, dass sie bereits Wärme aufgenommen haben und diese auch behalten. Die adiabatische (ohne Wärmeaustausch verlaufende) Temperaturabnahme in der Atmosphäre mit der Höhe spiegelt dann lediglich die abnehmende Dichte dieser Wärme-haltenden Gase wieder.[1]

Wärmeleitung und Konvektion

Offenbar ist der Vorgang der Erwärmung durch direkten Kontakt mit anschließender Konvektion so »unspektakulär«, dass man ihn schon im 19. Jh. weitgehend vernachlässigt hat. Er dürfte auch schwer messbar und quantifizierbar sein, denn sicherlich hängt er auch stark von der Rauigkeit des Bodens ab und ist sehr chaotisch. (Im Internet stieß ich auf ein Buch über Planetenatmosphären, wo in dem Modell der atmosphärischen Temperaturbildung – ganz nach dem Muster des »Treibhauseffekts« aufgebaut – der Term Konvektion als ein Glied von mehreren in den Energieübertragungsprozessen komplett weggelassen war.)

Statt sich für Wärmeleitung und Konvektion zu interessieren, hat man sich den Kopf darüber zerbrochen, wie man die reale Temperatur konstruieren könne, indem man bei einer atmosphärelosen Erde anfängt und dann alles im Wesentlichen auf die Strahlung (Wärmestrahlung: Infrarot) abstellt. Wäre es nicht ein sinnvollerer Ansatz gewesen, von den bekannten Phänomenen auszugehen: Es gibt eine Atmosphäre, und sie zeigt die Fähigkeit, Wärme festzuhalten (auch in der Polarnacht verliert die Atmosphäre nicht so viel Wärme, dass sie unter den Kondensationspunkt der Hauptgase fällt); diese Atmosphäre setzt sich aus verschiedenen Gasen zusammen, deren unterschiedliches Verhalten in bezug auf Infrarotstrahlung seit Tyndall bekannt ist: es gibt Gase, die Infrarot nicht absorbieren und emittieren können (O2, N2), und andere, die das können (Wasserdampf in erster Linie, dann CO2, ferner marginal Methan u.a.).

Die Halbwahrheit im Treibhausmodell

Damit hätte man eine Art »Treibhaus« beschrieben, auch wenn dieser Vergleich ja bekanntlich sachlich falsch ist, da im Treibhaus die Hitze dadurch entsteht, dass nicht etwa Strahlung zurückgehalten wird, sondern die Konvektion der feuchtheißen Luft oben durch Glasscheiben unterbunden wurde – ein »natürlicher Treibhauseffekt«, der aber nicht auf den danach bezeichneten Gasen beruht, sondern gerade auf den in bezug auf thermische Strahlung inerten (trägen) Gasen! Der »Treibhaus«-Begriff ist somit eine Halbwahrheit, weshalb er auch so schwer zu korrigieren ist – aber vollkommen verkehrt ist leider seine Erklärung, er beruhe im Wesentlichen auf Kohlendioxid. – Hier steckt der erste gravierende Denkfehler.

Der weitere Fehler bestand dann darin, dass man sich auch über die Konsequenzen dieser Situation keine Klarheit verschuf: Sauerstoff, Stickstoff, Argon, die keine Wärmestrahlung aufnehmen können, aber geleitete Wärme speichern, sind auch unfähig, sich in Richtung Weltraum ständig wieder zu kühlen, weil das nur durch Infrarotstrahlung möglich ist. Also müsste eigentlich die Atmosphäre ständig wärmer werden – wird sie aber nicht. – Es ist geradezu paradox, wie selbstverständlich über diesen Punkt hinweggegangen wird. Die Atmosphäre kühlt sich permanent, indem sie Infrarotstrahlung abstrahlt – das kann man ja schließlich mit Satelliten detektieren!

Kühlende Treibhausgase

Aber wie kann sie das bei 99% strahlungsunfähigen Gasen? Wer oder was leistet diese Abstrahlung? Das ist bekannt: Einzig und allein jene Gase, die zu Unrecht als »klimaschädigende Treibhausgase« in Verruf geraten sind; geradezu das krasse Gegenteil der tatsächlichen Gegebenheiten: sie kühlen permanent die übrige Atmosphäre, d.h. sie nehmen ihr letztlich die Wärme wieder ab; und das kann auch gar nicht anders sein. An allererster Stelle leistet das natürlich der Wasserdampf (der seltsamerweise von der »Klimapolitik« ausgespart wird, trotz seiner geradezu gefährlichen Gehaltsschwankungen in der Atmosphäre von fast null bis in den Prozentbereich – es wäre auch einfach absurd und aussichtlos, Wasserdampf zum »Klimakiller« zu deklarieren und seinen atmosphärischen Gehalt durch ein noch zu treffendes »Pariser Wasserdampfabkommen« künstlich regulieren zu wollen); dann das Kohlendioxid, ferner die kleinen Piccoloflöten und Triangel in dem ganzen Orchester, Methan, Stickoxide, Ozon, Spuren von Fluorchlorkohlenwasserstoffen usw.[2]

Absorption und Emission von Wärme

Der dritte konsequente Gedankenschritt in der Verarbeitung bekannter Phänomene zu einem Modell (oder »Urphänomen«) wäre dann gewesen, sich Folgendes klarzumachen:

1. dass sich je nach dem atmosphärischen Anteil des Kohlendioxids sicherlich etwas verändert in der Menge absorbierter – und in Bodennähe sofort thermalisierter[3]– Strahlung, sowie in größerer Höhe die Menge der durch dasselbe Gas entsprechend abgestrahlten Wärme;

2. dass aber auf jeden Fall bei einer Zunahme der CO2-Konzentration nicht nur die Absorption steigen sollte (man beachte aber die Sättigung und die logarithmische Beziehung Konzentration—Absorption), sondern vermutlich gleichsinnig damit auch die Abstrahlung, denn der CO2-Anteil der Luft ist bis in beträchtliche Höhe derselbe, das Gas ist homogen verteilt (nach einer mir vorliegenden Angabe bis ca. 80 km Höhe).

Was übrigens auch darauf hinweist, wie intensiv und permanent die Durchmischung der unteren Atmosphäre ist.

Hält man beide Funktionen des CO2 in der Atmosphäre zusammen:

• unten die Absorption, sofortige thermalisierende Abgabe an die Umgebung, die damit etwas erwärmt wird,

• oben aber die Emission, und beide äquivalent entsprechend der gleichen Konzentration des Gases,

dann wäre die ganze CO2-Debatte über die angeblich die Gesamtexistenz des Lebens gefährdende Klimawirkung eines leicht zunehmenden CO2 in sich zusammengesackt wie ein kalt gewordenes Soufflee. Denn die unten erwärmende (thermalisierende) und oben kühlende (emittierende) Funktion des CO2 müssen sich die Balance halten, verbunden durch den unten wie oben gleichsinnig sich verändernden Anteil an der Atmosphäre.

Stattdessen hat man sich für die eine Seite interessiert und die andere vergessen: man sah nur die Absorption in Bodennähe, vergaß aber die Abstrahlung in der Höhe. Manche verwechseln das sogar noch mit Reflexion, die würde aber eine geschlossene Schicht (und eine Phasengrenze) voraussetzen.

Ausmaß der hypothetischen Erwärmung

Und was das Ausmaß der hypothetischen Erwärmung betrifft:

Wir haben ja noch nicht einmal die magische Verdoppelung jenes – wirklich unangefochtenen? – Anfangsgehalts von 280 ppm erreicht, bei der der volle Betrag der Erwärmung gemäß der errechneten (hypothetischen) Klimasensitivität erreicht sein müsste – über die man sich auch nicht einig wird. Welchen Wert hat die Klimasensitivität (ECS): 1°, 2°? Oder vielmehr nur 0.5, 0.2, 0.1°? Erreicht sind bisher ein Plus von ~130 ppm, statt 280 ppm derzeit ca. 410. Die Verdoppelung – 560 ppm – liegt noch in weiter Ferne. Ob sie je erreicht werden? Und dann erst wäre der volle Betrag der ECS wirksam (der aber nicht präzise bekannt ist).

Auch dies ist ja an sich nicht unbekannt: Es gab Erdzeitalter mit einem Vielfachen des heutigen CO2-Wertes. Wieso ist damals das gesamte Leben nicht ausgelöscht worden und die Erde »im Fieber zugrunde gegangen«?

Von De Saussure über Arrhenius zur »Klimarettung«

Leider hat sich die Atmosphärenphysik nicht folgerichtig entwickelt. Statt die Tyndall´schen Erkenntnisse über Gase (1861) sorgfältig anzuwenden, spann man die früheren Spekulationen von einem »Treibhaus« der Atmosphäre weiter (de Saussure, um 1780) und verfolgte Fouriers Vermutung, dass die Atmosphäre die »helle« Sonnenstrahlung durchlasse, die »dunkle« vom Boden ausgehende Wärmestrahlung aber festhalte. Damit war der Blick bereits einseitig auf die Strahlungsvorgänge fixiert, und das Mikrogeschehen der Wärmeleitung mit anschließender Konvektion sowie dem ständig damit einhergehenden kompensativen Nachfließen kälterer Luft direkt am Boden (mit den Augen in der Regel nicht wahrgenommen) entglitt der Aufmerksamkeit, trotz seiner makroskopischen Tragweite.

Der verhängnisvolle weitere Weg bis zur politisch hochaufgeladenen »Treibhausdebatte« und einem größenwahnsinnigen Weltvorhaben der »Klimarettung« durch globale CO2-Reduzierung wurde durch Svante Arrhenius´ Aufsatz über den »Einfluss von Kohlensäure in der Luft auf die Temperatur am Boden«[4] 1896 asphaltiert, in dem er den »Treibhauseffekt« des CO2 sogar zu beziffern versuchte. Empirisch nachgewiesen wurde das nie, was er errechnete, seine Kritiker (z.B. Robert W. Wood 1909) hat man trotzdem überhört. Dennoch füllt diese Rechnerei mit dem »Strahlungsgleichgewichtsmodell ohne / mit Atmosphäre« heute Tausende von Seiten in Lehr- und populären Büchern, Fachaufsätzen, Doktorarbeiten und amtlichen Veröffentlichungen, sowie endlosen Blogdiskussionen seit Jahren, die regelmäßig in gehässigem Streit enden.

Eines kommt dabei völlig zu kurz: die schlichten Grundtatsachen der Wärmephysik der Atmosphäre – Wärmeleitung (die »schlechte« Leitfähigkeit der Gase wird durch ihre Beweglichkeit kompensiert), Konvektion (+ Evaporation, Transpiration und die Phasenübergänge des Wassers), Absorption und Emission, Thermalisierung und Kühlung.

Wackelige Grundkenntnisse

Wie wackelig hier die elementarsten Grundkenntnisse sind, zeigt sich darin, dass manche meinen, wenn von »Wärmestrahlung« die Rede sei, müsse diese auch immer und überall wärmend wirken – egal, um welche Temperaturen es sich handelt.

Das ist der weitere Denkfehler, der hinter der Idee der »Gegenstrahlung« (»back radiation«) steckt – durch die der Boden noch einmal erwärmt werden soll von der Strahlung, die er bereits abgegeben hat und die in größerer Höhe z.B. von CO2 absorbiert und zur Hälfte wieder in Richtung Boden emittiert wird. Vergessen wird aber: das geschieht bei wesentlich niedrigeren Temperaturen entsprechend der Höhe, in der die Emission stattfindet. Diese »Wärmestrahlung« kann den Boden nicht noch einmal erwärmen. (Wenn es um Reflexion an einer Wolkenunterseite [Tröpfchen oder Eiskristalle] geht, handelt es sich um einen anderen Vorgang: der kann tatsächlich die Abkühlung bremsen, was der Unterschied zwischen bewölktem und sternklarem Himmel in Winternächten deutlich lehrt).

Eine Rückstrahlung homogen verteilten Kohlendioxids aus 10 km Höhe kann den Boden nicht »rückerwärmen«. Jede »Wärmestrahlung« eines offenen Kühlschranks mit ihrer der Temperatur entsprechenden Wellenlänge beweist uns das. Durch sie wird die Küche nicht erwärmt, weil die Küche bereits wärmer ist. Wärme fließt immer nur vom wärmeren zum kälteren Körper, in welcher Form auch immer.

Evidenzresistente Paradigmen

Dass diese einfachen, aber gravierenden Denkfehler im »Treibhausmodell« nicht bemerkt wurden, bevor man darauf einen Wolkenkratzer von klimatologischen Folgerungen hochzog, der nun wiederum mit weitreichendsten wirtschaftspolitischen Konsequenzen und »Transformationsplänen« verkettet ist und diese stabilisieren muss, wie er seinerseits von ihnen (wider den gesunden Menschenverstand, aber durch »Moral«) stabilisiert wird, wobei auch noch die Klimasimulationen für 80 Jahre im Voraus »vorauseilend-beweisend« postuliert werden (ein weiterer Denkfehler: gekoppelte nichtlineare Prozesse in Vielzahl sind nicht vorausberechenbar), scheint unglaublich.

Wenn es auch kein Einzelfall ist – falsche Paradigmen gibt es auch in anderen Wissenschaftsbereichen –, so sind Paradigmen doch leider sehr zählebig, da nicht die unwiderlegbare Evidenz, sondern vielmehr soziologische und psychologische Kräfte sie am Leben halten; man denke an den Widerstand der Schulgeologie gegen Alfred Wegeners Ideen von »wandernden Kontinenten« ab 1912: noch ganze 50 Jahre hielt die fixistische Front gegen den verspotteten »Nichtgeologen« Wegener – bis Anfang der 1960er Phänomene entdeckt wurden, die sogar die sukzessive Entstehung von Ozeanböden und eine passive Bewegung von Kontinenten nahelegten. Heute kann man über den Fixismus lächeln.

Wann wird sich der klimatologische Treibhaus-Fixismus bequemen, die für »vernachlässigbar« gehaltenen Details atmosphärischer Mikrovorgänge und ungleichartiger Gas—Strahlungswechselwirkungen genauer ins Auge zu fassen?

CO2 als Alloperator einer populistischen Politik

Im Moment dominiert nicht der sachbezogene Streit in der Klimawissenschaft selbst, sondern die Politisierung von Begriffen, die sachliches Denken vernebelt und emotional aufwühlt, und der moralische Einfluss populistischer Politiker, die in der »CO2-Gefahr« vor über 30 Jahren eine Riesenchance für ein zugkräftiges und vor allem äußerst »nachhaltiges« Dauerthema entdeckten: die »Klimarettung« durch erzwungene CO2-Reduzierung.

Damit kann die Politik das Versagen auf anderen, einst viel wichtigeren Gebieten vergessen machen: Armut und Hunger, schreiende Ungerechtigkeiten im eigenen Lande, inhumane Kriege vor Europas Haustür trotz Existenz eines »UN-Sicherheitsrates«, gewaltige Müllprobleme (Kunststoffverseuchung der Weltmeere), weiterhin durch Brandrodung schrumpfende Regenwälder und Artenauslöschung u.v.a.m. Nun gibt es nur noch ein Zentralthema, das auf einer einzigen All-Erklärung basiert: wir müssen CO2 reduzieren, weil dies zu einer angeblich linear fortschreitenden Erwärmung der Erde führt (selbst in dieser linearen Vorstellung steckt noch ein physikalischer Denkfehler) – dann wird wieder alles gut.


Verwandte Beiträge: Ein offener Brief an die Ministerpräsidenten Dänemarks und Norwegens | Der Kampf der Kosmiker und Telluriker


Anmerkungen:

  1. Das dürfte auch die richtige Erklärung für die hohen Temperaturen auf der Venus sein: eine um vieles schwerere (dichtere) Atmosphäre, die daher aufgrund der adiabatischen Erwärmung am Boden viel wärmer sein muss, dazu ständig von Wolken verhangen – statt der gängigen Erklärung, es sei auf der Venus aufgrund eines extremen »Treibhauseffekts« so heiß.
  2. Die atomistische Erklärung lautet heute: Infrarot-aktiv (d.h. absorbierend und emittierend) sind all jene Gase, die aus Molekülen mit einem Dipolmoment bestehen, die also nicht aus gleichen Atomen zusammengesetzt sind: Wasser H2O (H=O=H), Kohlendioxid CO2 (O=C=O), Methan CH4 u.a. Durch das Dipolmoment, so erklärt man, können die Bindungen zwischen den ungleich elektronegativ geladenen Atomen in »Schwingung« geraten (obwohl diese Bindungen materiell nicht vorhanden sind), dabei gibt es verschiedene Freiheitsgrade für Schwingungen (Vibrationen), die man den verschiedenen Infrarot-Banden solcher Moleküle zuordnet. – Dagegen sind Sauerstoff (O2) und Stickstoff (N2) inaktiv gegenüber Wärme-Strahlung, nicht aber gegenüber leitbarer Wärme, selbstverständlich. Offenbar hat man vergessen, dass jeder Körper (auch gasförmig) Wärme durch Leitung aufnehmen kann. Dass Gase schlechte Wärmeleiter sind, wird dadurch kompensiert, dass sie ja nicht in Ruhe bleiben, sondern erwärmtes Gas sofort aufsteigt (Konvektion) und dabei kühleres Gas nachzieht – ein Vakuum entsteht nicht.
  3. Thermalisierung bezeichnet den Vorgang, wenn absorbierte Infrarotstrahlung von einem Gasteilchen nicht als solche wieder emittiert wird, sondern durch Stoßimpulse an die Umgebung weitergegeben wird: diese Umgebung wird hiermit direkt erwärmt, eben »thermalisiert«. Ob die absorbierte Strahlung durch Stoßimpulse oder wiederum durch Abstrahlung abgegeben wird, hängt von der Dichte des Gases ab, nämlich von den freien Weglängen der bewegten Gasteilchen und der Zeitspanne bis zum nächsten Zusammenstoß. Ist diese Zeit kürzer als die Zeitspanne zwischen Absorptions- und Emissionsvorgang (wie in Bodennähe bei höherer Dichte), wird »thermalisiert«. Ist die Zeitspanne größer, kann emittiert werden, und dies findet in höheren Atmosphärenschichten bei geringerer Gasdichte statt.
  4. »On the Influence of Carbonic Acid in the Air Upon the Temperature of the Ground«, Philosophical Magazine 41, 237-276.

Seit 15 Jahren veröffentlicht der anthroblog Beiträge zur Anthroposophie und Zeitsymptomen. Unabhängig und unbeeinflusst von Institutionen. Um weiter existieren zu können, ist er auf Ihre Unterstützung angewiesen.


Oder durch eine Banküberweisung an: Lorenzo Ravagli, GLS Bank Bochum, GENODEM1GLS DE18 4306 0967 8212049400.


Ich will zwei- bis dreimal im Jahr durch den Newsletter über neue Beiträge im anthroblog informiert werden!

13 Kommentare

  1. Der Autor begeht selbst einen sehr offensichtlichen Denkfehler…
    Offenbar ist dem Autor nicht wirklich bekannt, dass Wärmeübertragung nicht nur per Wärmeleitung und Konvektion, sondern auch per elektromagnetischer Strahlung stattfinden kann (und zwar nicht nur per Infrarotstrahlung!). Und ein (Teil)Vakuum wie das Weltall ist leider nun mal kein Hindernis für eine solche Wärmeübertragung per elektromagnet. Strahlung – auch Licht und Radiowellen kommen problemlos durchs Weltall…

    Aber selbst der Autor richtig liegen würde mit seiner Annahme, dass die Atmosphäre keine Wärme ins Weltall abgeben kann – dann könnte immer noch die Erdkugel problemlos Wärme per Strahlung ins All abgeben und den Wärmeverlust durch entsprechenden Entzug der Wärme aus der Atmosphäre ausgleichen.

    Wenn also die Atmosphäre selbst keine Wärme ins Weltall abgeben könnte, dann würde sie sich trotzdem nicht grenzenlos weiter erwärmen, da sie die Wärme über den Umweg über den Erdball problemlos abgeben kann – per direkter Wärmeleitung und Konvektion.

  2. Abkühlende Emission in den Weltraum gibt es sicher. Die zentrale These dieses Beitrags ist, dass die aktuelle konventionelle Klimaforschung diesen Term in ihren Simulationen vegisst – wo ist der Beleg für diese Aussage?

    • Ich habe einige Phänomene beschrieben, die übersehen wurden – das war mein Hauptanliegen, nicht irgendwelche Thesen aufzustellen. Wie kann man z.B. etwas als „Treibhausgas“ bezeichnen, wenn es das einzige Kühlmittel der Atmosphäre selbst darstellt? Dass in den Simulationen etwas „vergessen“ wurde, ergibt sich nur daraus. Was tatsächlich vergessen wurde, sind die Eigenschaften der Gase Sauerstoff und Stickstoff, weil sie für das Modell des „Strahlungsgleichgewichts“ von geringem Interesse sind! Einen „Beleg“? Lesen Sie den Wikipedia-Artikel „Treibhauseffekt“, https://de.wikipedia.org/wiki/Treibhauseffekt#cite_ref-1 – darin finden Sie diese beiden Gase inbezug auf ihre Nichtemission von Wärmestrahlung nicht erwähnt, also auch nicht das Problem, das sich daraus ergibt. Es ist also überhaupt nicht bewusst. Man kann natürlich auch mal so eine „populäre“ Erklärung lesen wie auf https://praxistipps.focus.de/was-ist-der-treibhauseffekt-einfach-erklaert_99249 – aber das ist eigentlich schon eine Zumutung. Hier müssten Sie jeden einzelnen Satz zerpflücken.- Es zeigt aber ein Problem, auf das man aufmerksam werden könnte: Es wird auf diesem Feld häufig einfach gedankenlos „nacherzählt“… allerdings auch auf vielen anderen Gebieten. Was mich daran erstaunt – vielleicht bin ich Fossil einer alten Art -, ist der Mangel an Interesse, an „Forscherdrang“, der selbst etwas begreifen will und sich nicht einfach „abspeisen“ lässt.- Ein weiterer problematischer Punkt wäre die Bedeutung, die man der trockenen Konvektion beimisst – die ist nämlich auch nicht „gesichert“. Im gängigen Modell, das das IPCC verwendet (Kiehl & Trenberth 1997), wurde der Anteil des Vorgangs der Konvektion aufgrund direkter Erwärmung am Boden am gesamten Energiefluss mit nur 7% beziffert; genau diese Angabe findet sich auch im Wikipedia-Artikel. In Klaus Ermeckes Arbeit (Ermecke [2009, Version 1.3.]: Rettung vor den Klimarettern. Gibt es die ‹Gefahr für das Weltklima›? Homepage http://www.ke-research.de/research/studien.html, S. 13), der ich den klärenden Hinweis auf die „Rollenverteilung“ der atmosphärischen Gase verdanke – 99% sind nicht infrarot-strahlend, aber Wärme-absorbierend durch Leitung, nur die sog. „Treibhausgase“ können abstrahlen und damit kühlen -, wird eine andere Quelle zitiert, Chilingar et al. 2008, die diesen Konvektionsbetrag auf >60% abschätzen. Das ist ein gewaltiger Unterschied, offenbar besteht hier keine Einigkeit. Hinter dieser Zahl – was immer ihr genauer Betrag ist, es kann sich nur um einen Durchschnittswert handeln, weil es lokal große Unterschiede geben dürfte – steckt vor allem die vom Boden Wärme aufnehmende Wirkung der Gase Sauerstoff und Stickstoff.- Mein Eindruck ist, dass im heutigen Wissenschaftsbetrieb (seit langem) die Tendenz besteht, sich auf „interessante“ Details zu fokussieren und diese dann spezialistenmäßig zu behandeln, dabei aber den Blick für das Ganze zu verlieren – weil weniger Interessantes in Vergessenheit geraten ist. Vor allem jene Phänomene, die sich einem nicht aufdrängen. Und dann wird ein „Modell“ erstellt, gerechnet und – heute sehr üblich – gleich am Computer simuliert. Damit erzeugt man sich Scheinbilder der Realität, die mit letzterer möglicherweise nicht mehr viel zu tun haben.- Das ist nicht nur in der Klimaforschung so.

      • Vielen Dank Herr Kalisch für die schnelle und ausführliche Antwort, der ich intuitiv in weiten Teilen nur zustimmen kann. Klar: In populären Darstellungen bis hin zu Wikipedia wird oft einseitig, reisserisch und falsch berichtet. Und ja: Nach der tieferen Wahrheit fragt kam noch einer.
        Mich hätte interessiert, ob in den „echten wisssenschaftlichen Modellrechnungen“, auf die sich die Politik bezieht, diese Fehler gemacht werden. Oder anders gefragt: Hat der interessierte Laie eine Chance, das zu recherchieren? Oder müssen wir diesen Klimamodellen glauben, wie der einfache Mann dem Dorfschamanen glauben musste?
        Bzw. – ohne Ihnen zu nahe zu treten – müssen wir den Leuten glauben, die sagen, dass dieser oder jener wichtige Zusammenhang in den Simulationen nicht enthalten sei?

        • „Dorfschamanen“: Die Leute vom PIK (Potsdam-Institut für Klimafolgenforschung, offenbar die nicht nur „besten“ sondern auch „einzigen“ Klimaberater der Bundesregierung) sehen sich sogar als „Ärzte des Erdsystems“. In aller Bescheidenheit! Sie stellen die „Diagnose“: Die Erde geht auf einen Klimakollaps zu (<- "Kipp-Punkte-Theorie", die nicht in einem offenen Diskurs diskutiert wird), und zwar basierend auf den Modellrechnungen für die Zukunft, die von der Ideologie des "gefährlichen Treibhausgases" ausgehen; dann kommen sie zur "Ätiologie": das CO2 ist schuld – bzw. der Mensch, von dem es allein stammen soll. Und daraufhin benennen sie die "Therapie": Das anthropogene CO2 muss weg. Diese „Therapieempfehlung“ geht direkt an die Politik. Nach ihrer Meinung wäre der „Patient“ dann geheilt, wenn wir komplett „dekarbonisiert“ haben (ob auch der angebliche Schädiger heil davon kommt, ist eine andere Frage – wie wir derzeit sehen, sind „unumgängliche Maßnahmen“ unter Umständen schädlicher als das, was man meint vermieden zu haben). – Diesem „Therapiekonzept“ liegt aber eigentlich ein Zirkulärdenken zugrunde. Man weiß bereits, dass der Mensch schuld ist, also „beweist“ man es mit entsprechenden Modellrechnungen.- Eine wissenschaftliche Diskussion mit kontroversen Ansichten zu den Ursachen der modernen Warmzeit (Svensmark, Shaviv, Veizer, Harde, um nur ein paar zu nennen) wird von diesen Menschen nicht geführt.-
          Ist es nicht auffällig, dass kaum danach gefragt wird, wo eigentlich die BEWEISE vorgelegt wurden dafür, dass und wie die Klimamodelle, die unsere Zukunft voraussagen sollen, verifiziert sind? Diese Frage wird kaum mehr gestellt. Wer von der ferneren Zukunft redet, ist davon entbunden, seine Aussagen auch zu verifizieren! Sollte er sich geirrt haben – sei´s drum, wie soll man ihn dann zur Verantwortung ziehen?- „Klassische Wissenschaft“ machte Experimente, um Voraussagen zu prüfen, die sich aus einer Theorie (bzw. Hypothese) ergeben – und das Experiment sagte dann, ob die Voraussage richtig war. Wenn nicht – musste die Theorie geändert werden.- Die tonangebende Klimaforschung ist keine „klassische“ Wissenschaft mehr! Sie sieht sich nicht genötigt, ihre Voraussagen auch experimentell zu belegen! Sie sagt einfach voraus – und sagt im selben Satz: „Wir haben keine Zeit mehr, lange darüber nachzugrübeln, ob das bis ins Letzte stimmt – die Voraussage ist doch alarmierend genug, also MUSS SOFORT GEHANDELT WERDEN!“- Und das wird von vielen widerspruchslos akzeptiert.

          Ich hatte bisher keine Möglichkeit, nachzuvollziehen, wie ein Klimamodell genau „gemacht“ wird; das ist Arbeit von Spezialisten (manche sprechen auch von „Computerfreaks“). Aber einige Kernpunkte kann ich festhalten, was die großen GCMs (General Circulation Models) betrifft, mit denen uns angeblich die Zukunft des Klimas auf Jahrzehnte hinaus vorausgesagt werden kann. So ist es trotzdem möglich, sich ein Urteil zu bilden.
          1.) Parametrisierung.- Es werden nicht die Gesetze der gesamten Atmosphärenphysik mit der Rolle des CO2 darin in die Modelle eingebaut; das wäre viel zu aufwendig und die Rechenzeiten würden sich endlos ausdehnen (was auch sehr viel Geld kostet! Strom!!) – und außerdem wird ja eingestanden, dass vieles noch gar nicht verstanden ist. Daher wird stattdessen die Rolle des CO2 „parametrisiert“ (welches „Forcing“ übt es aus, d.h. welchen Wattbetrag an Energie führt es dem Boden zu, und wie steigt dieser Wert mit der Zunahme des CO2 – – theoretisch) . Es wird also in einen Schätzwert umgewandelt. Und damit wird gerechnet und an bekannten Verläufen korrigiert, d.h. der Parameter wird entsprechend verändert – es ist nicht ganz unähnlich dem Finden der richtigen Einstellung eines Mopedvergasers, wo man so lange drehte und nachjustierte, bis es „stimmte“…. So erklärte es mir vor Jahren der Geologe Ján Veizer (Leipniz-Preisträger, damals noch in Bochum, dann in die USA „ausgewandert“), der sich mit den natürlichen klimamodulierenden Faktoren befasst (Sonne, kosmische Strahlung). Fakt ist leider: es sind nicht alle physikalischen Wechselwirkungen bekannt, die als positive oder negative Rückkoppelungen wirksam werden. Das zeigt sich auch bei der Berechnung des Betrags der „Klimasensitivität“ (um wieviel Grad wird es wärmer werden, wenn sich ein Ausgangsbetrag des atmosphärischen CO2 verdoppelt hat?) Hier hat Prof. H.Harde eine aufwändige Neuberechnung vorgenommen, mit dem Ergebnis, dass der vom IPCC angegebene Wert viel zu hoch ist – man hatte eine Reihe von Rückkoppelungen in der Atmosphäre übersehen und außerdem die Sonne vernachlässigt. Harde kommt rechnerisch zu einem Wert unter 1° Erwärmung pro Verdoppelung (und die ist noch längst nicht erreicht: 280 -> ~410 ppm). „Autoritäten“ vom PIK (Levermann) dagegen behaupteten, dieser Wert betrage „2°, so sicher wie die Gravitation“. Aber das macht einen riesigen Unterschied aus für die Abschätzung der FOLGEN steigender CO2-Werte.
          Ein interessanter Punkt ist nun folgender: Man könnte demselben Parameter(!) einfach einen anderen „Namen“ geben – statt „CO2-Forcing“ könnte man sagen, „dieser Wert repräsentiert die Wirkung der Sonnenaktivität„. Das Ergebnis der Modellrechnung wäre dasselbe! Allerdings nicht ganz: man müsste dann auch noch die Zyklizität dieses solaren „Forcing“ mit einbauen und käme damit zu Berechnungen, die der beobachteten Realität möglicherweise näher kämen als die rein linear gedachte Wirkung des CO2… Aber: das wird nicht getan. Es wird nicht gewollt. Man will die zyklisch schwankende Sonnenaktivität mit ihren Sekundärfolgen (Ab- oder Zunahme von Wolkenbedeckung) nicht in die Theorie einbeziehen. Hier zeigt sich über die letzten 20 Jahre sogar eine deutliche „Klimaverschlechterung“, jedenfalls was das Klima des wissenschaftlichen Diskurses betrifft: in den älteren IPCC-Berichten wurde der Anteil des Menschen an der Erwärmung noch kleiner eingeschätzt, und damit auch der Sonne(!) oder anderen Faktoren eine Wirkung „zugestanden“. Inzwischen wird aber behauptet, dass die gesamte Erwärmung bereits seit 1850 rein anthropogen sei…
          2.) Voraussagbarkeit?- Die Klimamodelle können im Prinzip keine Klimazukunft vorausberechnen – diese Aussage dürfte Staunen erwecken, aber sie ist mit einer offiziellen Feststellung des IPCC selbst belegbar: „In sum, a strategy must recognise what is possible. In climate research and modelling, we should recognise that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible.“ IPCC, 3. Sachstandsbericht (2001), WG I, 14.2.2.2. Auf Deutsch: da es sich um gekoppelte nicht-lineare Prozesse handelt, mit denen gerechnet wird, ist eine Voraussage UNMÖGLICH. Das Ergebnis ist nicht eindeutig, es können kleinste Änderungen der Anfangsparameter zu einem anderen Verlauf führen. „Voraussagen“ sind also machbar – aber sie sind im Grunde wertlos. Sie erzeugen eine Illusion von „Machbarkeit“ und „Vorausberechenbarkeit“, die mathematisch nicht begründbar ist.- Es gibt noch einen zweiten Satz des IPCC, den es an obigen anschloss: „The most we can expect to achieve is the prediction of the probability distribution of the system´s future possible states …“
          Aber das ist leider ein Irrtum. (Nähere Erläuterungen hierzu findet man bei Prof. Judith Curry USA, einer Expertin auf dem Gebiet der Computermodellierung – seltsamerweise wird ihr Name in unserem Lande praktisch nie genannt…) Da von keiner einzigen der Modellprognosen gesagt werden kann, ob sie der REALITÄT (Zukunft) entspricht oder am nächsten kommt, führt auch das Durchschnittnehmen aus einer großen Menge von Simulationen („Ensembles“: es wird immer teurer und teurer…) zu keinem verlässlichen Ergebnis. Der Durchschnitt aus 50x „ich weiß nicht“ führt zu „ich weiß es immer noch nicht“. Es gibt keinen brauchbaren Mittelwert in einem Ensemble von chaotischen Verläufen, keine „Wahrscheinlichkeitsverteilung“. Alles ist gleich wahrscheinlich oder unwahrscheinlich. Es gibt nur einen breiten Trampelpfad von „Suchern“, die nicht einmal ahnen, wo das Ziel ist.- Hier muss man sich ernstlich fragen, ob die „Experten“, die hier arbeiten, die Mathematik nicht-linearer gekoppelter Prozesse verstanden haben – oder sich darüber hinwegsetzen aus Zweckoptimismus. Es ist nicht dasselbe, wie wenn man würfelt. Hier kann man sagen, dass bei einem fehlerlosen Würfel jede Augenzahl in gleicher Häufigkeit vorkommen muss, 1/6. Beim Klima ist dieses Würfeln sinnlos – aber es schafft ja auch Arbeitsplätze.- Eigentlich also ein fruchtloses Unterfangen: zumal im selben Lager dieser Klimaforscher zugegeben wird, dass vieles noch nicht genau verstanden sei.
          3.) Glaubhaftigkeit aufgrund von „Rückvorhersagen“.- Die neuen Modelle CMIP5 & 6, auf denen die IPCC-Voraussagen basieren, halten nicht, was sie versprechen sollen. Es gibt einen 1000-jährigen Klimazyklus (solar bedingt), wie die Klimageschichte zeigt. Aus dieser Sicht muss die derzeitige Warmzeit vorwiegend natürliche Ursachen haben, er gehört in diese Tausenderwellen. Die Modelle können diesen Zyklus nicht reproduzieren. Aber das gilt für alle natürlichen Klimazyklen, deren Wellenlänge von ungefähr 1jährig bis zu 150 Mio. Jahre reicht: die Modelle können sie nicht reproduzieren. Die CMIP5-Modelle konnten übrigens auch die – erwiesene, da historische – Wärmeperiode vor der Mitte des 20. Jhs. nicht reproduzieren. Noch schlimmer: sie können auch den durchgehenden 60jährigen Zyklus (PDO usw.) nicht reproduzieren, der gestaltet aber deutlich den Verlauf der Erwärmung seit 1880, und sein Anteil an den „Wellen“ (es gab ja auch Abkühlungs- oder Stagnationsphasen in dieser Erwärmung seit 1880) muss genau bekannt sein, bevor man irgendwelche Aussagen macht über „anthropogene Schuld“ an einer Erwärmung – sowie darüber, wie es in den nächsten Jahrzehnten weitergehen wird. Das ist ein gravierender Mangel der Klimamodelle.- Diese Modelle können auch die Mittelalterliche Warmzeit, die inzwischen weltweit dokumentiert ist (siehe S.Lüning u.a.), nicht reproduzieren. Das war zweifellos eine natürliche „Klimaanomalie“, aber von Klimamodellen wird sie quasi „eingeebnet“. (Näheres zu diesem Thema findet man bei Nicola Scafetta.)
          Was das Nichtzurkenntnisnehmen des 60er-Zyklus betrifft, so wie ähnliche ozeanisch bedingte Zyklen im Jahrzehntbereich, hat es auch gravierende Auswirkungen im Form von Fehlbeurteilungen gegenwärtiger Veränderungen, die meistens nur über einen Zeitraum von Jahren(!) oder allenfalls wenigen Jahrzehnten betrachtet werden (etwa bei der Hurrikan-Häufigkeit). Betrachtet man z.B. nur den ansteigenden Ast einer sinusförmigen 60er-Welle (bestehend aus 30 Jahre „Berg“ und 30 Jahre „Tal“) und extrapoliert das in die Zukunft, kommt man zu völlig wirklichkeitsfremden Aussagen (meistens mit dem Tenor: „Wenn das so weiter geht mit den Treibhausgasen, werden die Hurrikans und anderen Extremwetterereignisse stetig zunehmen“).
          4.) ein weiterer Schwachpunkt wäre, dass es für die Modellierung keinen Vergleichsfall gibt: es gibt keine Möglichkeit, die reale Erde mit Menschheit inkl. ihren Emissionen mit einem Modell „Erde ohne Mensch und ohne seine Emissionen“ zu vergleichen. (Es könnte ja auch sein, dass es natürliche CO2-„Emissionen“ gibt, ein Gedanke, der aufgrund der enormen Schwankungen des CO2-Anteils in der Erdvergangenheit einfach nicht von der Hand gewiesen werden kann, z.B. durch sich erwärmende Meere aufgrund einer veränderten Sonnenaktivität, s. hierzu z.B. H.Harde.) Man kann nur „Rückvorhersagen“ machen. Aber was die betrifft, die das Manko des nicht durchführbaren „Experiment-prüft-Voraussage“ wettmachen könnten, sind die Modelle nicht besonders überzeugend, wie gesagt. Und das nicht einmal für die Zeit, die seit Beginn der Modellierung verflossen ist.

  3. Walter Hopferwieser

    Die gehypten „grünen“ Technologien Windkraft und Photovoltaik können konventionelle Kraftwerke nicht ersetzen. Ebenso wie E-Autos tragen sie mehr zur Erderwärmung bei als sie angeblich bringen.
    Die wesentlichen naturwissenschaftlichen, politischen und anthroposophischen Aspekte habe ich in einer Studie mit vielen Quellenangaben zusammengestellt. Sie kann kostenlos herunter geladen werden:
    http://www.yumpu.com/de/document/view/62822451/schadet-uns-kohlenstoffdioxid

  4. Die Freiheit der Wissenschaft lebt vom begründeten Widerspruch. Das dominierende Narrativ ist: „97 Prozent der Wissenschaftler gehen vom menschengemachten Klimawandel aus“. Wie werden die abweichenden Forschungsergebnisse im wissenschaftlichen Diskurs respektvoll behandelt.

  5. Hans-Florian Hoyer

    Es ist immer wieder verblüffend, wenn eine einzelne Persönlichkeit den Anspruch aufstellt, das Irren von 90% der anderen aufzudecken.
    Gleichzeitig wird nebenbei die Dysfunktionalität des weltweiten Wissenschaftsbetriebens unterstellt.

  6. Seit langem lese ich mit viel Interesse die Beiträge in diesem Blog. Ich komme dabei aber immer deutlicher an die Grenzen meiner Urteilsfähigkeit, v.a. da, wo ich nicht eine eigene fundierte Fachlichkeit einbringen kann – so auch in diesem Beitrag. Was ich lese, wirkt auf mich kohärent und stimmig. Wenn ich dann Ausführungen anderer Autoren mit gegensätzlicher Darstellung lese, so kann ich oft nicht sagen, wem ich eher folgten könnte (es sei denn, dass deutliche Brüche in der Argumentation deutlich sind).
    Eigentlich wäre es für mich nötig, dass in Zukunft solche Themen vermehrt im Dialog behandelt werden, mit Rede und Gegenrede.

    • Der Kommentar ist nachvollziehbar. Das Problem ist, dass allein schon das Verstehen wissenschaftlicher Auseinandersetzungen entsprechende Kenntnisse voraussetzt. Wenn man eine Argumentation auf ihre Kohärenz überprüfen kann, ist schon ein wichtiges Kriterium erfüllt. Leider garantiert die Rede und Gegenrede zweier Fachwissenschaftler auch nicht unbedingt einen höheren Grad an Verständlichkeit.

    • Walter+Hopferwieser

      In unserem Bewusstseinszeitalter sollten wir uns bei unserem Weltbild vom Denken und nicht von Gefühlen oder Wünschen Leiten lassen. Das Denken lässt sich nicht kollektivieren. Es ist nicht leicht, besonders wenn wir nicht gewohnt sind, alles in Frage zu stellen. Für die Weiterentwicklung unserer Erde ist es wichtig, dass jeder von uns selbst denkt und dass wir uns nicht auf angebliche wissenschaftlich gesicherte Fakten verlasen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.