bauratgeber24.de
Bauratgeber24  |  Sanierungskosten  |  Bauideen  |  Download  |  Impressum  |  Datenschutzerklärung
Artikel im Blog

Alle Beiträge


Baustoffkennwerte
Gewünschten Baustoff eingeben

  

Faching., Dipl.-Ing.oec., Ing.oec., Ing. Peter Rauch PhD
Peter Rauch PhD
Dipl.-Ing.oec., Ing.oec., Ing.
Es gibt viele Bauratgeber, welche im Auftrag oder für das System arbeiten, aber nicht für den freien Menschen.
Subscribe



Archives
  • März 2024
  • Februar 2024
  • September 2023
  • August 2023
  • Juli 2023
  • Juni 2023
  • Mai 2023
  • Februar 2023
  • Januar 2023
  • Dezember 2022
  • November 2022
  • Oktober 2022
  • September 2022
  • August 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • März 2022
  • Februar 2022
  • Januar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • März 2020
  • Februar 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Juli 2019
  • Juni 2019
  • Mai 2019
  • April 2019
  • Februar 2019
  • Januar 2019
  • Dezember 2018
  • November 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • April 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • September 2017
  • August 2017
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • November 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • Oktober 2015
  • September 2015
  • Juli 2015
  • Juni 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Januar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juli 2013
  • Juni 2013
  • Mai 2013
  • April 2013
  • März 2013
  • Februar 2013
  • Januar 2013
  • Dezember 2012
  • November 2012
  • Oktober 2012
  • September 2012
  • August 2012
  • Juli 2012
  • Juni 2012
  • Mai 2012
  • April 2012
  • März 2012
  • Februar 2012
  • Januar 2012
  • Mai 2011
  • Dezember 2010
  • Oktober 2010
  • August 2010
  • Juli 2010
  • Juni 2010
  • März 2010
  • Februar 2010
  • Dezember 2009
  • November 2009
  • Oktober 2009
  • November 2007
  • September 2007
  • August 2007
  • Juli 2007
  • April 2007
  • März 2007
  • Februar 2007
  • Januar 2007
  • November 2006
  • Juni 2006
  • Februar 2006
  • September 2005
  • August 2005
  • Juli 2005
  • Juni 2005
  • Februar 2005
  • Januar 2005
  • August 2004
  • Mai 2003
  • April 2003

  • Altbausanierung Badezimmer Dachgeschoss Energiekosten Energiepolitik Energie sparen Energiesparen Energiewende Fachwerk Globaltemperatur Grundstück Holz Immobilien Kaminofen Klima klimawandel Luftfeuchtigkeit Stromkosten treibhauseffekt Umzug
    Meta
    Anmelden

    Сильнейшая защита от всего негатива и опасностей!


    Die ehrgeizigen Klimaschutzziele in Deutschland

    Posted by Rauch on 16th Mai 2013

    In der „Neue württembergische Zeitung“ vom 23. 1. 2013 ist ein interessanter Beitrag zum Klimaschutz zu lesen. Der Beitrag nennt sich „Im Landkreis setzt beim Energiesparen auf einen dicken Katalog„. [1] Klima kann man nicht schützen, da es ein Begriff ist. Gemeint wird das Wetter. Aber auch das Wetter kann man nicht schützen. Das ist eine völlige Überschätzung der menschlichen Leistungsfähigkeit. Pausenlos versuchen die deutschen Medien, auf die Bevölkerung Einfluss zu nehmen. Wie zum Beispiel, der Einfluss des durch den Menschen gemachten C02 Ausstoß auf das Wetter. Dieser Einfluss ist vernachlässigbar klein. Mehr dazu unter meinem Beitrag zum Kohlendioxid. Für die Deutschen wurde so C02 zu einem gefährlichen Staatsfeind. Beim Studium in der Technischen Bibliothek in Kiew fand ich vor 3 Jahren einen Beitrag von der Russischen Akademie zum Thema Klima und C02. Diese Wissenschaftler finden den etwas höheren CO2-Gehalt in der Luft als positiv. Pflanzen wachsen durch diese zusätzliche Nahrung besser und ihre Widerstandsfähigkeit erhöht sich. Weltweit wird es auch immer grüner. Das müsste eigentlich die Grünen erfreuen. Diese möchten aber das CO2 mit hohen Kosten lieber unter die Erde verpressen. Den russischen Beitrag und viele weitere Beiträge und Videos sind im Artikel Klimazonen genannt.

    Kommen wir zum oben genannten Beitrag. „Der Landkreis Göppingen und sein Klimaschutz.“ Die von Hausmeisterschulungen über Altbausanierung usw. reichen. 160 Maßnahmen sind vorgesehen. Es geht nichts gegen einen sinnvollen wirtschaftlichen Umgang mit Energie. Falsch ist, dass nicht genügend Energieträger vorhanden sind. Selbst die USA wird künftig zum Energieexporteur. Eine hoch entwickelte Gesellschaft benötigt eine zuverlässige preiswerte Energie.

    Die Politik möchte bereits in wenigen Jahren den größten Teil der Stromerzeugung durch Windmühlen und Solarkollektoren decken. Die Energieerzeugung durch Biomasse kann man vernachlässigen. Bis 2050 will der Landkreis Göppingen seinen Energiebedarf selber decken. Dieses Vorhaben ist relativ leicht zu erreichen. Denn bis dahin ist die überflüssige Industrie verschwunden. Wenn es keine Arbeit mehr gibt, wird auch ein Teil der arbeitsfähigen Bevölkerung in das umliegende Ausland abwandern. In einem Agrarstaat wird ohnehin nicht so viel Energie benötigt, da man mit den Tieren schlafen geht. Die Eisenbahn fährt nur dann, wenn die Sonne scheint oder etwas Wind weht. Bei Windstille wird eben gelaufen. Weder der Landrat Herr Edgar Wolff oder Herr Arnulf Wein (SPD) verraten, dass zur Absicherung der Bereitstellung des Strombedarfs ebenso viele Kraftwerke (Kohle oder Gas) im unwirtschaftlichen niedrigen Bereich betrieben werden müssen. Werden Windmühlen gebaut, so ist Gleichzeit auch ein konventionelles Kraftwerk zu errichten bzw. es muss weiter betrieben werden. Es ist also alles doppelt da. Zu diesen Kosten kommen die zusätzlichen Netzgebühren usw. dazu.

    Was Strom kostet, ist den Bundesbürgern vollkommen egal. Genau um dieses Thema ging es im 1. Bürgerschutztag am 12. 5. 2013 in Nürnberg. Es waren viele Tausende Wohnungseigentümer und Mieter eingeladen. Ich habe die Teilnehmer nicht gezählt, aber es waren vielleicht 100 Interessenten da. Mir persönlich ist es egal, was hier in Deutschland der Strom künftig kostet 1 Euro/kWh oder 2. Da wir auch eine Wohnung im Ausland haben, verlagern wir den Hauptwohnsitz einfach dort hin.

    In der Zwischenzeit können die Klimaschutzkonzepte durch die Energieagenturen, Geschäftsstellen Klimaschutz im Umweltschutzamt umgesetzt und Klimabotschafter und Hausmeister geschult werden.
    Wer hier Zweifel hat, kann ja auch das Buch von Dr. Jürgen Langeheine „Energiepolitik in Deutschland – das Geschäft mit der Angst“ lesen. Eine Bürgerin aus München fragte vorwurfsvoll nach dem Vortrag von Herrn Dipl.-Ing. Michel Limburg auf dem 1. Bürgerschutz-Tag, „Sie wollen wohl wieder zur Kernkraft.“ Es wurde die unwirtschaftliche Energieerzeugung Windenergie und Solarenergie kritisch bewertet. Unwirtschaftlich wegen der geringen Energiedichte diese Erzeugungsformen und der fehlenden wirtschaftlichen und technischen Speichermöglichkeit von Strom. Leider konnte ich dieser Bürgerin meine Frau nicht vorstellen. Später stellte ich dann meine Frau Herrn Dr. Langeheine vor. Meine Frau „leuchtet in der Nacht“. Sie studierte und wohnte in Kiew in der Zeit, wo das Reaktorunglück in Tschernobyl erfolgte. Lächelnd sagte Herr Dr. Langeheine, „nein ihre Frau leuchtet nicht“. In Tschernobyl gab es das Unglück als Folge der Havarieübung durch die Rote Armee und in Deutschland fand die entsetzliche Katastrophe statt, deren Folgen bis heute anhalten.

    Die Energieeinsparung soll ja auch im Altbaubereich erfolgen. „Altbauten sollten nach bestimmten Standards saniert“ [1] werden. Es gibt in der Praxis nur wenige wissenschaftliche Untersuchungen zum Wärmeschutz. Diese Ergebnisse weichen stark von den theoretischen Berechnungen ab. Auf meiner Webseite unter www.ib-rauch.de wird ausführlich zur Altbausanierung eingegangen. Hier soll nur kurz erwähnt werden, ein Altbau ist kein Neubau. Wird ein Altbau falsch saniert, und dies ist bei dem o. g. Standard zu erwarten, werden die bisherigen bauphysikalischen Prozesse so verändert, dass mit der Sanierung eine Standzeitverkürzung erfolgt. Statt einer Wertsteigerung erfolgt eine Wertminderung des Hauses.

    [1] https://m.swp.de/goeppingen/lokales/goeppingen/Landkreis-setzt-beim-Energiesparen-auf-einen-dicken-Katalog;art5583,1997662, Landkreis setzt beim Energiesparen auf einen dicken Katalog

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Die ehrgeizigen Klimaschutzziele in Deutschland

    Wärmedämmung wegen Klimaverschiebung

    Posted by Rauch on 4th Februar 2013

    Auf einer anderen Ratgeberseite für Bauherrn lass ich folgende Argumentation:
    „Heute steht neben dem Aspekt der Kosteneinsparung vor allem die Sorge um das Klima der Erde im Vordergrund. Das beim Verheizen fossiler Brennstoffe entstehende Kohlendioxid (CO2) gilt als Hauptursache für die Klimaverschiebungen der letzten Jahrzehnte..
    Mit diesen Argumentationen soll die nachträgliche Wärmedämmung begründet werden. Auf das Thema Wärmedämmung möchte ich hier nicht weiter eingehen. Bei energetisch sehr schlechten Wohngebäuden ist dies sicherlich wichtig, um Heizkosten zu sparen. Bei energetisch normalen Gebäuden wirtschaftlich weniger sinnvoll ist. Mehr dazu unter meinem Beitrag Dämmen wir die Häuser oder die Dämmung?

    Die Mehrheit der Wissenschaftler auf der Erde schließt sich der Behauptung des IPCC nicht an. Siehe die „Manhattan-Erklärung“ oder Informationen zur ICSC http://www.climatescienceinternational.org International Climate Science Coalition (ICSC) liefert eine Analyse von Klimaforschungs- und politischen Themen, die unabhängig von Lobbys und etablierten politischen Interessen liegt.

    Klima-Manifest Heiligenroth

    (Jüngst gab der Chef des britischen Wetteramtes und IPCC Leitautor Prof. Mitchell zu: „It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.„. Damit unterstreicht er, dass der anthropogene Treibhauseffekt als Bedrohung in der Natur nicht vorkommt, sondern nur in den Modellrechnungen. Wenn, dann ist er jedoch so klein, dass er unterhalb jeder Nachweisgrenze liegt.)

    Die Wettervorhersage von Fachleuten für die nächsten Tage ist ohnehin schon sehr schwierig.

    Für die meisten deutschen Politiker ist das CO2 eine Katastrophe, daher die verzweifelten deutschen Maßnahmen durch Gesetzgebungen und Zwangsmaßnahmen auf dem Weg in die ökologistische zentralistische Planwirtschaft. Wie sollte man sonst zum Beispiel die Ökosteuer und die vielen anderen Maßnahmen begründen können.

    Klimaschutzziele

    Der Landtag des deutschen Bundeslandes Nordrhein-Westfalen hat am 23. Januar 2013 ein „Klimaschutzgesetz“ verabschiedet und möchte damit zum „Vorreiter beim Klimaschutz“ werden. Bis 2050 sollen die „Treibhausgasemissionen“ um 80 % gegenüber 1990 reduziert werden. 98,8 Prozent des in Deutschlandproduzierten Kohlendioxids stammt biologischen Ursprungs.  Es sollen also 80% von 1,2% eingespart werden.

    Nach Das „World Resources Institute“ (2012) berichtet, dass derzeit der Bau von weltweit 1.200 neuen Kohle-Kraftwerken geplant sind. In Russland sieht man dies ganz anders, da durch den CO2 Anstieg die Pflanzen besser wachsen (siehe unten).

    Leider hat das Kohlendioxid auf das (Klima) Wetter so gut wie kein Einfluss. Wenn, dann ist dies zu vernachlässigen klein. Siehe meine Zusammenstellung im Artikel zu den Klimazonen.

    Bei Studium in der technischen Bibliothek in Kiew fand ich vor 3 Jahren einen Artikel von der Russische Akademie der Naturwissenschaften:

    Причины изменения глобального климата земли

    O.Г.Сорохтин Российская академия естественных наук; Экология и рпомышленность России, апрель 2009 г. 35-40

    Особое мнение по суми Киомского протокола

    Необходимо обратить особое внимание, что Киотский протокол не имеет
    научного обоснования, а по свей сути он еще и противоречит физике
    природных процессов и совершенно неверно обьясняет влияние на климат
    антропогенных воздействий.
    Кроме того, необходимо учитывать, что повышение парциального давления
    углекислого газа в атмосфере приводит к повышению эффективности
    сельского хозяйства к скорости восстановления вырубаемых лесных
    массивов.
    Об этом сторонники Киотского протокола совершенно эабывают (или просто
    не хотят знать). Следует отметить, что эффективность сельского
    хозяйства и скорость восстановления лесов повышается прямо
    пропорционально увеличению парциального давления углекислого газа в
    атомосфере.
    Кроме того, в этой же работе убедительно показывается, что увеличение
    концентрации CO2 ведет к повышению засухоустойчивости злаковых культур,
    в том числе пшеницы.
    … Особеннно вредны условия протокола для России, поскольку ее
    экономика в основном построена на использовании углеводородного топлива
    …Поэтому предлагаемые МГЭИК дорогостоящие (порядка десятков
    миллиардов долларов за год) мероприятия по стабилизации концентрации
    CO2 не имеют смысла и вредны для экономики и сельского хозяйства…

     

    Posted in Bauen und Wohnen, Energie- und Umweltpolitik | No Comments »

    An das Wetter von morgen denken und Energie sparen

    Posted by Rauch on 22nd November 2012

    Brief an EnviaM vom 15. November 2012
    von Dr. rer. oec., Ing. Dietmar Ufer, Leipzig, Grünewaldstr.

    Herrn
    Carl-Ernst Giesting Vorstandsvorsitzender EnviaM
    Chemnitztalstr. 13
    09114 Chemnitz

    Sehr geehrter Herr Giesting,
    als Energiewirtschaftler mit jahrzehntelanger Berufserfahrung interessiere ich mich nach wie vor für die aktuellen Probleme der Energieversorgung, beispielsweise nehme ich mit Freude die erfolgreiche Entwicklung von EnviaM zu einem stabilen regionalen Energieversorgungsunternehmen in Ostdeutschland zur Kenntnis.

    Ich schätze auch Ihre Bemühungen, weitere Kunden zu akquirieren, um Ihren Umsatz zu steigern. Werbung ist dabei ein wichtiges Instrument. Allerdings muss dieses Instrument seriös gehandhabt werden!

    Und damit bin ich bei meinem Anliegen: Nicht nur EnviaM – auch andere EVU – befleißigen sich seit einiger Zeit einer Werbestrategie, die einerseits den energiepolitischen Zielstellungen der (wirtschaftlich, technisch und ökologisch verhängnisvollen) „Energiewende“ gerecht werden soll und andererseits dabei den normalen Menschenverstand außer Acht lässt, ja sogar zur (bewussten) Verdummung der Bürger beiträgt.

    Zwei Beispiele hierfür möchte ich Ihnen vortragen:
    1. Im MDR-Vorabendprogramm sponsern Sie die Wettersendung „Wetter für 3“ mit dem Text „Auch an das Wetter von morgen denken und Energie sparen!

    • Was hat das „Wetter von morgen“ – Gegenstand der meteorologischen Vorhersagen – mit „Energie sparen“ zu tun? – Meinen Sie wirklich, dass es morgen kälter oder wärmer wird, wenn ich anstelle einer 100-Watt-Glühlampe eine 11-Watt-Kompaktleuchtstofflampe anschalte? (Ganz am Rande: Wieso eigentlich wirbt ein deutscher Energieversorger für Energieeinsparung? Bäcker oder Textilkaufleute tun das mit ihren Produkten nicht. Sind die etwa verantwortungslos – und warum?)
    • Natürlich weiß ich, dass Sie hier weniger das „Energiesparen“, sondern die Reduzierung der bei der Verbrennung von Kohle, Öl und Gas eintretenden CO2-Emissionen im Auge haben. Aber haben Sie jemals einen Wetterbericht gehört oder gelesen, in dem Meteorologen sich auch nur andeutungsweise bei Ihren Vorhersagen auf das Spurengas C02 0,04 %) bezogen haben? Offenbar spielt dieses lebensnotwendige (!) Gas beim Wetter überhaupt keine Rolle, auch nicht bei dem „von morgen“!
    • Ich weiß, EnviaM denkt in „größeren“ Dimensionen! EnviaM sagt zwar „Wetter‘, meint aber „Klima“. An der Stelle muss man konstatieren: Fürs Wetter ist das CO2 nach übereinstimmender Meinung aller Meteorologen bedeutungslos, für das durchschnittliche Wettergeschehen über dreißig Jahre, (so wird das Klima definiert), soll es aber plötzlich bedeutsam sein? Wo bleiben da Logik und gesunder Menschenverstand?

    2. In großformatigen Anzeigen (z. B. Leipziger Volkszeitung vom 10./11. November 2012) werben Sie für ,,100 % Ökostrom“.

    • Offenbar haben Sie dabei die Herkunft dieses Stromes im Auge: Elektrische Energie aus Wind-, Photovoltaik- oder Biomasse-Anlagen, also aus Anlagen, die zwar öko-logisch sein sollen, aber absolut nicht öko-nomisch sind. Sie wissen selbst genau, dass der Strom aus diesen Anlagen (neben dem Verzicht auf die Kernenergie) die Hauptursache für die ständig steigenden Energiepreise ist. Dafür zu werben ist eine Besonderheit der deutschen Energiewirtschaft, über die ich mir Ihnen hier nicht diskutieren will.
    • Höchst seltsam finde ich, dass Sie Ihre Werbung mit der Floskel „Mit 100 % Ökostrom“ betreiben! Konkret heißt das: Wenn ich bei Ihnen „Ökostrom“ bestelle, liefern Sie mir elektrische Energie, die zu 1 00 % aus Sonne, Wind etc. stammt. Mein Nachbar, der das nicht tut, erhält dagegen über dem gleichen Hausanschluss „normalen“ Strom, der auch aus Kohle-, Kern- und Gaskraftwerken kommt! Wie beherrschen Sie das technisch? Legen Sie mir dann eine gesonderte Leitung von einem Wind- oder Solarpark in meine Wohnung?
    • Ich gehe davon aus, dass Sie im Unternehmen auch Menschen mit technischen Verständnis beschäftigen, die vielleicht sogar die Kirchhoffschen Regeln der Stromverteilung kennen (zu meiner Zeit handelte es sich dabei um Physikwissen, das man fürs Abitur beherrschen musste). Was sagen Ihre Elektrotechniker zu diesem Werbe-Schwachsinn?

    Zusammenfassend meine Frage: Warum machen Sie Ihren Kunden Zusicherungen, die Sie nicht einhalten können? Das ist um so besorgniserregender, weil es um das technisch-naturwissenschaftliche Wissen unserer Mitbürger heute leider ohnehin nicht gut bestellt ist. Ihre inhaltlich falsche Werbung trägt auf gar keinen Fall zur Erhöhung des Ansehens Ihres Unternehmens bei – ganz im Gegenteil!
    Ich weiß nicht, ob Sie mein Schreiben beantworten werden. Dringend hoffe ich aber, dass Sie wenigstens unternehmensintern aus meinen Ausführungen die erforderlichen Schlussfolgerungen ziehen werden.

    Mit freundlichen Grüßen

    Gez. Dietmar Ufer

    Posted in Allgemein | No Comments »

    Bundeskanzlerin Angela Merkel – Der Generalangriff auf den Klimathron

    Posted by Rauch on 19th Juli 2012

    Oppenheimer Werkstatt für Wetterkunde – Dr. Wolfgang Thüne

    Es war im Jahr 2007, als in Oslo dem ehemaligen amerikanischen Vizepräsidenten Al Gore und dem indischen Vorsitzenden des Weltklimarats (IPCC) Rajendra Pachauri der Klima-Friedensnobelpreis zugesprochen wurde. Absicht war, dass beide die Welt vor dem Klimakollaps retten, indem sie mäßigend und bändigend auf das Globalklima einwirken, damit dieses, durch Treibhausgase bis aufs Äußerste gereizt, den geplanten Klimakrieg einstellt und die gefährlichen Wetterextreme als Waffe nicht einsetzt. Diese Mission ist offensichtlich gescheitert, wie am 16. Juli 2012 bei dem 3. Petersberger Klimadialog die Bundeskanzlerin Angela Merkel vor Vertretern von 31 Staaten aus aller Welt andeutete. Sie warb angesichts einer Erderwärmung um bis zu vier Grad Celsius mit Nachdruck für ein Kyoto-Nachfolgeabkommen. Sollte sich die Internationale Gemeinschaft nicht auf strengere und für alle verbindliche Klimaschutzzusagen einigen, drohten verheerende Folgen.

    Zur anthroposophischen Grundlage der Klimapolitik

    Grundlage der gesamten Klimapolitik ist die Modellannahme, dass die Menschheit in gemeinsamer Anstrengung das Klima im „Treibhaus Erde“ so regulieren könne, wie der Gärtner es in seinem Gewächshaus mit Hilfe eines Thermostaten tun kann. Auf dieser gigantischen Illusion beruht der Glaube an den Schutz des Klimas, der sich wie ein Steppenbrand über den Globus ausgebreitet hat. Die Löscharbeiten der beiden Friedensnobelpreisträger sind bisher völlig erfolglos geblieben, so dass die Kanzlerin die Chance witterte, nun selbst das Kommando über das Unternehmen „Schutz des Globalklimas“ und „Schaffung von Klimagerechtigkeit“ in die Hand zunehmen und Tempo zu machen, bevor die Welt im Klima-Chaos versinkt.

    Angela Merkel will sozusagen ihr Kind retten, denn sie hat als Bundesumweltministerin 1995 in Berlin bei der ersten Rio-Nachfolgekonferenz deren Scheitern dadurch abgewendet, dass sie als Kompromiss den Kyoto-Prozess in Gang setzte und daraus ein gigantisches klimatouristisches Reise-Unternehmen machte. Bei der jüngsten Großveranstaltung „20-Jahre-Rio“ versammelten sich schätzungsweise 45.000 Klimaexperten aus aller Welt, um Rio de Janeiro zu genießen, aber nichts zu beschließen. Die beiden Friedensnobelpreisträger zeichneten sich durch Schweigen aus. Diese große Chance griff die Kanzlerin beim Schopfe, um sich als alleinige Regentin auf den Klimathron zu schwingen. Der „Petersberger Klimadialog“ bot eine wunderbare Plattform, um sich in Szene zu setzen. Sie knüpfte damit an ihren Erfolg beim „G8-Gipfel“ 2008 im Ostseebad Heiligendamm an, wo sie das 2-Grad-Ziel politisch absegnen ließ und der ihr in den Medien den Titel „Klimagöttin“ einbrachte.

    Merkel warnt vor Erderwärmung um vier Grad

    Wer Aufmerksamkeit erregen und die Medienöffentlichkeit in seinen Bann ziehen will, muss übertreiben. Da ohnehin Niemand weiß, wie die Welt in 100 Jahren aussieht, bietet es sich an, die Messlatte höher zu legen und aus zwei gleich vier Grad zu machen. Auch Schreckensszenarien bedürfen der ständigen kosmetischen Pflege. Merkel will Kyoto, denn „ein verbindliches Regelwerk klingt wie Musik in meinen Ohren“. Sie liebt die Dramatik und die Show, sowie die Macht. Das dramaturgische Drehbuch schreiben derweil die bestens bezahlten und in quasistaatlichen Forschungsinstituten wie dem Potsdam-Institut für Klimafolgenforschung angestellten Klima-Experten.

    Solch international vernetzte Experten wollen, so Spiegel Online am 16. Juli 2012, als neuesten Gag herausgefunden haben, dass die Waldrodungen ab dem Jahre 850 seit Jahrhunderten das Klima erwärmen und noch heute zu knapp 10 Prozent an der Erderwärmung schuld seien. Dies wäre eigentlich Stoff für Kabarettisten, Komiker und Satiriker, wenn dieses Forschungsergebnis nicht im Fachmagazin „Environmental Research Letters“ publiziert worden wäre. Solche Meldungen werden von den Medien unkritisch übernommen und verbreitet, als wäre sie sakrosankt. So ist man als Bürger praktisch gezwungen, solche Ergüsse blind zu glauben, tragen sie doch den Mantel der Wissenschaftlichkeit. Das vorgestellte Modell wird als relevant für politische Diskussionen angesehen, um die Verteilung der Lasten des Klimawandels stärker von den Industrieländern auf die Entwicklungs- und Schwellenländer zu verlagern und dem Neokolonialismus neue Nahrung zu geben.

    Fragen, die Wissenschaftsjournalisten sich nicht zu stellen wagen

    Wenn Forscher behaupten, „Waldrodung erwärmt Klima seit Jahrhunderten“, und den Zeitraum von 850 bis 1850 betrachten, dann müsste ein Journalist neugierig fragen: Wenn durch eine „Bevölkerungsexplosion“ um 850 bei der Suche nach landwirtschaftlichen Nutzflächen in großem Stil Wälder gerodet wurden, dann wäre die Hypothese durchaus verstehbar. Als die Wikinger 860 Island entdeckt hatten, war die Insel weitgehend vereist und für Siedlungen ungeeignet. Als sie dann 960 Grönland anfuhren, fanden sie eine gastliche Graslandschaft vor. Sie siedelten sich an, betrieben Ackerbau und Viehzucht. Von dort erkundeten sie Neufundland und nannten es „Weinland“. So weit, so gut. Diese Epoche nannte man später das „Klimaoptimum des Hochmittelalters“. Der Höhepunkt war im 12. Jahrhundert, der Zeit der Minnesänger.

    Doch was passierte dann? Angesichts der exorbitanten Klima-Erwärmung muss in Neufundland, Grönland, Island wie Skandinavien in großem Stil aufgeforstet worden sein, um durch die Anlage von Wäldern das Kohlenstoffdioxid wieder zu binden und das „Treibhaus Erde“ abzukühlen. Das klappte auch gut, denn zu Beginn des 14. Jahrhunderts setzte eine markante Abkühlung ein, die zur „Kleinen Eiszeit“ von 1350 bis 1850 führte. Doch diese Aufforstungen gab es nicht, denn die überall gestiegene Populationsdichte erlaubte keine Wiederbewaldung von Agrarflächen. So führte die „Kleine Eiszeit“ zu Seuchen, Hungersnöten durch Missernten und Kriegen. Ganze Völkerscharen machten sich auf nach Amerika, wo großflächig Wälder gerodet und Prärien zu fruchtbarem Ackerland umgewandelt wurden. Leiteten die englischen Pilgerväter (Pilgrim Fathers) ab 1620 die Wende zum „Klimaoptimum der Neuzeit“ ein? Noch klingt die Waldrodungs-Hypothese logisch oder ist es nur purer Zufall?

    Ein Blick zurück in die nahe Klimageschichte, den Wechsel zwischen Eis- und Warmzeiten

    Wenn die Hypothese den Charakter einer Naturgesetzlichkeit beanspruchen will, dann darf sie auf keiner konstruierten Zufalls-Korrelation beruhen. Dann muss sie sich in der Naturgeschichte abbilden. Da stellt sich die Frage, wer im Höhepunkt der Letzten Eiszeit vor 20.000 Jahren, als große Teile Nordamerikas wie Nordeuropas unter einem dicken Eispanzer lagen und menschenleer waren, auf dem Eis Wälder gepflanzt hat, damit diese durch CO2-Bindung vor etwa 10.000 die Eiszeit abrupt beenden und mit einer Erwärmung um etwa 10 Grad gleich ins „Klimaoptimum des Holozäns“ überleiten konnten. Es müssen schon „Außerirdische“ gewesen sein, die glaubten, auf einer Eisfläche Bäume pflanzen zu können. Nein, als Skandinavien eisfrei war, gab es dort keine Menschen. Es war einzig und allein die Natur, die das Eis schmelzen ließ, Samen dorthin trug und Wälder wieder wachsen ließ. Erst als der „Garten Eden“ bestellt und eine nachhaltige Fauna und Flora existierte, wanderte der Mensch ein und besiedelte Mittel- und Nordeuropa.

    Doch die Waldrodungs-Hypothese wird noch abstruser und wirklichkeitsferner, wenn man nicht nur die Weichsel- oder Würm-Eiszeit betrachtet, sondern auch die vorhergehende Riss- oder Saale-Eiszeit, die Mindel- oder Elster-Eiszeit oder die Günz- oder Elbe-Eiszeit in den vergangenen 500.000 Jahren, wo Menschen absolute Mangelware waren und als „nackte Affen“ noch den aufrechten Gang übten. Die Glazial- und Interglazialzeiten sind alle gekommen und gegangen ohne jedweden menschlichen Einfluss. Die Rodungs-Hypothese kann nicht stimmen, wenngleich sie wunderbar in das politisch-wissenschaftliche Klischeebild passt.

    Das Kommen und Gehen der Kalt- und Warmzeiten hat sich ganz ohne menschlichen Einfluss vollzogen und ist bis heute wissenschaftlich nicht erklärt. Dies betrifft auch die Asymmetrie. Die Dauer der kalten Perioden dauerte in etwa 80.000, die der warmen Epochen dagegen nur 20.000 Jahre. Theoretisch müsste in 8.000 Jahren die nächste Eiszeit beginnen, wenn sich, und das weiß kein Mensch, der Rhythmus der letzten 500.000 Jahre fortsetzen sollte. Man könnte es vermuten, aber es muss nicht sein, denn vor dieser Zeit gab es diesen Wechsel ja auch nicht. War dies nur eine „Laune der Natur“? Wenn die Klima-Experten die Ehrlichkeit von Sokrates (469-399 v. Chr.) hätten, müssten sie bekennen: „Wir wissen, dass wir nicht wissen.“

    Vorbei sind die Zeiten von Immanuel Kant (1724-1804), wo jeder Student der Naturwissenschaften an der Königsberger Universität, der „Albertina“, als Pflichtfach Philosophie belegen musste. Die Konstruktion wissenschaftlicher Hypothesen ist nämlich keineswegs mit der Wahrheitssuche identisch. Dies drückte auch Karl Jaspers (1883-1969) aus, indem er sagte: „Sokrates vor Augen zu haben, ist eine der unerlässlichen Voraussetzungen unseres Philosophierens.“ Die Rekonstruktion dessen, was wir Klima nennen, zeigt zwar ein stetes und recht unregelmäßiges Auf und Ab der Temperaturen, aber die Rekonstruktion, und mag sie auch noch so exakt sein, beantwortet nicht die Frage des „warum“. Daher Sokrates: „Ich weiß, dass ich nicht weiß.“

    All diese Weisheiten ignorieren die Klima-Experten, indem sie wilde Spekulationen in die Welt setzen und Kausalbeziehungen behaupten, die nicht existieren. Eine dieser Falschbehauptungen ist, dass die CO2-Gehalt der Luft ursächlich die „Globaltemperatur“ steuert. Doch exakte Detailuntersuchungen an Eisbohrkernen haben eindeutig ergeben, dass immer zuerst die Temperaturen angestiegen sind und erst mit 4 bis 800 Jahren Verzögerung die CO2-Werte. Erst müssen die Eiszeiten enden, dann bilden sich im Rahmen der natürlichen Sukzession zuerst Tundren und dann Mischwälder. Zum Schluss kommt der Mensch und setzt sich an den fertigen „Naturtisch“.

    Peter Altmaier – Schneller zum Klima-Ziel

    Zum Abschluss der 3. Petersberger Klimadialogs forderte der neue Bundesumweltminister Peter Altmaier eine erhöhte Bereitschaft bei Industrie- und Schwellenländern, die Erderwärmung durch verstärkte nationale Maßnahmen zu bekämpfen: „Wir brauchen mehr Ehrgeiz schon vor 2020“. Er hofft, dass der nächste UN-Klimagipfel Ende 2012 in Doha/Katar zu einem Meilenstein werde. Es scheint eher ein Mühlstein zu werden, denn der Gehalt der Luft an CO2, mag er 0,04 oder 0,08 Volumprozent betragen, hat überhaupt nichts mit dem Klima, geschweige denn mit dem Wetter zu tun. Letzteres macht, was es will und lässt sich vom Menschen nicht disziplinieren.

    Wenn dann mit dramatisch erhobener Stimme Minister Altmaier kraftvoll ausruft – „Das Klima kann nicht länger warten. Wir dürfen nicht weiter Zeit verlieren.“ -, dann kann er sich der medialen Aufmerksamkeit sicher sein. Er wird als Schlagzeilenheld und Macher gefeiert. Der Spruch ist jedoch an Sinnlosigkeit nicht zu überbieten. Der Klimawandel ist einerseits so alt wie die Erde, andererseits wiederum vom Wetter abhängig. Dieses zu wissen gehört zum elementarsten Wissensbestand einer Bildungsgesellschaft. Das Wetter bedeutet „Zeit“ und ändert sich auch mit der Zeit. Zeit kann man nicht „verlieren“, sie schreitet voran, ob wir es wollen oder nicht. Und wenn sich mit der Zeit das Wetter verändert, dann auch das von ihm abgeleitete Klima. Es hinkt als gleitendes Mittel dem chaotischen Wettergeschehen hinterher, wobei es völlig unstatthaft ist, das Klima auf die Temperatur zu reduzieren und mit ihr gleich zu setzen.

    Die Bundeskanzlerin Angela Merkel und ihr Bundesumweltminister Altmaier mögen die Finessen politischer Macht- und Meinungsspiele perfekt beherrschen, alle ihre Bemühungen um den Klimaschutz sind nutz- und wertlos, denn einem Zugriff auf das Klima steht unweigerlich und unüberwindlich das Wetter im Wege. Anstatt weiter dem politischen Machbarkeitswahn zu frönen, sollten sie lieber der Aussage des Chefs des Potsdam-Institutes für Klimafolgenforschung, Hans Joachim Schellnhuber, folgen. Er stellte fest, dass die „Mission“ der Klimawissenschaftler erfüllt sei. Der Mohr hat seine Schuldigkeit getan, alle Klimaforschungsinstitute können aufgelöst und damit viel Geld eingespart werden.

    Der konsequente nächste Schritt wäre, dass auch die „Mission“ der Klimapolitik für beendet angesehen werden muss. Der nächste Weltklimagipfel in Katar ist überflüssig und nach William Skakespeare (1564-1616) „Viel Lärm um Nichts“ oder „Much Ado about Nothing“! Dies weiß die Göttin auf dem Klimathron, sie weiß aber auch dass die neue globale Klimareligion auf UN-Ebene seine jährlichen „Konzile“ braucht. Möchten Sie mehr erfahren, dann lesen Sie bitte „Propheten im Kampf um den Klimathron“.

    Oppenheim, den 18. Juli 2012 Dipl-Meteorologe Dr. phil. Wolfgang Thüne

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Bundeskanzlerin Angela Merkel – Der Generalangriff auf den Klimathron

    Wissenschaft Klima Politik – Wohin ändert sich das Klima?

    Posted by Rauch on 19th Dezember 2010

    Die Broschüre von Dr. Heinrich Röck mit dem Titel „Wissenschaft Klima Politik – Wohin ändert sich das Klima?“ (getrennt in zwei Dateien: Inhalt und vier Umschlagseiten) ist eine zusammenfassende Ãœbersicht über den gegenwärtigen Erkenntnisstand der Klimaforschung, wobei die Wechselwirkung zwischen Wissenschaft und Politik auf diesem Gebiet besonders beleuchtet wurden. Zur Broschüre bitte bei Herrn Dr. H. Röck Traunsteinerstraße 9 D-83308 Trostberg/Obb. Telefon 0 86 21/36 92 Fax /6 36 05 nach fragen.
    Röck_Wissenschaft_Klima_Politik_2010_Inhalt.pdf Röck_Wissenschaft_Klima_Politik_2010_Umschlag.pdf

    Zusammenfassung:
    Klima ist das statistische Konstrukt über 30 Jahre Wetter. Klimawandel, schnell und langsam, war immer. Was ist die Normalität des Klimas? Klimaschutz ist eine Illusion. Extreme Wetterereignisse haben seit 1850 nicht zugenommen. Die Globaltemperatur hat sich seitdem schubweise um 0,8 +/- 0,2 °C erhöht. Die CO2-Konzentration in der Atmosphäre nahm kontinuierlich von 290 auf 385ppm zu. Die Antriebe des Klimas sind Sonne, kosmische Strahlung, Aerosole, Wolken, Albedo, infrarotaktive Gase wie H2O, CO2, CH4, O3, N2O (Treibhausgase), Zyklen über 10 bis 10.000 Jahre, u.a.m. Die etablierte Klimatologie benennt die anthropogenen CO2- und CH4-Emissionen seit der Industrialisierung (seit 1850) als die wesentliche Ursache des Anstiegs der Globaltemperatur; Kritiker erkennen die Sonne als wesentlichen Faktor. Der anthropogene Treibhauseffekt ist nicht messbar. Seine vermutbaren Wirkungen werden mit Hypothesen berechnet und in numerische Modelle des Klimas als Antrieb eingebaut. Die Modelle des chaotischen Wetters bzw. Klimas sind Hypothesen ihrer Schöpfer über das Funktionieren des Wetters/ Klimas, geeignet für Experimente am Computer, ungeeignet für Vorhersagen des realen Klimas.
    Wie seit Jahrtausenden muss die Menschheit sich an den Klimawandel anpassen. Wenn es nachgewiesene menschliche Ursachen gäbe, dann wären deren Wirkungen zu verringern oder zu vermeiden.
    Wissenschaft ist das falsche Werkzeuig zur Lösung politischer Dispute.

    Summary:
    Climate is the statistical construct based on 30 years of weather. There has always been slow and fast climate change. What is the normality of climate? Protecting the climate is an illusion. Extreme
    weather occurrences have not increased since 1850. The global temperature during that intervall has increased in phases by 0,8 +/- 0,2 °C. The CO2 concentration in the atmosphere has increased steadily from 290 to 385ppm. Drivers of climate include the sun, cosmic radiation, aerosols, clouds, albedo, infrared-active gases such as H2O, CO2, CH4, O3, N2O (greenhouse gases), cycles lasting anywhere from 10 to 10.000 years, etc. .
    The climatology establishment attributes the increase in global temperature mainly to the anthropogenic CO2 and CH4 emissions since the beginnings of the industial age (around 1850); critics consider the sun to be the key factor. The anthropogenic greenhouse effect is not measureable. Its presumable effects are computed based on hypotheses and incorporated in numerical models of the climate. Models of chaotic weather or climate are hypotheses of their creators about the functioning of weather/climate, appropriate for computer experiments but not for predictions of the real climate. Just as it has thousands of years, mankind must continue to adapt to climatic change. If human causes can be proven, then their effects should be minimized or avoided.
    Science is the wrong tool for solving political disputes.

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Wissenschaft Klima Politik – Wohin ändert sich das Klima?

    Anmerkungen zum 4. Bericht des IPCC 2007 Computermodellierung und -simulation

    Posted by Rauch on 30th September 2007

    Peter Krah

    01809 Heidenau/Sa.

     

    Anmerkungen zum 4. Bericht des IPCC 2007

    Computermodellierung und -simulation

     

    Vorbemerkung:

    Der 4. Bericht des IPCC 2007 (IPCC AR4) ist ein sehr umfangreiches Werk (ca. 2400 Seiten). Die hier vorgenommenen Anmerkungen befassen sich mit speziellen Aussagen des Berichts. Das Augenmerk wurde vorrangig auf die Computermodellierung und -simulation gerichtet, wie sie im Band 1 The Physical Science Basis des Berichtes beschrieben werden. Die Fokussierung erklärt sich dadurch, dass wegen einer jahrzehntelangen Tätigkeit als Systemanalytiker und Manager in der Softwareentwicklung die persönliche Kompetenz für eine derartige Untersuchung am ehesten gegeben ist. Auf der Grundlage der im Berichtsband verstreut vorhandenen Aussagen, gezielter Auswertung der Referenzliteratur sowie eigener Kenntnisse wird das Vorgehen bei der Modellierung und Simulation referiert und somit ein Bild zu dem Teil des Berichtes gegeben, der die quantitativen Aussagen festlegt.

     

    Modellierung und Simulation im Bericht

    Modellierung und Simulation werden vorrangig im Kapitel 8 des o.g. Band 1 behandelt. Der Bericht beschreibt die zum Einsatz kommenden IT-Technologien und -Verfahren nicht explizit. Die Informationstechnik
    (IT) wird als Werkzeug betrachtet, mit dem die Klimaereignisse (Temperatur, Wolken, Meereis, Einfluss der Treibhausgase usw.) modelliert, die Modellkomponenten zu einem System zusammen geschaltet und anschließend die Ereignisse simuliert werden. Klimasimulationen werden durch Variation von Anfangs- und Randbedingungen der zugrunde liegenden Algorithmen erzeugt.

    Modellierung und Simulation sind aus der Sicht der Klimaereignisse beschrieben. Welche Algorithmen für die Modellierung und Simulation zugrunde liegen, wird im Bericht nicht ausgeführt. Folgerichtig
    gibt es so gut wie keine Angaben zur informationstechnischen Umsetzung. Dies erschwert das Verständnis, ist aber legitim hinsichtlich der Zielstellung des Berichtes.

    Das Klimageschehen wird allgemein durch die Navier-Stokes-Gleichungen1 beschrieben. Die Navier-Stokes-Gleichungen bilden ein System von nichtlinearen
    partiellen Differentialgleichungen 2. Ordnung. Es ist bis heute nicht gelungen, die Existenz von allgemeinen Lösungen nachzuweisen. Die Differentialgleichungen werden mittels finiter Elemente oder Differenzenmethoden
    diskretiert und einer numerischen Behandlung zugänglich gemacht. Für die Klimamodelle ist dieser Weg beschritten worden, Klimaereignisse werden durch entsprechende Algorithmen, die weitgehend nichtlinear sind, im
    Computer abgebildet2. Dieses Vorgehen kann als fundamentales Charakteristikum der aktuellen Klimamodelle bezeichnet werden.

    Bei der Modellierung wird die Erdoberfläche mit einem Netz überzogen, dessen Maschen die Längen- und Breitenbegrenzungen so genannter Gridelemente sind. Ein Gridelement ist das Basiselement
    eines jeden Klimamodells, neben Länge und Breite weist es gewöhnlich auch eine Höhe (Tiefe) auf. Die Höhe (Tiefe) wird in Schichten (layer) unterteilt. Land-Gridelemente und Meeres-Gridelemente unterscheiden sich im Allgemeinen in der Größe (letztere sind kleiner). Die Größe eines Gridelements bestimmt u.a.
    die geografische Auflösung der Simulation3.

    Parallel dazu werden die Differenzengleichungen, die für die einzelnen Klimaereignisse stehen, mittels Programmierung in eine für den Computer abarbeitbare Form (Modellkomponente) überführt.
    Eine Modellkomponente ist in der Regel durch Eingabe von Daten (Parametrisierung) steuerbar. Durch Parametervorgaben werden Zeithorizonte und die Schrittweiten dahin festgelegt, Anfangs- und Randbedingungen variiert oder auch die Abarbeitung verändert.

    In einem weiteren Schritt werden dem Gridelement entsprechend seiner geografischen Position (Land oder Meer) die Modellkomponenten zugeordnet, welche die dort vorkommenden Klimaereignisse abbilden.

    Bei der Abarbeitung erhält ein Gridelement Eingangswerte aus einem Arbeitsspeicher. Die Eingangswerte werden gemäß der zugeordneten Modellkomponenten und etwaiger Parametervorgaben verändert
    und als Ausgangswerte in den Arbeitsspeicher abgelegt. Eine alle Gridelemente umfassende Steuerung besorgt die Initialvorgabe der Eingangswerte und überwacht und lenkt die Abarbeitung. An deren Schluss werden die Ergebnisse der einzelnen Gridelemente wie Temperatur, Niederschlag usw. aus dem Arbeitsspeicher ausgelesen und weiterbearbeitet.

    Die Entwicklung der Klimamodelle begann vor nunmehr 30 Jahren. Der Fortschritt in der Informationstechnik bewirkte, dass sowohl die Anzahl der modellierten Klimaereignisse zunahm als auch die geografische
    Auflösung immer feiner wurde. Aktuell werden drei Typen von Klimamodellen unterschieden4:

    1. die Allgemeinen Atmosphäre-Ozean-Zirkulationsmodelle – (Atmosphere-Ocean General Circulation Model – AOGCM ):

    Die AOGCM sind die umfassendsten Klimamodelle, sie enthalten eine wachsende Zahl von Komponenten, welche einzelne Klimaereignisse örtlich und zeitlich in den Computer abbilden. AOGCM bestehen aus den
    Teilsystemen für die Atmosphäre (AGCM) und für den Ozean (OGCM), sie können in den meisten Fällen auch unabhängig voneinander arbeiten. Das Koppeln beider Teilsysteme ist nicht trivial, die Modellgüte
    wird u.a. dadurch bestimmt, dass keine externen Eingriffe (flux adjustment)5 erforderlich werden, um den Übergang zwischen den Teilsystemen numerisch stabil zu halten. Die geografische Auflösung, die Layerzahl sowie die Anzahl der Zeitschritte führen zu enormen Anforderungen an die Computerressourcen. Die Schrittweite kann von wenigen
    Minuten bis zu einem Jahr differieren, der Zeithorizont liegt dann bei einigen Jahren bis zu mehreren zehntausend Jahren. AOGCM werden auf Supercomputern oder Multiprozessor-Rechnern betrieben.

    Der 4. IPCC-Bericht nennt 23 AOGCM, die ihm zugearbeitet haben. Beispielhaft für die anderen seien die Daten von CSIRO-MK3.0 von der Commonwealth Scientific and Industrial Research Organisation, Atmospheric
    Research aus Australien angegeben. Die Gridelementgröße für die Atmosphäre beträgt ca. 1.9° x 1.9°, die Anzahl der Layer ist 18 bei einer maximalen Höhe von 4,5 hPa (ca. 36.000 m). Für den Ozean betragen die Werte 0.8° x 1.9° bei 31 Layer und einer Tiefe von 4800 Meter.

     

    2. Die einfachen Klimamodelle – (simple climate model)6:

    Mit einem einfachen Klimamodell werden in einem parametrisierten Vorgehen

    − die Emissionen von Treibhausgasen zeitlich vorgegeben,

    − die Strahlungsantriebe entsprechend dieser Emissionen simuliert,

    − die durchschnittliche globale Oberflächentemperatur daraus bestimmt,

    − der Anstieg der Meeresoberfläche und die Auswirkungen auf Gletscher und Eisschilde prognostiziert sowie

    − regional begrenzte abrupte Klimaänderungen simuliert.

    Die einfachen Klimamodelle setzen auf den Vorgaben und Ergebnissen von 19 der im 4. IPCC-Bericht aufgeführten AOGCM auf. Das einfache Klimamodell wird in einem iterativen Prozess den von dem zugehörigen
    AOGCM gelieferten Zeitserien zur Temperatur und dem berechneten ozeanischen Wärmeaufnahmevermögen angeglichen. Der Einsatz eines einfachen Klimamodells spart Computeraufwand. Es lassen sich mit einem auf die hier interessanten Klimaereignisse (Treibhausgase) abgerüsteten Modell viel leichter als mit einem AOGCM eine große Anzahl von Varianten durchrechnen.

     

    3. Erdsystemmodelle mittlerer Komplexität (Earth System Models of Intermediate Complexity – EMIC)7:

    Die Erdsystemmodelle mittlerer Komplexität liegen mit ihrer Funktionalität zwischen den AOGCM und den einfachen Klimamodellen. Ein EMIC besteht aus einem vereinfachten AGCM, das mit einem OGCM gekoppelt
    ist oder aus Modellkomponenten für Atmosphäre und Ozean, die vereinfachte Algorithmen im Vergleich zu den AOGCM nutzen. EMIC sind von sehr unterschiedlicher Ausprägung, einige nähern sich in ihrer Funktionalität
    den AOGCM, andere wurden wie die einfachen Klimamodelle für die Berechnung des Treibhausgas-Einflusses geschaffen.

    Ein EMIC ist in der Regel so ausgelegt, dass es auf einem leistungsfähigen PC oder einer Workstation lauffähig ist. Ein wichtiges Einsatzgebiet der EMIC ist die Langzeituntersuchung von Klimaänderungen.
    Ein Maß ihrer Leistungsfähigkeit ist deshalb die Anzahl von Jahren, die vom EMIC in einem Computerlauf von vorgegebener Dauer als Klimaablauf simuliert werden kann. Die Werte schwanken stark, von 20.000 Jahre/CPU-Std. bis zu 36 CPU-Std. für 100 Jahre8.

    Evaluierung und Tuning der Modelle

    Ein Klimamodell ist ein sehr komplexes System mit vielen Komponenten. Seiner Nutzung gehen viele Tests voraus, die sowohl die Einzelkomponenten als auch das Gesamtsystem umfassen.

    Für Komponententests stehen standardisierte Verfahren zur Verfügung, welche die angewandten numerischen Methoden und die physikalische Parametrisierung verifizieren. Der Systemtest speziell von
    AOGCM wird durch das Programm für Klimamodell-Diagnose und –Vergleich (Program for Climate Model Diagnosis and IntercomparisonPCMDI)9 unterstützt. Programmziel ist, die Qualität der Simulationen zu erhöhen. Dazu werden Methoden und Werkzeuge entwickelt, die das Verhalten der Modelle analysieren und vergleichen. Aktuell liegt der Schwerpunkt der Arbeit auf dem Bereitstellen eines verbindlichen Testspiegels (Testbed) für die Modell-Parametrisierung, um damit den Vergleich zwischen den einzelnen Klimamodellen zu standardisieren.

    Die im Bericht vorgestellten Modelle simulieren das Klima gemäß den vorgegebenen Algorithmen und Randbedingungen. Die Güte der Modellergebnisse hat sich zuvorderst an der Realität zu
    messen, also an den existierenden Messdaten zum Klima. Diese Daten liegen jedoch im qualitativ und quantitativ ausreichenden Maße erst seit wenigen Jahrzehnten vor, zu wenig, um belastbare Vorausberechnungen für
    die ins Auge gefasste Zeitdauer (≥ 100 Jahre) zu erhalten. Dazu ist mindestens ein weiterer Fixpunkt für die Modelljustierung erforderlich. Dieser wird mit dem Höhepunkt der letzten Eiszeit festgelegt10.

    Ein weiterer Vergleich kann mit Modellen für die Wettervorhersage geführt werden. Klimamodelle schneiden hierbei in der Regel schlechter ab. Die Ursache wird in der zu geringen Auflösung (zu großen Gridelementgröße) gesehen.

    Beim so genannten Modelltuning wird wie folgt vorgegangen: Durch Variation von Parametern wird eine große Anzahl von Ergebnisvarianten erzeugt (im vorliegenden Fall ca. eintausend). Im nächsten
    Schritt werden die Varianten mit Messdaten und daraus abgeleiteten berechneten Daten und Schätzungen verglichen und alle die aussortiert, die das Klima nicht hinreichend gut wiedergeben. Gleiches geschieht mit der Simulation des Höhepunktes der letzten Eiszeit. Übrig bleiben schließlich ca. 10 % der ursprünglichen Varianten, deren Parameter als zulässig für eine Modellrechnung betrachtet werden11.

    Klimasensitivität

    Die Klimasensitivität ist die Größe, welche die Auswirkung eines vorgegebenen Strahlungsantriebs (radiative forcing) auf das globale Klimasystem wiedergibt. Im 4. IPCC-Bericht wird sie als die Änderung der durchschnittlichen globalen Oberflächentemperatur definiert, die sich nach einer
    Verdoppelung der atmosphärischen CO2-Konzentration einstellt. Diese Definition ist übrigens seit dem Beginn der aktuellen Klimadiskussion gültig, auch die vom IPCC und seinen Vorgängerorganisationen
    veröffentlichten Temperaturwerte (1,5 – 4,5 ºC) für eine CO2-Verdopplung haben sich seit den siebziger Jahren so gut wie nicht geändert.

    Die Vorgabe zur Bestimmung der Klimasensitivität besteht aus einer 1%igen Steigerung der CO2-Konzentration/Jahr bis zum Erreichen des doppelten Ausgangswertes (2xCO2). Anschließend
    wird die Konzentration nicht weiter erhöht. Zur Bestimmung gehört weiter eine Kontrollrechnung, die über den gleichen Zeithorizont mit dem ursprünglichen CO2-Ausgangswert erfolgt. Verdopplungs-
    und Kontrollvorgaben werden in ein Klimamodell eingegeben und entsprechende Simulationsrechnungen vorgenommen. Das Ergebnis ist die Klimasensitivität als Temperaturdifferenz aus den durchschnittlichen globalen Oberflächentemperaturen beider Simulationsläufe.

    Ein solches Ergebnis basiert, wie gesagt, auf einer Simulation. Es kann nicht durch Messungen verifiziert werden. Unter Laborbedingungen, also ohne Rückkopplungen durch andere Klimaereignisse, führt
    eine CO2-Verdopplung zu einer Erwärmung von 1,2 ºC12. Rückkopplungen können sowohl dämpfend als auch verstärkend wirken. Alle bisherigen IPCC-Berichte gehen davon aus, dass per Saldo verstärkende Rückkopplungen vorliegen.

    Die Simulationsrechnungen der verschiedenen Klimamodelle liefern unterschiedliche quantitative Ergebnisse, bei gleicher Tendenz (verstärkend) gegenüber dem o.g. Laborwert. Dabei streuen vorrangig
    die oberen Temperaturwerte. Die Ergebnisse werden zusammengefasst und einer Fehlerdiskussion unterzogen. Das Endergebnis ist eine rechnerische Größe mit Angabe ihrer 95%-igen ± -Abweichung.

    Wertung der Computermodellierung und -simulation

    Ausgang

    Bevor auf spezifische Fragen der Computermodellierung und -simulation im 4. IPCC-Bericht eingegangen wird, ist eine grundsätzliche Aussage voran zu stellen:

    Ein Computermodell simuliert ganz allgemein Abläufe von Vorgängen und Ereignissen, die sowohl real als auch fiktiv sein können. Auf drastische Weise hat John von Neumann, der wohl bedeutendste
    Mathematiker des 20.Jahrhunderts, die Möglichkeit beschrieben, die Ergebnisse einer Simulation zu variieren: „Give me four adjustable parameters and I can simulate an elephant. Give me one more and I can make his trunk wiggle“.

    Als Analogon bietet sich ein Theaterstück oder ein Spielfilm an. Auch ein Spielfilm enthält Abläufe von Vorgängen und Ereignissen, welche zwischen der Realität und der Fiktion angesiedelt werden können. Der entscheidende Unterschied zwischen Computermodell und Film ist, dass ein Computermodell in sich logisch widerspruchsfrei ist, was bekanntlich von Filmen nicht behauptet werden kann. Computermodellierung und -simulation sind angewandte Mathematik.

    Wird diese Aussage auf den vorliegenden Bericht angewendet, hat sich eine kritische Wertung vor allem mit dem Vergleich Realität – Simulation zu befassen. Die Realität wird hierbei durch statistisch erfasste und aufbereitete Messdaten und aus diesen abgeleiteten Daten sowie Schätzwerten repräsentiert. Sie werden in Zeitreihen angeordnet, um die Dynamik des Klimas darzustellen. Ferner sind die aus Messungen gewonnenen
    Daten fehlerbehaftet. Aktuelle Daten weisen in der Regel geringere Fehler auf als Daten aus der Vergangenheit, direkt gemessene Werte (z.B. die Temperatur) sind genauer als solche, die aus anderen Daten errechnet oder geschätzt wurden.

    Die Güte der Computermodellierung und -simulation ergibt sich aus der Vollständigkeit der im Modell erfassten relevanten Klimaereignisse und deren realitätsgetreuen Darstellung im Computer.
    Wie bereits ausgeführt, liegen den Modellkomponenten Algorithmen und Randbedingungen der Navier-Stokes-Gleichungen zugrunde. Die Algorithmen werden im Bericht hinsichtlich ihres Übereinstimmens mit dem realen Geschehen eingeschätzt. Die Einschätzung, der so genannte Grad des wissenschaftlichen Verständnisses (level of scientific understanding – LOSU), wird den Klimaereignissen zugeordnet.
    Er bewegt sich zwischen hoch (high) und sehr niedrig (very low)13.

    Computermodelle setzen immer die auf anderen Wegen gewonnenen Daten voraus. Modelle berechnen innerhalb des zugrunde liegenden Datenbereichs weitere Daten durch Interpolation, wobei die dabei auftretenden
    Fehler annähernd gleich sind. Wird der Datenbereich verlassen (Extrapolation), nimmt mit wachsender Entfernung die Fehlergröße zu und die Simulationsergebnisse werden zunehmend wertlos.

    Klimamodelle

    Kennzeichnend für alle Klimamodelle ist, dass sie eindeutig auf die Untersuchung des Einflusses der Treibhausgase ausgerichtet sind. Dies gilt definitionsgemäß für die einfachen Klimamodelle, aber auch für die EMIC. Die AOGCM scheinen auf den ersten Blick davon ausgenommen. Werden aber zusätzlich die Systembeschreibungen ausgewertet, zeigt sich, dass es Erweiterungen und Neuinstallationen nur bei den Modellkomponenten gibt, die zur Simulation des Treibhausgas-Effektes beitragen. Die Zielstellung der Simulationsrechnungen ist daher nicht ergebnisoffen. Der Grund für das Bevorzugen des Treibhausgas-Effektes wird im Bericht nicht diskutiert. In einer Systembeschreibung14 wird ausgeführt, dass das Klimageschehen der letzten 40 Jahre allein durch das Wirken von Treibhausgasen dargestellt werden kann. Daraus ließe sich schlussfolgern, dass Gleiches auch für die nähere Zukunft gilt. Sobald aber das letzte Jahrhundert ausschließlich mit dem Treibhausgas-Antrieb simuliert wird, ergeben sich Temperaturwerte, die beträchtlich über den gemessenen (1,2 ºC zu 0,8 ºC) liegen. Erforderlich sei, andere Antriebe wie Aerosole, die Vulkantätigkeit, Änderungen des Ozongehaltes und die Sonnenaktivität zu berücksichtigen. Diese Antriebe sind jedoch bei weitem nicht so erforscht wie die Treibhausgase. Das führe dazu, dass die
    Computermodellierung mehr eine Kunst als eine Wissenschaft werde.
    Die Betrachtung schließt mit „You may believe the future predictions of global temperatures by models are valid, but do you trust them more than the statistician?

    Komponenten, die sich mit der Sonnenaktivität befassen, sind in einigen AOGCM implementiert. Sie simulieren dort die Milankovitch-Zyklen, welche die Stellung der Erdachse und Änderungen der Erdbahn
    um die Sonne beschreiben. Sonnenfleckenperioden und der Einfluss der Höhenstrahlung (z.B. auf die Wolkenbildung) werden in den Systembeschreibungen nicht erwähnt.

    Allerdings wurde nur ein Teil der Systembeschreibungen ausgewertet, die zu den AOGCM des 4. IPCC-Berichtes gehören.

    Zu berücksichtigen ist ferner das Wirken des Programms für Klimamodell-Diagnose und -Vergleich (PCMDI). Ein solches Programm ist notwendig, um die Vergleichbarkeit zwischen den Ergebnissen der Klimamodelle herzustellen. Gleichzeitig trägt es dazu bei, die Modellkomponenten auch programmierungstechnisch zu vereinheitlichen. So darf davon ausgegangen werden, dass die so genannte durchschnittliche jährliche Energiebilanz der Erde15
    (Abb.1) auch quantitativ in allen AOGCM implementiert ist.

    Damit ist den Modellen ein Verhalten aufgeprägt, das beispielsweise den Saldo bei den Rückkopplungen immer positiv werden lässt. Auch erklärt es den Effekt, dass verschiedene Klimamodelle für bestimmte Erdregionen die gleichen Ergebnisse liefern. Dies wird gelegentlich als Beweis für die Übereinstimmung von Simulation und Realität genannt. Davon kann keine Rede sein. Nutzen die zur Simulation vorrangig beitragenden Modellkomponenten die gleichen Fortran-Programme, wären im Gegenteil unterschiedliche Ergebnisse zu hinterfragen.


    Abb. 1: Durchschnittliche jährliche (Strahlungs-)Energiebilanz der Erde

    Die Hockeyschlägerkurve

    Ein Beispiel für das Vermischen von Realität und Fiktion ist die so genannte Hockeyschlägerkurve, die im 3. IPCC-Bericht von 2001 veröffentlicht wurde (Abb. 2). Das Diagramm zeigt die
    Rekonstruktion des Temperaturverlaufs auf der nördlichen Hemisphäre bezogen auf die mittlere Temperatur von 1961 bis 1990. Die Temperaturwerte wurden aus Daten von Baumringen und Eiskernen abgeleitet sowie den Messreihen der Wetterstationen entnommen. Auffällig ist der lineare Verlauf von 1000 bis 1900 mit dem anschließenden steilen Anstieg, was der Kurve ihren Namen gab. Der lineare Verlauf ist umso verwunderlicher, weil jeder einigermaßen in der europäischen Geschichte Beschlagene die kalten Jahrhunderte der Kleinen Eiszeit in der Darstellung erwartet. Ebenso entspricht der Verlauf auch nicht der Vorstellung vom damaligen Klima, das
    bei der Besiedlung von Grönland durch die Wikinger um das Jahr 1000 herrschte. Immerhin wuchs damals auf Neufundland und Wein.

    Abb. 2: Rekonstruktion des relativen Temperaturverlaufes auf der nördlichen Hemisphäre16

    Formal ist alles in Ordnung. Der Trendberechnung wurde die Gerade vorgegeben, sie liefert ein Ergebnis, das mathematisch korrekt ist. Es stimmt nur nicht mit der Realität überein. Der 4. IPCC-Bericht
    enthält nicht mehr die Hockeyschlägerkurve, er bietet dafür die Erklärung an, dass die letzten 1000 Jahre regional durch sehr heterogenes Klima gekennzeichnet waren. Auch wird eingeräumt, dass um das
    Jahr 1000 in einigen Regionen das Klima wärmer als im 20.Jahrhundert gewesen sein könnte17. Nicht zulässig sei aber daraus zu schlussfolgern, dass die mittelalterliche Warmzeit weltweit geherrscht habe. Dies gebe das vorhandene Datenmaterial nicht her, da es sowohl qualitativ als auch quantitativ nicht ausreichend sei.

    Warum aber wurde die Hockeyschlägerkurve veröffentlicht? Die Vermutung liegt nahe: zur Stützung der Treibhausgas-These. Diese lautet, dass mit mindestens 90%-iger Wahrscheinlichkeit menschliche
    Aktivitäten (durch Freisetzen von Treibhausgasen) seit 1750 zu einem Anwachsen des globalen durchschnittlichen Strahlungsantriebes um 1,6 (0,6 bis 2,4) Wm-2 geführt haben18.
    Treibhausgase haben jedoch bis in das 19. Jahrhundert hinein keine klimaverändernde Rolle gespielt (Abb.3). Wenn nun globale Temperaturschwankungen mit vergleichbaren Amplituden auch vor Beginn der Moderne auftraten,
    welche Strahlungsantriebe waren es dann? Sind es die Sonne und die Vulkantätigkeit oder andere, bislang nicht berücksichtigte Antriebe? Der 4. IPCC-Bericht räumt zumindest der Sonnenaktivität einen gewissen
    Einfluss ein, die Treibhausgas-These aber bleibt bestehen. Es findet ein Wechsel in der Argumentation statt, von der offensiven im 3. Bericht, bei der mit Fiktionen gearbeitet wird, zur defensiven des 4. Berichtes. Hier stütze
    das vorhandene Datenmaterial gleich hohe Temperaturschwankungen nur in ausgewählten Erdregionen, eine Extrapolation auf die Gesamterde sei unzulässig, da mit zu großen Fehlern behaftet.

    Diese Beweisführung ist kaum zu widerlegen. Das Wissen über das Klima im Jahr 1000 ist sehr bruchstückhaft. Auch sind die vorliegenden Klimarekonstruktionen teilweise nicht miteinander vergleichbar.
    Klimadaten aus Baumringen und aus Eisbohrkernen können erst seit 2008 zeitlich synchronisiert werden19.


    Abb. 3: Simulation der Temperaturänderungen in den letzten 1000 Jahren20

    Die o.g. Aussagen zur Hockeyschlägerkurve betreffen die Rekonstruktion der Klimadaten der letzten 1000 Jahre, also die Klimarealität. Welche Ergebnisse bringt die Simulation für diesen Zeitraum?
    Abb. 3 zeigt die Ergebnisse der Simulationsrechnungen dreier EMIC, denen die nach Wahrscheinlichkeit zusammen gefassten Daten der Rekonstruktion (schwarz = hoch, hellgrau = gering) unterlegt wurden. Die dicken Linien stellen
    die Ergebnisse mit allen Antrieben, die dünnen ohne die Treibhausgase dar. Die Verläufe trennen sich ab der Mitte des 19. Jahrhunderts. Zusätzlich werden die zugrunde liegenden Strahlungsantriebe (Vulkantätigkeit,
    zwei Varianten der Sonnenaktivität und die übrigen Antriebe) im zeitlichen Verlauf dargestellt.

    Eine Diskussion der Simulationsergebnisse wird hierbei immer subjektiv sein. Der Anhänger der Treibhausgas-These sieht mit den Verläufen ab 1850 seine Ansichten bestätigt, der Skeptiker wird auf die teilweise negative Korrelation von Rekonstruktion und Simulation hinweisen. Hat man die Aussage des Berichts im Hinterkopf, dass das Datenmaterial für die Rekonstruktion sehr fehlerbehaftet ist, ist die Simulation größtenteils wertlos. Hier ist mehr Kunst als Wissenschaft am Werke.

    Fehlerbetrachtungen

    Ein Klimamodell besteht aus Modellkomponenten, welche die Klimaereignisse simulieren. Die Qualität der Simulation eines Ereignisses ist abhängig von den zugrunde liegenden Algorithmen und Randbedingungen,
    die Güte des Modells vom sachgerechten Zusammenspiel und der Vollständigkeit der Modellkomponenten. Man mag von seinem eigenen Modell überzeugt sein, erst der Vergleich der Ergebnisse mit auf anderem Wege gewonnenen verlässlichen Daten gibt Gewissheit.

    Wie steht es nun um die Belastbarkeit der aus der Realität stammenden Daten? Wie bereits ausgeführt, gibt es erst seit etwa 50 Jahren Datenmaterial, das der Forderung nach umfassender globaler Gültigkeit gerecht wird. Je weiter in die Vergangenheit gegangen wird, desto geringer die Flächendeckung und desto schwächer die Verlässlichkeit der Klimadaten21.

    Hier stellt sich folgende Frage: Wenn schon das Datenmaterial der Zeit vor 1000 Jahre nicht ausreicht zu entscheiden, ob das Erdklima damals wärmer oder kälter als heute war, wie gelingt es dann,
    ein Klimamodell mit den Daten des letzten Eiszeit-Maximum (vor 21.000 Jahren) zu justieren? Zur Erinnerung: Justiert wird, indem ein Modell sowohl für die jetzige Zeit als auch für das Eiszeit-Maximum zahlreiche
    Variantenrechnungen durchführt, aus denen dann (durch Menschen) die Ergebnisse aussortiert werden, welche das jeweilige Klima nicht realistisch wiedergeben. Wie aber sah das realistische Klima vor 21.000 Jahren aus? Ohne
    Zweifel ist das Wissen darüber weitaus geringer und ungenauer als zum aktuellen Klima. Es ist daher mit Annahmen und Schätzungen zu arbeiten. Das hat für die Modelljustierung zur Folge, dass ein systematischer
    Fehler, dessen Größe nicht bekannt ist, der Simulation aufgeprägt wird.

    Das zusammen gefasste Ergebnis des 4. IPCC-Berichts wird in Abb. 4 dargestellt. Es zeigt im Diagramm A den Anteil der einzelnen Strahlungsantriebe (Treibhausgase, Ozon, stratosphärischer Wasserdampf
    aus der Methan-Aufspaltung, Albedo der Erdoberfläche, Aerosole (direkter Einfluss und durch Wolkenbildung), Kondensationsstreifen von Flugzeugen sowie die Sonnenaktivität). Die Anteile wärmen oder kühlen,
    sie werden nicht als absolute Werte sondern als Änderungen zum Bezugswert von 1750 ausgewiesen. Unter der Klima-Wirksamkeit (climate efficacy) wird das Verhältnis der Klimasensitivität eines Antriebes zur Sensitivität des CO2 verstanden. Die Zeitskala sagt aus, nach welcher Zeitspanne ein Strahlungsantrieb wieder aus der Atmosphäre verschwunden ist. Die Bereichs-Skala (spatial scale) benennt den Bereich, in dem ein Antrieb wirkt. Der Grad des wissenschaftlichen Verständnisses gibt die Einschätzung zum Wissen über den jeweiligen Antrieb wieder.

    Abb. 4: Änderungen der Strahlungsantriebe zwischen 1750 und 200522

    Das untere Diagramm B zeigt die zusammen gefassten Antriebe in ihrer Wahrscheinlichkeitsverteilung (bei 90 % Fehlerintervall). Nur bei den Treibhausgasen wird Normalverteilung angenommen, die Aerosole und
    die anthropogenen Antriebe zeigen abweichende Verteilungen, die sich nach Anwendung der Monte-Carlo-Methode einstellen.

    Die Änderung des Antriebs wird in Watt/m2 angegeben. Dieser Wert ist eine reine Rechengröße und Ergebnis der Simulation. Es gibt keine Messdaten zu einzelnen Strahlungsantrieben.

    Wie stimmen die in Abb. 4 gezeigten Antriebe zu den Klimaereignissen mit der Realität überein? Der Bericht enthält dazu keine direkte Aussage. Der zugehörige Grad des wissenschaftlichen Verständnisses (LOSU) gibt lediglich die Meinung der Fachleute wieder, die im Rahmen des Berichts mit dem speziellen Klimaereignis befasst sind. Ist der Grad hoch, bedeutet dies gute bis sehr gute Übereinstimmung unter den Fachleuten, ist er niedrig, werden sehr unterschiedliche Ansichten diskutiert. Der LOSU ist demnach nicht von subjektiven Einflüssen frei, zur Beurteilung, wie Simulation und Realität übereinstimmen, ist er nur mit Vorbehalten nutzbar.

    Gemäß Abb. 4 wird das Wirken der Treibhausgase gut verstanden. Dies basiert vor allem auf den Messwerten. Zwar liegen präzise Messungen erst seit 1958 vor23.
    Es gibt jedoch Eiskerne aus der Antarktis, aus denen mit einer Auflösung von ca. 10 Jahren der CO2-Anteil der Atmosphäre zeitabhängig rekonstruiert wurde.

    Wie sieht es aber bei den Aerosolen aus? Hierbei wird zwischen den direkten und indirekten Effekten unterschieden. Beim direkten Effekt zerstreuen und absorbieren die Aerosole die kurzwellige und langwellige
    Strahlung, wobei sie die Strahlungsbilanz der Atmosphäre verändern. Der indirekte Effekt beeinflusst die Stärke und die Dauer der Wolkenbildung. Wolken tragen entscheidend zu der Erd-Albedo bei.

    Der 4. IPCC-Bericht kommentiert ausgiebig die Fortschritte, die sowohl bei den Messverfahren als auch in der Simulation von Wolkenbildung und Albedo seit dem 3. Bericht getätigt wurden. Trotzdem wird
    der LOSU des Albedo-Effekts durch Wolken als niedrig eingeschätzt. Gründe dafür liegen in den Messverfahren und in der Modellierung. Als Mängel bei den Messverfahren werden die zu grobe Auflösung der
    Satellitenmessungen und das Nichtunterscheiden von anthropogenen und natürlichen Aerosolen genannt. Die Hauptschwäche der Modellierung sei das geringe Wissen über Quantität und Verteilung anthropogener
    Aerosole, besonders in der präindustriellen Zeit. Weiterhin versagen die AOGCM bei der Simulation der Aerosol-Wolken-Interaktion, weil die dafür erforderliche kleinteilige Auflösung nicht geleistet werden kann.24
    Im Übrigen simulieren lediglich neun der 23 AOGCM den indirekten Effekt.

    Die Albedo beeinflusst wesentlich das Temperaturgleichgewicht der Erde. Die Erd-Albedo beträgt ca. 30 %, Wolken sind daran zu etwa zwei Drittel beteiligt. Verringert sich die Albedo um ein Prozent, erhöht sich die mittlere Temperatur um 1 ºC und vice versa. Dieser Wert entspricht ungefähr dem, der durch die langwellige Strahlungsänderung einer CO2-Verdopplung erreicht wird.25

    Die im 4. Bericht enthaltenen Aussagen über Aerosole tragen nicht dazu bei, den zugehörigen Ergebnissen zu vertrauen. Als geradezu abenteuerlich muss die Angabe gelten, wonach seit 1750 der Strahlungsantrieb
    des Albedo-Effekts durch Wolken sich um -0,7 (-0,3 bis -1,8) Wm-2 geändert hat (Abb. 4). Auf welche Weise wurde der Antrieb für das Jahr 1750 bestimmt, wenn weder die Messverfahren noch die Modellierung
    hinreichend korrekt arbeiten?

    Weiter stellt sich die Frage, warum für den zusammen gefassten Antrieb kein LOSU angegeben wird. Der Bericht gibt darauf keine Antwort. Dass eine Antwort von Bedeutung ist, hat der Verfasser selbst erfahren.
    Im Vortrag zum Klimawandel eines Abteilungsleiters des Bundesumweltamtes wurde behauptet, dass mit 99,9%-iger Wahrscheinlichkeit die Simulationen mit dem tatsächlichen Geschehen übereinstimmen. Auf den Einwand, für
    Treibhausgase als die am besten erforschten Klimaagenzien gelte gemäß dem 4. IPCC-Bericht, dass die Expertenmeinungen zu lediglich 90 % übereinstimmen, wurde mit Verdächtigungen und persönlichen Unterstellungen geantwortet.

    Der zusammen gefasste Antrieb setzt sich aus den Antrieben einzelner Klimaereignisse zusammen, deren Übereinstimmung von Simulation und Realität sehr unterschiedlich ist. Für die Übereinstimmung wird der LOSU als Maß zugrunde gelegt, da nur er zur Verfügung steht. Sicher ist, dass ein LOSU des kombinierten Antriebs beträchtlich niedriger ist als der höchste der Einzelantriebe.26 Die Aussage, es sei höchst wahrscheinlich (extremely likely), dass Menschen einen substantiellen Einfluss auf die Klimaerwärmung haben27, lässt sich folglich nicht aus
    dem Ergebnis-Diagramm der Abb. 4 herleiten. Dieses liefert nach der berichtseigenen Sprachregelung28 nur ein about as likely as not für den menschlichen Faktor. Die Frage stellt sich, wie und durch wen das einen Außenstehenden überzeugende extremely likely zustande kam.

    Vorausberechnungen

    Vorausberechnungen zum zukünftigen Klima gründen sich ausschließlich auf Modellrechnungen. Eine Vorausberechnung ist eine Extrapolation, die auf einem soweit als möglich abgesicherten Ergebnis als Ausgangsbasis und der Vorgabe von Einflussfaktoren basiert. Die Einflussfaktoren sind dabei grundlegende Größen. Die Fehler einer Vorausberechnung bestehen aus dem Fehler der Ausgangsbasis und dem mit
    der Entfernung vom Ausgang wachsenden Extrapolationsfehler.

    Typisch für Vorausberechnungen sind so genannte Szenarien. Ein Szenario stellt die Simulation eines Vorgangs dar, der einen konkreten Bezug zur Realität hat und für sich plausibel ist. Eine Vorausberechnung setzt sich in der Regel aus mehreren Szenarien zusammen. Erforderlich ist, mit möglichst wenigen Szenarien einen Ereignisbereich zu schaffen, der die wesentlichen Fragen an die Zukunft beantworten kann.
    Im Bericht werden vorrangig drei Szenarien behandelt, deren Einflussfaktoren ausschließlich anthropogene Treibhausgase sind. Sie werden als B1(low)-, A1B(medium)- und A2(high)-Szenarien bezeichnet. Jedem Szenario werden spezifische Emissionsverläufe von Treibhausgasen (CO2, SO2, NH4) über die Jahre von 2000 bis 2100 vorgegeben. Mit diesen Eingaben berechnen die Klimamodelle (AOGCM, EMIC, einfache Klimamodelle) die sich einstellenden Gaskonzentrationen, die Strahlungsantriebe und die mittleren globalen Temperaturänderungen29. Das Jahr 2000 ist die Ausgangsbasis, demnach beginnen alle Emissionen mit deren globalen Durchschnittswerten, ausgenommen ist die mittlere globale Temperaturänderung. Deren Bezugsgröße ist die durchschnittliche globale Temperatur der Zeitspanne von 1980 bis 1999. Zusätzlich zu den drei Szenarien werden noch drei weitere so genannte Stabilisationsszenarien erstellt. Beim Ersten bleiben die Vorgabewerte, also die Emissionen, von 2000 für die 100 Jahre zeitlich konstant, Szenario 2 und 3 setzen im Jahr 2100 auf und rechnen 200 Jahre mit den fixen Endwerten der Szenarien A1B und B1 weiter.

    Abb. 5 zeigt die Ergebnisse der Szenarien B1, A1B und A2 sowie die Stabilisierungsszenarien für die mittlere globale Temperaturänderung. Die Zahlen an den Verläufen geben die Anzahl der beteiligten Klimamodelle an. Die untergelegten Schatten bezeichnen die Standardabweichungen der jährlichen Mittelwerte der einzelnen Modelle.

    Abb.5: Mittlere globale Temperaturänderung der Erdoberfläche gemäß der Szenarien B1, A1B und A2 sowie der Stabilisierungsszenarien30

    Wie sind nun diese Vorausberechnungen einzuschätzen? Grundsätzlich ist festzustellen, dass die Zeitspannen der Vorhersage ob ihrer Dauer alle Vorstellungen sprengen. Selbst bei einer im Vergleich zum Klima mathematisch einfachen Sache wie eine Bevölkerungsvorausberechnung (sehr gute Daten als Ausgang und keine Nichtlinearitäten in den Modellen) werden seriöse Aussagen nicht über einen Zeithorizont von 50 Jahren hinaus getroffen. Bei der Voraussetzung, dass der Fehler der Ausgangsbasis vernachlässigbar ist, wird üblicherweise die Vorausberechnung beendet, wenn sich die Vorhersagewerte der einzelnen Szenarien mehr als 20 % voneinander unterscheiden. Dem liegt die Annahme zugrunde, dass mit längerer Vorhersagezeit die Vorgaben für die Szenarien immer unwahrscheinlicher sowie die Ergebnisse beliebiger werden, mithin der Extrapolationsfehler zu groß wird.

    Für die in Abb. 5 gezeigten Szenarien ergeben sich folgende Verhältnisse31:

    (max. Differenz = (Tmax – Tmin)/ Tmax* 100%)

    Mittlere globale Temperaturänderung (ºC)

    2011 – 2030

    2046 – 2065

    2080 – 2099

    A2

    0,64

    1,65

    3,13

    A1B

    0,69

    1,75

    2,65

    B1

    0,66

    1,29

    1,79

    Max. Differenz

    7,2 %

    26,3 %

    42,8 %

    Demnach sollte die Vorausberechnung des Klimageschehens etwa mit dem Jahr 2040 gestoppt werden, wobei der Fehler der Ausgangsbasis nicht berücksichtigt wird. Für die Zeit nach 2040 werden die Ergebnisse
    zunehmend wertlos, da sich die Szenarienverläufe immer mehr voneinander unterscheiden. Es ist dann eine Glaubenssache, welchem Szenario der Vorzug gegeben wird.

    Die hier vorgetragene Argumentation lässt sich gleichermaßen auf die Ausführungen des 4. IPCC-Berichts zu regionalen Klimavoraussagen32 anwenden. Eine Vorausberechnung liefert qualitative und quantitative Ergebnisse für einen definierten Bereich, im Fall der Abb. 5 ist es die Erde. Die kleinste Flächeneinheit einer globalen Vorausberechnung ist das Gridelement, dessen Fläche, vom AOGCM abhängig, zwischen 15.600 und 160.000 km2 beträgt. Das bedeutet, dass beispielsweise der Freistaat Sachsen mit einer Fläche von 18.415 km2 bei
    den meisten AOGCM kleiner als ein Gridelement ist. Damit sind keine oder höchstens sehr eingeschränkte Simulationen möglich.

    Seitens der Klimamodelle wird versucht, diesen Mangel zu beheben. Ein Ansatz ist das so genannte genestete Modell (nested regional climate model). In das AOGCM wird ein regionales Klimamodell (RCM) mit entsprechend angepasster Gridelementgröße eingebettet. Die Gridelementgröße beträgt in der Regel 50 x 50 km, es wird aber auch mit kleineren Gridelementen (10 x 10 km) gerechnet. Kennzeichnend für die genesteten Modelle ist der Austausch von zeitveränderlichen Klimagrößen über die Modellgrenzen hinweg. Dies führt gemäß dem 4. IPCC-Bericht zu schwierigen Problemen bei den Randbedingungen33. Die Folgen sind Inkonsistenzen zwischen den beiden Klimamodellen. Über die Güte der so erzeugten regionalen Simulationen gibt der Bericht keine Auskunft. Sie dürfte aber mit Sicherheit geringer als die einer weltweiten Simulation sein.

    Die Gridelementengröße beeinflusst die Ergebnisse der Simulationsrechnungen. Einerseits können die Resultate besser dem realen Geschehen entsprechen, beispielsweise bei der Wolkenbildung.
    Andererseits ist die Gleichverteilung der Klimaagenzien wie die der Treibhausgase bei kleinerem Gridelement zunehmend nicht mehr gegeben. Bei einem 10 x 10 km-Gridelement ist u.a. zwischen Stadt- und Landregionen zu unterscheiden.
    Städte weisen deutlich höhere Durchschnittstemperaturen als ländliche Regionen auf. Neben den erwähnten Inkonsistenzen, also Unterschiede in den Ergebnissen von AOGCM und RCM bei der Vorgabe von Emissionsänderungen, wären noch systematische Fehler unbekannter Größe wegen veränderter und unvollständiger Berechnungsgrundlagen zu erwarten. Alles in allem sollte dies den Zeithorizont der regionalen gegenüber
    den weltweiten Vorausberechnungen weiter verkürzen.34

    Anfang Mai 2008 wurde die Öffentlichkeit von einer Publikation in der Zeitschrift Nature überrascht35.
    Sie sagt nicht mehr und nicht weniger aus, dass sich der Klimawandel eine Pause gönnt. Grund für diese neue Erkenntnis sind offensichtlich Messwerte des letzten Jahrzehnts, die nicht mit den Ergebnissen der Simulationsrechnungen übereinstimmen. Für die Vorausberechnungen hat das zur Folge, dass ihre Ausgangsbasis nicht durch Messdaten gesichert ist und beliebig wird. Die dazu gehörenden Kurvenverläufe sind dann weitgehend fiktional. Die Klimavorausschau des Berichts ist streng genommen Makulatur. Es bleibt abzuwarten, ob der IPCC für die wichtigste Aussage des Band 1 The Physical Science Basis eine Korrektur nachreichen wird. 

    Fazit

    Der Focus der Anmerkungen zum 4. IPCC-Bericht wurde auf die Computermodellierung und -simulation gerichtet. Ohne Zweifel bildet dieser Bereich einen Eckstein des Berichts, erst mit der umfassenden Nutzung
    moderner Hard- und Software lässt sich ein so komplexes Wissengebiet wie das Klima der Erde überhaupt systematisch ordnen und in seinen Auswirkungen verstehen. Hervor zu heben ist die immense Leistung, die in der
    Computermodellierung und -simulation von Klimaereignissen in einem nun schon Jahrzehnte dauernden Prozess erbracht wurde. Viele Dutzende, wenn nicht Hunderte von Arbeitskräftejahren an Aufwand für Design, Programmierung und Test waren erforderlich, um die Klimamodelle in den heutigen Zustand zu bringen. Viele von ihnen geben ein herausragendes Beispiel für den state of the art der Softwaretechnologie.

    Diese Aussage gilt der Computermodellierung und -simulation. Sie ist ein Instrument, das bei der Klimaforschung eingesetzt werden muss. Als Instrument erweitert sie die Möglichkeiten der Klimaforscher um Größenordnungen. Was die Informationstechnologie aber nicht kann, ist den Beweis für die Übereinstimmung der Simulation mit der Realität zu liefern. Auch das Rechnen mit verschiedenen Klimamodellen und das Zusammenfassen der so erhaltenen Ergebnisse helfen da nicht weiter. Nur der Vergleich der Simulationsergebnisse mit auf anderem Wege gewonnenen verlässlichen Daten schafft Gewissheit.

    Wie aber sieht die verfügbare andere Datenlage aus? Daten mit umfassender globaler Gültigkeit gibt es seit ca. 50 Jahren, eine für den Anspruch der Klimatologie sehr, sehr kurze Zeit. Wenige Daten aus direkter Messung reichen etwas weiter zurück. Aus ihnen werden fehlende Messwerte errechnet oder geschätzt. Beide Methoden haben den Mangel, dass sie den Fehler der Vergleichsdaten vergrößern, die erste Methode weniger, die zweite mehr. Für eine Wissenschaft, die in Jahrhunderten und Jahrtausenden denkt, eine erbärmliche Ausgangslage. Daraus verbindliche Aussagen zum vergangenen und zukünftigen Klimageschehen zu treffen, erfordert ein ungeheures Maß an Chuzpe.

    Aber hat die Klimatologie nicht Erfolg in der Gesellschaft? Ja, sie hat Erfolg, sogar riesigen.

    Es ist ein Phänomen, wie eine Orchideenwissenschaft es geschafft hat, sich im Ranking des allgemeinen öffentlichen Interesses so weit oben anzusiedeln. Dies liegt nicht an den ohne Zweifel vorhandenen wissenschaftlichen Erkenntnissen. Was also ist der Grund? Er ist im gesellschaftlichen und psychologischen Bereich zu suchen. Eine Hypothese: In der westlichen Welt weit verbreitet ist das schlechte Gewissen über und die Ängste am eigenen Fortschritt. Ängste entstehen dadurch, dass der Fortschritt immer unverständlicher wird. Die Aussage, der Klimawandel sei menschgemacht und sehr schlimm und vor allem durch die entwickelten Gesellschaften verursacht, entspricht der Gefühlslage vollkommen. Die politischen und medialen Eliten nehmen sie auf und verstärken sie je nach Bedarf. Sie bedienen das schlechte Gewissen und bestätigen das Gefühl, bald in den selbstverschuldeten Niedergang einzutreten.

    Was ist zu tun? Die Regeln der Wissenschaft gelten weiter. Aussagen, von denen behauptet wird, wissenschaftlich zu sein, müssen falsifiziert werden können. Dieser Prozess ist unabhängig von Mehrheiten, auch von demokratisch hergestellten. Notwendig ist, die Publikationen und Verlautbarungen des IPCC auf deren wissenschaftlichen Gehalt abzuklopfen und die Ergebnisse zu veröffentlichen. Optimistisch wird erwartet, dass die so vorgebrachten Argumente schließlich wirken, spätestens dann, wenn der Bevölkerung wegen des „menschgemachten“ Klimawandels große Kosten aufgebürdet werden.

    Die prognostizierten Kosten belaufen sich auf Abermilliarden. Es ist festzustellen, dass der Großteil der Medien und die Politik aktuell die Aussage des IPCC kritiklos hinnehmen, der Klimawandel sei höchst wahrscheinlich menschgemacht. Warum wird, wie bei Geldgeschäften üblich, nicht ein Gutachten unabhängiger Dritter eingeholt? Die Milliarden können nur einmal ausgegeben werden, was ist, wenn sich der „menschgemachte“ Klimawandel als nicht existent herausstellt?


    1  Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics, 2007,
    Gerlich., p.81

    2  IPCC AR4 Chapt. 8.1.3

    3  Russell, G.L., 2005: 4×3 Atmosphere-Ocean Model Documentation,Grid. http://aom.giss.nasa.gov/doc4x3.html

    4  IPCC AR4 Chapt. 8.2

    5  IPCC AR4 Chapt. 8.2.7

    6  IPCC AR4 Chapt. 8.8.2

    7  IPCC AR4 Chapt. 8.8.3

    8  Claussen, M., 2005: Table of EMICs. http://www.pik-potsdam.de/emics

    9  http://www-pcmdi.llnl.gov/ipcc/about_ipcc.php

    10 IPCC AR4 Chapt. 6.4.1.3

    11  Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

    12  Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

    13  IPCC AR4 Chapt. 2.9.1

    14  Russell, G.L., 2005: 4×3 Atmosphere-Ocean Model Documentation, Introduction. http://aom.giss.nasa.gov/doc4x3.html

    15  IPCC AR4 S. 96

    16  IPCC-TAR 2001, The Scientific Basis, p. 134

    17  IPCC AR4 Box 6.4

    18  IPCC AR4 Summary for Policymakers, p.3

    19  http://www.uni-heidelberg.de/presse/news08/pm280402-3bau.html

    20  IPCC AR4 Chapt. 6.6.3.4

    21  IPCC AT4 Chapt. 6.1.2.3

    22  IPCC AR4 Chapt. 2.9.2

    23  IPCC AR4 Chap. 2.3.1

    24  IPCC AR4 Chap. 2.4.4.5

    25  IPCC AR4 Chap. 1.5.2

    26  Die mathematisch begründete Berechnung eines zusammen gefassten LOSU kann nicht gegeben werden.
    Eine Abschätzung, die auf dem Schwergewicht (Produktsumme aus |Differenz des Antriebswerts| x LOSU, geteilt durch die Gesamtantriebsdifferenz) basiert, kommt zu einem Gesamt-LOSU von ca. 0,6. LOSU-Angaben entsprechen
    hierbei high=0,9, medium=0,5, medium-low=0,35, low=0,2.

    27  IPCC AR4 Executive Summary, S. 131

    28  Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Adressing Uncertainities, Table 4

    29  IPCC AR4 Chap. 10, Fig. 10.1, Fig. 10.26

    30  IPCC AR4 Chap. 10, Fig. 10.4

    31  IPCC AR4 Chap. 10, Table 10.5

    32  IPCC AR4 Chap. 11

    33  IPCC AR4 Chap. 11 S. 919

    34  Der Freistaat Sachsen hat solche regionale Vorausberechnungen vornehmen lassen. Sie folgen dem gleichen zeitlichen Schema wie
    die weltweiten Prognosen. Es ergeben sich dann skurrile Resultate. So wurde bei einer Präsentation eine Ergebniskarte gezeigt, die für einen Teil des Lausitzer Berglandes (die Gridelementengröße betrug
    10 x 10 km) im Jahr 2089 für die Höhenlinie 500 m einen Temperaturzuwachs von 4,2 ºC auswies.

    35  Keenlyside, N. S., M. Latif, J. Jungclaus, L. Kornblueh, and E. Roeckner, 2008: Advancing Decadal-Scale Climarediction in the North Atlantic Sector. Nature, 453, 84-88

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Anmerkungen zum 4. Bericht des IPCC 2007 Computermodellierung und -simulation

    Leserbrief an Aufbau

    Posted by Rauch on 22nd Januar 2007


    Das Jüdische Monatsmagazin, CH-8027 Zürich redaktion@aufbauonline.com vom 5.12.2006

    Von Dr. phil. Wolfgang Thüne

    Sehr geehrte Herren Kugelmann und Mink,im Rahmen eines dienstlichen Umlaufs landete das September-Heft, das der „Klima-Krise“ gewidmet war, auf meinem Schreibtisch. Nach aufmerksamer Lektüre der Artikel bin ich derart entsetzt, sowohl als Meteorologe als auch Soziologe, dass ich nicht schweigen kann.

    Ist das eigenständige Denken schon soweit degeneriert und ausgestorben, dass Niemand auch nur ansatzweise fragt, wo das Wort „Klima“ herkommt, was es bedeutet und in welch kontroversen Bedeutungszusammenhängen es gebraucht wird? Hat es Sie beide nicht stutzig gemacht, dass alle „diese Umweltaktivisten vielfältig miteinander verbunden sind“?

    Wenn Michael Oppenheimer die Rolle des Menschen mit „einem Schwachsinnigen am Steuer eines Autos“ vergleicht, dann ist dies nicht Ausfluss hohen analytischen Sachverstandes, sondern Ausdruck ideologischer Borniertheit. Nichts hat dieser „Umweltaktivist“ begriffen, sonst wüsste er, dass es „Klima“ als Naturvorgang gar nicht gibt, weder lokal, noch weniger regional und schon erst recht nicht als Globalklima. Wer zugibt, von dem „Treibhauseffekt“ nur „gehört“, aber nicht wissenschaftlich durchdacht zu haben und zudem in der „oberen Stratosphäre“ auf das „Phänomen des sauren Regens aufmerksam“ wird, der sollte etwas zurückhaltender sein mit der Aussage „ich bin Akademiker“.

    Ob man die Klimadefinitionen und Klimaklassifikationen von J. Hann (1906), W. Köppen (1923), B. P. Alissov u. a. (1956), J. Blüthgen (1964) oder der WMO in Genf nimmt, immer wird „Klima“ als das „mittlere Wettergeschehen“ an einem Ort über eine bestimmte Zeit von 30 Jahren bezeichnet. Jedem „Klima“ liegt Wetter zugrunde und ohne kontinuierliche und sorgfältige Beobachtung und die Messung von Wetterdaten lassen sich keine Klimadaten berechnen. Die Welt zeichnet sich aus durch eine Diversität an Klimaten, die sich herleitet aus einer unendlichen Fülle unterschiedlichen Wetters. Das „Klima“ ist nichts als ein statistisches Konstrukt, ein statisches Abbild des stets unbeständigen und veränderlichen Wetters. Ob „Aleutentief“ oder „Azorenhoch“, es sind nichts als statistische Scheingebilde, die für einen synoptischen Meteorologen völlig ohne Wert sind..

    Wenn Claudia Roth feststellt „Es ist Hybris zu glauben, alles sei beherrschbar“, dann hat sie ausnahmsweise Recht. Das Wetter ist nicht beherrschbar! Aber ihr logisches Denkvermögen reicht nicht aus, um daraus auch die Unbeherrschbarkeit des Klimas abzuleiten. Wenn sich „Klima“ verändert, dann nur passiv als Folge von vorangegangenen Veränderungen im chaotischen Wetterablauf. Jedem Klimawandel geht ein vom Menschen nicht beeinflussbarer Wetterwandel voraus. Das Wetter ist der aktive Part, das „Klima“ ein statistisch geglättetes, ein gleitendes Mittel, das vergangene Wetteränderungen nachzeichnet, aber nicht erklärt. Es gibt keine „Klimakrise“, sondern eine Krise der menschlichen Vernunft, wie der „visionäre Ausblick“ von I. Asimov aus dem Jahre 1971 deutlich demonstriert. Die Hybris von Petra Roth, Al Gore wie auch der „Religiösen Partnerschaft“ liegt darin zu meinen, der Mensch könne den „Klimawandel“ stoppen, während er ohnmächtig zusehen muss, wie täglich das Wetter mit dem Menschen „Katz und Maus“ spielt. Seit „Adam und Eva“ passt sich der Mensch dem Wetter an, erfolgreich! Der Begriff „Wetterschutz“ heißt daher „Schutz vor dem Wetter“ und nicht „Schutz des Wetters“!

    „Klimaschutz“ hat mit der „Bewahrung der Natur“ nichts zu tun, ist kein „Schöpfungsschutz“. Gott hat „Himmel und Erde“ erschaffen, aber Adam nur befohlen, „sich die Erde untertan zu machen“ und den „Garten Eden“ zu hegen und zu pflegen. Die Atmosphäre gehört zum Himmel, hier herrschen die „Wettergötter“. Und das ist auch gut so, nicht nur, um die seit Urzeiten eintretenden Wetterkatastrophen“ als Strafe der „Wettergötter“ für seine Sünden zu empfinden wie Besserung zu geloben, sondern auch, um sich immer wieder, trotz des Dranges zum Größen- und Machbarkeitswahn, der Ohnmacht gegenüber dem Wetter bewusst zu werden. Wehe, dem Menschen gelänge es, sich das Wetter untertan zu machen!

    Der ehemalige US-Vizepräsident Al Gore mag ein guter Demagoge sein, ein guter Physiker ist er nicht! In jedem Lehrbuch könnte er nachlesen, dass frisch gefallener Schnee optisch zwar extrem weiß ist, aber im Infrarotbereich der „schwärzeste Körper“ auf Erden ist. Schnee und Eis wirken nicht wie „ein gewaltiger Spiegel“, nein, sie schmelzen „wie Butter in der Sonne“, weil sie die unsichtbare Infrarot- oder Wärmestrahlung extrem gut absorbieren. Wenn all das Geld, das in die „Klimaforschung“ wie die „Klima-Wahrsagerei“ gesteckt wird, nur in die Verbesserung der Wetteranalysen wie der Wetterprognosen gesteckt würde, das wäre eine wahrhafte „Investition in die Zukunft“.

    Wie das Wetter zu den irreversiblen Naturvorgängen gehört, so ist auch das Heft „Die Klima-Krise“ nicht mehr ungeschehen zu machen. Es wäre aber zu wünschen, wenn ein Heft konzipiert würde, in dem die Maßstäbe wieder zurechtgerückt würden, denn nichts ist schlimmer für die Menschheit wie die Demokratien als besserwisserische Ideologen, die bedingungslos von der Hybris getrieben sind: „Und jetzt werden wir unseren Planeten retten.“

    Mit freundlichen Grüßen

    Dr. Wolfgang Thüne

    Nachrichtlich: JNF e.V., Redaktion Neuland (duesseldorf@jnf-kkl.de) Israelische Botschaft, Gesandter Ilan Mor (minister@berlin.mfa.gov.il) Deutsch-Isrealische Gesellschaft, Präsident Dr. h. c. Johannes Gerster (j.gerster@gmx.de)


    2007-01-22Name: Dr. phil. Wolfgang Thüne
    Beruf: Diplom Meteorologe
    E-Mail: Wolfgang@thuene.com
    Anschrift: 55276 Oppenheim, Bädergasse 67
    Dieser Beitrag darf nur Mitzustimmung des Autors verändert werden.

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Leserbrief an Aufbau

     
    Kosmisches Gesetz

     ©  Bauratgeber24  |  Impressum  |  Datenschutzerklärung   2/2022