bauratgeber24.de   Blog zum gesunden Bauen und Wohnen


Bauratgeber24  |  Sanierungskosten  |  Bauideen  |  Download  |  Impressum  |  Datenschutzerklärung
Artikel im Blog

Alle Beiträge


Baustoffkennwerte
Gewünschten Baustoff eingeben

  

Faching., Dipl.-Ing.oec., Ing.oec., Ing. Peter Rauch PhD
Peter Rauch PhD
Dipl.-Ing.oec., Ing.oec., Ing.
Es gibt viele Bauratgeber, welche im Auftrag oder für das System arbeiten, aber nicht für den freien Menschen.
Subscribe



Archives
  • März 2024
  • September 2023
  • August 2023
  • Juli 2023
  • Juni 2023
  • Mai 2023
  • Februar 2023
  • Januar 2023
  • Dezember 2022
  • November 2022
  • Oktober 2022
  • September 2022
  • August 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • März 2022
  • Februar 2022
  • Januar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • März 2020
  • Februar 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Juli 2019
  • Juni 2019
  • Mai 2019
  • April 2019
  • Februar 2019
  • Januar 2019
  • Dezember 2018
  • November 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • April 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • September 2017
  • August 2017
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • November 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • Oktober 2015
  • September 2015
  • Juli 2015
  • Juni 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Januar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juli 2013
  • Juni 2013
  • Mai 2013
  • April 2013
  • März 2013
  • Februar 2013
  • Januar 2013
  • Dezember 2012
  • November 2012
  • Oktober 2012
  • September 2012
  • August 2012
  • Juli 2012
  • Juni 2012
  • Mai 2012
  • April 2012
  • März 2012
  • Februar 2012
  • Januar 2012
  • Mai 2011
  • Dezember 2010
  • Oktober 2010
  • August 2010
  • Juli 2010
  • Juni 2010
  • März 2010
  • Februar 2010
  • Dezember 2009
  • November 2009
  • Oktober 2009
  • November 2007
  • September 2007
  • August 2007
  • Juli 2007
  • April 2007
  • März 2007
  • Februar 2007
  • Januar 2007
  • November 2006
  • Juni 2006
  • Februar 2006
  • September 2005
  • August 2005
  • Juli 2005
  • Juni 2005
  • Februar 2005
  • Januar 2005
  • August 2004
  • Mai 2003
  • April 2003

  • Altbausanierung Badezimmer Dachgeschoss Energiekosten Energiepolitik Energie sparen Energiesparen Energiewende Fachwerk Globaltemperatur Grundstück Holz Immobilien Kaminofen Klima klimawandel Luftfeuchtigkeit Stromkosten treibhauseffekt Umzug
    Meta
    Anmelden

    Сильнейшая защита от всего негатива и опасностей!


    Archive for the 'Energie- und Umweltpolitik' Category

    Eine Umwelt- und Energiepolitik mit Sachkompetenz, Fakten, Formen und Vernunft, nicht mit Fiktionen, Vermutung und Vision.

    Klima(gipfel) im Wandel

    Posted by Rauch on 20th Dezember 2009

    LESERBRIEF in Leipzigervolkszeitung vom 19. Dezember 2009
    „Bekanntlich stehen/standen beim Weltklimagipfel in Kopenhagen Milliardensummen auf der Tagesordnung, die dafür eingesetzt werden sollen, die Temperatur auf der Erde um nicht mehr als zwei Grad ansteigen zu lassen. Ganz abgesehen von den nach wie vor fehlenden wissenschaftlichen Beweisen dafür, dass diese Unsummen überhaupt eine Veränderung des Klimas bewirken können, so sollten sich die Klima-Politiker, die über dieses Geld entscheiden (über das ohnehin keines der hoch verschuldeten Industrieländer verfügt), ihre klimapolitischen Ziele doch wenigsten so genau definieren, dass sie irgendwann konkret abgerechnet werden können. Es fällt nämlich allmählich auf, dass zwar immer vom Zwei-Grad-Ziel palavert wird, aber keiner sagt exakt, wie hoch – in Grad Celsius – die Basistemperatur ist, von der aus die Temperatur um zwei Grad steigen oder nicht steigen darf.“
    Dietmar Ufer, 04103 Leipzig

    Inhalt des eingereichten Artikels:

    Bekanntlich stehen/standen beim „Weltklimagipfel“ in Kopenhagen Milliarden-summen auf der Tagesordnung, die dafür eingesetzt werden sollen, die Temperatur auf der Erde um nicht mehr als zwei Grad ansteigen zu lassen. Ganz abgesehen von den nach wie vor fehlenden wissenschaftlichen Beweisen dafür, dass diese Unsummen überhaupt eine, wenn auch minimale, Veränderung des Klimas bewirken können, so sollten sich die Klima-Politiker, die über dieses Geld entscheiden (über das ohnehin keines der hoch verschuldeten Industrieländer verfügt), ihre „klima-politischen“ Ziele doch wenigsten so genau definieren, dass sie irgendwann konkret abgerechnet werden können.

    Es fällt nämlich allmählich auf, dass zwar immer vom „Zwei-Grad-Ziel“ palavert wird (zuweilen werden auch 1,5 Grad gefordert), aber keiner sagt exakt, wie hoch – in Grad Celsius – die Basistemperatur ist, von der aus die Temperatur um zwei Grad steigen oder nicht steigen darf. Es wird ab und zu vom „vorindustriellen Niveau“ als Berechnungs-Basis gesprochen. Wie hoch aber war die Temperatur in vor-industrieller Zeit, und zwar auf Zehntelgrade genau? Und wann war das? War das Mitte des 19. Jahrhunderts? Vorindustrielle Zeiten gab es aber auch zweihundert Jahre früher oder im Mittelalter oder zur Römerzeit … Und immer gab es andere Temperaturen!

    Es gehört nun allerdings auch zu den politisch motivierten Lügen, wonach in den letzten tausend Jahren die Temperatur immer konstant gewesen sei und erst seit der Industrialisierung angestiegen wäre. Das wurde „wissenschaftlich“ mit der so-genannten Hockeystick-Kurve, auf die sich auch der Weltklimarat stützte, „bewiesen“. Inzwischen ist sie als Fälschung entlarvt. Keiner der Klima-Politiker, auch nicht unsere physikalisch gebildete Klima-Kanzlerin, hat das bisher offen zugegeben! Schon lange vor Erfindung der „Klimakatastrophe“ war bekannt, dass es in vergangenen Jahrhunderten deutlich wärmere und deutlich kältere Perioden, verglichen mit der Jetztzeit, gab. Und nie war in diesen Zeiten Kohlendioxid aus der Verbrennung von Kohle, Öl oder Gas die Ursache für Temperaturänderungen! Aber keiner der Klimapäpste hat uns bisher gesagt, über welche „vorindustrielle Zeit“ mit welchen Temperaturen von Tausenden „Experten“ in Kopenhagen verhandelt wurde!

    Offen ist zudem, ob eine „vorindustrielle Temperatur“ in Mitteleuropa oder in Nord-amerika, in Sibirien, Südamerika oder in Afrika gemeint ist. Diese Frage ist insofern bedeutsam, weil die gängigen Klimamodelle durchaus keine gleichmäßige Temperaturerhöhung in allen Regionen prophezeien: In den Polarregionen soll sie beispielsweise schneller steigen als in den Tropen. Gelten unter diesem Umständen dann die zwei Grad für die gesamte Erde?

    Allein die hier aufgeworfenen Fragen zeigen deutlich, mit wie wenig wissenschaft-licher Substanz über angebliche „Schicksalsfragen“ für die gesamte Menschheit ver-handelt wurde und wird. Es geht hier eindeutig nur um die Neuverteilung von Wohlstand und Kapital, um den Versuch, nationale und globale Widersprüche mit untauglichen Mitteln und höchst fragwürdigen Zielstellungen zu lösen. Fest steht: Mit Wissenschaft hat diese Klimadebatte nichts, absolut nichts, zu tun!

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Klima(gipfel) im Wandel

    Energieversorgung und Energiesparen

    Posted by Rauch on 18th Dezember 2009

    Energie ist ein Begriff aus der Physik und bedeutet, die Fähigkeit physikalischer Systeme, Arbeit zu leisten.
    Zu den heute bekannten Energiearten gehßren die mechanische Energie (potentielle1) und kinetische2)), magnetische, elektrische, chemische Energie, Wärme-, Licht- und Kernenergie. Die Physik kennt zwei Grundgesetze der Energie: den Satz von der Erhaltung und Umwandlung der Energie und den Entropiesatz. Das Gesetz von der Erhaltung und Umwandlung der Energie besagt, dass in einem System, dem Energie in irgendeiner Form weder zugeführt noch entnommen wird, die Summe aller Energien konstant bleibt. Energie kann also weder aus Nichts entstehen noch in Nichts vergehen, sondern sich die einzelnen Energiearten nur ineinander verwandeln kßnnen. Energie ist Arbeitsvermßgen, es wird durch einen Zustand gekennzeichnet. Die Arbeit ist Energieumsatz, es wird durch einen Vorgang gekennzeichnet.
    Die von Albert Einstein aufgestellte Beziehung E = m . c2 (Relativitätstheorie) besagt, dass jede Masse mit Energie verknüpft und jede Energie an Masse gebunden ist. Für Al Gore, den neuen Messias und Friedensnobelpreis kommt aus den oben gezeigten Kühltürmen Kohlendioxid. Für mich als Ingenieur ist das nur etwas Wasserdampf. Bevor das eigentliche Thema der Energiebereitstellung weiter behandelt wird, soll zunächst in sehr stark vereinfachter Form die wirtschaftlichen Gesichtspunkte betrachtet werden.
    Eine Volkswirtschaft ist das Ergebnis einer mehr oder weniger langen Entwicklung, die sich aus den zur Verfügung stehenden Ressourcen und den gesellschaftlichen Anforderungen entwickelt. Um dies an einem simplen Beispiel zu benennen. In der Antike kannte man die Wirkung des Wasserdampfes (wurde zum automatischen öffnen der Tempeltore genutzt) ebenso konnte man Kräfte über entsprechende mechanische Bauteile übertragen. Technisch hätte man eine Dampfmaschine bauen kßnnen, die zum Beispiel die Schiffe oder die Kriegsgeräte hätte antreiben kßnnen. Man hatte aber viele billige Sklaven. Gesellschaftlich bestand zu der damaligen Zeit kein Markt für diese Technologie. Weiter Energie

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Energieversorgung und Energiesparen

    Offener Brief an die Bundeskanzlerin Merkel

    Posted by Rauch on 12th Dezember 2009

    Sehr verehrte Frau Bundeskanzlerin,
    aus der Geschichte können wir lernen, dass oft der Zeitgeist die Entwicklung der Gesellschaften bestimmt hat; mancher hatte schlimme oder gar schreckliche Auswirkungen. Die Geschichte lehrt uns auch, dass politisch Verantwortliche nicht selten verhängnisvolle Entscheidungen getroffen haben, weil sie inkompetenten oder ideologisierten Beratern gefolgt sind, und das nicht rechtzeitig erkannten. Außerdem lehrt uns die Evolution, dass die Entwicklung zwar viele Wege beschreitet, die meisten aber in Sackgassen enden. Keine Epoche ist vor Wiederholungen gefeit. Politiker suchen zu Beginn ihrer Laufbahn ein Thema, mit dem sie sich profilieren können. Als Umweltministerin haben Sie das verständlicherweise auch getan. Sie haben den Klimawandel entdeckt, und er wurde Ihnen zur Herzensangelegenheit. Dabei ist Ihnen ein folgenschwerer Fehler unterlaufen, was angesichts dieses Metiers gerade Ihnen als Physikerin nicht hätte passieren dürfen. Sie haben den Klimawandel als menschengemacht anerkannt und teure Strategien zur Vermeidung des sogenannten Treibhausgases CO2 als Handlungsmaxime verinnerlicht, ohne vorher in wirklich kontroversen Diskussionen prüfen zu lassen, ob auch die früheren Temperaturmessungen und viele weitere relevante Klimafakten diese Annahme überhaupt rechtfertigen. Tatsächlich tun sie es nicht! Bei einer umfassenden Prüfung, die wegen der Bedeutung für uns alle zwingend erforderlich gewesen wäre, hätte sich schon vor der Gründung des IPCC gezeigt, dass wir keine CO2-kausal begründbare globale Erwärmung haben, sondern periodische Temperaturschwankungen normalen Ausmaßes. Dementsprechend hat sich die Atmosphäre seit 1998 – also seit 10 Jahren – nicht weiter erwärmt und seit 2003 wird es sogar wieder deutlich kühler. Keines der teuren Klimamodelle hat diese Abkühlung prognostiziert. Laut IPCC hätte es weiter und unvermindert wärmer werden müssen. Aber, was wichtiger ist, anthropogenes CO2 spielt dabei keinerlei erkennbare Rolle. Der vom CO2 absorbierbare Strahlungsanteil ist bereits durch die gegenwärtige Konzentration nahezu ausgeschöpft. Selbst wenn CO2 eine Wirkung hätte und alle fossilen Brennstoffvorräte verbrannt würden, bliebe die zusätzliche Erwärmung langfristig auf den Bereich von Zehntelgraden beschränkt. Das IPCC hätte diesen Sachverhalt auch feststellen müssen, hat jedoch bei seiner Arbeit 160 Jahre Temperaturmessungen und 150 Jahre CO2-Bestimmungen außer Acht gelassen und damit jeden Anspruch auf Wissenschaftlichkeit verloren. Die wesentlichen Aussagen zu diesem Thema sind als Kernaussagen beigefügt.Inzwischen wurde die Ãœberzeugung vom Klimawandel und dessen menschlicher Urheberschaft zu einer Pseudoreligion entwickelt. Ihre Verfechter stellen nüchtern und sachbezogen analysierende Realisten, zu denen ein Großteil der internationalen Wissenschaftlerelite gehört, bedenkenlos an den Pranger. Im Internet findet man zum Glück zahlreiche Arbeiten, die detailliert nachweisen, dass es keinen durch anthropogenes CO2 verursachten Klimawandel gibt. Gäbe es das Internet nicht, könnten sich die Klimarealisten kaum Gehör verschaffen, denn ihre kritischen Beiträge werden nur noch selten veröffentlicht. Die deutschen Medien nehmen in der Ablehnung solcher Beiträge einen traurigen Spitzenplatz ein. Beispiel: Im März diesen Jahres fand in New York die 2. Internationale Klimakonferenz der Klimarealisten statt. An dieser wichtigen Konferenz nahmen ca. 800 führende Wissenschaftler teil, darunter viele der weltbesten Klimatologen bzw. Fachleute verwandter Disziplinen. Während die US-Medien und hier nur die Wiener Zeitung ausführlich darüber berichteten, haben bei uns Presse, Fernsehen und Radio geschwiegen. Es ist bitter, feststellen zu müssen, wie sich unsere Medien weiterentwickelt haben: In früheren Diktaturen wurde ihnen mitgeteilt, was nicht berichtenswert sei, heutzutage wissen sie es leider ohne Anweisungen. Meinen Sie nicht auch, dass Wissenschaft nicht nur die Suche nach der Bestätigung einer These ist, sondern vor allem die Prüfung, ob das Gegenteil die Realitäten besser erklärt? Wir ersuchen Sie daher, Frau Dr. Merkel, Ihre Position zu diesem Komplex gründlich zu überdenken und ein vom Potsdamer Institut für Klimafolgenforschung (PIK) unabhängiges ideologiefreies Gremium einzuberufen, in dem kontroverse Argumente offen ausgetragen werden können. Wir Unterzeichner wollen hierzu gerne unsere Hilfe anbieten. Wir verbleiben mit freundlichen Grüssen

    Prof. Dr.rer.nat. Friedrich-Karl Ewert EIKEDiplom-Geologe. Universität. – GH – Paderborn, Abt. Höxter (ret.)Dr. Holger Thuß EIKE Präsident Europäisches Institut für Klima und Energie www.eike-klima-energie.eu/Die Kernaussagen können als pdf Datei herunter geladen werden s.u.* in der Physical Review E68, 046133 (2003) ,** Interview Die Zeit

    Mitunterzeichner:
    Wissenschaftler
    1 Prof. Dr. Hans-Günter Appel Hütteningenieur und Werkstoffwissenschaftler.
    2 Prof. Dr. hab. Dorota Appenzeller Prof für Ökonometrie und angewandte Mathematik VizeDekan der Universität Poznan Polen
    3 Prof. Dr. Wolfgang Bachmann Leiter des Instituts für Schwingungstechnik, FH Düsseldorf bis zum Ruhestand 2002
    4 Prof. Dr. Hans Karl Barth Geschäftsführer / Managing Director World Habitat Society GmbH – Environmental Services
    5 Dipl.Biologe Ernst Georg Beck
    6 Dr. rer.nat. Horst Borchert Dipl.Physiker
    7 Dipl. Biol. Helgo Bran Biologe ehem. MdL BW Grüne
    8 Prof. Dr. rer. nat. Gerhard Buse Biochemiker
    9 Dr.Ing. Ivo Busko Deutsches Zentrum für Luft- und Raumfahrt e.V. in der Helmholtz-Gemeinschaft Institut für Technische Physik
    10 Dr. Ing. Gottfried Class nukleare Sicherheit, Kernfusion, Thermohydraulik, physikalische Chemie
    11 Dr. Ing Urban Cleve Kernphysiker Thermodynamiker, Energietechniker
    12 Dr. rer. nat. Rudolf-Adolf Dietrich Energieexperte
    13 Dipl.-Ing. Peter Dietze IPCC Expertreviewer TAR, Klimaforscher
    14 Dr. rer. nat. Siegfried Dittrich Physikochemiker
    15 Dr.rer.nat. Theo Eichten Diplom-Physiker
    16 Ferroni Ferruccio Zürich Präsident NIPCC-SUISSE
    17 Dr. sc.agr. Albrecht Glatzle Agrarbiologe, Director científico INTTAS, Paraguay
    18 Dr. rer.nat. Klaus-Jürgen Goldmann Dipl. Geologe
    19 Dr. rer.nat. Josef Große-Wördemann Physikochemiker
    20 Dr. rer. nat. Günther Hauck Dipl.-Chem.
    21 Prof. Dr. rer.nat. Detlef Hebert ehem. Fakultät für Chemie und Physik Institut für Angewandte Physik
    22 Dipl. Geologe Heinisch Heinisch
    23 Dr. rer.nat. Horst Herman Dipl. Chemiker
    24 Prof. Dr. Hans-Jürgen Hinz Uni-Münster Institut für Physikalische Chemie
    25 Dipl. Geologe Andreas Hoemann Dipl. Geologe
    26 Dr. rer. nat. Heinz Hug Chemiker
    27 Dr. rer.nat. Bernd Hüttner Theor. Physiker
    28 Prof. Dr. Werner Kirstein dipl. Physiker & Geograph
    29 Dipl. Meteorologe Klaus Knüpffer METEO SERVICE weather research GmbH
    30 Dr. rer. hort. Werner Köster Agrarwissenschaftler
    31 Dr. rer.nat. Albert Krause Chemiker Forschung32 Dr. rer. nat Norbert Kunert Dipl. Geologe
    33 Dr. rer. nat. Peter Kuzel Diplomchemiker
    34 Drs.oek. Hans Labohm IPCC AR4 Expert reviewer, Dipl. Kfm.
    35 Dr. rer.nat Ludwig Laus Dipl. Geologe
    36 Dr. rer.nat. Rainer Link Physiker37 Dipl. Pysiker Alfred Loew
    38 Prof. Dr. Horst-Joachim Lüdecke Dipl. Physiker HTW Saarbrücken
    39 Prof. Dr. Horst Malberg Universitätsprofessor (A.D.) für Meteorologie und Klimatologie
    40 Dr. rer.nat Wolfgang Monninger Geologe
    41 Diplom-Meteorologe Dieter Niketta
    42 Prof. Dr. Klemens Oekentorp Leiter ehem. des Geol.-Paläont. Museums der Westfälischen Wilhelms-Universität Münster
    43 Dr. rer.nat. Wolfgang Poppitz Chemiker
    44 Dipl. Meteorologe Klaus-Eckart Puls Dipl. Meteorologe
    45 Prof. Dr. Dieter Pumplün Mathematik
    46 Prof. Dr. Klaas Rathke Hochschule OWL Abt. Höxter
    47 Prof. Dr. Oliver Reiser UNI Regensburg
    48 Dipl. Physiker Wolfgang Riede Dipl.-Phys. ETH, DLR Stuttgart
    49 Dipl.-Ing. Wolfgang Sander
    50 Diplom- Mineralogin Sabine Sauerberg Geowissenschaftlerin
    51 Prof. Jochen Schnetger Chemiker
    52 Prof. Dr. Sigurd Schulien Hochschullehrer i.R.
    53 PD Dr.habil.Dr.rer.nat. Eckhard Schulze Dipl.Pys., Med. Physik
    54 Dr. rer.nat. Franz Stadtbäumer Dipl.-Geologe
    55 Dr. rer.nat. Gerhard Stehlik Physikochemiker
    56 Dr. rer.nat.habil Lothar Suntheim Diplomchemiker57 Dipl.-Ing. Heinz Thieme Gutachter
    58 Dr.phil. Dipl. Meteorologe Wolfgang Thüne Umweltministerium Mainz
    59 Dr. rer. oec., Ing. Dietmar Ufer Energiewirtschaftler, Institut für Energetik, Leipzig
    60 Dipl. Meteorologe Horst Veit
    61 Prof. Dr. Detlef von Hofe ehem. Hauptgeschäftsführer DVS
    62 Dipl. Geograph Heiko Wiese Geographie, Meteorologie, stud. Wetterbeobachter)
    63 Dr.rer.nat. Erich Wiesner Euro Geologe
    64 Dr.rer.nat. Ullrich Wöstmann Dipl Geologe
    65 Prof. em. Dr. Heinz Zöttl Forstbiologe -Geologe
    66 Dr.rer.nat. Zucketto Dipl. Chemiker ,früher ARCOS u. ESAB KonzernBesorgte
    engagierte Bürger
    1 Dipl. Ing. FH. Burckhard H. Adam Energie- und Bauberatung
    2 Dipl. Ing Paul Allenspacher Deutsches Zentrum für Luft- und Raumfahrt e.V.
    3 Prof. Dr.Ing. Dieter Ameling Präsident Wirtschaftsvereinigung Stahl a. D.
    4 Hartmut Bachmann Präsident eines US Wirtschaftsinstituts
    5 Kerstin Bakowski
    6 Dipl. Ing. Klaus Bark E-Technik
    7 Dietrich Barth Realoberlehrer i.R.Geographie & Geologie
    8 Hilde Barth Oberlehrerin i.R.
    9 Christian Bartsch Journalist
    10 Dipl. Ing. Edgar Bätz EVU Leipzig & Institut für Energetik
    11 Dieter Ber Marketingdir. a.D.
    12 Dipl. Ing. Marco Bernardi Kfz-Sachverständiger
    13 Dipl. Ing. Leonhard Bienert Entwicklung Kernenergie ex DDR
    14 Dr. rer.nat Christian Blex
    15 Dr. agr. Arwed Blomeyer Ministerialrat a. D.
    16 Theodor Blum Elektromeister
    17 Dr. Ing. Richard Bock18 Ralph Bombosch
    19 Dipl. Ing. Paul Bossert Architekt
    20 Dr. Böttiger Theologie, Pädagogik, Promotion in Soziologie.
    21 Dipl. Biol. Helgo Bran Biologe ehem. MdL BW Grüne
    22 Ingenieur Jacob Brandt
    23 Johannes Brender Vorstand BMB Bund mündiger Bürger
    24 Dr. Ing. Wolfgang Brune Energiewirtschaftler
    25 Dieter Bunselmeyer Kaufmann
    26 Dipl. Ing M.G. Bury Elektroingenieur
    27 Dipl. Ing. Jan Chaloupka
    28 Dipl.-Volkswirt Henning Clewing ehem. Geschäftsführer von Unternehmen des Maschinen- und Anlagenbaus
    29 Hans-Werner Degen
    30 Dipl. Ing. Andreas Demmig Selbstständiger Ingenieur,
    31 Dipl. Ing Peter Dettmann technischer Umweltschutz
    32 Dipl. Ing. Hakola Dippel Förster
    33 Dipl. Ing. M.A. Enno Dittmar
    34 Dipl. Chemiker Gert Dobrowolski Studiendirektor
    35 Heiko Dörr Controller Industriemeister Fachrichtung Metall
    36 Gudrun Dressler
    37 Rolf Dressler Journalist. ehem. Chefredakteur Westfalenblatt
    38 Dipl. Ing. Johannes Drosdeck Maschinenbau Automotive
    39 Dipl.-Math. Heinrich Duepmann Dipl.-Math. Vorsitzender naeb e.V.
    40 Dipl. Phys. Vince Ebert Diplomphysiker und Wissenschaftskabarettist
    41 Dr.med. Christian Eilers Radiologe
    42 Dipl. Brm. Manfred Emmerich
    43 Dipl. Ing. Klaus Emmerich Heizungsbau
    44 Dr. med. Wolfram Enders Arzt
    45 Walter Faulenbach GF a.D.
    46 Dipl. Chemiker Rainer Feldhaus
    47 Dipl. Ing. Konrad Fischer Architekt
    48 Diplom Bibliothekar Stephan Fischer
    49 Dr.rer.nat. Dieter Fischer Physiker
    50 Wolfgang Frerich51 Diplom-Meteorologe Christian Freuer
    52 Dipl. Ing. Jürgen Fuchsberger Architekt
    53 Dipl. Ing. Horst Gampper
    54 Krishna Gans
    55 Dipl. Hydrobiologe Edgar Gärtner Journalist
    56 Dr. Ing. Adolf Gärtner
    57 Dr. Ing. Peter Geier Ernergiewirtschaftler
    58 Dr.Ing. Hans-Jürgen Gläsel
    59 Dipl. Ing. Dipl-Inform. Ewald Gleixner Software-Entwicklung
    60 Dipl. Ing. Pierre Gosselin Ãœbersetzer Technisches Ãœbersetzungsbüro
    61 Tatjana Gräfin Dönhoff Journalistin/Autorin
    62 Dipl. Geograph Krystyna Gre Universität Posen
    63 Helmut Groß Bürgermeister der Stadt Tengen
    64 Hans-Friedrich Große FU-Meteorologe
    65 Dr. Axel Haas Dipl.-Kaufmann, Geschäftsf.- Gesellschafter,
    66 Haase
    67 Diplom-Physikerin Christel Hahn
    68 Dr. rer. nat. Günther Hauck Dipl.-Chem.
    69 Dipl. Ing. Wilfried Heck Elektrotechnik
    70 Dipl. Ing. Bernd Heinmüller Elektrotechnik
    71 Armin Heinzelmann Projektmanager
    72 Dr. rer.nat. Peter Heller Astrophysiker
    73 Dr. Ing. Herbert Heuser
    74 Rainer Hoffmann Prokurist
    75 Dipl.-Brm. Jens Hofmann
    76 Prof. Dr.-Ing. Heiko Hofmann Berufsakademie Dresden
    77 Ferdinand Fürst zu Hohenlohe-Bartenstein
    78 Dipl. Kfm. Siegfried Holler
    79 Dr. Ing. Kurt Honrath Technischer Vorstand i.R.
    80 Stud.Dir.i.R. Klaus-Peter Hoop Chemie, Mathematik
    81 Peter Hoppe82 Christoph Horst Jurist
    83 Melanie Hüttner freischaffende Künstlerin
    84 Diplom Biologin Hannelore Hüttner Ökologie
    85 Diplom Biologin Marion Hüttner
    86 Rolf Ihsen Verband für Gesundheits- & Landschaftsschutz e.V.
    87 Rüchel Ingo Schulleiter i.R./OStD (Mathematik, Physik)
    88 Dipl. Kfm, Oliver Janich Journalist Focus Money Bundesvorsitzender der „Partei der Vernunft“.
    89 Ulf Johannsen Baumpfleger
    90 Dipl. Ing.oec. Horst Jungnickel ehemals leitender Mitarbeiter in der Energiewirtschaft
    91 Wolfram von Juterzenka
    92 Silvia Kaiser Industriekauffrau
    93 Dipl. Ing. Andreas Kaluza Bergbau Ing. Metallurge
    94 Jürgen Kampmeier
    95 Dr. rer. nat Volker Kay Diplom Biologe
    96 Prof. Dr. Ing. Helmut Keutner TFH Berlin FB-VI
    97 Winfried Klein Oberstudienrat,
    98 Dr.med. Willi Klümpen Arzt
    99 Dr. Ing. Dietrich E. Koelle Ingenieurbüro für Systemanalysen
    100 Andreas Kolb
    101 Dipl. Ing. Peter Krah MinR a.D.
    102 Friedrich Krause Geschäftsführer ehem.
    103 Diplommedizinerin Charlotte Krause Oberärztin i.R.
    104 Dr. rer. pol. Klaus Peter Krause Journalist
    105 Norman Krayer Personalberater
    106 Dr. Ing. Dipl.Ing. Oswald Kreitschitz Physiker und Unternehmen
    107 Dipl. Ing. Siegfried Kröger Ltd. Baudirektor, EW
    108 Dipl. Ing. Frantisek Kruzik
    109 Oliver Kulbe Gesundheitsexperte
    110 Joachim Lampe
    111 Prof. Dr. Klaus Landfried Professor a.D. und Universitätspräsident a.D.112 Martina Lange Progammiererin
    113 Dr. rer. nat. Christoph Leinß Oberforstrat
    114 Dipl. Ing. Raimund Leistenschneider
    115 Obering. i.R. Ludwig Lenniger
    116 Dipl. Ing. Michael Limburg Vizepräsident Europäisches Institut für Klima und Energie
    117 Dipl. Mathematiker Ludger Linneborn
    118 Ulrich Löbert Kaufmann
    119 Dipl. Chemiker Ehrenfried Loock
    120 Dr. jur. Bernward Löwenberg Landrat des Main-Taunus-Kreises a.D.
    121 Manfred Lubas122 Evelin Maas
    123 Dipl. Kfm. Wolfgang Meister Dipl.-Kfm.
    124 Dr. rer. nat. Enno Meyer Meyer, Physiker, Patentanwalt
    125 Erik Michaelis
    126 Hannelore Mohringer med. techn. Assistentin
    127 Hans-Martin Moll Bürgermeister
    128 Jens G. Müller Kameramann
    129 Dipl. Ing. Hainer Müller
    130 Dipl. Verw.W. Wolfgang Müller Geschäfstführer IUF
    131 Thomas Nissen selbständiger Kaufmann
    132 Dr. Sc.agr. Albrecht Nitsch
    133 Hermann Norff
    134 Hagen Nortmann NORTMANN CONSULT GMBH
    135 lic.oec.HSG/MBA Peter Nortmann
    136 Josef Nottelmann Nottelmann & Partner GmbH
    137 Dr. Ing. Arman Nyilas Ingenieurbüro
    138 Dipl. Ing. Hans-Jörg Oehm Regierungsbaumeister für Städtebau
    139 Ing. grad. Peter Orth Entwicklung Automotive i.R.
    140 Prof. Dipl. Ing. Michael Otto
    141 Willibert Pauels
    142 Dr. rer.nat. Hans Penner Dipl. Chemiker
    143 Dr. Ing. Friedrich Wilhelm Peppler Kernreaktorsicherheitsexperte
    144 Georg von Petersdorff-Campen Landwirt
    145 Dr. Ing. Helmut Pöltelt Energieexperte TETRA Energie GmbH Kernenergie
    146 Dipl.-Kfm. Adolf Rasch
    147 Dipl. Vwt. Heide-Marie Rasch Abgeordnete des Kreistages von Nordfriesland
    148 Dipl. Ing.oec., Dipl.-Betrw.(FH), Ing. Peter Rauch Inhaber Ingenieurbüro
    149 Prof. a.D. Dr.-Ing. Eberhard Rauschenfels
    150 Jutta Reichardt Choreografin u. Moderatorin
    151 Prof. Dr.-Ing. Sc. D. Helmut Reihlen Direktor des DIN Deutsches Institut für Normung i.R.
    152 Dipl. Kfm. Walter Rentel
    153 Gabriele Rentrop
    154 Erich Richter
    155 Dr. Ing. Roland Richter Nuklearservice bei der K.A.B. AG Berlin
    156 Dipl. Ing. Jürgen Roesicke Dipl.- Ing. Industrielle Mikrobiologie
    157 Niels Rohde Kaufmann, selbständig
    158 Friedhelm Rostan
    159 Dipl. Ing. Markus Rustemeier
    160 Dipl. Ing. FH Johannes Schlorke Elektroniker i. R.
    161 Dipl. Ing. Michael Schneider Energie + Verfahrenstechnik
    162 Michael Schröter Schröter Kontor – SCHRÖTER GMBH & CO. KG
    163 Winfried Schubert freier Jounalist
    164 Dr. med. Robin Schürmann Arzt
    165 Dipl. Ing Jürgen Seesselberg
    166 Dr. phil Robert Sellmeir Dipl. Physiker, Unternehmer, Geschäftsführer
    167 Franz Sommersperger Flugkapitän
    168 Dipl. Ing. Jørgen Sørensen Energieberater
    169 Joachim Späth Maschinenbautechniker, KFZ Meister, Landwirt
    170 Günter Stiehl Techniker
    171 Dipl. Ing. (BA) Norman Stoer Systemadministrator
    172 Dipl. Ing. Eberhard C. Stotko Präsident VDSt-Akademie
    173 Heinrich Stracke ehemals Landschaftsarchitekt
    174 Dr.jur. Gallus Strobel – Bürgermeister Triberg
    175 Dr. rer. nat. Günter Stromburg Physiker
    176 Dr.rer.nat Detlef Symietz
    177 Wolfgang Theophile
    178 Dr. med. Heinrich Thieler Arzt
    179 Dipl. Ing. Erhard Thilo Geschäftsführer a.D
    180 Dr. Ing. Christian Thoma
    181 Dr.rer.pol. Holger Thuss EIKE Präsident
    182 Siegfried Torbohm
    183 Dipl. Ing. Horst Trippe Entwicklung Automotive
    184 Ludger Viefhues185 Reiner Vogels Pfr. i.R
    186 Dipl. Ing. Walter Vollert Dipl.-Ing. Maschinenwesen
    187 Dipl. Ing Georg Völlink Energie- und Verfahrenstechnik
    188 Diplom Physiker Alvo von Alvensleben
    189 Dr. jur. Henning von Mangold Ass. MBA Kaufmann
    190 Betr.Wirt. grad. Jürgen Voß
    191 Michael Wagner Kafmann
    192 Raymond Walden Autor
    193 Michael Weber
    194 Dipl. Ing. Günter Weber Herausgeber Verlagsgruppe ‚markt intern’
    195 Dr. rer.nat. Martin Wehlan Dipl. Chemiker, Patentanwalt
    196 Tubbesing Werner Verkaufsleiter
    197 Carl Paul Wieland Forschung und Entwicklung
    198 Dr. rer. nat. Otto-Henning Wilhelms Pharmakologe i.R.
    199 Dipl. Ing. Hans-Heinrich Willberg
    200 Ulf Wilmerstaedt Diplom-Lehrer (Physik / Mathematik)
    201 Alois Wübbeling Risikomanager Firmenfinanzen.
    202 Dr. rer.nat. Knut Wuntke Dipl.Chemiker
    203 Dipl. Ing. (FH) Gerd Zelck
    204 Ing. grad. Christian Ziekow
    205 Dr. med. Hans-Joachim Zielinski Arzt
    206 Dipl.-Kffr. Claudia Zirker Gegenwind Spessart
    207 Dr. jur. Matthias Zirker

    Als Mitunterzeichner Peter Rauch
    Quelle:www.anti-mobbing-blog.blogspot.com

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Offener Brief an die Bundeskanzlerin Merkel

    Das Klima und das Kohlendioxid sind aktuelle Theme

    Posted by Rauch on 20th November 2009

    98,8 Prozent des in Deutschland (Das Umweltbundesamt hat voriges Jahr (2005)) produzierten Kohlendioxids stammt biologischen Ursprungs. Daher kann die Reduzierung des CO2-Ausstoßes nur bei 0,36% liegen und nicht 20% oder 30 %, wie es von der Politik verkündet wird. Betrachtet man alle Faktoren, die den „Treibhauseffekt“ verursachen sollen (siehe Beitrag zum Wetter), so liegt der Anteil von CO2 bei 0,117 % und bei der Reduzierung um 30 % sind das 0,035%! (Siehe CO2-Daten oder Eigenschaften von Kohlendioxid für die Baustoffe und ist es wirklich ein Treibhausgas. Um diese gewaltige Reduzierung von 0,035 % zu erreichen, werden Unmengen Gelder verschleudert. 2007 wurden Maßnahmen zur Emissionssenkung beschlossen, die bis zum Jahr 2020 über 500 Milliarden Euro kosten werden. (Laut Unicef hungern in Indien rund 60 Millionen Kinder unter fünf Jahren.) Diese Milliarden könnten viel sinnvoller angelegt werden, zum Beispiel in wirkliche Umwelttechnologien, Verbesserung der Logistik, Bildung und anderes. Interessante Beiträge sind „Thesen zur Energiepolitik“ und „Was das Klima braucht“. Schauen Sie sich die Manhattan 2008 Klima-Deklaration an.
    Die politische Partei climate sceptics in Australien hat hierzu eine Power Point Präsentation erstellt, „The _Truth_About_Global_Warming „.
    Zu diesem Thema gibt es auf meiner Website zwei Artikel Kohlendioxid und klimazonen

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Das Klima und das Kohlendioxid sind aktuelle Theme

    Welchen Einfluss hat der Menschen auf das (Klima) Wetter?

    Posted by Rauch on 3rd November 2007

    Welchen Einfluss hat der Menschen auf das (Klima) Wetter?

    Zur Rolle der Erde im Universum

    Sehen Sie sich die Erde und ihre Atmosphäre links genau an. Ca. 1% der Masse der Erde hat eine Temperatur von weniger als 100ºC und 99% über 1000 ºC. Der Radius der Erde am Äquator beträgt 6378,5 km, am Pol 6357,0 km.
    Die Erde bewegt sich in 365 Tagen, 5 Stunden, 48 Minuten und 46 Sekunden im -270ºC warmen (kalten) Raum mit einer Geschwindigkeit von ca. 30 km/s in einer Entfernung von ca. 150 Millionen Kilometer um die Sonne. Diese Bewegung wird als Revolution, die Bewegung um die eigene Achse (24 Stunden) als Rotation und die Schwankungen als Nutation bezeichnet.
    Die Bewegung der Planeten und der Sonne in der Galaxis nennt man die Evolution.
    Auf dieser Reise des Sonnensystems durch und um die Milchstraße werden dichte kosmische Zonen mit hoher Stern- und Supernova-Bildung durchlaufen (Platonischen Weltjahr). Dabei ändert sich die kosmische Strahlung, die die Erde trifft. Dies könnte zu stärkerer Wolkenbildung in unserer Atmosphäre führen. Die Supernova-Explosion im Sternbild der Plejaden vor 2,8 Millionen Jahren, kann der Auslöser der darauf folgenden Eiszeiten sein. Ähnliches passierte vor 560, 300, 140 und 80 Millionen Jahren, als sich das Sonnensystem durch aktive Zonen der Milchstraße bewegte. [6]
    Die Massenverteilung Sonne zu Planeten verhält sich 99,8% zu 0,2%. Unser Sonnensystem (interplanetare Materie) selbst ist nur ein winziger Bestandteil unserer Galaxis (intergalaktische Materie) und diese wiederum nur ein Bestandteil von Galaxienhaufen (extragalaktische Materie).
    Planeten des Sonnensystems
    Die optischen Grenzen liegen bei größer 10 Milliarden Lichtjahre (ca. 1022 km). In der Theorie von den Universen geht man von einer Entfernung zwischen 1090 bis 10100 km aus, wo man die gleiche Welt antreffen könnte.
    Wir befinden uns in ein System, welches sich weit außerhalb unserer Vorstellungskraft befindet. In welcher Form sich Energie und Materie beeinflussen, ist unbekannt. Sicherlich werden immer neue Theorien entwickelt und der menschliche Erkenntniszuwachs ist gewaltig. Aber unabhängig davon bleibt der Mensch auf seiner Erde ein unbedeutender Bestandteil. Aus dieser stark vereinfachten und kurzen Zusammenfassung kann man den Einfluss des Menschen auf das Wetter ableiten. Einen Einfluss den die Klimawarner mit ihrer Weltuntergangsstimmung der Menschheit andichten.
    Wer mehr zu unserem Sonnensystem oder dem Universum erfahren möchte, findet sicherlich genügende Antworten unter Astronomie.

    Was ist Wetter und was ist Klima

    „Der Klimaschutz ist zu einem der wichtigsten Rechtfertigungsgründe von politischen Entscheidungen geworden. Als parteiübergreifende Letztbegründung von Macht- und Gestaltungsansprüchen hat er hierzulande die Funktion übernommen, die Nation und Religion in der Vergangenheit besaßen und in anderen Weltregionen noch besitzen. Der Klimaschutz legitimiert. Er legitimiert staatliche Eingriffe in die Energieversorgung, die Technologieförderung, den Wohnungsbau. Mit dem Klima kann man alles begründen – von Subventionen für Wind- und Solarenergie über Vorschriften für den Bau von Eigenheimen bis hin zur steuerlichen Behandlung von Dienstwagen.“
    „Klima“ ist definiert als der statistische Mittelwert der Wetterparameter von 30 Jahren. Es ist deshalb nicht korrekt, von „Klimaschutz“ oder „Klimaerwärmung“ zu sprechen. Ein statistischer Mittelwert lässt sich nicht schützen.

    Wenn im Juli 2007 weltweit Konzerte zum Klimaschutz durchgeführt wurden, so kann diese Aktion erst einmal positiv betrachtet werden. Sicherlich dürfte aber nicht allen Veranstaltern der Unterschied zwischen Umweltschutz und Klimaschutz klar sein. Stellt sich hier die Frage, wie soll das Klima geschützt werden. Das Konzert verbraucht selbst eine große Menge Elektroenergie, Auf- und Abbau der Anlagen, die hoch motivierten Zuhörer produzieren zusätzlich CO2 (durch Atmung) und dann wurden die Zuhörer auch transportiert. Also eine noch größere Menge an Kraftstoffverbrauch. Kein Konzert währe für das Klima besser gewesen. Es ist ein Widerspruch in sich selbst. Unzählige ähnliche Beispiele lassen sich aufzählen.

    „In den letzten ca. 150 Jahren seit dem Ende der „Kleinen Eiszeit“ Hinweis in der nördlichen Hemisphäre (im wesentlichen der Nordatlantikraum und benachbarte Festländer), sind die Temperaturen global um 0.6 +/- 0.2 K gestiegen. Auf die markante Abkühlung zwischen etwa dem 15. und 19. Jahrhundert mit häufigen Missernten, Hungersnöten, Sturmfluten und Überschwemmungen, folgte eine Erwärmung wiederum im wesentlichen in der nördlichen Hemisphäre, welche zum Beginn des 21. Jahrhunderts etwa die Temperaturen der Mittelalterlichen Warmzeit erreicht hat.“ [5]

    Wolken
    Das Wetter kann stündlich wechseln und ist von Ort zu Ort recht unterschiedlich. Unter Klima versteht man den durchschnittlichen Witterungsablauf vieler Jahre in einem bestimmten Gebiet. Die wichtigsten Klimaelemente sind die Temperatur und der Niederschlag. Es werden weiterhin durch die Klimakunde oder Klimatologie die Luftfeuchtigkeit, Bewölkungsgrad, Nebelhäufigkeit, Sonnenscheindauer, Luftdruck, Windstärke und Windrichtung erfasst. Dabei werden die Messergebnisse von mehr als fünfzig Jahren errechnet. Diese Ergebnisse beruhen auf die Vergangenheit und nicht auf die Zukunft.

    Die Meteorologie hat die Aufgabe das Wetter vorauszusagen, damit man sich vor ungünstigen Wetter ausreichend schützen kann. Wie schwer es ist, das Wetter bis zum kommenden Wochenende vorauszusagen, wird jeder sicherlich schon erfahren haben, wenn statt des Sonnenscheins ein ergiebiger Niederschlag die Wandertour am Wochenende verwässerte.
    Denken wir nur an das Jahr 2002 und das Hochwasser in Mitteldeutschland. Viele konnten nicht einmal schnell genug ihre Häuser verlassen, so schnell traten die Bäche und Flüsse über ihre Ufer. Bis auf Herrn Kachelmann, der vorsichtig auf einen möglichen stärkeren Niederschlag hinwies, war die Meteorologie nicht in der Lage, das Wetter für wenige Stunden vorauszusagen. Es soll hier keine negative Kritik sein, sondern lediglich zeigen, wie Komplex das System Wetter ist. Es wird damit deutlich, welche Aussagekraft Klimaprognosen von 50 oder 100 Jahren haben, wie es einige „Klimaexperten“ verkünden (hier sei nur das IPCC und seine Anhänger genannt).

    Das Klima eines Landes hängt vor allem von seiner Breitenlage, von seiner Lage zum Meer, von seiner Höhenlage und von der Gestaltung seiner Oberfläche ab. Es erfolgt einen Einteilung in Klimazonen. Die Ursachen aller Vorgänge in der Atmosphäre werden durch die Sonneneinstrahlung bestimmt. Die Sonne ist die Energiequelle oder der Motor aller Wettervorgänge. [1]

    Vom Klima, also der chemischen Zusammensetzung der Atmosphäre, der Temperatur und des Feuchtegehaltes, ist das Leben und seiner Artenvielfalt abhängig. Günstige Bedingungen ermöglichten auch die Entstehung und Entwicklung des Homo sapiens, der mit seinen Fähigkeiten in der Lage ist, artikuliert zu sprechen, abstrakt zu denken sowie sich durch die Erschaffung künstl. Hilfsmittel der veränderten Umwelten anzupassen und diese dadurch zugleich zu gestalten. [2] Die letzte Aussage ist eigentlich entscheidend. Der Mensch hat gelernt, sich vor dem Wetter zu schützen, in dem er entsprechende Kleidung trägt, sich Häuser, Straßen und anderes baut. Oder, wenn das Wetter zum Leben ungünstig wird, so wandert er in ein neues Siedlungsgebiet. Das Wetter nimmt neben den anderen Bereichen eine Schlüsselfunktion ein.

    Die Meteorologie, die Wetterkunde; die Wissenschaft von den physikalischen Vorgängen in der Lufthülle der Erde, ein Teilgebiet der Geophysik, also eine Wissenschaft vom Klima und Wetter. Das Wissenschaftsgebiet Geophysik befasst mit dem physikalischen Zustand und den physikalischen Erscheinungen und Vorgängen im Erdkörper, in der Wasser- u. Lufthülle. [2] Die gegenwärtige Diskussion und Klimawandel (Klimakatastrophe) nimmt geradezu beängstigen Ausmaße an.

    Nachfolgendes Bild „Wahrscheinlicher Temperaturverlauf während der Spät- und Nacheiszeit“ aus S. Bortenschlager aus F. Kral; Spät und postglaziale Waldgeschichte der Alpen auf Grund der bisherigen Pollenanalysen Wien 1979 und aus Journal of American Physicians and Surgeons (2007)12 (Environmental Effects of Increased Atmospheric Carbon Dioxide)[11] 
    Wahrscheinlicher Temperaturverlauf während der Spät- und Nacheiszeit 

    Wir leben in einem offenen instabilen System, welches zurzeit uns, sowie der uns umgebenden Flora und Fauna eine geeignete Lebensmöglichkeit bietet. Bei größeren Schwankungen der maßgeblichen Klimafaktoren (Sonne als Energiequelle, Lufthülle, Breitenlage, Lage zum Meer und Oberflächengestaltung) oder in einem anderen Bereich angesiedelt, würden die Lebensformen vollständig anders aussehen oder gar nicht erst existieren lassen, wie es mit überwältigender Mehrheit in unserem erkennbaren Universum vorliegt. Dass wir uns gegenwärtig in einer lang anhaltenden wärmeren Phase befinden, wird in dem o. g. Schema deutlich. Der wesentlich größeren Temperaturanstieg erfolgte vor ca. 10.000 Jahren, würde man einigen Politikern (eine Ausnahme ist z. B. der Tschechische Staatspräsident Václav Klaus) oder den gut naturwissenschaftlich ausgebildeten Journalisten glauben, so könnten die wenigen Menschen zu der damaligen Zeit durch ihre Lagerfeuer die Atmosphäre angeheizt haben. In den nachfolgenden Abschnitten wird auf die einzelnen Probleme vertiefend eingegangen. Kurz zusammenfassend möchte ich hier folgende Überlegungen darlegen.

    • Der Mensch ist ein Bestandteil der Natur und kann sich nur in dieser optimal entwickeln. Die Natur ist ein wichtiger Bestandteil, vernichtet man diese, so vernichtet er sich selbst. Das betrifft die Verschmutzung der Wässer, des Bodens und der Luft. Hier ist ein Einklang zwischen Erfordernis für die menschliche Entwicklung und der Schaffung von geschlossenen Stoff- und Energiekreisläufen zu schaffen. Die Funktionsweise der kapitalistischen Wirtschaftssysteme, auch mit der Sonderform „monopolistischer Staatskapitalismus“, wie z. B. in der DDR, sind hierzu nicht in der Lage. (Als Unternehmer muss man wirtschaftlich handeln, es wird in der Regel ein Überangebot produziert, es werden künstlich Bedürfnisse erzeugt Greift der Staat in diesen Wirtschaftsprozess ein, so entzieht er sich selbst seiner ökonomischen Existenzgrundlage.)
    • Seit mehren 100 Milllionen Jahren herrschen auf der Erde Bedingungen, die ein vielfältiges Leben hervorbrachten. In Anbetracht der o. g. Unendlichkeit ist dies wie ein Geschenk, welches jederzeit zu Ende sein kann, unabhängig vom Handeln des Menschens. Der Mensch kommt mit dem Wetter im winterlichen Sibirien oder in der heißen Wüste zurecht. Das sind Temperaturunterschiede von ca. 100 K. Territoriale Temperaturänderungen von 1-2 K spielen eine untergeordnet Rolle. Viel wichtiger ist, wie man sich darauf einstellt (Wetterschutz).
    • Wetterdaten, die erfasst werden geben keinen Aufschluss über ein künftiges Wetter. Auf der Grundlage vieler Daten kann man Prognosen ableiten, diese haben aber eine sehr große Unsicherheit. Der größte Teil (70%) der Erdoberfläche wird vom Ozean bedeckt, sodass von hier nur wenige Messwerte vorliegen. Bach WMO gibt es 1.400 Wetterstationen, wobei für je eine Fläche von 250 000 km2 (Gitterpunktweite 250 km) eine Temperatur genommen wird. Die Bildung einer Summe aus Messwerten von verschiedenen Standorten ist ohnehin zweifelhaft. Z. B. es wird die Temperatur von Leipzig, vom Brocken und der Zugspitze addiert und eine Durchschnittstemperatur gebildet. Auch mit Standardabweichung usw. kommt nur irgend ein Wert heraus. Dies sollte nicht mit den Klimazonen der Erde verwechselt werden. Diese werden durch die Windgürtel mit ihren charakterisitischen Luftmassen bestimmt.
    • „Die genaue Messung ist jedoch nicht die Stärke der Klimatologen. Als Beispiel können wir die vier Größen betrachten, welche die gemittelte Netto-Energiebilanz der Erdoberfläche bestimmen. Dies ist einmal das absorbierte Sonnenlicht (168 Watt/m2) und zum andern folgende drei Größen: i) die über den Strahlungstransport der Treibhausgase netto abgeführte Energie (26 W/m2), ii) das durch das sogenannte atmosphärische Fenster ungehindert von Treibhausgasen bei wolkenlosem Himmel direkt in den Weltraum abgestrahlte Infrarotlicht (40 W/m2, iii) die durch Verdunstung als sogenannte latente Wärme mittels Aufwinden in die obere Atmosphäre transportierte Energie (102 W/m2), auch Konvektion genannt.
      Diese Zahlen habe ich aus der Arbeit von Kiehl und Trenberth (1997) entnommen, einer vom IPCC als beispielhaft empfohlenen Arbeit. Derzeit ist keine dieser Größen experimentell auf genauer als 5 – 10 W/m2 bestimmbar, und doch soll bei der Größe (i) die anthropogene Reduktion des Strahlungstransports der Treibhausgase um etwa 2 W/m2 die Ursache aller Klimaänderungen sein.“ Hier steht die Größe 2 W/m2 einem Messfehlern der Größe 10 W/m2 gegenüber.[12]
    • Die globale durchschnittliche Temperatur wird aus einer Vielzahl von Temperaturmesspunkten gebildet. Was besagt diese Größe? Beispiel: Messen Sie Ihre Körpertemperatur unter der Achsel, am linken und rechten Fuß und vielleicht auch noch an der Handfläche. Dann berechnen Sie Ihre durchschnittliche Körpertemperatur. Damit noch einige Messwerte dazu kommen, können Sie die Körpertemperaturen Ihrer Familienmitglieder messen und bilden so eine durchschnittliche (Körper)Temperatur Ihrer Familie. Wenn zufällig Ihre Tochter bzw. Sohn Fieber hat, so haben Sie durchschnittlich auch eine erhöhte Temperatur und brauchen nicht zur Arbeit. Auch wenn die Temperatur eine physikalische Größe ist, so kann hieraus keine verlässliche Durchschnittstemperatur gebildet werden. Es ist anders, wenn die Temperaturen an einem Messpunkt ermittelt werden. Das ist aber nicht der Fall.
    • In einer meiner Ingenieurarbeiten habe ich mich mit dem Thema „…direkten Kalorimetrie am Laborfermentor“ [4] befasst. Obwohl es nur ein kleines Behälterchen ist, waren die Energieflüsse nicht in den Griff (es stand leider nur zu wenig Zeit zur Verfügung) zu bekommen. Wie man das offene energetische System Erde mit seinen unendlichen Einflüssen bewertet und dann ein Ergebnis berechnet, welches dann so klein ist, kann ich nicht nachvollziehen. Hinzu kommt, dass viele Einflussfaktoren, die auf die Erde und von ihr selbst wirken, nicht ausreichend bekannt sind. Damit können auch deren Wechselwirkungen nicht ausreichend bestimmt werden.
    • Auch wenn in Ballungsgebieten der Eindruck erweckt wird, dass der Mensch vorsätzlich einen wesentlichen Einfluss auf das globale Wettergeschehen ausübt, so bleibt dies auch nur ein Eindruck. Durch unüberlegtes Handeln, meist durch ökonomische Interessen gelenkt, treten zum Teil Einflüsse auf das lokale Wetter auf. Zum Beispiel Abholzung der Wälder zur Nutzung als Felder, der Städtebau usw. So soll der durch den Menschen verursachte Kohlendioxidausstoß das globale Wettergeschehen beeinflussen. Das Umweltbundesamt hat voriges Jahr (2005) mitgeteilt, dass nur 1,2 Prozent des in Deutschland produzierten Kohlendioxids aus technischen Quellen stammt. Der Rest ist biologischen Ursprungs, beispielsweise von Bodenbakterien. Bezieht man in diese Betrachtung auch die anderen Klimagase, wie zum Beispiel das Methan, das Stickstoff-Monoxid, sowie verschiedene Gase ein, so wirkt Kohlendioxid ungefähr mit 3,62% des gesamten Treibhauseffektes, da Wasserdampf mit 95% den größten Teil des Treibhauseffektes bewirkt. Damit liegt der Anteil am Treibhauseffektes durch den atmosphärischen CO2, welcher vom Menschen verursacht wird, bei 0,117%. [3]
    • „Das IPCC prognostiziert einen Anstieg der weltweiten Temperaturen um vier bis fünf Grad in den nächsten 100 Jahren, beschleunigt durch den dramatisch wachsenden CO 2 -Ausstoß der Industriestaaten. … Allerdings lässt die gemessene Wirklichkeit schon heute Zweifel an den Voraussagen des IPCC aufkommen. Gemäß den Prognosen des Weltklimarates, die allesamt auf millionen-teuren Computersimulationen basieren, hätte sich das Klima im letzten Jahrzehnt um rund ein halbes Grad erwärmen müssen. Tatsächlich sind die weltweiten Temperaturen seit 1998 jedoch nicht gestiegen, sondern vielmehr um 0,4 Grad gesunken. Außerdem zeigen die gemessenen Daten eine Stabilisierung der Temperaturen an, trotz zusätzlicher CO2 -Emissionen.“ [13]
    • Die renommierte Newsweek vom 28.4.1975: „The Cooling World“ Die Wissenschaft sei damals „einhellig“ der Meinung gewesen, dass für den Rest des Jahrhunderts mit einer globalen Abkühlung gerechnet werden müsse. Es wurde eine Temperaturkurve gezeigt, die ihren Höhepunkt in den 40er-Jahren hat und danach steil nach unten geht. Es wurden Missernten und Hungersnöte prophezeit. Auch zur damaligen Zeit sollten die Politik endlich handeln, bevor es zu spät sei.

      In Deutschland wurde im Stern und Spiegel das Thema „Großes Waldsterben“. Im Jahr 2000 können Eltern mit ihren Kindern nur noch zwischen abgestorbenen Holzresten im Wald spazieren gehen. Die globale Umweltkatastrophe mit Exitus im Jahr 2000 des „Club of Rome“ ist auch nicht eingetreten.

    • Das letzte große Feindbild im Kalten Krieg hat sich aufgelöst. Es müssen daher neue Feindbilder entstehen. Durch Feindbilder werden jeher die Völker manipuliert, um sie zu Handlungen zu bewegen, die sie sonst freiwillig nicht machen würden. Als Hintergrund stehen ökonomische Interessen. Hier sollen nur als Beispiele genannt werden: Ökosteuern, Anstieg der Energiepreise, Wärmedämmmaßnahmen, Zertifikathandel, Förderung von nicht tragfähigen Technologien (sowohl aus wirtschaftlicher als auch umwelttechnischer Sicht) usw.

      Beispiel: 43 % des Strompreises sind Steuern und Abgaben, (Empfänger Staat, Mwst. Energiesteuer, EEG Abgaben), 30 % Durchleitunsgebühren (Netznutzung) und nur ca. 27 % betrifft der eigentliche Energieanteil. Die kWh für Haushaltkunden kostet zirka 19 Cent. „Hat man einmal nachgerechnet, daß man die installierte Leistung von 300 000 Windkraftwerken braucht, um sämtliche Kraftwerke zu ersetzen? Im Abstand von 1 km ein Windrad, über ganz Deutschland. Installierte Leistung ist aber nicht gleich erbrachter Leistung. Die Windräder würden keine Kilowattstunde Strom liefern, wenn einmal zwischen Flensburg und Oberstdorf kein Wind weht. Sämtliche konventionellen Kraftwerke müßten trotzdem bereitstehen, sie müßten dauernd mitlaufen.“ [8]

    • Es ist richtig. Es gibt nur eine Erde und mit ihr muss man vorsichtig und behutsam umgehen. Wir haben heute aufgrund der vielfältigen Technik die Möglichkeit Veränderungen festzustellen und uns sinnvoll darauf einzurichten. Sicherlich ist es auch möglich, die Ursachen bzw. den Ursachenkomplex zu ermitteln. Lokal können entsprechende Maßnahmen eingeleitet werden, wenn man die Ursachen kennt. Als Beispiel soll hier genannt werden, die Verschmutzung der Flüsse durch ungesauberte Abwässer, Monokultur der Wälder, Veränderung der Flussläufe uvm. Treffend hat die Dr. Albrecht Glatzle (Paraguay) formuliert: „… nach über dreißigjähriger Arbeit in der angewandten Agrarforschung in verschiedenen Kontinenten weiß ich, dass wir auf dem besten Weg sind, die Erde zu sanieren statt sie zu ruinieren: Relativ und absolut hungern heute viel weniger Menschen als damals. (Gehungert wird fast nur noch in politischen Krisengebieten.) Weltweit ist die Lebenserwartung gestiegen. Wir leben also mit viel weniger gesundheitlichen Risiken. Heute stehen weltweit Methoden effizienter und nachhaltiger Landbewirtschaftung zur Verfügung (bodenschonende Direktsaat, erweitertes Spektrum standortadaptierter Nutzpflanzenarten und -sorten, erhöhte biologische Diversität in Agro-Ökosystemen, integrierter Pflanzenschutz mit reduziertem Pestizideinsatz, wozu übrigens auch die Gentechnik beigetragen hat). Es gibt weniger Umweltprobleme als früher, weil wir sensibilisiert sind und rascher und effizienter reagieren und sogar vorbeugend agieren…“ [9]
    • Wenn man die Zusammenhänge des Wetters besser versteht, dann können bessere (auch langfristiger) Wettermeldung erstellt werden, damit die Menschen besser vor Wettererscheinungen gewarnt und entsprechende Schutzmaßnahmen eingeleitet werden können. Wir brauchen nur das letzte Hochwasser in Sachsen betrachten. Viele Menschen hatten nicht einmal die Zeit, ihre Häuser zu verlassen. Hochwasser 1954

    Al Gore Al Gore stellte seine Klima-Dokumentation „Eine unbequeme Wahrheit“ beim 2. Deutschen Klimakongress der EnBW am 23.10.07 in Berlin mit dem Titel „Die Ökonomie des Wandels“ vor und stand anschließend Rede und Antwort. „Satte 180.000 € nimmt Al Gore für seinen Auftritt beim EnBW-Klimakongress.“[14]
    (Ich würde zum Beispiel schon für ein zehntel alles mögliche erzählen, auch das die Menschheit vom grünen Marsmenschen abstammt.)

    Noch nicht ein einziger der vielen Tausend sogenannten „Klima-Wissen-schaftler“ oder gar „Umwelt-Politiker“ (99 % naturwissenschaftliche Analphabeten) hat bisher die Existenz des „Treibhauseffektes“, bzw. den Unsinn, den man dem CO2 nachsagt, wis-senschaftlich korrekt anhand physikalischer Gesetze nachgewiesen! Es handelt sich aus- schließlich um Behauptungen ohne jede wissenschaftlich korrekte Beweiskraft. [15]

    Faktoren Kritiker ICCP
    Global Warming ja – aber schwach <1 K/100 Jahre ja – aber stark>1 K/100 Jahre
    Treibhauseffekt ja – Wasserdampf Hauptursache ja – CO2 Hauptursache
    Natürliche Ursachen ja – Sonne, Bewölkung, Magnetfeld, Strahlung ja – 50%
    Vom Menschen verursacht kaum – nur 1/10 -1/100 der natürlichen Effekte ja – 50%

     

    „Eine Wissenschaftskultur zu entwickeln bedeutet auch, kritische Geister heranzuziehen. Eine gewisse Distanz ist nötig, denn Information und Kommunikation sind keineswegs gegen Unwahrheiten gefeit. Viele stammen von den Forschern selbst, sei es in Form einer schelmischen Verdrehung, um die Achtsamkeit ihrer Kollegen oder die Leichtgläubigkeit von Medien und Gesellschaft auf die Probe zu stellen, sei es durch echten Betrug. Hinzu kommen Scharlatane aller Art.“ [10]

    Quellen:
    [1] Reißmann, Walter u. a.; Grundzüge der allgemeinen physikalischen Geographie, Lehrbuch der Erdkunde Klasse 9, Volk und Wissen Volkseigener Verlag Berlin 1969, S.53
    [2] Bertelsmann Universallexikon 2006 Software, United Soft Media Verlag GmbH www.usm.de
    [3] Monte Hieb; Global Warming: A closer look at the numbers www.geocraft.com/WVFossils/greenhouse_data.html
    [4] Rauch, Peter; „Auswahl, Aufbau und Anwendung einer direkten Kalorimetrie am Laborfermentor“ 1987 Kalorimetrie [5] PD Dr. H. Kehl; Die Debatte um den Klimawandel Oft nur eine „Rede über das Wetter“? Ergänzungen zur Vorlesung TWK an der TU-Berlin Inst. f. Ökologie www2.tu-berlin.de/%7Ekehl/project/lv-twk/02-intro-3-twk.htm
    [6] Klaus P. Heiss; Kein Grund zur Hysterie, Zahlreiche Fakten und Überlegungen sprechen gegen die weit verbreitete Theorie von der globalen Erwärmung. in Wiener Zeitung, Artikel aus dem EXTRA Lexikon, 7.9.2007www.wienerzeitung.at
    [7] Hans M. Kepplinger und Senja Post; www.welt.de/ vom 25. September 2007
    [8] Gustav Krüger; Wer schützt uns vor dem „Klimaschutz“?, Aus „Nation&Europa“ Heft 9/2007
    [9] Albrecht Glatzle; Gespräch mit Dennis Meadows: Ein neuer Blick auf die Grenzen des Wachstums. Heft 3/ 2007, S. 131 Naturwissenschaftliche Rundschau | 60. Jahrgang, Heft 12, 2007
    [10] FTE info, Magazin über europäische Forschung, Sonderausgabe Wissenschaftsdialoge, Nov. 2005, S.44
    [11] Artur B. Robinson; Noha E. Robinson, Willie, Soon; Environmental Effects of Increased Atmospheric Carbon Dioxide, Journal of American Physicians and Surgeons (2007)12, 79-90
    [12] Weber, Werner; Zweifel sind im höchsten Maße angebracht, Frankfurter Allgemeine Zeitung, 09.10.2007, Nr. 234, S. 9
    [13] Klaus P. Heiss; Kein Grund zur Hysterie, Wiener Zeitung, 07. September 2007www.wienerzeitung.at
    [14] Heilbr.Stimme 16.10.07

    [15] Georg Reichert; Die Lüge der Klimakatastrophe, S. 101f

    Leipzig, 03.11.2007
    Peter Rauch
    Dipl.-Ing.oec., Ing.ok., Ing.


    Weitere Beiträge

    Die Klimazonen und die natürlichen Zonen der Erde

    Ist die Erwärmung der Erde hausgemacht?1/2006
    Obwohl noch vor 30 Jahren prognostizierten die Klimatologen das Szenario einer kommenden Eiszeit, heute machen sie die Menschen für eine Klimaerwärmung infolge CO2 verantwortlich.
    Erwärmung Mars www.breitbart.com/article.php?id=070404203258.5klhwqs4&show_article=1

    Erwärmung Neptune www.worldclimatereport.com/index.php/2007/05/08/neptune-news/#more-241
    It’s nothing but fear-mongering, for which there is no concrete evidence. On the contrary, there is much to be said for the argument that warming temperatures promote biodiversity. http://www.spiegel.de/international/germany/0,1518,481707,00.html Was das Klima braucht?27. Dezember 2005
    Es sollten intelligentere Wege als das Kyoto-Protokoll gefunden werden, z.B. jeder Staat gibt 0,1 Prozent seines Bruttosozialproduktes für Forschung und Entwicklung von Energietechnik aus, die kein CO2 emittiert.

    11/2005
    Zur Physik und Mathematik globaler Klimamodelle
     Physikalischen Grundlagen des Treibhauseffekts und fiktiver Treibhauseffekte, Die Lehre vom Klima hieß früher Klimakunde, die ein Teilgebiet der Geographie oder Erdkunde war.

    Die physikalischen Grundlagen des Treibhauseffektes und fiktiver Treibhauseffekte 11/2005
    In den guten Standardlehrbüchern der Experimentalphysik und theoretischen Physik sucht man vergeblich die Stichworte Treibhauseffekt oder Glashauseffekt und auch deren physikalische Behandlung. Andererseits gehört die Beschreibung des Phänomens, daß im Glashaus oder im Auto bei Sonnenschein die Luft und der Boden normalerweise heißer sind als in der Umgebung,..

    Ein kurzer Auszug aus Stern vom 17.6.2007 „Was Computermodelle über künftige Entwicklungen in der Natur verraten, ist oft so unpräzise, dass man ebenso gut aus dem Bauch heraus schätzen kann – sagen zwei US-Geologen, die lange mit solchen Rechenprogrammen gearbeitet haben“ Frau Pilkey-Jarvis, Herr Pilkey, warum misstrauen Sie Computermodellen? PILKEY: Weil mathematische Vorhersagen für natürliche Prozesse immer gescheitert sind. Der Glaube, Computermodelle könnten die Zukunft akkurat vorhersagen, ist gefährlich und schädigt die Gesellschaft. Die Modelle verleiten zu schlechten politischen Entscheidungen – weil sie auf einem schlechten Verständnis der Natur gründen.“ Weiter unter http://stern.de/wissenschaft/natur/:Computermodelle-Raten/591146.html Geheimdienst CIA propagierte Blitzkrieg des Schnees 6/2006

    Klimawandel wer ist schuld? … CO2? von HHelmut Alt, Leserbrief im ew Jg.104 (2005), Heft 5, S. 12f) zum Aufsatz „Klimawandel Tatsache oder Fiktion“ (ew 1-2/2005, S. 26 ff.) von Herrn Prof. Dr. Christian-D. Schönwiese

    Unser Klima wird im Weltraum gemacht – Freispruch für CO2?

    Endlager für CO2 – wie gefährlich ist das? Im „CO2-freien Kohlekraftwerk“ wird die Kohle mit reinem Sauerstoff verbrannt, so dass als Rauchgas nur reines CO2entsteht. Dieses kann aufgefangen werden und soll unter hohem Druck in tiefen geologischen Schichten, z. B. alten Bergwerken, erschöpften Erdöl- oder Erdgaslagerstätten, endgelagert werden.

    Klimadiskussion – eine kritische Bestandsaufnahme Überall kann man es hören, lesen, sehen. Der Klimawandel bringtt uns bald an den Rand des Unterganges. Schuld daran ist das vom Menschen erzeugte Kohlendioxid. [3/2007)

    Water Vapor Rules the Greenhouse System (Übersetzung: Der Treibhauseffekt und die menschliche Aktivität Fakten in Zahlen) Just how much of the „Greenhouse Effect“ is caused by human activity? It is about 0.28%, if water vapor is taken into account– about 5.53%, if not. (Welchen Einfluss hat der Mensch auf den „Treihaus-Effekt“? Sie liegt bei ungefähr 0.28%, wenn Wasserdampf in Betracht gezogen wird – ungefähr 5.53%, wenn nicht.)

    Nairobi-Roport Klimakatastrophe – was ist wirklich dran? Was hat es denn nun mit dem so oft beschworenen Klimawandel wirklich auf sich? Im Folgenden der Versuch einer nüchternen Bestandsaufnahme. (3/2007)

    180 Jahre CO2Gasanalyse der Luft mit chemischen Methoden Eine Studie weist in über 90 000 CO2 Messungen bekannter Wissenschaftler nach, daß das CO2 dem Klima folgt und nicht umgekehrt. Eine Studie weist in über 90 000 CO2 Messungen bekannter Wissenschaftler nach, daß das CO2 dem Klima folgt und nicht umgekehrt. Es gab schon früher höhere CO2 Werte wie heute … (2/2007)

    Wir haben noch genug Zeit Der Klimaforscher Hans von Storch über unbegründete Ängste vor dem Weltuntergang, die Folgen der Erderwärmung für Deutschland und die Anpassungsfähigkeit des Menschen. (3/2007)

    Klima-Konferenz in Potsdam März 2007 Die USA sind weiterhin nicht bereit, sich auf international verbindliche Reduktionsziele bei Kohlendioxid-Emissionen einzulassen. (3/20007)

    EU-Umweltkommissar Stavros Dimas über den Klimagipfel mit Ach und Krach haben sich die Europäer auf dem Brüsseler Gipfel geeinigt, den Ausstoß von Treibhausgasen zu verringern und mehr auf erneuerbare Energiequellen zu setzen… Ist das Weltklima nun gerettet? (3/2007)

    Spektralanalyse in ihrer Anwendung auf die Stoffe der Erde und die Natur der Himmelskörper, Braunschweig 1870

    Der große Schwindel um die globale Erwärmung The Great Global Warming Swindle – eine kritische Auseinandersetzung mit den scheinbar unumstößlichen Wahrheiten des Weltklimarates (3/2007)

    Gewitterwolken über Kyoto Im folgenden Gastbeitrag informiert der bekannte Soziiologe und Diplom-Meteorologe Dr. Wolfgang Thüne über die Hintergründe zum Wetter, zum Klima und zu den aktuellen Diskussionen über die Folgen der „Klimaveränderung“. (2007) Klimawandel wer ist schuld? … CO2? Ob anthropogenes CO2 für die heute beobachtete, im erdhistorischen Kontext nicht einmal außergewöhnliche, globale Erwärmung hauptverantwortlich ist oder nicht, kann zurzeit weder positiv noch negativ entschieden werden.

    11/2005
    Die gesellschaftlich relevanten Wissenschaften
     Mehrfach wurde ich aufgefordert, in einer wissenschaftlichen Zeitschrift vom Standpunkt eines theoretischen Physikers darzulegen, daß es den atmosphärischen Kohlendioxid-Treibhauseffekt nicht gibt. Dies habe ich immer abgelehnt, weil es sich bei diesem angeblichen Effekt nicht um Physik handelt, sondern um um ein modernes Beispiel für das Märchen von Kaisers neuen Kleidern.

     

    Besonders zu empfehlen!

    Ergänzungen zur Vorlesung TWK an der TU-Berlin Inst. f. Ökologie, Dr. H. Kehl
    Teil 1: Bemerkungen zur Klimadebatte und neuen globalen „Verantwortung“
    Teil 2: Erkenntnisse zu und Interpretationen der aktuellen Klimaentwicklung
    Teil 3: Bedeutung der Sonnenfleckenaktivität – gering oder hoch?
    Literaturzusammenstellen aus dieser Dokumentation

    • Alverson, K.D., R.S. Bradley, T. F. Pedersen (2003) Paleoclimate, Global Change and the Future.- Springer Verlag, Berlin. (235 S.)
    • Beck, E.G. (2007) 180 years accurate CO2 analysis in air by chemical methods.- Energy & Environment 18(2): 259-282.
      • Diese Arbeit wird in oekologismus.de vorgestellt unter dem Titel: „Deutscher Klimaforscher beschämt die Weltelite der IPCC-Klimatologen“ und im dortigen Blog intensiv diskutiert.
    • Berner, U. & H.Streif (2000 – Hrsg.) Klimafakten, Der Rückblick – Ein Schlüssel für die Zukunft.- Schweizerbart’sche Verlagsbuchhandlung, Stuttgart. (238 S.)
      Sehr zu empfehlen!!

    • Blümel, W.D. (2006) Klimafluktuationen – Determinanten für die Kultur und Siedlungsgeschichte.PDF-File 3,28 MB, 29 S. – Nova Acta Leopoldina NF 94, Nr. 346: 13-36. (Institut für Geographie der Universität Stuttgart) [last date of access: 24.07.06]
      Sehr zu empfehlen!!

    • Bond, G., Kromer, B., Beer, J., Muscheler, R., Evans, M.N., Showers, W., Hoffmann, S., Lotti-Bond, R., Hajdas, I. and G. Bonani (2001) Persistent solar influence on North Atlantic climate during the Holocene.- Science 294: 2130-2136.
      Sehr zu empfehlen!!
    • Böttcher, C.J.F. (1999) The use and misuse of science in policy making.- In: Climate policy after Kyoto, pp 40-9 (T.R. Gerholm, edit.) – Mit Beiträgen von Eric Moberg, Wibjörn Karlén, Jarl Ahlbeck, Tor Ragnar Gerholm, Jarl Ahlbeck, Richard S. Lindzen, Gösta Wallin, Marian Radetzki, Karl-Axel Edin, Bert Bolin.
      • Summary:
        “ The Kyoto Convention recommends reductions in emissions of CO2 and other greenhouse gases, to mitigate the rate of climate change. Lively debate has taken place in many countries, not least over the political and economic implications.
        The basis for the Kyoto discussions was a set of studies commissioned, compiled and published by the UN’s International Panel on Climate Change (IPCC). At first glance this scientific foundation plainly shows that significant climate change will occur unless emissions of greenhouse gases are sharply curtailed. On closer examination, the scientific evidence provided in the IPCC material is far from clear. Reputable scientists have expressed critical views about the interpretation of the scientific results and, even more, of the way the material is being used for policy purposes. The main purpose of this book is to voice this critique.
        To give the reader some context, a central section from the IPCC’s basic document is presented first. There follow nine papers, by prominent natural and social scientists, in which the reasons for their sceptical attitudes are developed. A final paper by Professor Bert Bolin, chairman of the IPCC during the time when most of the material was produced, provides a response and commentary to the critique.
        The aim of the editor and authors, in presenting the material in this way, rather than as a polemical tract, is to leave open to the reader the question: Is global warming a consequence of man’s activities, or are there other reasons; if so, is adopting policies with significant economic consequences, a reasonable response?“

        [date of access: 09.05.2007]
    • Böttcher, C.J.F. (1992) Science and Fiction of the Greenhouse Effect and Carbon Dioxide.- Global Institute for the Study of Natural Resources.
    • Böttcher, F. & H. Metzner (1994) CO2, Klimabedrohung oder Politik? – Paul Haupt, Bern.

    • Braun H, Christl M, Rahmstorf S, Ganopolski A, Mangini A, Kubatzki C, Roth K, Kromer B (2005) Possible solar origin of the 1,470-year glacial climate cycle demonstrated in a coupled model.- Nature 438: 208 – 211.
      • Abstract:
        “ Many palaeoclimate records from the North Atlantic region show a pattern of rapid climate oscillations, the so-called Dansgaard–Oeschger events, with a quasi-periodicity of approx. 1,470 years for the late glacial period (…). Various hypotheses have been suggested to explain these rapid temperature shifts, including internal oscillations in the climate system and external forcing, possibly from the Sun (…). But whereas pronounced solar cycles of approx. 87 and approx. 210 years are well known (…), a approx. 1,470-year solar cycle has not been detected (…). Here we show that an intermediate-complexity climate model with glacial climate conditions simulates rapid climate shifts similar to the Dansgaard–Oeschger events with a spacing of 1,470 years when forced by periodic freshwater input into the North Atlantic Ocean in cycles of approx. 87 and approx. 210 years. We attribute the robust 1,470-year response time to the superposition of the two shorter cycles, together with strongly nonlinear dynamics and the long characteristic timescale of the thermohaline circulation. For Holocene conditions, similar events do not occur. We conclude that the glacial 1,470-year climate cycles could have been triggered by solar forcing despite the absence of a 1,470-year solar cycle.

      • „Die Bedeutung dieser Untersuchung liegt darin, daß sie uns zeigt, wie komplex die Reaktionen des Systems Erde sind“, so Prof. Kurt Roth, Direktor des Instituts für Umweltphysik der Universität Heidelberg. „Während bestimmter Zeiten, hier der Eiszeit, reagiert es extrem empfindlich auf Einflüsse von außen. Die Zeitskala der Reaktion entspricht dabei nicht immer der Zeitskala des Auslösers. Dies ist eine wesentliche Erkenntnis, die auch Eingang in das aktuelle Verständnis unseres Klimasystems finden wird.“ (Zit. aus:
        Schwankende Sonnenaktivität löste Klimawechsel aus“ – 3Sat – Nano) [date of access: 09.05.2007]

    • Brook, E.J. (2005) Tiny bubbles tell all.- Science, vol. 310, no5752, pp. 1285-1287.
      • Abstract:
        „Our knowledge of long-term human effects on greenhouse gas levels in the atmosphere comes from air trapped in ice cores taken from polar ice sheets. These ice core samples allow researchers to place modern changes in the context of natural variations over hundreds of thousands of years. In his Perspective, Brook discusses results reported in the same issue by Siegenthaler et al. and by Spahni et al. based on new samples obtained by the European Project for Ice Coring in Antarctica (EPICA). The new long records of carbon dioxide, methane, and nitrous oxide from EPICA extend the window on greenhouse gas levels to 650,000 years. The results confirm that the modern atmosphere is highly anomalous and reinforce the view that greenhouse gases and climate are intimately related.“
        Source: ScienceMag [date of access: 30.04.07]

        Anmerkung: In den Abbildungen zeigen die mehr oder weniger parallelen Verläufe der Methan- und Kohlendioxidgehalte sowie der Temperaturdynamik deutlich, dass der Anstieg der Kohlendioxidgehalte deutlich NACH der Temperaturzunahme erfolgt.

    • Bunde, A., Jan F. Eichner, Jan W. Kantelhardt und Shlomo Havlin (2005) „Long-Term Memory: A Natural Mechanism for the Clustering of Extreme Events and Anomalous Residual Times in Climate Records“.- Physical Review Letters 94, 048701.
    • Callendar, G.S. (1958) On the amount of carbon dioxide in the atmosphere.- Tellus 10: 243-248.

    • Chylek, P., Dubey, M.K. and Lesins, G. (2006) Greenland warming of 1920-1930 and 1995-2005.- Geophysical Research Letters 33: 10.1029/2006GL026510.
      • Abstract:
        We provide an analysis of Greenland temperature records to compare the current (1995–2005) warming period with the previous (1920–1930) Greenland warming. We find that the current Greenland warming is not unprecedented in recent Greenland history. Temperature increases in the two warming periods are of a similar magnitude, however, the rate of warming in 1920–1930 was about 50% higher than that in 1995–2005.

    • Chylek, P., Box, J.E. and Lesins, G. (2004) Global warming and the Greenland ice sheet.- Climatic Change, Vol. 63, Numbers 1-2, pp. 201-221 (March 2004)
      • Abstract:
        „The Greenland coastal temperatures have followed the early 20th century global warming trend. Since 1940, however, the Greenland coastal stations data have undergone predominantly a cooling trend. At the summit of the Greenland ice sheet the summer average temperature has decreased at the rate of 2.2 C per decade since the beginning of the measurements in 1987. This suggests that the Greenland ice sheet and coastal regions are not following the current global warming trend. A cconsiderable and rapid warming over all of coastal Greenland occurred in the 1920s when the average annual surface air temperature rose between 2 and 4 C in less than ten years (at some stations the increase in winter temperature was as high as 6 C). This rapid warming, at a time when the change in anthropogenic production of greenhouse gases was well below the current level, suggests a high natural variability in the regional climate. High anticorrelations (r = -0.84 to -0.93) between the NAO (North Atlantic Oscillation) index and Greenland temperature time series suggest a physical connection between these processes. Therefore, the future changes in the NAO and Northern Annular Mode may be of critical consequence to the future temperature forcing of the Greenland ice sheet melt rates.“

    • Crok, M. (2005) Risse im Klima-Konsens.- Techn. Review 03/2005, Report, Ein deutschsprachiger Ableger des Technology Review Magazins vom MIT.

    • Cubasch, U. (2002) Variabilität der Sonne und Klimaschwankungen.- promet, Jahrg. 28, Nr. 3/4, S.123-132. PDF-File – File,
      • „Zusammenfassung:
        Um en Effekt der Sonnenvariabilität auf das Klima zu berechnen, treiben zwei Schätzungen der Sonnenintensitätsvariationen während der letzten drei Jahrhunderte numerische Simulationen an. Die Modelle, die dafür eingesetzt werden, sind dieselben gekoppelten Ozean-Atmosphären-Klimamodelle, die angewendet werden, um den anthropogenen Einfluss auf das Klima zu berechnen. Alle Simulationen zeigen, dass die bodennahe Lufttemperatur und die vertikale Temperaturverteilung in der Atmosphäre auf die Variabilität der Sonneneinstrahlung reagieren. Es gibt sogar Anzeichen, dass die thermohaline Zirkulation im Nordatlantik durch grosse Amplitudenschwankungen in der Sonneneinstrahlung beeinflusst wird. In der Stratosphäre dagegen, ergeben sich deutliche Unterschiede zwischen den Antwortmustern, wie sie beobachtet werden und wie sie derzeit simuliert werden. Diese Unterschiede sind besonders deutlich beim 11-Jahres Zyklus. Eine ungenügende Repräsentation der Stratosphäre oder eine fehlende Parametrisierung, die ein Anwachsen der stratosphärischen Ozonkonzentration durch die vermehrte UV-Einstrahlung bei einem Anwachsen der Sonnenintensität beim Maximum des solaren Zyklus beschreibt, könnte dafür die Ursache sein.“

    • Cubasch, U., E. Zorita, J.F. Gonzalez-Rouco, H.v. Storch and I. Fast (2004) Simulating the last 1000 years with a 3d coupled modelPDF-File – File, 17 S. – Abstract siehe oben!
    • Cubasch, U., B. D. Santer & G. C. Hegerl (1995) Klimamodelle – wo stehen wir? – Phys. Bl. 4, 269-276.

    • Dansgaard, W., S. J. Johnsen, H. B. Clausen, D. Dahl-Jensen, N. S. Gundestrup, C. U. Hammer, C. S. Hvidberg, J. P. Steffensen, A. E. Sveinbjörnsdottir, J. Jouzel & G. Bond (1993) Evidence for general instability of past climate from a 250-kyr ice-core record.- Nature 364, 218 – 220 (15 July 1993); doi:10.1038/364218a0
      • Abstract:
        „RECENT results1,2 from two ice cores drilled in central Greenland have revealed large, abrupt climate changes of at least regional extent during the late stages of the last glaciation, suggesting that climate in the North Atlantic region is able to reorganize itself rapidly, perhaps even within a few decades. Here we present a detailed stable-isotope record for the full length of the Greenland Ice-core Project Summit ice core, extending over the past 250 kyr according to a calculated timescale. We find that climate instability was not confined to the last glaciation, but appears also to have been marked during the last interglacial (as explored more fully in a companion paper3) and during the previous Saale–Holstein glacial cycle. This is in contrast with the extreme stability of the Holocene, suggesting that recent climate stability may be the exception rather than the rule. The last interglacial seems to have lasted longer than is implied by the deep-sea SPECMAP record4, in agreement with other land-based observations5,6. We suggest that climate instability in the early part of the last interglacial may have delayed the melting of the Saalean ice sheets in America and Eurasia, perhaps accounting for this discrepancy.“

    • Dansgaard, W., and S. J. Johnsen (1969) A flow model and a time scale for the ice core from Camp Century, Greenland.- J. Glaciol. 8(53):215-223.
    • Editorial (1994) IPCC’s ritual on global warming.- Nature, 1994. 371: 269.
    • Essenhigh, Robert H. (2006) Prediction of the Standard Atmosphere Profiles of Temperature, Pressure, and Density with Height for the lower Atmosphere by Solution of the (S-S) Integral Equations of Transfer and Evaluation of the Potential for Profile Perturbation by Combustion Emissions.- Energy & Fuels 20: 1057-1067.
    • Friis-Christensen, E. & K. Lassen (1991) Length of the solar cycle: an indicator of solar activity closely associated with climate.- Science 254, 698-700.

    • Fröhlich, C. (2006) Solar Irradiance Variability Since 1978: Revision of the {PMOD} Composite During Solar Cycle 21.- Space Science Reviews, Volume 125, Issue 1-4, pp. 53-65preprint – PDF-File – File, 14 S.
      • Abstract:
        Since November 1978 a set of total solar irradiance (TSI) measurements from space is available, yielding a time series of more than 25 years. Presently, there are three TSI composites available, called PMOD, ACRIM and IRMB, which are all constructed from the same original data, but use different procedures to correct for sensitivity changes. The PMOD composite is the only one which also corrects the early HF data for degradation. The results from the detailed analysis of the VIRGO radiometry allow a good understanding of the effects influencing the long-term behaviour of classical radiometers in space. Thus, a re-analysis of the behaviour of HF/NIMBUS-7 and ACRIM-I/SMM was indicated. For the former the situation is complicated by the fact that there are no in-flight means to determine changes due to exposure to solar radiation by comparison with a less exposed radiometer on the same spacecraft. The geometry and optical property of the cavity of HF is, however, very similar to the PMO6-type radiometers, so the behaviour of the PMO6V radiometers on VIRGO can be used as a model. ACRIM-I had to be revised mainly due to a henceforth undetected early increase and a more detailed analysis of its degradation. The results are not only important for solar radiometry from space, but they also provide a more reliable TSI during cycle 21. The differences between the revised PMOD composite and the ACRIM and IRMB are discussed by comparison with a TSI reconstruction from Kitt-Peak magnetograms. As the PMOD composite is the only one which has reliable data for cycle 21, the behaviour of the three solar cycles can now be compared and the similarities and differences discussed.“

    • Geb, M. & K. Labitzke (1995) Klimatrends in der Atmosphäre.- Forschung an der Freien Universität Berlin.
      • Einführung:
        „Durch menschliche Aktivitäten wird die chemische Zusammensetzung der Atmosphäre verändert und die Oberfläche der Erde umgestaltet. Beides beeinflußt das Klima. So steigen bekanntlich die Konzentrationen klimarelevanter Spurenstoffe deutlich an: z.B. Kohlendioxid im wesentlichen durch das Verbrennen von fossilen Treibstoffen, Methan durch verstärkten Naßreisanbau und durch zunehmende Viehhaltung ,usw. 
        Dieser Anstieg verstärkt den natürlichen Treibhauseffekt und führt zu einer Erwärmung der Troposphäre (vom Boden bis etwa 10 km Höhe) und zu einer Abkühlung der darüber liegenden Stratosphäre (etwa 10 bis 50 km Höhe).Andererseits führt z.B. eine anthropogene (durch Luftverschmutzung) Erhöhung des atmosphärischen Aerosols (kleine Schwefelsäuretröpfchen) regional zu einer Abkühlung der Troposphäre.Zusätzlich zu diesen anthropogenen Einflüssen gibt es natürliche Faktoren, die das Klima beeinflussen und die das Erkennen des vom Menschen verursachten „Klima-Trends“ erschweren. Dazu gehöhren z.B. Vulkaneruptionen, die in unregelmäßigen Abständen in das Klimageschehen eingreifen, und die Sonnenaktivität, die besonders im 10-12jährigen Rhythmus Einfluß auf das Klima nimmt. Auf beide Faktoren wird in den nachfolgenden Abbildungen hingewiesen.“

        Die Abb. zeigt deutlich, „… daß die Temperatur sowohl am Boden (c) wie auch in der Höhe (a und b) parallel zur Sonnenaktivität schwankt: Maxima findet man 1958, 1969, 1980 und 1990, also unabhängig von den Vulkaneruptionen. Die Minima liegen entsprechend dazwischen. Das bedeutet, daß die Trends durch den Einfluß der Sonnenaktivit&aum;t moduliert werden, wenn man auch den Mechanismus dieses Zusammenhangs bis heute noch nicht genau versteht.“

    • Gerlich, G. (1995) Die physikalischen Grundlagen des Treibhauseffektes und fiktiver TreibhauseffektePDF-File – File, 415 KB, 40 S. – Die Treibhaus-Kontroverse, Leipzig, 9./10. Nov. 1995.- Vortrag auf dem Herbstkongress der Europäischen Akademie für Umweltfragen (vorliegendes Manuskript vom 16.08.2002).
      [Artikel als PDF-File zur Verfügung gestellt von Heinrich Sauer, Stuttgart, Ende März 2007]

    • GISS (2007) Global ‚Sunscreen‘ Has Likely Thinned, Report NASA Scientists.- Research News, Mar. 15, 2007.
      • Textauszug:
        The thinning of Earth’s “sunscreen” of aerosols since the early 1990s could have given an extra push to the rise in global surface temperatures. The finding, published in the March 16 issue of Science, may lead to an improved understanding of recent climate change. In a related study published last week, scientists found that the opposing forces of global warming and the cooling from aerosol-induced „global dimming“ can occur at the same time.
        „When more sunlight can get through the atmosphere and warm Earth’s surface, you’re going to have an effect on climate and temperature,“ said lead author Michael Mishchenko of NASA’s Goddard Institute for Space Studies (GISS), New York. „Knowing what aerosols are doing globally gives us an important missing piece of the big picture of the forces at work on climate.“

      • vgl. dazu auch:
        Mishchenko et al. 2007;
        Romanou et al. 2007; Lau et al. 2006;
        Heitzenberg 2005;
        Govindan et al. 2002
        ;
        Rasool & Schneider 1971:

    • Glaser, R. (2001) Klimageschichte Mitteleuropas. 1000 Jahre Wetter, Klima, Katastrophen.
    • Gouretski, V. & K.P. Koltermann (2007) How much is the ocean really warming? – Geophysical Review Letters, 34, L01610, January 2007.

    • Govindan, R.B., D. Vyushin, A. Bunde, St. Brenner, S. Havlin, H.-J. Schellnhuber (2002) Global climate models violate scaling of the observed atmospheric variability.– Physical Review Letters 89(2): 028501. PDF-File 4S.
      • Abstract:
        „We test the scaling performance of seven leading global climate models by using detrended fluctuation analysis. We analyze temperature records of six representative sites around the globe simulated by the models, for two different szenarios: (i) with greenhouse gas forcing only and (ii) with greenhouse gas plus aerosol forcing. We find that the simulated records for both scenarios fail to reproduce the universal scaling behavior of the observed records and display wide performance differences. The deviations from the scaling behavior are more pronounced in the first scenario, where also the trends are clearly overestimated.“

        Vgl. dazu auch
        GISS 2007;


    • Green, K., T. Ball & S. Schroeder (2004) The Science Isn’t Settled – The Limitations of Global Climate Models.- The Fraser Institute, A Fraser Institute Occasional Paper 80 /June2004.

    • Grinsted, A., Moore, J.C., Pohjola, V., Martma, T. and Isaksson, E. (2006) Svalbard summer melting, continentality, and sea ice extent from the Lomonosovfonna ice core.- Journal of Geophysical Research, 111, 10.1029/2005JD006494.
      • Abstract:
        „We develop a continentality proxy (1600–1930) based on amplitudes of the annual signal in oxygen isotopes in an ice core. We show via modeling that by using 5 and 15 year average amplitudes the effects of diffusion and varying layer thickness can be minimized, such that amplitudes then reflect real seasonal changes in δ18O under the influence of melt. A model of chemical fractionation in ice based on differing elution rates for pairs of ions is developed as a proxy for summer melt (1130–1990). The best pairs are sodium with magnesium and potassium with chloride. The continentality and melt proxies are validated against twentieth-century instrumental records and longer historical climate proxies. In addition to summer temperature, the melt proxy also appears to reflect sea ice extent, likely as a result of sodium chloride fractionation in the oceanic sea ice margin source area that is dependent on winter temperatures. We show that the climate history they depict is consistent with what we see from isotopic paleothermometry. Continentality was greatest during the Little Ice Age but decreased around 1870, 20–30 years before the rise in temperatures indicated by the δ18O profile. The degree of summer melt was significantly larger during the period 1130–1300 than in the 1990s.“

    • Hegerl, G.C., T.J. Crowley, W.T. Hyde & D.J. Frame (2006) Climate sensitivity constrained by temperature reconstructions over the past seven centuries.– Nature 440, 1029-1032 (20 April 2006).
      • Abstract:
        „The magnitude and impact of future global warming depends on the sensitivity of the climate system to changes in greenhouse gas concentrations. The commonly accepted range for the equilibrium global mean temperature change in response to a doubling of the atmospheric carbon dioxide concentration1, termed climate sensitivity, is 1.5–4.5 K (ref. 2). A number of observational studies (…), however, find a substantial probability of significantly higher sensitivities, yielding upper limits on climate sensitivity of 7.7 K to above 9 K (refs 3–8). Here we demonstrate that such observational estimates of climate sensitivity can be tightened if reconstructions of Northern Hemisphere temperature over the past several centuries are considered. We use large-ensemble energy balance modelling and simulate the temperature response to past solar, volcanic and greenhouse gas forcing to determine which climate sensitivities yield simulations that are in agreement with proxy reconstructions. After accounting for the uncertainty in reconstructions and estimates of past external forcing, we find an independent estimate of climate sensitivity that is very similar to those from instrumental data. If the latter are combined with the result from all proxy reconstructions, then the 5–95 per cent range shrinks to 1.5–6.2 K, thus substantially reducing the probability of very high climate sensitivity.

    • Ivchenko, V. O., N. C. Wells, and D. L. Aleynik (2006) Anomaly of heat content in the northern Atlantic in the last 7 years: Is the ocean warming or cooling? – Geophysical Research Letters, 33, L22606, doi:10.1029/2006GL027691.
      • Abstract
        „Whether the North Atlantic Ocean is warming or cooling is an important question both in physical oceanography and climate change. The Argo profiling buoys provide an accurate and stable instrument for determining the tendencies in heat content from the surface to 2000 m from 1999 to 2005. To calculate temperature and heat content anomalies two reference climatologies are used. These are the well known WOA2001 climatology (Stephens et al., 2002), and a new WOCE Global Hydrographic climatology (Gouretski and Koltermann, 2004). The former climatology is used for our main results, and the latter is used for evaluating the sensitivity of our results to the climatology. Our scheme allows us to estimate the anomaly of heat content (AHC) in the North Atlantic and its smaller sub-domains (i.e. 10 boxes) for the period 1999–2005. We have found a dipole structure in the time averaged AHC: negative values are concentrated in the southern and middle latitudes of the North Atlantic whilst positive values are found north of 50N. The upper 1500 m of the North Atlantic is warming throughout the period 1999 to 2005.
    • IPCC – Houghton J.T. et al. (1990, edit.) IPCC, Climate Change – The IPCC Scientific Assessment.- Cambridge University Press, Cambridge
    • IPCC – Houghton J.T. et al. (2001edit.) IPCCClimate Change 2001 PDF-File 323 KB, 20 S. – The Scientific Basis.- Cambridge University Press, Cambridge. [last date of access: 26.02.07] mit Hockeyschläger-Kurve.
    • Jaworowski, Z. (1997) „Ice Core Data Show No Carbon Dioxide Increase“ –  1.4MB, 40S. 21st Century.
    • Jaworowski, Z., T.V. Segalstad, and N. Ono (1992) Do glaciers tell a true atmospheric CO2 story?- The Science of the Total Environment 114: 227-284.
    • Jones, P.D. and Moberg, A. (2003). „Hemispheric and large-scale surface air temperature variations: An extensive revision and an update to 2001“. Journal of Climate 16: 206-223.

    • Kiehl, J. T. & Trenberth, K. E. (1997) Earth’s Annual Global Mean Energy Budget.- Bull. Amer. Meteor. Soc., 78, 197-208.
      • Abstract: [date of access: 10.05.2007]
        „The purpose of this paper is to put forward a new estimate, in the context of previous assessments, of the annual global mean energy budget. A description is provided of the source of each component to this budget. The top-of-atmosphere shortwave and longwave flux of energy is constrained by satellite observations. Partitioning of the radiative energy throughout the atmosphere is achieved through the use of detailed radiation models for both the longwave and shortwave spectral regions. Spectral features of shortwave and longwave fluxes at both the top and surface of Earth’s system are presented. The longwave radiative forcing of the climate system for both clear (125 Wm-2) and cloudy (155 Wm-2) conditions are discussed. We find that for the clear sky case the contribution due to water vapor to the total longwave radiative forcing is 75 Wm-2, while for carbon dioxide it is 32 Wm-2. Clouds alter these values, and the effects of clouds on both the longwave and shortwave budget are addressed. In particular, the shielding effect by clouds on on absorption and emission by water vapor is as large as the direct cloud forcing. Because the net surface heat budget must balance, the radiative fluxes constrain the sum of the sensible and latent heat fluxes which can also be estimated independently.“

        Vgl. dazu auch Treibhauseffekt

    • Keppler, F., John T. G. Hamilton, M. Braß & Th. Röckmann (2006) Methane emissions from terrestrial plants under aerobic conditions.- Nature 439, 187-191 (12 January 2006).
    • Khilyuk, L.F., & G. V. Chilingar (2006) On global forces of nature driving the Earth’s climate. Are humans involved? – Environmental Geology, 50, 899–910.
      • Abstract:
        “ The authors identify and describe the following global forces of nature driving the Earth’s climate: (1) solar radiation as a dominant external energy supplier to the Earth, (2) outgassing as a major supplier of gases to the World Ocean and the atmosphere, and, possibly, (3) microbial activities generating and consuming atmospheric gases at the interface of lithosphere and atmosphere. The writers provide quantitative estimates of the scope and extent of their corresponding effects on the Earth’s climate. Quantitative comparison of the scope and extent of the forces of nature and anthropogenic influences on the Earth’s climate is especially important at the time of broad-scale public debates on current global warming. The writers show that the human-induced climatic changes are negligible.“
        Full Article by Springer-Verlag 2006, Environmental Geology – International Journal of Geosciences
    • Krivova N.A. & S.K. Solanki (2004) Solar Variability and Global Warming: A Statistical Comparison Since 1850.- Advances in Space Research, vol. 34, pp. 361-364.
    • Labohm, H. (2007) Klimakatastrophenzweifel – eine Einführung.- Novo-Magazin, Januar-Februar, S. 24-29.
    • Labitzke, K. (2005) On the Solar Cycle-QBO-Relationship: A Summary.- J.A.S.-T.P., special issue, 67, 45-54.
      • Abstract:
        „We have shown in several publications that there exists a strong signal of the 11-year sunspot cycle throughout the year, but this signal can only be identified, if the data are stratified according to the phase of the QBO (Labitzke, 1987; 2002, 2003; Labitzke and van Loon, 1988, 2000; van Loon and Labitzke, 1994, 2000). The 11-year sunspot cycle is connected with a large variability of the solar radiation in the ultraviolet (UV) part of the spectrum which varies about 6-8% between solar maxima and minima (Chandra and McPeters, 1994). That is enough to cause in the upper stratosphere changes in the temperatures, winds and ozone which will result in circulation changes here and it is possible that such changes have an indirect effect on the lower stratosphere and on the troposphere.
        Different observations indicate that the mean meridional circulation systems, like the Brewer-Dobson Circulation (BDC) and the Hadley Circulation (HC) are influenced by the 11-year solar cycle (Kodera and Kuroda, 2002; Hood and Soukharev, 2003; Labitzke, 2003, 2004a, b; Salby and Callaghan, 2004; van Loon and Meehl, 2004).
        Recent simulations of the middle atmosphere, using General Circulation Models (GCMs) and introducing the changes in UV and ozone and profiles of the winds over the equator, simulating the east and west phase of the QBO, respectively, resulted in a realistic simulation of the variability of the arctic polar vortex in northern winters (e.g., Matthes et al., 2004). The simulated signal over the tropics is, however, still too weak.

    • Labitzke, K. (1995) Aspekte des Ozonproblems.- Forschung an der Freien Universität Berlin.
      • Einführung:
        „In fast jeder Diskussion über Umweltprobleme, ob Treibhauseffekt, Grundwasserverschmutzung oder Überschwemmungen, fällt früher oder später das Wort „Ozonloch“ – jeder Laie benutzt es mit einer verblüffenden Selbstverständlichkeit. Obwohl er kaum wissen kann, was sich hinter dem Wort „Ozonloch“ wirklich verbirgt, fühlt er sich laut Meinungsumfragen (in Deutschland) im Vergleich zu allen anderen Umweltproblemen von dem Ozonloch am meisten bedroht. Und manche Presseberichte schüren diese Angst, indem gelegentlich im Winter vollkommen unsachgemäß and falsch von einem Ozonloch über Deutschland berichtet wird.
        In der Wirklichkeit handelt es sich um einen besorgniserregenden langfristigen, bis in die Mitte des nächsten Jahrhunderts andauernden Abbau des Ozons (siehe Abbildung 2, der durch die Fluorchlorkohlenwasserstoffe (FCKWs), aber auch durch den Anstieg anderer anthropogener Spurenstoffe verursacht wird. Deshalb wurden Maßnahmen ergriffen, um die Produktion und den VErbrauch dieser gefährlichen Produkte weitgehend zu stoppen.
        Es muß aber auch klargestellt werden, daß sich auf der Nordhemisphäre bis jetzt kein „Ozonloch“ ausbilden kann, so daß in Deutschland während des ganzen Jahres vor den Sonnenstrahlen keine Angst herrschen muß, wenn man sich gegen Sonnenbrand schützt – wie es auch früher üblich war. Wirklich vorsichtig muß man bei allen Reisen in den Süden sein.“

    • Labitzke, K. & M. Kunze (2005) Stratospheric temperatures over the Arctic: Comparison of three data sets.- Meteorologische Zeitschrift, Vol. 14, No. 1, 65-74, February 2005.
    • Labitzke, K. & H. Van Loon (1997) The signal of the 11-year sunspot cycle in the upper troposphere-lower stratosphere.- Space Sci. Rev. 80, 393-410.

    • Labitzke, K., M. Kunze, and S. Brönnimann (2006) Sunspots, the QBO, and the Stratosphere in the North Polar Region 20 Years later.- Meteorologische Zeitschrift, Vol. 15, No. 3, 355-363(9)
      • Zusammenfassung:
        „In früheren Arbeiten haben wir gezeigt, wie groß der Einfluss des 11-jährigen Sonnenfleckenzyklus auf die untere Stratosphäre ist. Um diesen Einfluss zu isolieren, müssen die Daten nach der Phase der Quasi-Biennial Oscillation (QBO) sortiert werden. Dies ist während des ganzen Jahres notwendig, aber der Einfluss von QBO und 11-jährigem Sonnenfleckenzyklus ist am stärksten während des Nordwinters (Januar-Februar). Für unsere erste Veröffentlichung (Labitzke 1987) standen nur Daten von 30 Jahren zur Verfügung. Aber inzwischen können wir Ergebnisse zeigen, die auf 65 Jahren basieren und die unsere frühen Arbeiten bestätigen: Der 11-jährige Sonnenfleckenzyklus hat einen signifikanten Einfluss auf die Stärke des stratosphärischen Polarwirbels und auf die mittlere Meridionalzirkulation.“

        vgl. auch Geb, M. & K. Labitzke (1995)

    • Lamp, H.H. (1972/1977) Food shortage, climatic variability, and epidemic disease in preindustrial Europe – the mortality peak in the early 1740s.
    • Landsea, C.W., N. Nicholls, W.M. Gray, and L.A. Avila, (1996) Downward trends in the frequency of intense Atlantic hurricanes during the past five decades.– Geo. Res. Letters, 23, 1697-1700.
      • Abstract
        There is concern that the enhanced greenhouse effect may be affecting extreme weather events such as tropical cyclones. The North Atlantic basin offers a reliable, long-term record of tropical cyclone activity, though it may not be representative of tropical cyclones throughout the rest of the tropics. The most recent years of 1991 through 1994 have experienced the quietest tropical cyclone activity on record in terms of frequency of tropical storms, hurricanes, and intense hurricanes. This was followed by the 1995 hurricane season, one of the busiest in the past 50 years. Despite 1995’s activity, a long-term (five decade) downward trend continues to be evident primarily in the frequency of intense hurricanes. In addition, the mean maximum intensity (i.e., averaged over all cyclones in a season) has decreased, while the maximum intensity attained by the strongest hurricane each year has not shown a significant change.
        Recent Publications of Landsea and others, and Submissions.

    • Lassen, K. Solar Activity and Climate – Long-term Variations in Solar Activity and their Apparent Effect on the Earth’s Climate.- Danish Meteorological Institute, Solar-Terrestrial Physics Division, Lyngbyvej,100, DK-2100 Copenhagen (2), Denmark.
      • Abstract
        „The varying length of the 11-year cycle has been found to be strongly correlated with longterm variations of the northern hemisphere land surface air temperature since the beginning of systematic temperature variations from a global network, i. e. during the past 130 years. Although direct temperature observations before this interval are scarce, it has been possible to extend the correlation back to the 16th century due to the existence of a series of proxy temperature data published by Groveman and Landsberg in 1979. Reliable sunspot data do not exist before 1750, but we have been able to derive epochs of minimum sunspot activity from auroral observations back to 1500 and combine them with the direct observations to a homogeneous series.
        Comparison of the extended solar activity record with the temperature series confirms the high correlation between solar activity and northern hemisphere land surface air temperature and shows that the relationship has existed through the whole 500-year interval for which reliable data exist.
        A corresponding influence of solar activity has been demonstrated in other climatic parameters. Thus, both the date of arrival of spring in the Yangtze River Valley as deduced from phenological data and the extent of the sea-ice in the Atlantic sector of the Arctic sea have been shown to be correlated with the length of the sunspot cycle during the last 450 years.“
    • Lassen, K. & E. Friis-Christensen (1995) Variability of the solar cycle length during the past five centuries and the apparent association with terrestrial climate.- J. Atm.Terr. Phys., 57, 835-845.
    • Lau, K.M., M.K. Kim & K.M. Kim (2006) Aerosol induced anomalies in the Asian summer monsoon – The role of the Tibetan Plateau.- Climate Dynamics, 26 (7-8), 855-864.
    • LeRoy Ladurie, E. (1988) Times of Feast, Times of Famine. A History of Climate since the Year 1000.
    • Lindzen, R.S. and C. Giannitsis (2002) Reconciling observations of global temperature change.- Geophys. Res. Ltrs. 29, (26 June) 10.1029/2001GL014074
    • Lindzen, R.S, M.-D. Chou, and A.Y. Hou (2001) Does the Earth have an adaptive infrared iris? – Bull. Amer. Met. Soc. 82, 417-432.
    • Maddox, J. (1991) Making global warming public property.- Nature 349: 189.

    • Malberg, H. (2007) Meteorologie und Klimatologie. Eine Einführung.- Springer, Heidelberg. (400 S., € 24,50)
      • Besprechung von Uwe Goerlitz in GeoWiss.de „Klimawandel ist das Normale“ (2007-04-07) [date of access: 17.05.07]
        Ausschnitt:
        „Malberg behandelt alle relevanten Themen der Materie: Atmosphäre, Strahlung, Luftbewegung, Wolkenbildung und Niederschlag, Luftmassen, Zonen und Fronten, Wetter- und Klimabeobachtung, Wetterprognosen und Prognosemodelle, atmosphärische Zirkulationen, Klimaklassifikationen, -schwankungen und -änderungen, lokales Klima, anthropogene Wetterbeeinflussung und Luftverunreinigung.

        Gerade Letzeres – Anthropogenes – bestimmt die seit Jahren aktuelle, nunmehr durch den UN-Klimabericht wieder an Wichtigkeit zugenomme und an Kontroversen reiche Debatte. Beim Klimawandel, den der Autor als etwas Normales betrachtet, gestützt auf Messreihen und paläoklimatische Ergebnisse – das liest sich deutlich aus diesem Buch heraus – zählen nicht etwaige Empfindungen, wahlperiodisch oder journalistisch vorgetragenes Halbwissen oder bestürzend lächerlich wirkender Aktionsmus mit angezogener Handbremse, sondern Daten und Fakten.“

        * Prof. Horst Malberg, Emeritus (2004) des Instituts für Meteorologie an der FU Berlin

    • Mann, M.E., R.S. Bradley, and M.K. Hughes (1999) Northern Hemisphere Temperatures During the Past Millennium: Inferences, Uncertainties, and Limitations.- Geophysical Research Letters, Vol. 26, No. 6, p.759.
    • Mann, M.E., R.S. Bradley, and M.K. Hughes (1998) Global-scale temperature patterns and climate forcing over the past six centuries.- Nature 392: 779-787.
      Vgl. Sie die Seite 2000 Jahre Temperaturentwicklung, speziell Hockeystick-Problematik
    • Marshall Institute – Climate Issues & questions 40S. – [date of access: 20.03.07]
    • Maxeiner, D. & M. Miersch (1996) Öko-Optimismus.- Metropolitan Verlag 1996 (342 S.)
       Besprechung von Udo Leuschner.
    • McIntyre, S. and R. McKitrick (2003) Corrections to the Mann et al. (1998) proxy data base and Northern hemispheric average temperature series.- Energy & Environment 14(6): 751-771.
    • Mishchenko, M.I., I.V. Geogdzhayev, W.B. Rossow, B. Cairns, B.E. Carlson, A.A. Lacis, L. Liu, and L.D. Travis (2007) Long-term satellite record reveals likely recent aerosol trend.- Science, 315, 1543, doi:10.1126/science.1136709.

    • Moberg, A., D.M. Sonechkin, K. Holmgren, N. Datsenko & W. Karlén (2005) Highly Variable Northern Hemisphere Temperatures reconstructed from low- and high-resolution proxy data.- Nature, Vol. 433, No. 7026, pp.. 613-617, 10 February 2005.
      • ABSTRACT:
        A number of reconstructions of millennial-scale climate variability have been carried out in order to understand patterns of natural climate variability, on decade to century timescales, and the role of anthropogenic forcing. These reconstructions have mainly used tree-ring data and other data sets of annual to decadal resolution. Lake and ocean sediments have a lower time resolution, but provide climate information at multicentennial timescales that may not be captured by tree-ring data. Here we reconstruct Northern Hemisphere temperatures for the past 2,000 years by combining low-resolution proxies with tree-ring data, using a wavelet transform technique to achieve timescale-dependent processing of the data. Our reconstruction shows larger multicentennial variability than most previous multi-proxy reconstructions, but agrees well with temperatures reconstructed from borehole measurements and with temperatures obtained with a general circulation model. According to our reconstruction, high temperatures – similar to those observed in the twentieth century before 1990- occurred around AD 1000 to 1100, and minimum temperatures that are about 0.7K below the average of 1961-90 occurred around AD 1600. This large natural variability in the past suggests an important role of natural multicentennial variability that is likely to continue.

        Download data from the WDC Paleo archive:
        2,000-Year Northern Hemisphere Temperature Reconstruction.

      • Grafik dazu auf der Seite „2000 Jahre Temperaturentwicklung“

    • Muller, R.A. (2004) Rechenfehler bei der globalen Erwärmung? – Technology Review (University of California in Berke) vom 25.10.04
    • Münchner Rückversicherung (2005) Wetterkatastrophen und Klimawandel – Sind wir noch zu retten? – pg verlag der Münchner Rück.

    • Overpeck, J., K. Hughen, D. Hardy, R. Bradley, R. Case, M. Douglas, B. Finney, K. Gajewski, G. Jacoby, A. Jennings, S. Lamoureux, A. Lasca, G. MacDonald, J. Moore, M. Retelle, S. Smith, A. Wolfe, & G. Zielinski (1997) Arctic Environmental Change of the Last Four Centuries.- Science, v. 278, n. 5341 p. 1251-1256.
      • Abstract:
        A compilation of paleoclimate records from lake sediments, trees, glaciers, and marine sediments provides a view of circum-Arctic environmental variability over the last 400 years. From 1840 to the mid-20th century, the Arctic warmed to the highest levels in four centuries. This warming ended the Little Ice Age in the Arctic and has caused dramatic retreats of glaciers, melting of permafrost and sea-ice, and alteration of terrestrial and lake ecosystems. Although significant warming, particularly after 1920, was likely due to increases in atmospheric trace-gases, the initiation of the warming in the mid-19th century suggests that increased solar irradiance, decreased volcanic activity, and feedbacks internal to the climate system played roles.“

        (with linked site map, individual time series, circum-artic vs forcing, limnological change)

        Source: NOAA-Palaeoclimatology Program – [last date of access: 26.04.07]

    • Perry, C. A. & K. J. Hsu (2000) Geophysical, archaeological, and historical evidence support a solar-output model for climate change.- PNAS, vol. 97,| no. 23: 12433-12438 (November 7, 2000). (full article!)
      • Abstract:
        „Although the processes of climate change are not completely understood, an important causal candidate is variation in total solar output. Reported cycles in various climate-proxy data show a tendency to emulate a fundamental harmonic sequence of a basic solar-cycle length (11 years) multiplied by 2N (where N equals a positive or negative integer). A simple additive model for total solar-output variations was developed by superimposing a progression of fundamental harmonic cycles with slightly increasing amplitudes. The timeline of the model was calibrated to the Pleistocene/Holocene boundary at 9,000 years before present. The calibrated model was compared with geophysical, archaeological, and historical evidence of warm or cold climates during the Holocene. The evidence of periods of several centuries of cooler climates worldwide called „little ice ages,“ similar to the period anno Domini (A.D.) 1280-1860 and reoccurring approximately every 1,300 years, corresponds well with fluctuations in modeled solar output. A more detailed examination of the climate sensitive history of the last 1,000 years further supports the model. Extrapolation of the model into the future suggests a gradual cooling during the next few centuries with intermittent minor warmups and a return to near little-ice-age conditions within the next 500 years. This cool period then may be followed approximately 1,500 years from now by a return to altithermal conditions similar to the previous Holocene Maximum.“

        (Proceedings of the by the National Academy of Sciences)
        [date of access: 04.05.07]
    • Philander, S. George (1998) Is the Temperature Rising? The Uncertain Science of Global Warming.- Publ. by Princeton University Press. Besprechung in der New York Times oder Ausschnitt (Chapter 1) in Princeton University Press 
      [last date of access: 24.07.06]
    • Pfister, Chr. (1999) Wetternachhersage – 500 Jahre Klimavariationen und Naturkatastrophen (1496-1995).
    • Post, J.D. (1985) Climate: present, past and future. Vol. 1 Fundamentals and climate now, Vol. 2 Climatic history and the future.
    • Rahmstorf, S. (2003) Timing of abrupt climate change: A precise clock.- Geophysical Research Letters 30: 10.1029/2003GL017115.
    • Rahmstorf, S. (1999) Die Welt fährt Achterbahn.- Süddeutsche Zeitung, 3./4. Juli 99 (publ. auf PIK-Sites)
    • Rahmstorf, S. & H.-J. Schellnhuber (2006) Der Klimawandel.- C.H.Beck Verlag, München. (4.Aufl., 144 S.)
    • Rahmstorf, S. et al. (2004) Cosmic Rays, Carbon Dioxide and Climate.- Eos, Transactions of the American Geophysical Union
    • Raper, S.C.B. and Braithwaite, R.J. (2006) Low sea level rise projections from mountain glaciers and icecaps under global warming.- Nature, 439, 311-313.
      Kommentar von DG Environment News Alert Service, EU Commission, 6th April 2006. –  1S.
    • Rasool, S.I. & Schneider, S. (1971) Atmospheric Carbon Dioxide and Aerosols: Effects of Large Increases on Global Climate.- Science 173, 138–141.

    • Reichholf, J. H. (2007) Eine kurze Naturgeschichte des letzten Jahrtausends.- S. Fischer Verlag, Frankfurt am Main. (336 S., € 19,90)
      • Buchklappentext:
        „Tausend Jahre – eine Spanne, die das Leben zweier Eichen oder ein Zehntel der Nacheiszeit umfasst – sind ein Wimpernschlag der Erdgeschichte. Veränderungen in der Natur vollziehen sich in ganz anderen Zeiträumen als die Geschichte des Menschen. Josef H. Reichholf blickt aus ökologischer Sicht zurück auf das letzte Jahrtausend und untersucht die Wechselwirkung von Naturgeschichte und Geschichte, insbesondere den Klimaverlauf mit seinen ökologischen, wirtschaftlichen, politischen, sozialen und kulturellen Konsequenzen. Dabei geht es ihm stets um die Zukunft. Denn diese entwickelt sich nicht nur aus der Gegenwart, sondern sie ist Teil eines viel größeren Zeitstroms, der weit in die Vergangenheit zurückreicht. Was können wir aus der Vergangenheit bei der Bewältigung von Zukunftsproblemen lernen? Werden uns Wetter und Klima bald dafür bestrafen, dass wir zu weit gegangen sind bei unseren Eingriffen in die Natur? Josef H. Reichholf gibt realistische Einschätzungen unserer Lage und hilft uns so, die richtigen Entscheidungen für die Zukunft zu treffen.“

        Rezensionsnotiz – Neue Zürcher Zeitung, 28.03.2007 (Auszug übernommen aus Perlentaucher.de)
        „Stark sei Josef H. Reichholfs Studie in dem Teil, wo sie die heutigen Natur-Apokalyptiker „ideologiekritisch“ als naiv und romantisch-reaktionär entlarve. Realismus zeige der Autor auch bei seiner Analyse der eigentlichen Bedrohung heutzutage, denn nicht Umweltverschmutzung per se sei das wichtigste Problem, sondern Wasserbau und industrialisierte Landwirtschaft. 
        ….“
        [last date of access: 12.04.07]

    • Romanou, A., B. Liepert, G.A. Schmidt, W.B. Rossow, R.A. Ruedy, and Y.-C. Zhang (2007) 20th Century changes in surface solar irradiance in simulations and observations.- Geophys. Res. Lett., 34, L05713, doi:10.1029/2006GL028356.
    • Rudloff, von H. (1967) Die Schwankungen und die Pendelungen des Klimas in Europa seit dem Beginn der regelmässigen Instrumenten-Beobachtungen (1670) mit einem Beitrag über die Klimaschwankungen in historischer Zeit.
    • Schmitt, D. & M. Schüssler (2002) Klimaveränderung – Treibhauseffekt oder Sonnenaktivität.-  4.3 MB, 8S. – Astronomie + Raumfahrt im Unterricht, 39, 5, 31-35 (Manuskript) – – [date of access: 01.03.07]
    • Schneider, Stephen H. (1987) Klimamodelle – Wird der Treibhauseffekt neue Dürregebiete hervorbringen? Bedeutet ein Nuklearkrieg den nuklearen Winter? Computermodelle des Klimas unserer Erde geben Aufschluss über die Zukunft des Klimas wie auch über seine wechselvolle Vergangenheit.- Spektrum der Wissenschaft, Sonderdruck 2/1987: 18-25.
    • Schneider, Stephen H. (1975) On the Carbon Dioxide-Climate Confusion.- Journal of Atmospheric Sciences, 32, p. 2060.
    • Schönwiese, Ch.-D. (1995) Klimaänderungen. Daten, Analysen, Prognosen. – Heidelberg, 1995
    • Schönwiese, Ch.-D. (1992) Klima im Wandel – Tatsachen, Irrtümer, Risiken.- Stuttgart, Deutsche Verlags-Anstalt (223 S.)
    • Schwander, J., et al. (1993) The age of the air in the firn and the ice at Summit, Greenland.- J. Geophys. Res., 1993. 98(D2): 2831-2838.

    • Segalstad, T.V. (1998) Carbon cycle modelling and the residence time of natural andanthropogenic atmospheric CO2:on the construction of the“Greenhouse Effect Global Warming“ dogma.– In: Bate, R. (Ed.): “Global Warming: The Continuing Debate“, European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219.
      Sehr zu empfehlen!!

    • Shaviv, N.J. & J. Veizer (2003) „Celestial Driver of Phanerozoic Climate?“ –  0.4MB, 40S. GSA Today, Vol. 13, No. 7, (vgl. dazu die Pressemitteilung der Ruhr-Universität Bochum: Beitrag zur Klimadebatte: Globale Erwärmung – der Wasserdampf ist schuld) und dazu die Reaktion von Stefan Rahmstorf et al. (2004)

    • Schiermeier, Quirin (2007) What we don’t know about climate change.- News@Nature (05 Feb 2007) News.
      • Summary: Uncertainty remains over feedback effects.
        Context: …assigning a greater than 50% probability, such as the chance that human activities are affecting the intensity of hurricanes. Such care is crucial in a field that is still, in some areas, shot through with uncertainty. The IPCC has…
    • Solanki, S. K., I. G. Usoskin, B. Kromer, M. Schüssler & J. Beer (2004) Unusual activity of the Sun during recent decades compared to the previous 11,000 years.- Nature, 28 October 2004
    • Solanki, S. K. & N. A. Krivova (2003) Can solar variability explain global warming since 1970? PDF-File 8S. , J. Geophys. Res., 108(A5), 1200,
    • Stehr, N. & H. von Storch (2000) Weine nicht, wenn der Regen fällt – Die Angst vor der Klimakatastrophe hat mehr mit kulturellen Vorurteilen als mit Wissen zu tun.- Welt-Online. [date of access: 06.03.07]
      Sehr zu empfehlen!!
    • Stehr, N. & H. von Storch (1999) Wetter, Klima, Mensch.- C.H.Beck Verlag, München. (127 S.)
    • Stehr, N. & H. von Storch (1997) Das soziale Konstrukt des Klimas.- VDI-Gesellschaft Energietechnik (Ed): Umwelt- und Klimabeeinflussung durch den Menschen IV, VDI Berichte 1330, 187-197. [date of access: 06.03.07]
    • Steig, E.J., P.M. Grootes, and M. Stuiver (1994) Seasonal precipitation timing and ice core records.- Science 266:1885-1886.
    • Stern, Sir Nicolas (2006) The Stern Review on the Economics of Climate Change (2006)
    • Storch, H. von, & R. Weisse (2007) Regional storm climate and related marine hazards in the Northeast Atlantic, In Diaz, H.F. and Murnane, R.J. (eds.), Climate Extremes and Society, Cambridge: Cambridge University Press (in press)
    • Storch, H.von , E. Zorita, J.M. Jones, F. González-Rouco & S. Tett (2006) Response to Comment on ‘‘Reconstructing Past Climate from Noisy Data’’. science 312, 28 April 2006, 529c
    • Stuiver, M., T.F. Braziunas, P.M. Grootes, and G.A. Zielinski (1997) Is there evidence for solar forcing of climate in the GISP2 oxygen isotope record? – Quaternary Research 48:259-266.
    • Stuiver, M., P.M. Grootes, and T.F. Braziunas (1995) The GISP2 18O climate record of the past 16,500 years and the role of the sun, ocean and volcanoes.- Quaternary Research 44:341-354.

    • Svensmark, H. (2000) Cosmic rays and earth’s Climate.– Space Science Reviews 93: 155-166.
      • Abstract:
        „During the last solar cycle Earth’s cloud cover underwent a modulation in phase with
        the cosmic ray flux. Assuming that there is a causal relationship between the two, it is expected and
        found that Earth’s temperature follows more closely decade variations in cosmic ray flux than other
        solar activity parameters. If the relationship is real the state of the Heliosphere affects Earth’s climate.“
        Full article  [2.9MB, 12S.]
    • Svensmark, H., J.O.P. Petersen, N. Marsh, M. Enghoff & U. Uggerhoj (2006) Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions.- Proceedings of the Royal Socitey A doi. 1098, rspa October 3rd
    • Svensmark, H. und & E. Friis-Christensen (1997) Variation of cosmic ray flux and global cloud coverage – a missing link in solar-climate relationships.- J. Atm. Sol. Terr. Phys. 59 (1997), 1225.
    • Thejll, P. & K. Lassen (2000) Solar forcing of the Northern hemisphere land air temperature: New data.- Journal of Atmospheric and Solar-Terrestrial Physics 62, 1207-1213 (2000).
    • Tietz, S. (2007) Wolkige Projektionen – Nachweislich zuverlässige Klimavorhersagen sind noch nicht möglich. Umso mehr wird die Diskussion über den Klimawandel von ökonomischen und politischen Interessen bestimmt. Sie sollten offengelegt werden.– Spektrum der Wissenschaft, April 2007, S. 26-30.
      Sehr zu empfehlen!!
    • Tol, R. S. J. & P. Vellinga (1998) Climate Change, the Enhanced Greenhouse Effect and the Influence of the Sun: A Statistical Analysis.- Theoretical and Applied Climatology, Volume 61, Issue 1/2, pp. 1-7.
      Sehr zu empfehlen, besonders ist auf die indirekte Aussage zu achten!!

      • Abstract:
        „Changes in solar activity are regularly forwarded as an hypothesis to explain the observed global warming over the last century. The support of such claims is largely statistical, as knowledge of the physical relationships is limited. The statistical evidence is revisited. Changing solar activity is a statistically plausible hypothesis for the observed warming, if short-term natural variability is the only alternative explanation. Compared to the enhanced greenhouse effect, the solar hypothesis looses a substantial part of its plausibility. Reversely, the size and significance of the estimated impact of the enhanced greenhouse effect on the global mean temperature is hardly affected by solar activity.“
        Full article  [7 S.]

    • Usoskin, Ilya G. , S. K. Solanki, M. Schüssler, K. Mursula, K. Alanko (2003) A Millenium Scale Sunspot Reconstruction: Evidence For an Unusually Active Sun Since the 1940’s.- Phys.Rev.Lett. 91 (2003) 211101
    • Wagner, F., S. J. P. Bohncke, D. L. Dilcher, W. M. Kürschner, B. van Geel & H. Visscher (1999) Century-scale shifts in Early Holocene atmospheric CO2 concentration.- Science 284: 1971-197.
      Sehr zu empfehlen!!

      • Abstract:
        „The inverse relation between atmospheric carbon dioxide concentration and stomatal frequency in tree leaves provides an accurate method for detecting and quantifying century-scale carbon dioxide fluctuations. Stomatal frequency signatures of fossil birch leaves reflect an abrupt carbon dioxide increase at the beginning of the Holocene. A succeeding carbon dioxide decline matches the Preboreal Oscillation, a 150-year cooling pulse that occurred about 300 years after the onset of the Holocene. In contrast to conventional ice core estimates of 270 to 280 parts per million by volume (ppmv), the stomatal frequency signal suggests that early Holocene carbon dioxide concentrations were well above 300 ppmv.“
        Full article

    • Wagner, G., D.M. Livingstone, J. Masarik, R. Muscheler and J. Beer (2001) Some results relevant to the discussion of a possible link between cosmic rays and the Earth’s climate.- J. Geophys. Res., Vol. 106: 3381-8.
    • Weber, G.R. (1992) Treibhauseffekt. Klimakatastrophe oder Medienpsychose? – E.I.R. (ehemals Dr. Böttiger Verlags GmbH)
    • Wigley, T. M. L. (1983) The pre-industrial carbon dioxide level.- Climatic Change, Volume 5, Number 4: 315-320 / Dezember 1983.
      • Abstract:
        „Recent indirect data and direct measurements from ice cores point towards a ‘pre-industrial’ CO2 level of around 260–270 ppmv, considerably below the commonly assumed value of 290 ppmv. Early measurements from the southern hemisphere tend to favour the lower value.“

    • Willson, R. C. & A.V. Mordvinov (2003) Secular total solar irradiance trend during solar cycles 21 and 22.- Geophys. Res. Let., 30, 1199-1202.
      • Abstract:
        „A series of satellite total solar irradiance (TSI) observations can be combined in a precise solar magnetic cycle length composite TSI database by determining the relationship between two non-overlapping components: ACRIM1 and ACRIM2. [Willson and Hudson, 1991; Willson, 1994] An ACRIM composite TSI time series using the Nimbus7/ERB results [Hoyt et al., 1992] to relate ACRIM1 and ACRIM2 demonstrates a secular upward trend of 0.05 percent-per-decade between consecutive solar activity minima. [Willson, 1997] A PMOD TSI composite using ERBS [Lee et al., 1995] comparisons to relate ACRIM1 and ACRIM2 [Fröhlich and Lean, 1998] differs from the ACRIM composite in two significant respects: a negligible trend between solar minima and lower TSI at solar maxima. Our findings indicate the lower PMOD trend and lower PMOD TSI at the maxima of solar cycles 22 and 23 are artifacts of ERBS degradation. Lower PMOD TSI during the maximum of cycle 21 results from modifications of Nimbus7/ERB and ACRIM1 published results that produces better agreement with a TSI/solar proxy model [Foukal and Lean, 1988; Lean et al., 1995; Fröhlich and Lean, 1998].“
         Vgl. dazu: Fröhlich (2006) und/oder Solar Constant – Construction of a Composite Total Solar Irradiance (TSI) Time Series from 1978 to present“

    • Woudhuysen, J. & J. Kaplinsky (2007) UN-Bericht zur Klimaforschung: Lehrstück über den planetaren Untergang? – Am 2. Februar 2007 veröffentlichte der „Zwischenstaatliche Ausschuss für Klimaänderungen“ (IPCC) seine Zusammenfassung eines Berichts zum aktuellen Stand der Klimaforschung. Die Reaktion auf die Veröffentlichung zeigt, wie stark antihumanistische Affekte inzwischen die Interpretation wissenschaftlicher Erkenntnisse prägen. – NOVO-Magazin Nr. 87 (März/April)
      [date of access: 22.03.07]

      Sehr zu empfehlen!!
    • Zhen-Shan, L. and S. Xian (2007) Multi-scale analysis of global temperature changes and trend of a drop in temperature in the next 20 years. Meteorology and Atmospheric Physics, 95, 115–121.

    • Papers and articles on climate change and related topics – It covers papers and articles up to the end of year 2004 (~320 references)
    • Sonnenaktivität als dominanter Faktor der Klimadynamik – Literatursammlung zusammengestellt von Theodor Landscheidt, Schroeter-Institut zur Erforschung der Zyklen der Sonnenaktivität, Nova Scotia, Kanada.

    Diese Linkszusammenstellung stammt von http://www2.tu-berlin.de/%7Ekehl/project/lv-twk/02-intro-3-twk-b.htm

    Berücksichtigen Sie bitte den Hinweis vom Ersteller dieser Website:
    „Wenn Sie Inhalte dieser Website zitieren oder diskutieren, was sehr erwünscht ist, bitte verfälschen Sie nicht die Inhalte durch unvollständige Zitate bzw. reissen Sie die Inhalte nicht aus dem Zusammenhang, und bitte geben Sie die Quellen richtig und vollständig an.“

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Welchen Einfluss hat der Menschen auf das (Klima) Wetter?

    Anmerkungen zum 4. Bericht des IPCC 2007 Computermodellierung und -simulation

    Posted by Rauch on 30th September 2007

    Peter Krah

    01809 Heidenau/Sa.

     

    Anmerkungen zum 4. Bericht des IPCC 2007

    Computermodellierung und -simulation

     

    Vorbemerkung:

    Der 4. Bericht des IPCC 2007 (IPCC AR4) ist ein sehr umfangreiches Werk (ca. 2400 Seiten). Die hier vorgenommenen Anmerkungen befassen sich mit speziellen Aussagen des Berichts. Das Augenmerk wurde vorrangig auf die Computermodellierung und -simulation gerichtet, wie sie im Band 1 The Physical Science Basis des Berichtes beschrieben werden. Die Fokussierung erklärt sich dadurch, dass wegen einer jahrzehntelangen Tätigkeit als Systemanalytiker und Manager in der Softwareentwicklung die persönliche Kompetenz für eine derartige Untersuchung am ehesten gegeben ist. Auf der Grundlage der im Berichtsband verstreut vorhandenen Aussagen, gezielter Auswertung der Referenzliteratur sowie eigener Kenntnisse wird das Vorgehen bei der Modellierung und Simulation referiert und somit ein Bild zu dem Teil des Berichtes gegeben, der die quantitativen Aussagen festlegt.

     

    Modellierung und Simulation im Bericht

    Modellierung und Simulation werden vorrangig im Kapitel 8 des o.g. Band 1 behandelt. Der Bericht beschreibt die zum Einsatz kommenden IT-Technologien und -Verfahren nicht explizit. Die Informationstechnik
    (IT) wird als Werkzeug betrachtet, mit dem die Klimaereignisse (Temperatur, Wolken, Meereis, Einfluss der Treibhausgase usw.) modelliert, die Modellkomponenten zu einem System zusammen geschaltet und anschließend die Ereignisse simuliert werden. Klimasimulationen werden durch Variation von Anfangs- und Randbedingungen der zugrunde liegenden Algorithmen erzeugt.

    Modellierung und Simulation sind aus der Sicht der Klimaereignisse beschrieben. Welche Algorithmen für die Modellierung und Simulation zugrunde liegen, wird im Bericht nicht ausgeführt. Folgerichtig
    gibt es so gut wie keine Angaben zur informationstechnischen Umsetzung. Dies erschwert das Verständnis, ist aber legitim hinsichtlich der Zielstellung des Berichtes.

    Das Klimageschehen wird allgemein durch die Navier-Stokes-Gleichungen1 beschrieben. Die Navier-Stokes-Gleichungen bilden ein System von nichtlinearen
    partiellen Differentialgleichungen 2. Ordnung. Es ist bis heute nicht gelungen, die Existenz von allgemeinen Lösungen nachzuweisen. Die Differentialgleichungen werden mittels finiter Elemente oder Differenzenmethoden
    diskretiert und einer numerischen Behandlung zugänglich gemacht. Für die Klimamodelle ist dieser Weg beschritten worden, Klimaereignisse werden durch entsprechende Algorithmen, die weitgehend nichtlinear sind, im
    Computer abgebildet2. Dieses Vorgehen kann als fundamentales Charakteristikum der aktuellen Klimamodelle bezeichnet werden.

    Bei der Modellierung wird die Erdoberfläche mit einem Netz überzogen, dessen Maschen die Längen- und Breitenbegrenzungen so genannter Gridelemente sind. Ein Gridelement ist das Basiselement
    eines jeden Klimamodells, neben Länge und Breite weist es gewöhnlich auch eine Höhe (Tiefe) auf. Die Höhe (Tiefe) wird in Schichten (layer) unterteilt. Land-Gridelemente und Meeres-Gridelemente unterscheiden sich im Allgemeinen in der Größe (letztere sind kleiner). Die Größe eines Gridelements bestimmt u.a.
    die geografische Auflösung der Simulation3.

    Parallel dazu werden die Differenzengleichungen, die für die einzelnen Klimaereignisse stehen, mittels Programmierung in eine für den Computer abarbeitbare Form (Modellkomponente) überführt.
    Eine Modellkomponente ist in der Regel durch Eingabe von Daten (Parametrisierung) steuerbar. Durch Parametervorgaben werden Zeithorizonte und die Schrittweiten dahin festgelegt, Anfangs- und Randbedingungen variiert oder auch die Abarbeitung verändert.

    In einem weiteren Schritt werden dem Gridelement entsprechend seiner geografischen Position (Land oder Meer) die Modellkomponenten zugeordnet, welche die dort vorkommenden Klimaereignisse abbilden.

    Bei der Abarbeitung erhält ein Gridelement Eingangswerte aus einem Arbeitsspeicher. Die Eingangswerte werden gemäß der zugeordneten Modellkomponenten und etwaiger Parametervorgaben verändert
    und als Ausgangswerte in den Arbeitsspeicher abgelegt. Eine alle Gridelemente umfassende Steuerung besorgt die Initialvorgabe der Eingangswerte und überwacht und lenkt die Abarbeitung. An deren Schluss werden die Ergebnisse der einzelnen Gridelemente wie Temperatur, Niederschlag usw. aus dem Arbeitsspeicher ausgelesen und weiterbearbeitet.

    Die Entwicklung der Klimamodelle begann vor nunmehr 30 Jahren. Der Fortschritt in der Informationstechnik bewirkte, dass sowohl die Anzahl der modellierten Klimaereignisse zunahm als auch die geografische
    Auflösung immer feiner wurde. Aktuell werden drei Typen von Klimamodellen unterschieden4:

    1. die Allgemeinen Atmosphäre-Ozean-Zirkulationsmodelle – (Atmosphere-Ocean General Circulation Model – AOGCM ):

    Die AOGCM sind die umfassendsten Klimamodelle, sie enthalten eine wachsende Zahl von Komponenten, welche einzelne Klimaereignisse örtlich und zeitlich in den Computer abbilden. AOGCM bestehen aus den
    Teilsystemen für die Atmosphäre (AGCM) und für den Ozean (OGCM), sie können in den meisten Fällen auch unabhängig voneinander arbeiten. Das Koppeln beider Teilsysteme ist nicht trivial, die Modellgüte
    wird u.a. dadurch bestimmt, dass keine externen Eingriffe (flux adjustment)5 erforderlich werden, um den Übergang zwischen den Teilsystemen numerisch stabil zu halten. Die geografische Auflösung, die Layerzahl sowie die Anzahl der Zeitschritte führen zu enormen Anforderungen an die Computerressourcen. Die Schrittweite kann von wenigen
    Minuten bis zu einem Jahr differieren, der Zeithorizont liegt dann bei einigen Jahren bis zu mehreren zehntausend Jahren. AOGCM werden auf Supercomputern oder Multiprozessor-Rechnern betrieben.

    Der 4. IPCC-Bericht nennt 23 AOGCM, die ihm zugearbeitet haben. Beispielhaft für die anderen seien die Daten von CSIRO-MK3.0 von der Commonwealth Scientific and Industrial Research Organisation, Atmospheric
    Research aus Australien angegeben. Die Gridelementgröße für die Atmosphäre beträgt ca. 1.9° x 1.9°, die Anzahl der Layer ist 18 bei einer maximalen Höhe von 4,5 hPa (ca. 36.000 m). Für den Ozean betragen die Werte 0.8° x 1.9° bei 31 Layer und einer Tiefe von 4800 Meter.

     

    2. Die einfachen Klimamodelle – (simple climate model)6:

    Mit einem einfachen Klimamodell werden in einem parametrisierten Vorgehen

    − die Emissionen von Treibhausgasen zeitlich vorgegeben,

    − die Strahlungsantriebe entsprechend dieser Emissionen simuliert,

    − die durchschnittliche globale Oberflächentemperatur daraus bestimmt,

    − der Anstieg der Meeresoberfläche und die Auswirkungen auf Gletscher und Eisschilde prognostiziert sowie

    − regional begrenzte abrupte Klimaänderungen simuliert.

    Die einfachen Klimamodelle setzen auf den Vorgaben und Ergebnissen von 19 der im 4. IPCC-Bericht aufgeführten AOGCM auf. Das einfache Klimamodell wird in einem iterativen Prozess den von dem zugehörigen
    AOGCM gelieferten Zeitserien zur Temperatur und dem berechneten ozeanischen Wärmeaufnahmevermögen angeglichen. Der Einsatz eines einfachen Klimamodells spart Computeraufwand. Es lassen sich mit einem auf die hier interessanten Klimaereignisse (Treibhausgase) abgerüsteten Modell viel leichter als mit einem AOGCM eine große Anzahl von Varianten durchrechnen.

     

    3. Erdsystemmodelle mittlerer Komplexität (Earth System Models of Intermediate Complexity – EMIC)7:

    Die Erdsystemmodelle mittlerer Komplexität liegen mit ihrer Funktionalität zwischen den AOGCM und den einfachen Klimamodellen. Ein EMIC besteht aus einem vereinfachten AGCM, das mit einem OGCM gekoppelt
    ist oder aus Modellkomponenten für Atmosphäre und Ozean, die vereinfachte Algorithmen im Vergleich zu den AOGCM nutzen. EMIC sind von sehr unterschiedlicher Ausprägung, einige nähern sich in ihrer Funktionalität
    den AOGCM, andere wurden wie die einfachen Klimamodelle für die Berechnung des Treibhausgas-Einflusses geschaffen.

    Ein EMIC ist in der Regel so ausgelegt, dass es auf einem leistungsfähigen PC oder einer Workstation lauffähig ist. Ein wichtiges Einsatzgebiet der EMIC ist die Langzeituntersuchung von Klimaänderungen.
    Ein Maß ihrer Leistungsfähigkeit ist deshalb die Anzahl von Jahren, die vom EMIC in einem Computerlauf von vorgegebener Dauer als Klimaablauf simuliert werden kann. Die Werte schwanken stark, von 20.000 Jahre/CPU-Std. bis zu 36 CPU-Std. für 100 Jahre8.

    Evaluierung und Tuning der Modelle

    Ein Klimamodell ist ein sehr komplexes System mit vielen Komponenten. Seiner Nutzung gehen viele Tests voraus, die sowohl die Einzelkomponenten als auch das Gesamtsystem umfassen.

    Für Komponententests stehen standardisierte Verfahren zur Verfügung, welche die angewandten numerischen Methoden und die physikalische Parametrisierung verifizieren. Der Systemtest speziell von
    AOGCM wird durch das Programm für Klimamodell-Diagnose und –Vergleich (Program for Climate Model Diagnosis and IntercomparisonPCMDI)9 unterstützt. Programmziel ist, die Qualität der Simulationen zu erhöhen. Dazu werden Methoden und Werkzeuge entwickelt, die das Verhalten der Modelle analysieren und vergleichen. Aktuell liegt der Schwerpunkt der Arbeit auf dem Bereitstellen eines verbindlichen Testspiegels (Testbed) für die Modell-Parametrisierung, um damit den Vergleich zwischen den einzelnen Klimamodellen zu standardisieren.

    Die im Bericht vorgestellten Modelle simulieren das Klima gemäß den vorgegebenen Algorithmen und Randbedingungen. Die Güte der Modellergebnisse hat sich zuvorderst an der Realität zu
    messen, also an den existierenden Messdaten zum Klima. Diese Daten liegen jedoch im qualitativ und quantitativ ausreichenden Maße erst seit wenigen Jahrzehnten vor, zu wenig, um belastbare Vorausberechnungen für
    die ins Auge gefasste Zeitdauer (≥ 100 Jahre) zu erhalten. Dazu ist mindestens ein weiterer Fixpunkt für die Modelljustierung erforderlich. Dieser wird mit dem Höhepunkt der letzten Eiszeit festgelegt10.

    Ein weiterer Vergleich kann mit Modellen für die Wettervorhersage geführt werden. Klimamodelle schneiden hierbei in der Regel schlechter ab. Die Ursache wird in der zu geringen Auflösung (zu großen Gridelementgröße) gesehen.

    Beim so genannten Modelltuning wird wie folgt vorgegangen: Durch Variation von Parametern wird eine große Anzahl von Ergebnisvarianten erzeugt (im vorliegenden Fall ca. eintausend). Im nächsten
    Schritt werden die Varianten mit Messdaten und daraus abgeleiteten berechneten Daten und Schätzungen verglichen und alle die aussortiert, die das Klima nicht hinreichend gut wiedergeben. Gleiches geschieht mit der Simulation des Höhepunktes der letzten Eiszeit. Übrig bleiben schließlich ca. 10 % der ursprünglichen Varianten, deren Parameter als zulässig für eine Modellrechnung betrachtet werden11.

    Klimasensitivität

    Die Klimasensitivität ist die Größe, welche die Auswirkung eines vorgegebenen Strahlungsantriebs (radiative forcing) auf das globale Klimasystem wiedergibt. Im 4. IPCC-Bericht wird sie als die Änderung der durchschnittlichen globalen Oberflächentemperatur definiert, die sich nach einer
    Verdoppelung der atmosphärischen CO2-Konzentration einstellt. Diese Definition ist übrigens seit dem Beginn der aktuellen Klimadiskussion gültig, auch die vom IPCC und seinen Vorgängerorganisationen
    veröffentlichten Temperaturwerte (1,5 – 4,5 ºC) für eine CO2-Verdopplung haben sich seit den siebziger Jahren so gut wie nicht geändert.

    Die Vorgabe zur Bestimmung der Klimasensitivität besteht aus einer 1%igen Steigerung der CO2-Konzentration/Jahr bis zum Erreichen des doppelten Ausgangswertes (2xCO2). Anschließend
    wird die Konzentration nicht weiter erhöht. Zur Bestimmung gehört weiter eine Kontrollrechnung, die über den gleichen Zeithorizont mit dem ursprünglichen CO2-Ausgangswert erfolgt. Verdopplungs-
    und Kontrollvorgaben werden in ein Klimamodell eingegeben und entsprechende Simulationsrechnungen vorgenommen. Das Ergebnis ist die Klimasensitivität als Temperaturdifferenz aus den durchschnittlichen globalen Oberflächentemperaturen beider Simulationsläufe.

    Ein solches Ergebnis basiert, wie gesagt, auf einer Simulation. Es kann nicht durch Messungen verifiziert werden. Unter Laborbedingungen, also ohne Rückkopplungen durch andere Klimaereignisse, führt
    eine CO2-Verdopplung zu einer Erwärmung von 1,2 ºC12. Rückkopplungen können sowohl dämpfend als auch verstärkend wirken. Alle bisherigen IPCC-Berichte gehen davon aus, dass per Saldo verstärkende Rückkopplungen vorliegen.

    Die Simulationsrechnungen der verschiedenen Klimamodelle liefern unterschiedliche quantitative Ergebnisse, bei gleicher Tendenz (verstärkend) gegenüber dem o.g. Laborwert. Dabei streuen vorrangig
    die oberen Temperaturwerte. Die Ergebnisse werden zusammengefasst und einer Fehlerdiskussion unterzogen. Das Endergebnis ist eine rechnerische Größe mit Angabe ihrer 95%-igen ± -Abweichung.

    Wertung der Computermodellierung und -simulation

    Ausgang

    Bevor auf spezifische Fragen der Computermodellierung und -simulation im 4. IPCC-Bericht eingegangen wird, ist eine grundsätzliche Aussage voran zu stellen:

    Ein Computermodell simuliert ganz allgemein Abläufe von Vorgängen und Ereignissen, die sowohl real als auch fiktiv sein können. Auf drastische Weise hat John von Neumann, der wohl bedeutendste
    Mathematiker des 20.Jahrhunderts, die Möglichkeit beschrieben, die Ergebnisse einer Simulation zu variieren: „Give me four adjustable parameters and I can simulate an elephant. Give me one more and I can make his trunk wiggle“.

    Als Analogon bietet sich ein Theaterstück oder ein Spielfilm an. Auch ein Spielfilm enthält Abläufe von Vorgängen und Ereignissen, welche zwischen der Realität und der Fiktion angesiedelt werden können. Der entscheidende Unterschied zwischen Computermodell und Film ist, dass ein Computermodell in sich logisch widerspruchsfrei ist, was bekanntlich von Filmen nicht behauptet werden kann. Computermodellierung und -simulation sind angewandte Mathematik.

    Wird diese Aussage auf den vorliegenden Bericht angewendet, hat sich eine kritische Wertung vor allem mit dem Vergleich Realität – Simulation zu befassen. Die Realität wird hierbei durch statistisch erfasste und aufbereitete Messdaten und aus diesen abgeleiteten Daten sowie Schätzwerten repräsentiert. Sie werden in Zeitreihen angeordnet, um die Dynamik des Klimas darzustellen. Ferner sind die aus Messungen gewonnenen
    Daten fehlerbehaftet. Aktuelle Daten weisen in der Regel geringere Fehler auf als Daten aus der Vergangenheit, direkt gemessene Werte (z.B. die Temperatur) sind genauer als solche, die aus anderen Daten errechnet oder geschätzt wurden.

    Die Güte der Computermodellierung und -simulation ergibt sich aus der Vollständigkeit der im Modell erfassten relevanten Klimaereignisse und deren realitätsgetreuen Darstellung im Computer.
    Wie bereits ausgeführt, liegen den Modellkomponenten Algorithmen und Randbedingungen der Navier-Stokes-Gleichungen zugrunde. Die Algorithmen werden im Bericht hinsichtlich ihres Übereinstimmens mit dem realen Geschehen eingeschätzt. Die Einschätzung, der so genannte Grad des wissenschaftlichen Verständnisses (level of scientific understanding – LOSU), wird den Klimaereignissen zugeordnet.
    Er bewegt sich zwischen hoch (high) und sehr niedrig (very low)13.

    Computermodelle setzen immer die auf anderen Wegen gewonnenen Daten voraus. Modelle berechnen innerhalb des zugrunde liegenden Datenbereichs weitere Daten durch Interpolation, wobei die dabei auftretenden
    Fehler annähernd gleich sind. Wird der Datenbereich verlassen (Extrapolation), nimmt mit wachsender Entfernung die Fehlergröße zu und die Simulationsergebnisse werden zunehmend wertlos.

    Klimamodelle

    Kennzeichnend für alle Klimamodelle ist, dass sie eindeutig auf die Untersuchung des Einflusses der Treibhausgase ausgerichtet sind. Dies gilt definitionsgemäß für die einfachen Klimamodelle, aber auch für die EMIC. Die AOGCM scheinen auf den ersten Blick davon ausgenommen. Werden aber zusätzlich die Systembeschreibungen ausgewertet, zeigt sich, dass es Erweiterungen und Neuinstallationen nur bei den Modellkomponenten gibt, die zur Simulation des Treibhausgas-Effektes beitragen. Die Zielstellung der Simulationsrechnungen ist daher nicht ergebnisoffen. Der Grund für das Bevorzugen des Treibhausgas-Effektes wird im Bericht nicht diskutiert. In einer Systembeschreibung14 wird ausgeführt, dass das Klimageschehen der letzten 40 Jahre allein durch das Wirken von Treibhausgasen dargestellt werden kann. Daraus ließe sich schlussfolgern, dass Gleiches auch für die nähere Zukunft gilt. Sobald aber das letzte Jahrhundert ausschließlich mit dem Treibhausgas-Antrieb simuliert wird, ergeben sich Temperaturwerte, die beträchtlich über den gemessenen (1,2 ºC zu 0,8 ºC) liegen. Erforderlich sei, andere Antriebe wie Aerosole, die Vulkantätigkeit, Änderungen des Ozongehaltes und die Sonnenaktivität zu berücksichtigen. Diese Antriebe sind jedoch bei weitem nicht so erforscht wie die Treibhausgase. Das führe dazu, dass die
    Computermodellierung mehr eine Kunst als eine Wissenschaft werde.
    Die Betrachtung schließt mit „You may believe the future predictions of global temperatures by models are valid, but do you trust them more than the statistician?

    Komponenten, die sich mit der Sonnenaktivität befassen, sind in einigen AOGCM implementiert. Sie simulieren dort die Milankovitch-Zyklen, welche die Stellung der Erdachse und Änderungen der Erdbahn
    um die Sonne beschreiben. Sonnenfleckenperioden und der Einfluss der Höhenstrahlung (z.B. auf die Wolkenbildung) werden in den Systembeschreibungen nicht erwähnt.

    Allerdings wurde nur ein Teil der Systembeschreibungen ausgewertet, die zu den AOGCM des 4. IPCC-Berichtes gehören.

    Zu berücksichtigen ist ferner das Wirken des Programms für Klimamodell-Diagnose und -Vergleich (PCMDI). Ein solches Programm ist notwendig, um die Vergleichbarkeit zwischen den Ergebnissen der Klimamodelle herzustellen. Gleichzeitig trägt es dazu bei, die Modellkomponenten auch programmierungstechnisch zu vereinheitlichen. So darf davon ausgegangen werden, dass die so genannte durchschnittliche jährliche Energiebilanz der Erde15
    (Abb.1) auch quantitativ in allen AOGCM implementiert ist.

    Damit ist den Modellen ein Verhalten aufgeprägt, das beispielsweise den Saldo bei den Rückkopplungen immer positiv werden lässt. Auch erklärt es den Effekt, dass verschiedene Klimamodelle für bestimmte Erdregionen die gleichen Ergebnisse liefern. Dies wird gelegentlich als Beweis für die Übereinstimmung von Simulation und Realität genannt. Davon kann keine Rede sein. Nutzen die zur Simulation vorrangig beitragenden Modellkomponenten die gleichen Fortran-Programme, wären im Gegenteil unterschiedliche Ergebnisse zu hinterfragen.


    Abb. 1: Durchschnittliche jährliche (Strahlungs-)Energiebilanz der Erde

    Die Hockeyschlägerkurve

    Ein Beispiel für das Vermischen von Realität und Fiktion ist die so genannte Hockeyschlägerkurve, die im 3. IPCC-Bericht von 2001 veröffentlicht wurde (Abb. 2). Das Diagramm zeigt die
    Rekonstruktion des Temperaturverlaufs auf der nördlichen Hemisphäre bezogen auf die mittlere Temperatur von 1961 bis 1990. Die Temperaturwerte wurden aus Daten von Baumringen und Eiskernen abgeleitet sowie den Messreihen der Wetterstationen entnommen. Auffällig ist der lineare Verlauf von 1000 bis 1900 mit dem anschließenden steilen Anstieg, was der Kurve ihren Namen gab. Der lineare Verlauf ist umso verwunderlicher, weil jeder einigermaßen in der europäischen Geschichte Beschlagene die kalten Jahrhunderte der Kleinen Eiszeit in der Darstellung erwartet. Ebenso entspricht der Verlauf auch nicht der Vorstellung vom damaligen Klima, das
    bei der Besiedlung von Grönland durch die Wikinger um das Jahr 1000 herrschte. Immerhin wuchs damals auf Neufundland und Wein.

    Abb. 2: Rekonstruktion des relativen Temperaturverlaufes auf der nördlichen Hemisphäre16

    Formal ist alles in Ordnung. Der Trendberechnung wurde die Gerade vorgegeben, sie liefert ein Ergebnis, das mathematisch korrekt ist. Es stimmt nur nicht mit der Realität überein. Der 4. IPCC-Bericht
    enthält nicht mehr die Hockeyschlägerkurve, er bietet dafür die Erklärung an, dass die letzten 1000 Jahre regional durch sehr heterogenes Klima gekennzeichnet waren. Auch wird eingeräumt, dass um das
    Jahr 1000 in einigen Regionen das Klima wärmer als im 20.Jahrhundert gewesen sein könnte17. Nicht zulässig sei aber daraus zu schlussfolgern, dass die mittelalterliche Warmzeit weltweit geherrscht habe. Dies gebe das vorhandene Datenmaterial nicht her, da es sowohl qualitativ als auch quantitativ nicht ausreichend sei.

    Warum aber wurde die Hockeyschlägerkurve veröffentlicht? Die Vermutung liegt nahe: zur Stützung der Treibhausgas-These. Diese lautet, dass mit mindestens 90%-iger Wahrscheinlichkeit menschliche
    Aktivitäten (durch Freisetzen von Treibhausgasen) seit 1750 zu einem Anwachsen des globalen durchschnittlichen Strahlungsantriebes um 1,6 (0,6 bis 2,4) Wm-2 geführt haben18.
    Treibhausgase haben jedoch bis in das 19. Jahrhundert hinein keine klimaverändernde Rolle gespielt (Abb.3). Wenn nun globale Temperaturschwankungen mit vergleichbaren Amplituden auch vor Beginn der Moderne auftraten,
    welche Strahlungsantriebe waren es dann? Sind es die Sonne und die Vulkantätigkeit oder andere, bislang nicht berücksichtigte Antriebe? Der 4. IPCC-Bericht räumt zumindest der Sonnenaktivität einen gewissen
    Einfluss ein, die Treibhausgas-These aber bleibt bestehen. Es findet ein Wechsel in der Argumentation statt, von der offensiven im 3. Bericht, bei der mit Fiktionen gearbeitet wird, zur defensiven des 4. Berichtes. Hier stütze
    das vorhandene Datenmaterial gleich hohe Temperaturschwankungen nur in ausgewählten Erdregionen, eine Extrapolation auf die Gesamterde sei unzulässig, da mit zu großen Fehlern behaftet.

    Diese Beweisführung ist kaum zu widerlegen. Das Wissen über das Klima im Jahr 1000 ist sehr bruchstückhaft. Auch sind die vorliegenden Klimarekonstruktionen teilweise nicht miteinander vergleichbar.
    Klimadaten aus Baumringen und aus Eisbohrkernen können erst seit 2008 zeitlich synchronisiert werden19.


    Abb. 3: Simulation der Temperaturänderungen in den letzten 1000 Jahren20

    Die o.g. Aussagen zur Hockeyschlägerkurve betreffen die Rekonstruktion der Klimadaten der letzten 1000 Jahre, also die Klimarealität. Welche Ergebnisse bringt die Simulation für diesen Zeitraum?
    Abb. 3 zeigt die Ergebnisse der Simulationsrechnungen dreier EMIC, denen die nach Wahrscheinlichkeit zusammen gefassten Daten der Rekonstruktion (schwarz = hoch, hellgrau = gering) unterlegt wurden. Die dicken Linien stellen
    die Ergebnisse mit allen Antrieben, die dünnen ohne die Treibhausgase dar. Die Verläufe trennen sich ab der Mitte des 19. Jahrhunderts. Zusätzlich werden die zugrunde liegenden Strahlungsantriebe (Vulkantätigkeit,
    zwei Varianten der Sonnenaktivität und die übrigen Antriebe) im zeitlichen Verlauf dargestellt.

    Eine Diskussion der Simulationsergebnisse wird hierbei immer subjektiv sein. Der Anhänger der Treibhausgas-These sieht mit den Verläufen ab 1850 seine Ansichten bestätigt, der Skeptiker wird auf die teilweise negative Korrelation von Rekonstruktion und Simulation hinweisen. Hat man die Aussage des Berichts im Hinterkopf, dass das Datenmaterial für die Rekonstruktion sehr fehlerbehaftet ist, ist die Simulation größtenteils wertlos. Hier ist mehr Kunst als Wissenschaft am Werke.

    Fehlerbetrachtungen

    Ein Klimamodell besteht aus Modellkomponenten, welche die Klimaereignisse simulieren. Die Qualität der Simulation eines Ereignisses ist abhängig von den zugrunde liegenden Algorithmen und Randbedingungen,
    die Güte des Modells vom sachgerechten Zusammenspiel und der Vollständigkeit der Modellkomponenten. Man mag von seinem eigenen Modell überzeugt sein, erst der Vergleich der Ergebnisse mit auf anderem Wege gewonnenen verlässlichen Daten gibt Gewissheit.

    Wie steht es nun um die Belastbarkeit der aus der Realität stammenden Daten? Wie bereits ausgeführt, gibt es erst seit etwa 50 Jahren Datenmaterial, das der Forderung nach umfassender globaler Gültigkeit gerecht wird. Je weiter in die Vergangenheit gegangen wird, desto geringer die Flächendeckung und desto schwächer die Verlässlichkeit der Klimadaten21.

    Hier stellt sich folgende Frage: Wenn schon das Datenmaterial der Zeit vor 1000 Jahre nicht ausreicht zu entscheiden, ob das Erdklima damals wärmer oder kälter als heute war, wie gelingt es dann,
    ein Klimamodell mit den Daten des letzten Eiszeit-Maximum (vor 21.000 Jahren) zu justieren? Zur Erinnerung: Justiert wird, indem ein Modell sowohl für die jetzige Zeit als auch für das Eiszeit-Maximum zahlreiche
    Variantenrechnungen durchführt, aus denen dann (durch Menschen) die Ergebnisse aussortiert werden, welche das jeweilige Klima nicht realistisch wiedergeben. Wie aber sah das realistische Klima vor 21.000 Jahren aus? Ohne
    Zweifel ist das Wissen darüber weitaus geringer und ungenauer als zum aktuellen Klima. Es ist daher mit Annahmen und Schätzungen zu arbeiten. Das hat für die Modelljustierung zur Folge, dass ein systematischer
    Fehler, dessen Größe nicht bekannt ist, der Simulation aufgeprägt wird.

    Das zusammen gefasste Ergebnis des 4. IPCC-Berichts wird in Abb. 4 dargestellt. Es zeigt im Diagramm A den Anteil der einzelnen Strahlungsantriebe (Treibhausgase, Ozon, stratosphärischer Wasserdampf
    aus der Methan-Aufspaltung, Albedo der Erdoberfläche, Aerosole (direkter Einfluss und durch Wolkenbildung), Kondensationsstreifen von Flugzeugen sowie die Sonnenaktivität). Die Anteile wärmen oder kühlen,
    sie werden nicht als absolute Werte sondern als Änderungen zum Bezugswert von 1750 ausgewiesen. Unter der Klima-Wirksamkeit (climate efficacy) wird das Verhältnis der Klimasensitivität eines Antriebes zur Sensitivität des CO2 verstanden. Die Zeitskala sagt aus, nach welcher Zeitspanne ein Strahlungsantrieb wieder aus der Atmosphäre verschwunden ist. Die Bereichs-Skala (spatial scale) benennt den Bereich, in dem ein Antrieb wirkt. Der Grad des wissenschaftlichen Verständnisses gibt die Einschätzung zum Wissen über den jeweiligen Antrieb wieder.

    Abb. 4: Änderungen der Strahlungsantriebe zwischen 1750 und 200522

    Das untere Diagramm B zeigt die zusammen gefassten Antriebe in ihrer Wahrscheinlichkeitsverteilung (bei 90 % Fehlerintervall). Nur bei den Treibhausgasen wird Normalverteilung angenommen, die Aerosole und
    die anthropogenen Antriebe zeigen abweichende Verteilungen, die sich nach Anwendung der Monte-Carlo-Methode einstellen.

    Die Änderung des Antriebs wird in Watt/m2 angegeben. Dieser Wert ist eine reine Rechengröße und Ergebnis der Simulation. Es gibt keine Messdaten zu einzelnen Strahlungsantrieben.

    Wie stimmen die in Abb. 4 gezeigten Antriebe zu den Klimaereignissen mit der Realität überein? Der Bericht enthält dazu keine direkte Aussage. Der zugehörige Grad des wissenschaftlichen Verständnisses (LOSU) gibt lediglich die Meinung der Fachleute wieder, die im Rahmen des Berichts mit dem speziellen Klimaereignis befasst sind. Ist der Grad hoch, bedeutet dies gute bis sehr gute Übereinstimmung unter den Fachleuten, ist er niedrig, werden sehr unterschiedliche Ansichten diskutiert. Der LOSU ist demnach nicht von subjektiven Einflüssen frei, zur Beurteilung, wie Simulation und Realität übereinstimmen, ist er nur mit Vorbehalten nutzbar.

    Gemäß Abb. 4 wird das Wirken der Treibhausgase gut verstanden. Dies basiert vor allem auf den Messwerten. Zwar liegen präzise Messungen erst seit 1958 vor23.
    Es gibt jedoch Eiskerne aus der Antarktis, aus denen mit einer Auflösung von ca. 10 Jahren der CO2-Anteil der Atmosphäre zeitabhängig rekonstruiert wurde.

    Wie sieht es aber bei den Aerosolen aus? Hierbei wird zwischen den direkten und indirekten Effekten unterschieden. Beim direkten Effekt zerstreuen und absorbieren die Aerosole die kurzwellige und langwellige
    Strahlung, wobei sie die Strahlungsbilanz der Atmosphäre verändern. Der indirekte Effekt beeinflusst die Stärke und die Dauer der Wolkenbildung. Wolken tragen entscheidend zu der Erd-Albedo bei.

    Der 4. IPCC-Bericht kommentiert ausgiebig die Fortschritte, die sowohl bei den Messverfahren als auch in der Simulation von Wolkenbildung und Albedo seit dem 3. Bericht getätigt wurden. Trotzdem wird
    der LOSU des Albedo-Effekts durch Wolken als niedrig eingeschätzt. Gründe dafür liegen in den Messverfahren und in der Modellierung. Als Mängel bei den Messverfahren werden die zu grobe Auflösung der
    Satellitenmessungen und das Nichtunterscheiden von anthropogenen und natürlichen Aerosolen genannt. Die Hauptschwäche der Modellierung sei das geringe Wissen über Quantität und Verteilung anthropogener
    Aerosole, besonders in der präindustriellen Zeit. Weiterhin versagen die AOGCM bei der Simulation der Aerosol-Wolken-Interaktion, weil die dafür erforderliche kleinteilige Auflösung nicht geleistet werden kann.24
    Im Übrigen simulieren lediglich neun der 23 AOGCM den indirekten Effekt.

    Die Albedo beeinflusst wesentlich das Temperaturgleichgewicht der Erde. Die Erd-Albedo beträgt ca. 30 %, Wolken sind daran zu etwa zwei Drittel beteiligt. Verringert sich die Albedo um ein Prozent, erhöht sich die mittlere Temperatur um 1 ºC und vice versa. Dieser Wert entspricht ungefähr dem, der durch die langwellige Strahlungsänderung einer CO2-Verdopplung erreicht wird.25

    Die im 4. Bericht enthaltenen Aussagen über Aerosole tragen nicht dazu bei, den zugehörigen Ergebnissen zu vertrauen. Als geradezu abenteuerlich muss die Angabe gelten, wonach seit 1750 der Strahlungsantrieb
    des Albedo-Effekts durch Wolken sich um -0,7 (-0,3 bis -1,8) Wm-2 geändert hat (Abb. 4). Auf welche Weise wurde der Antrieb für das Jahr 1750 bestimmt, wenn weder die Messverfahren noch die Modellierung
    hinreichend korrekt arbeiten?

    Weiter stellt sich die Frage, warum für den zusammen gefassten Antrieb kein LOSU angegeben wird. Der Bericht gibt darauf keine Antwort. Dass eine Antwort von Bedeutung ist, hat der Verfasser selbst erfahren.
    Im Vortrag zum Klimawandel eines Abteilungsleiters des Bundesumweltamtes wurde behauptet, dass mit 99,9%-iger Wahrscheinlichkeit die Simulationen mit dem tatsächlichen Geschehen übereinstimmen. Auf den Einwand, für
    Treibhausgase als die am besten erforschten Klimaagenzien gelte gemäß dem 4. IPCC-Bericht, dass die Expertenmeinungen zu lediglich 90 % übereinstimmen, wurde mit Verdächtigungen und persönlichen Unterstellungen geantwortet.

    Der zusammen gefasste Antrieb setzt sich aus den Antrieben einzelner Klimaereignisse zusammen, deren Übereinstimmung von Simulation und Realität sehr unterschiedlich ist. Für die Übereinstimmung wird der LOSU als Maß zugrunde gelegt, da nur er zur Verfügung steht. Sicher ist, dass ein LOSU des kombinierten Antriebs beträchtlich niedriger ist als der höchste der Einzelantriebe.26 Die Aussage, es sei höchst wahrscheinlich (extremely likely), dass Menschen einen substantiellen Einfluss auf die Klimaerwärmung haben27, lässt sich folglich nicht aus
    dem Ergebnis-Diagramm der Abb. 4 herleiten. Dieses liefert nach der berichtseigenen Sprachregelung28 nur ein about as likely as not für den menschlichen Faktor. Die Frage stellt sich, wie und durch wen das einen Außenstehenden überzeugende extremely likely zustande kam.

    Vorausberechnungen

    Vorausberechnungen zum zukünftigen Klima gründen sich ausschließlich auf Modellrechnungen. Eine Vorausberechnung ist eine Extrapolation, die auf einem soweit als möglich abgesicherten Ergebnis als Ausgangsbasis und der Vorgabe von Einflussfaktoren basiert. Die Einflussfaktoren sind dabei grundlegende Größen. Die Fehler einer Vorausberechnung bestehen aus dem Fehler der Ausgangsbasis und dem mit
    der Entfernung vom Ausgang wachsenden Extrapolationsfehler.

    Typisch für Vorausberechnungen sind so genannte Szenarien. Ein Szenario stellt die Simulation eines Vorgangs dar, der einen konkreten Bezug zur Realität hat und für sich plausibel ist. Eine Vorausberechnung setzt sich in der Regel aus mehreren Szenarien zusammen. Erforderlich ist, mit möglichst wenigen Szenarien einen Ereignisbereich zu schaffen, der die wesentlichen Fragen an die Zukunft beantworten kann.
    Im Bericht werden vorrangig drei Szenarien behandelt, deren Einflussfaktoren ausschließlich anthropogene Treibhausgase sind. Sie werden als B1(low)-, A1B(medium)- und A2(high)-Szenarien bezeichnet. Jedem Szenario werden spezifische Emissionsverläufe von Treibhausgasen (CO2, SO2, NH4) über die Jahre von 2000 bis 2100 vorgegeben. Mit diesen Eingaben berechnen die Klimamodelle (AOGCM, EMIC, einfache Klimamodelle) die sich einstellenden Gaskonzentrationen, die Strahlungsantriebe und die mittleren globalen Temperaturänderungen29. Das Jahr 2000 ist die Ausgangsbasis, demnach beginnen alle Emissionen mit deren globalen Durchschnittswerten, ausgenommen ist die mittlere globale Temperaturänderung. Deren Bezugsgröße ist die durchschnittliche globale Temperatur der Zeitspanne von 1980 bis 1999. Zusätzlich zu den drei Szenarien werden noch drei weitere so genannte Stabilisationsszenarien erstellt. Beim Ersten bleiben die Vorgabewerte, also die Emissionen, von 2000 für die 100 Jahre zeitlich konstant, Szenario 2 und 3 setzen im Jahr 2100 auf und rechnen 200 Jahre mit den fixen Endwerten der Szenarien A1B und B1 weiter.

    Abb. 5 zeigt die Ergebnisse der Szenarien B1, A1B und A2 sowie die Stabilisierungsszenarien für die mittlere globale Temperaturänderung. Die Zahlen an den Verläufen geben die Anzahl der beteiligten Klimamodelle an. Die untergelegten Schatten bezeichnen die Standardabweichungen der jährlichen Mittelwerte der einzelnen Modelle.

    Abb.5: Mittlere globale Temperaturänderung der Erdoberfläche gemäß der Szenarien B1, A1B und A2 sowie der Stabilisierungsszenarien30

    Wie sind nun diese Vorausberechnungen einzuschätzen? Grundsätzlich ist festzustellen, dass die Zeitspannen der Vorhersage ob ihrer Dauer alle Vorstellungen sprengen. Selbst bei einer im Vergleich zum Klima mathematisch einfachen Sache wie eine Bevölkerungsvorausberechnung (sehr gute Daten als Ausgang und keine Nichtlinearitäten in den Modellen) werden seriöse Aussagen nicht über einen Zeithorizont von 50 Jahren hinaus getroffen. Bei der Voraussetzung, dass der Fehler der Ausgangsbasis vernachlässigbar ist, wird üblicherweise die Vorausberechnung beendet, wenn sich die Vorhersagewerte der einzelnen Szenarien mehr als 20 % voneinander unterscheiden. Dem liegt die Annahme zugrunde, dass mit längerer Vorhersagezeit die Vorgaben für die Szenarien immer unwahrscheinlicher sowie die Ergebnisse beliebiger werden, mithin der Extrapolationsfehler zu groß wird.

    Für die in Abb. 5 gezeigten Szenarien ergeben sich folgende Verhältnisse31:

    (max. Differenz = (Tmax – Tmin)/ Tmax* 100%)

    Mittlere globale Temperaturänderung (ºC)

    2011 – 2030

    2046 – 2065

    2080 – 2099

    A2

    0,64

    1,65

    3,13

    A1B

    0,69

    1,75

    2,65

    B1

    0,66

    1,29

    1,79

    Max. Differenz

    7,2 %

    26,3 %

    42,8 %

    Demnach sollte die Vorausberechnung des Klimageschehens etwa mit dem Jahr 2040 gestoppt werden, wobei der Fehler der Ausgangsbasis nicht berücksichtigt wird. Für die Zeit nach 2040 werden die Ergebnisse
    zunehmend wertlos, da sich die Szenarienverläufe immer mehr voneinander unterscheiden. Es ist dann eine Glaubenssache, welchem Szenario der Vorzug gegeben wird.

    Die hier vorgetragene Argumentation lässt sich gleichermaßen auf die Ausführungen des 4. IPCC-Berichts zu regionalen Klimavoraussagen32 anwenden. Eine Vorausberechnung liefert qualitative und quantitative Ergebnisse für einen definierten Bereich, im Fall der Abb. 5 ist es die Erde. Die kleinste Flächeneinheit einer globalen Vorausberechnung ist das Gridelement, dessen Fläche, vom AOGCM abhängig, zwischen 15.600 und 160.000 km2 beträgt. Das bedeutet, dass beispielsweise der Freistaat Sachsen mit einer Fläche von 18.415 km2 bei
    den meisten AOGCM kleiner als ein Gridelement ist. Damit sind keine oder höchstens sehr eingeschränkte Simulationen möglich.

    Seitens der Klimamodelle wird versucht, diesen Mangel zu beheben. Ein Ansatz ist das so genannte genestete Modell (nested regional climate model). In das AOGCM wird ein regionales Klimamodell (RCM) mit entsprechend angepasster Gridelementgröße eingebettet. Die Gridelementgröße beträgt in der Regel 50 x 50 km, es wird aber auch mit kleineren Gridelementen (10 x 10 km) gerechnet. Kennzeichnend für die genesteten Modelle ist der Austausch von zeitveränderlichen Klimagrößen über die Modellgrenzen hinweg. Dies führt gemäß dem 4. IPCC-Bericht zu schwierigen Problemen bei den Randbedingungen33. Die Folgen sind Inkonsistenzen zwischen den beiden Klimamodellen. Über die Güte der so erzeugten regionalen Simulationen gibt der Bericht keine Auskunft. Sie dürfte aber mit Sicherheit geringer als die einer weltweiten Simulation sein.

    Die Gridelementengröße beeinflusst die Ergebnisse der Simulationsrechnungen. Einerseits können die Resultate besser dem realen Geschehen entsprechen, beispielsweise bei der Wolkenbildung.
    Andererseits ist die Gleichverteilung der Klimaagenzien wie die der Treibhausgase bei kleinerem Gridelement zunehmend nicht mehr gegeben. Bei einem 10 x 10 km-Gridelement ist u.a. zwischen Stadt- und Landregionen zu unterscheiden.
    Städte weisen deutlich höhere Durchschnittstemperaturen als ländliche Regionen auf. Neben den erwähnten Inkonsistenzen, also Unterschiede in den Ergebnissen von AOGCM und RCM bei der Vorgabe von Emissionsänderungen, wären noch systematische Fehler unbekannter Größe wegen veränderter und unvollständiger Berechnungsgrundlagen zu erwarten. Alles in allem sollte dies den Zeithorizont der regionalen gegenüber
    den weltweiten Vorausberechnungen weiter verkürzen.34

    Anfang Mai 2008 wurde die Öffentlichkeit von einer Publikation in der Zeitschrift Nature überrascht35.
    Sie sagt nicht mehr und nicht weniger aus, dass sich der Klimawandel eine Pause gönnt. Grund für diese neue Erkenntnis sind offensichtlich Messwerte des letzten Jahrzehnts, die nicht mit den Ergebnissen der Simulationsrechnungen übereinstimmen. Für die Vorausberechnungen hat das zur Folge, dass ihre Ausgangsbasis nicht durch Messdaten gesichert ist und beliebig wird. Die dazu gehörenden Kurvenverläufe sind dann weitgehend fiktional. Die Klimavorausschau des Berichts ist streng genommen Makulatur. Es bleibt abzuwarten, ob der IPCC für die wichtigste Aussage des Band 1 The Physical Science Basis eine Korrektur nachreichen wird. 

    Fazit

    Der Focus der Anmerkungen zum 4. IPCC-Bericht wurde auf die Computermodellierung und -simulation gerichtet. Ohne Zweifel bildet dieser Bereich einen Eckstein des Berichts, erst mit der umfassenden Nutzung
    moderner Hard- und Software lässt sich ein so komplexes Wissengebiet wie das Klima der Erde überhaupt systematisch ordnen und in seinen Auswirkungen verstehen. Hervor zu heben ist die immense Leistung, die in der
    Computermodellierung und -simulation von Klimaereignissen in einem nun schon Jahrzehnte dauernden Prozess erbracht wurde. Viele Dutzende, wenn nicht Hunderte von Arbeitskräftejahren an Aufwand für Design, Programmierung und Test waren erforderlich, um die Klimamodelle in den heutigen Zustand zu bringen. Viele von ihnen geben ein herausragendes Beispiel für den state of the art der Softwaretechnologie.

    Diese Aussage gilt der Computermodellierung und -simulation. Sie ist ein Instrument, das bei der Klimaforschung eingesetzt werden muss. Als Instrument erweitert sie die Möglichkeiten der Klimaforscher um Größenordnungen. Was die Informationstechnologie aber nicht kann, ist den Beweis für die Übereinstimmung der Simulation mit der Realität zu liefern. Auch das Rechnen mit verschiedenen Klimamodellen und das Zusammenfassen der so erhaltenen Ergebnisse helfen da nicht weiter. Nur der Vergleich der Simulationsergebnisse mit auf anderem Wege gewonnenen verlässlichen Daten schafft Gewissheit.

    Wie aber sieht die verfügbare andere Datenlage aus? Daten mit umfassender globaler Gültigkeit gibt es seit ca. 50 Jahren, eine für den Anspruch der Klimatologie sehr, sehr kurze Zeit. Wenige Daten aus direkter Messung reichen etwas weiter zurück. Aus ihnen werden fehlende Messwerte errechnet oder geschätzt. Beide Methoden haben den Mangel, dass sie den Fehler der Vergleichsdaten vergrößern, die erste Methode weniger, die zweite mehr. Für eine Wissenschaft, die in Jahrhunderten und Jahrtausenden denkt, eine erbärmliche Ausgangslage. Daraus verbindliche Aussagen zum vergangenen und zukünftigen Klimageschehen zu treffen, erfordert ein ungeheures Maß an Chuzpe.

    Aber hat die Klimatologie nicht Erfolg in der Gesellschaft? Ja, sie hat Erfolg, sogar riesigen.

    Es ist ein Phänomen, wie eine Orchideenwissenschaft es geschafft hat, sich im Ranking des allgemeinen öffentlichen Interesses so weit oben anzusiedeln. Dies liegt nicht an den ohne Zweifel vorhandenen wissenschaftlichen Erkenntnissen. Was also ist der Grund? Er ist im gesellschaftlichen und psychologischen Bereich zu suchen. Eine Hypothese: In der westlichen Welt weit verbreitet ist das schlechte Gewissen über und die Ängste am eigenen Fortschritt. Ängste entstehen dadurch, dass der Fortschritt immer unverständlicher wird. Die Aussage, der Klimawandel sei menschgemacht und sehr schlimm und vor allem durch die entwickelten Gesellschaften verursacht, entspricht der Gefühlslage vollkommen. Die politischen und medialen Eliten nehmen sie auf und verstärken sie je nach Bedarf. Sie bedienen das schlechte Gewissen und bestätigen das Gefühl, bald in den selbstverschuldeten Niedergang einzutreten.

    Was ist zu tun? Die Regeln der Wissenschaft gelten weiter. Aussagen, von denen behauptet wird, wissenschaftlich zu sein, müssen falsifiziert werden können. Dieser Prozess ist unabhängig von Mehrheiten, auch von demokratisch hergestellten. Notwendig ist, die Publikationen und Verlautbarungen des IPCC auf deren wissenschaftlichen Gehalt abzuklopfen und die Ergebnisse zu veröffentlichen. Optimistisch wird erwartet, dass die so vorgebrachten Argumente schließlich wirken, spätestens dann, wenn der Bevölkerung wegen des „menschgemachten“ Klimawandels große Kosten aufgebürdet werden.

    Die prognostizierten Kosten belaufen sich auf Abermilliarden. Es ist festzustellen, dass der Großteil der Medien und die Politik aktuell die Aussage des IPCC kritiklos hinnehmen, der Klimawandel sei höchst wahrscheinlich menschgemacht. Warum wird, wie bei Geldgeschäften üblich, nicht ein Gutachten unabhängiger Dritter eingeholt? Die Milliarden können nur einmal ausgegeben werden, was ist, wenn sich der „menschgemachte“ Klimawandel als nicht existent herausstellt?


    1  Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics, 2007,
    Gerlich., p.81

    2  IPCC AR4 Chapt. 8.1.3

    3  Russell, G.L., 2005: 4×3 Atmosphere-Ocean Model Documentation,Grid. http://aom.giss.nasa.gov/doc4x3.html

    4  IPCC AR4 Chapt. 8.2

    5  IPCC AR4 Chapt. 8.2.7

    6  IPCC AR4 Chapt. 8.8.2

    7  IPCC AR4 Chapt. 8.8.3

    8  Claussen, M., 2005: Table of EMICs. http://www.pik-potsdam.de/emics

    9  http://www-pcmdi.llnl.gov/ipcc/about_ipcc.php

    10 IPCC AR4 Chapt. 6.4.1.3

    11  Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

    12  Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

    13  IPCC AR4 Chapt. 2.9.1

    14  Russell, G.L., 2005: 4×3 Atmosphere-Ocean Model Documentation, Introduction. http://aom.giss.nasa.gov/doc4x3.html

    15  IPCC AR4 S. 96

    16  IPCC-TAR 2001, The Scientific Basis, p. 134

    17  IPCC AR4 Box 6.4

    18  IPCC AR4 Summary for Policymakers, p.3

    19  http://www.uni-heidelberg.de/presse/news08/pm280402-3bau.html

    20  IPCC AR4 Chapt. 6.6.3.4

    21  IPCC AT4 Chapt. 6.1.2.3

    22  IPCC AR4 Chapt. 2.9.2

    23  IPCC AR4 Chap. 2.3.1

    24  IPCC AR4 Chap. 2.4.4.5

    25  IPCC AR4 Chap. 1.5.2

    26  Die mathematisch begründete Berechnung eines zusammen gefassten LOSU kann nicht gegeben werden.
    Eine Abschätzung, die auf dem Schwergewicht (Produktsumme aus |Differenz des Antriebswerts| x LOSU, geteilt durch die Gesamtantriebsdifferenz) basiert, kommt zu einem Gesamt-LOSU von ca. 0,6. LOSU-Angaben entsprechen
    hierbei high=0,9, medium=0,5, medium-low=0,35, low=0,2.

    27  IPCC AR4 Executive Summary, S. 131

    28  Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Adressing Uncertainities, Table 4

    29  IPCC AR4 Chap. 10, Fig. 10.1, Fig. 10.26

    30  IPCC AR4 Chap. 10, Fig. 10.4

    31  IPCC AR4 Chap. 10, Table 10.5

    32  IPCC AR4 Chap. 11

    33  IPCC AR4 Chap. 11 S. 919

    34  Der Freistaat Sachsen hat solche regionale Vorausberechnungen vornehmen lassen. Sie folgen dem gleichen zeitlichen Schema wie
    die weltweiten Prognosen. Es ergeben sich dann skurrile Resultate. So wurde bei einer Präsentation eine Ergebniskarte gezeigt, die für einen Teil des Lausitzer Berglandes (die Gridelementengröße betrug
    10 x 10 km) im Jahr 2089 für die Höhenlinie 500 m einen Temperaturzuwachs von 4,2 ºC auswies.

    35  Keenlyside, N. S., M. Latif, J. Jungclaus, L. Kornblueh, and E. Roeckner, 2008: Advancing Decadal-Scale Climarediction in the North Atlantic Sector. Nature, 453, 84-88

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Anmerkungen zum 4. Bericht des IPCC 2007 Computermodellierung und -simulation

    Kosten Klimaschutz

    Posted by Rauch on 22nd August 2007

    Artikel Kosten Klimaschutz Montag, 27.08.2007 (Leserbrief)
    Bis 2100 sollen die Kosten des Klimawandels allein in Deutschland nach einem Bericht des DIW (Deutsches Institut für Wirtschaftsforschung ) 3.000.000.000.000 EUR (3 Billionen !!) betragen. Der Bericht des DIW basiert auf Simulationen der künftigen Klima-Entwicklung. Wie namhafte Wissenschaftler inzwischen belegt haben, sind die gängigen Klimamodelle mit zahlreichen Fehlern behaftet (z.B. Dr. rer. nat. Heinz Hug). Außerdem ist fraglich, ob der anthropogene Anteil der CO2-Emission tatsächlich für die sich abzeichnenden Klimaveränderungen verantwortlich ist (Dr. Rainer Six – CO2 und Klima). Solche Modelle als Grundlage für politische Entscheidungen zu missbrauchen, ist Volksverdummung. Wir sollen mal wieder abgezockt werden, wie wir es schon in der Vergangenheit erduldet haben. Das Duale System Deutschland mit seinem Gelben Sack steht vor dem Aus (Wirtschaftswoche). Die unheilvolle Verpackungsverordnung von 1991 hat uns immensen Schaden zugefügt ( www.readers-edition.de : Umweltzerstörung durch die Verpackungsverordnung – Dieter Ber). Weitere Schäden entstehen durch den Ausstieg aus der Kernforschung (Dr.-Ing. Günter Keil: der einsame Ausstieg). Die Kernforschungsanlage Jülich ist zum Forschungszentrum degradiert worden. Prof. Kurt Kugeler, ehemals TH Aachen, rät zum Auswandern. Der Energiebedarf steigt weltweit bis 2030 auf das doppelte, bis 2050 auf das vierfache. Herr Trittin und Erben (auch Frau Dr. rer. nat. Angela Merkel als Physikerin) glauben doch nicht im Ernst, dass man das mit Wind und Sonne bewerkstelligen könnte. Die Kernkraftwerke der dritten und vierten Generation sind z.Zt. das einzige, was den steigenden Energiebedarf befriedigen kann. Als willkommenes Nebenprodukt fällt auch noch Wasserstoff ab, was unsere liebgewonnen Autos bewegen könnte. Übrigens kennt Frau Merkel sicher auch den Energienerhaltungssatz, oder hatte PISA auch schon zu ihrer Schulzeit zugeschlagen?? Energie ist nicht erneuerbar. Es ist ein Umdenken erforderlich. Nicht die Klimaveränderungen sind die Katastrophe, sondern die uns oktruierten Maßnahmen. Durch die tägliche Gehirnwäsche a la 1984 glauben wir schon den ganzen Unsinn. Übrigens war Grönland mal grün und es gab Nilpferde in der Themse.
    Dr. med. Joachim Grewe, D 53757 St. Sankt Augustin/Hennef

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Kosten Klimaschutz

    Politik der Kernenergie

    Posted by Rauch on 29th Juli 2007

    von Dr. Helmut Böttiger, Wiesbaden

    Der Parteitag der SPD 1956 in München forderte die
    rasche Entwicklung der friedlichen Nutzung der Kernenergie als
    objektive Voraussetzung für die wirksame Überwindung von Not und
    Elend insbesondere in den unterentwickelten Ländern. Kaum 20
    Jahre später sollte das nicht mehr wahr sein. Heute fordert die
    gleiche Partei den Ausstieg aus der Kernenergie und die Rückkehr
    zu sogeannten alternativen Energiequellen: Sonne Wind und
    Biomasse. Hatte man sich 1956 geirrt oder ist die Überwindung
    der weltweiten materieller Not nicht mehr das Ziel der Partei?

    Der Hintergrund

      Um eine Sache richtig einschätzen zu können, bedarf es
      eines angemessenen Hintergrunds. Um die Befürwortung oder
      Ablehnung der Kernenergie zu beurteilen, wählen wir als
      Hintergrund die Machtfrage: Welches sind die objektiven
      Voraussetzungen, um Herrschaft und Macht ausüben, um anderen
      Menschen den eigenen Willen aufzwingen zu können? Was bedeutet
      Herrschaft praktisch? Wer auf diese Frage keine Antwort findet,
      versteht unserer Meinung nach den Tanz um Kerenergie und
      sogenannten Umweltschutz nicht.

      Macht ist im Unterschied zu Führung, die den besseren
      Weg zum gemeinsamen Ziel zeigen kann, das Vermögen, das
      Verhalten anderer Menschen zu beeinflussen: „zu führen, wohin
      sie nicht wollen“. Wenn man von den Formen der physischen
      Gewaltanwendung absieht, vor denen in der demokratischen
      Gesellschaft den Einzelnen die Polizei schützt, bleibt als
      Machtmittel nur der Bedarf und seine Deckung. Das gilt für die
      Drogenabhängigkeit ebenso wie für sexuelle Hörigkeit oder die
      Wirkung von Lob und gesellschaftlicher Anerkennung. Sexuelle
      Hörigkeit setzt eine bestimmte Form von Geilheit voraus. Das
      gleiche gilt offenkundig für die Drogenabhängigkeit und
      ähnliches. Machtausübung über Lob und Anerkenntung gelingt nur
      bei mangelndem Selbstbewußtsein der Folgsamen, die mangels
      eigenen Urteils auf das der „Anerkannten“ angewiesen sind.

      Wenn man die Formen der Machtausübung zusammenfaßt, dann
      kommt man auf eine einfache Formel. Immer ist ein Mangel, eine
      Not, ein Elend der Beherrschten die Voraussetzung der
      Machtausübung und die glaubhaft gemachte Fähigkeit, bei
      Wohlverhalten diese Notlage abzuwenden. Ohne diesen Mangel und
      die Angst vor ihm, ist Machtausübung nicht möglich. Ohne Mangel
      gibt es begeisterte Zusammenarbeit, gibt es Führung aber keine
      Herrschaft und Macht. Macht ist immer die Möglichkeit, den
      anderen nach Belieben in Not halten zu können. Ohne Mangel keine
      Macht.

      Dieser Zusammenhang läßt begreifen, warum der „freie“
      Markt zur Ideologie der scheinbar gewaltfreien Machtausübung
      werden konnte. Macht entspricht im Wortschatz des Marktes dem
      Preis. Der Preis bezeichnet scheinbar eine Menge Geld, die für
      ein gewünschtes Versorgungsgut ausgegebenen wird. Als Lohn wird
      Preis spürbarer, da steht er für eine bestimmte Menge
      Lebenszeit, die man den Weisungen (der Macht) anderer
      unterstellt, um das Versorgungsgut zu erwerben. Wer die Preise
      macht, bestimmt wieviel Lebenszeit man für den eigenen
      Lebensunterhalt verpfänden muß. Nun „macht“ niemand die Preise.
      Der Markt ermittele sie aus Angebot und Nachfrage – heißt es.
      Nun wäre zu fragen, wer dieser Herr, der Markt sei. Der Markt –
      wer immer das ist – regelt der Theorie nach den Preis unter
      Bedingungen allgemeiner Knappheit. Wie verhält er sich der aber,
      wenn wie inzwischen, die möglichen materiellen
      Produktionsvoraussetzungen der Knappheit und dem Mangel objektiv
      den Grund entziehen.

      Unschwer läßt sich erkennen, daß sich auf dem heutigen
      Markt günstige Preise nicht durch Güterproduktion erzielen
      lassen, sondern durch die erfolgreiche Verhinderung der
      Produktion. Nach der Logik des freien Marktes ist es für den
      Betreiber von Kraftwerken und seine Bank einträglicher, nicht in
      ein weiteres Kraftwerk zu investier und mit der Knappheit den
      Strompreis hochzuhalten, als in ein zusätzliches Stromangebot zu
      investieren und durch das Angebot den Preis und den Erlös für
      die gleiche Leistung zu drücken. Von einem bestimmten
      Versorgungsgrad an wird die Steigerung der Güterproduktion
      „unwirtschaftlich“, das heißt politisch, steigert sie nicht mehr
      die Macht über das Leben anderer, sondern baut sie ab. Dann
      zahlt sich nur noch die Verhinderung von Güterproduktion aus. In
      dieser Situation ist es denen, die an der Steigerung ihrer
      Machtausübung gelegen ist, ratsam, über die Lebenzeit anderer
      Menschen nicht mehr produktiv sondern antiproduktiv zu
      verfügen.

      Wer kann verhindern, daß bei relativ hohem Preis mehr
      Strom erzeugt wird? Doch nicht die SPD, doch nicht die Grünen,
      wird man schnell einwerfen wollen, allenfalls die mit einander
      verflochtetenen Banken, die für die enormen Investitionen keinen
      Kredit bereitstellen. Aber wer sorgt dafür, daß diese ihre
      Weigerung politisch durchsetzen können, und die Institution der
      Gemeinsamkeit, der Natinalstaat, sie nicht zu einer Änderung
      ihrer Investitionspolitik zwingt? Wenn man von revolutionärer
      Zerstörungswut absieht, die in der Regel mehr praktische
      Freiheit (von Mangel und Zwang) vernichtet als ermöglicht,
      braucht die Investitionspolitik der Geldgeber zur
      Aufrechterhaltung oder Steigerung der Knappheit, wie wir sie
      heute allenthalben beobachten können, eine betörende
      Rechtfertigung. Hier kommt Umweltschutz, kommen SPD, Grüne,
      Medien und sogenannte NGOs (Nicht-Regierungs-Organisationen,
      private Zirkel mit viel Geld und Unterstützung durch Medien) ins
      Spiel.

      Doch wir reden hier von Kernenergie. Da die Produktion
      von Versorgungsgütern immer eine Frage des Stoffwechsel ist und
      Stoffwechsel soviel wie Energie bedeutet, besteht ein enger
      Zusammenhang zwischen Verfügbarkeit von Energie und
      Versorgungsgrad einer Bevölkerung. Die Besonderheiten der
      Kernenergie im Rahmen der bisherigen Grenzen der
      Energieversorgung rührt an den Zusammenhang zwischen Kernenergie
      und Herrschaft. Der für unsere Versorgung wichtige Stoffwechsel
      ist ein chemischer und ein mechanischer. Nahrungsmittel und
      Werkstoffe müssen hergestellt und entsprechend zubereitet
      werden, das erfordert Energie – warum aber
      Kernenergie?

    Molekulare Bindungskräfte

      Die Erde besteht aus einer Fülle unterschiedlicher
      Stoffe. Die wenigsten kann der Mensch in der vorgefundenen Form
      unmittelbar gebrauchen, er muß sie umwandeln. Alle Stoffe, die
      auf der Erde vorkommen, setzen sich aus nur 81 stabilen
      Elementen zusammen. Hinzu kommen einige wenige instabile
      Elemente mit sehr langen Halbwertzeiten (über mehrere Millionen
      Jahre), z.B. Wismut Thorium oder Uran. Aus chemischen Elementen
      setzen sich auch die benötigten Nahrungsmittel und Werkstoffe
      zusammen. Um sie chemisch herzustellen oder mechanisch
      abzuändern, wird entweder Energie frei oder muß diese zugesetzt
      werden. Ohne Energie ist weder die chemische Verbindung noch die
      mechanische Zubereitung der Stoffe möglich.

      Die bisher für den Menschen gebräuchlichste Energie
      stammt aus den Bindungskräften zwischen Elementen. Um dies
      verständlich zu machen, greifen wir auf die einfachste Form der
      heute üblichen Atomvorstellung zurück. Danach besteht ein
      Element aus Atomen, dieses wiederum aus einem politivgeladenen
      Kern und einer negativ geladenen Elektronenhülle. Dabei
      konzentriert sich die Masse des Atoms im Kern. Das Volumen des
      Kernes verhält sich zur Masse des gesamten Atoms, das die
      äußerste Elektronenschale umschließt, wie 1 : 140 Billionen.
      Gelänge es, die Atomkerne irgendwelcher Elemente alleine also
      ohne ihre Elektronenhülle zusammenzulegen, dann wöge ein cm³
      davon 140 Millonen Tonnen.

      Kern und Schale werden durch entgegengesetzte
      elektromagnetische Ladung zusammengehalten. Dabei heißt die
      negative Ladung in den äußeren Schalen Elektron, die positive im
      Kern Proton. In einem Atom sind in der Regel ebenso viele
      Elektronen wie Protonen vorhanden. Die Elektronen bewegen sich
      nach dem gebräuchlichen Atommodell um den Kern wie Planeten um
      die Sonne. Dabei müssen bestimmte Mengen und Abstände
      eingehalten werden. Die Abstände legen sich wie Schalen um den
      Kern. Nur auf diesen bewegen sich Elektronen. Auf jeder Schale
      findet immer nur eine bestimmte Menge Elektronen Platz. Sind die
      Plätze eingenommen, müssen weitere Elektronen auf der nächsten
      weiter außen angesiedelten Schale Platz nehmen. Die Anzahl der
      Plätze auf der jeweiligen Schale sind bei allen Atomen gleich.

      Die Möglichkeit, chemische Verbindungen eingehen zu
      können, hängt von der jeweils äußersten Elektronenschale des
      Atoms ab. Sie entscheiden über die chemischen Eigenschaften des
      Elements. Es scheint eine Art Bedürfnis der Atome zu geben,
      möglichst alle Plätze auf der äußeren Schale mit Elektronen zu
      füllen. Dies ist die Voraussetzung dafür, daß Elemente chemische
      Verbindungen mit einander eingehen (Atome sich zu Molekülen
      verbinden). Daher nennt man die Elektronen auf der jeweils
      äußersten Schale auch Valenzelektronen.

      Elemente mit einer voll besetzten äußeren
      Eletronenschale sind sogenante Edelgase. Sie sind chemisch
      stabil und gehen keine chemischen Verbindnung ein. Ist die
      jeweils äußerste Schale nicht vollständig mit Elektronen
      besetzt, dann sind chemische Verbindungen möglich und
      wahrscheinlich. So fängt Eisen an zu rosten, weil ein Eisenatom
      in einem Kristal weniger stabil ist als ein Eisenoxid-Molekül.
      Warum das so ist soll ein Beispiel zeigen: Eine bekannte
      chemischen Verbindungen ist Kochsalz, Natriumchlorid. Das
      Alkalielement Natrium hat auf seiner äußersten Elektronenschale
      nur ein einsames Elektron. Nur noch ein einziges fehlt aber bei
      bei dem Halogen Chlor (das mit einem Ladungselement mehr zum
      Edelgas Argon würde). Beide Elemente verbinden sich zu Kochsalz,
      indem das vereinzelte Elektron des Natrium die Elektronenschale
      des Chlor sozusagen vervollständigt.

      Unter bestimmten Umständen kann es vorkommen, daß
      Elemente oder Verbindunge ein oder mehrere Elektronen verlieren.
      Das geschieht oft in chemischen Lösungen oder wenn radioaktive
      Strahlung Elektronen aus der äußeren Schale wegschlägt. Dadurch
      ändert sich das chemische Verhalten der Atome oder ehemaligen
      Moleküle. Hier liegt die wichtigste Problematik der radioaktiven
      Strahlung für die Lebenwesen, deren Körper sich ja aus sehr
      komplexen chemischen Verbindungen zusammensetzen.

    Fossile Energiequellen und Boden

      Unsere derzeit gebräuchlichste Energiequelle stammt aus
      dem Energiekreislauf der belebten Natur. Sie ergießt sich beim
      Verbrennen (Oxidieren) von Kohlenstoff C oder Wasserstoff H oder
      deren Verbindungen, den Kohlenwasserstoffen CnHm (also Öl, Gas
      etc) zu Kohlendioxid CO2 und Wasser H2O. Um diese Verbindungen
      wieder aufzulösen, muß die gleiche Energie wieder hineingesteckt
      werden, die bei der Verbrennung freigesetzt wurde. Das gelingt
      zum Beispiel den Pflanzen mit Hilfe der Sonnenenergie. Sie
      spalten CO2 und H2O und bauen daraus den Kohlenwasserstoff auf,
      aus dem sie bestehen. Dabei setzen sie Sauerstoff O frei. Wir
      Tiere leben von der und durch die Aktivität der Pflanzen. Wir
      atmen O ein und verbrennen zumeist die pflanzlichen
      Kohlenwasserstoffe zu CO2 und H2O in unseren Zellen und beziehen
      daraus die nötige Lebensenergie.

      Die Energiequelle für diese Vorgänge liefert das große
      Kernkraftwerk am Himmel, die Sonne. Die uns zur Verfügung
      gestellte Energie ist abgewandelte Sonnenenergie. Die
      Sonnenenergie kommt auf der Erdoberfläche sehr undicht an; sie
      muß, um brauchbar zu sein, gesammelt und verdichtet werden. Das
      leisten zum Beispiel die Pflanzen, die langsam wachsen, aber
      auch Strömungen in Luft und Gewässern, welche die
      Sonneneinstrahlung auslöst. (Ein wenig Energie stammt aus der
      Erde und zwar aus den dort spontan zerfallenden Kernen). Die vom
      Menschen zum Leben benötigte Energie hängt daher weitgehend von
      der Bodenfläche und den dort herrschenden besonderen Boden- und
      Klimabedingungen ab, denn die Bodenfläche ist die Voraussetzung,
      um die Sonnenenergie ernten und verwenden zu
      können.

    Herrschaft und Boden

      Ursprünglich konnten Menschen wie Tiere Macht und
      Herrschaft nur von Individuum zu Individuum ausgeüben. Der
      Stärkere konnte dem Schwächeren die Beute abjagen, ihn aber auf
      Dauer nicht beherrschen,. Denn der Schwächere konnte ihm aus dem
      Weg gehen und für sich selbst jagen und sammeln. Dazu mußte
      allerdings genügend Raum, also Erdoberfläche vorhanden sein. Als
      die Menschen lernten, Tiere zu domestizieren und zu weiden, den
      Boden zu bestellen und Feuer zu nutzen, war die Sache mit dem
      Ausweichen nicht mehr so einfach. Die neuen Verfahren steigerten
      aber den Arbeitsertrag und damit das Versorgungsniveau so sehr,
      daß die Flucht in die Wirtschaftsform des Jagens und Sammeln
      keine menschenwürdige Existenz bieten konnte.

      Macht und Herrschaft hängt nun von der Fähigkeit ab, den
      Boden, an dem ja kein Eigentumsvermerkt hängt, gegen den
      Anspruch anderer zu verteidigen, zu behaupten und gegebenenfalls
      anderen vorenthalten zu können. Die Herrschaft über den Boden
      konnte andere Menschen in Not bringen und gerade das ist die
      materielle Grundlage jeder Herrschaft. Wo es zu viel Boden gibt,
      läßt sich Herschaft nicht aufrechterhalten. Den wohlhabenden
      Kolonisten in Amerika fehlten Dienstboten, solange die ungeheure
      Landfläche der USA nicht privatisiert war und der Preis für
      Farmland nicht wenigstens so hoch war, wie die Importkosten für
      neue Einwanderer. Strittig war die Methode der Privatisierung,
      ob die Kolonialmacht oder eine erwählte Gruppe wohlhabender
      Siedler den Boden privatisieren konnte. In Australien gelang das
      dem britischen Königshaus in den USA den wohlhabenden einander
      verschworenen Siedlern.

      Behauptung des Bodens und das Vermögen, ihn anderen
      vorzuenthalten, wurde zur Grundlage der Herrschaft. Bodenbesitz
      war die Voraussetzung, um die lebensnotwendige Energie zu
      ernten, mit der die Nahrungsmittel, Kleidung, Wohnung, Werkzeuge
      und Waffen hergestellt werden. Mit der Zähmung des Feuerns und
      der Behauptung von Landfläche begann die menschlichen
      Zivilisation, die bis zum zweiten Weltkrieg dauerte und ebenso
      war die Landesverteidigung die reale Grundlage jeder politischen
      Organisation und Herrschaft.

      Boden trägt keine Eigentumsvermerke. Nur wer ihn
      verteidigen kann, besitzt ihn und kann ihn nutzen,
      beziehungsweise andere davon abhalten. Wer den Boden behaupten
      konnte, entschied die militärische Macht. Dabei muß der
      militärisch Stärkere die militärisch Schwächeren nicht vom Land
      vertreiben. Wenn die Schwächeren begriffen hatten, daß der
      Stärkere dies jederzeit konnte, waren sie bereit für einen
      Anteil am Ertrag für diesen zu arbeiten – jedenfalls dann, wenn
      der gewährte Anteil größer war, als das, was sie sich aus der
      Wildnis selbst hätten beschaffen können. Dem entsprach die
      Einsicht der Stärkeren, daß die Schwächeren nur dann für sie
      arbeiten würden, wenn ihr Anteil wenigstens dieses Maß umfaßte.
      Die wechselseitige Einsicht in die Grenzen dieses Zusammenhangs,
      heißt „politische“ oder auch „wirtschaftliche Vernunft“. Wo sie
      fehlt, kommt es zu Krieg, Aufstand und Totschlag.

      Daß militärische Macht und nicht irgendeine
      Vergleichsarbeitszeit die nakte Grundlage des Tauschhandels ist,
      zeigt sich am deutlichsten an den ursprünglichen
      Tauschverhältnisse und ihren Terms of Trade. So bestimmte im
      Fall der Wikinger, die eine Stadt für ihren Handel „erschließen“
      wollten, das Verhältnis zwischen ihrer militärischen Macht und
      der Macht der Stadt den Preis der auszutauschenden Waren. Das
      dürfte noch im Fall der Erschließung Japans durch die US Flotte
      im 19. Jahrhundert so gewesen sein. Der Preis konnte – (was Adam
      Smith und Karl Marx mit ihrer Arbeitswerttheorie nur
      verschleiern und vernebeln) – bei extremer Überlegenheit einer
      Seite bis auf Null absinken. Die Vernunft als Einsicht in die
      tatsächlichen Macht- oder Risikoverhältnisse, führte zu einer
      Einigung die für beide Seiten einigermaßen erträglich erschien.,
      die Unvernunft oder ohnmächtiger Stolz zu Krieg und
      Raub.

      Die nackte Tatsache des Tauschhandels wurde in neuerer
      Zeit durch das Geldsystem überdeckt. Mit Geld lassen sich
      scheinbar alle Rohstoffe und Versorgungsgüter unabhängig vom
      Boden von überall her erwerben. Was aber bestimmte den Wert des
      Geldes und wer legt die Bedingungen fest, unter denen es
      erworben wird? Daß sich die Geldwirtschaft auf die gleiche Form
      der militärischen Behauptungsfähigkeit stützt, macht eine
      einfache Überlegung deutlich: Was wäre ein Kredit – und Geld ist
      nur eine Form von Kredit – ohne Polizei und Militär, die seine
      Anerkennung im kritischen Moment durchsetzen könnten? Er wäre
      doch wohl nichts anderes als ein Geschenk. Erst die militärische
      Macht, den Kredit in der vereinbarten Zeit und mit dem
      vereinbarten Zins wieder eintreiben zu können, macht ihn zum
      Kredit – und Kredit ist jede Form von Wertpapier, vom Geldschein
      bis zum Hedge-Fond-Anteil.

      Militärische Macht hängt allerdings wiederum davon ab,
      ob und wie man über Energie verfügt. Wer mehr oder besseren
      Boden hatte, konnte mehr Truppen unterhalten und entsprechend
      ausrüsten. Wer die verfügbare Energie im Luxus verpraßte, stand
      bald ohne Bedienstete und dann auch bald ohne Boden da. Die
      militärische Macht läßt sich durch diplomatisches Geschick oder
      psychologische Manipulation verstärken. In erstem Fall gelingt
      es zum Beispiel zwei oder mehrere mögliche Gegner, die einem
      Land oder Macht streitig machen könnten, gegen einander in
      Kriege zu verwickeln, um dann beiden bei geringem eigenen
      Aufwand die Verfügung über ihr Land streitig zu machen oder an
      besondere Bedingungen zu knüpfen. Auch die beiden letzten
      Weltkriege und deren nachfolgende Friedensordnung liefern
      hierfür beredte Beispiele – wenn man sie nüchtern und ohne die
      verordnete Propagandabrille betrachtet.

      Im Fall der psychischen Manipulation geht es fast immer
      darum, im anderen (Vertreibungs-) oder Existenz-ängste zu wecken
      und zu schüren. Eingeredete Ängste, das heißt ein „induziertes
      Irresein“, können so stark sein, daß der Betroffene sich nahezu
      bedingungslos Zwängen, die ihm Schutz versprechen, unterwirft.
      Das gilt für allerlei Teufel und Gespenster genauso wie für CO2
      als „Klimagift“ oder der Glaube an die „Nichthandhabbarkeit“
      oder „Unverantwortbarkeit“ der Kernenergie. Die Fähigkeit zur
      diplomatischen und psychologischen Machtausübung setzt aber
      bereits ein Übermaß an militärischer und davon ableitbarer
      finanzielle Macht und Glaubwürdigkeit voraus, sie dienen im
      Grunde nur zur Ökonomisierung des Aufwandes zur
      Machtausübung.

    Kernenergie macht unabhängig.

      In den dreißiger Jahren dieses Jahrhunderts deutete ein
      Buch mit dem Titel „Wissenschaft bricht Monopole“ eine Wende an.
      Es behauptete, wissenschaftliche Forschung und die Endeckung
      neuer Verfahren zur Herstellung von Roh- und Werkstoffen und zu
      ihrer Bearbeitung mache von dem unmittelbaren Landbesitz
      unabhängig. Das galt aber nur, soweit durch solche Erkenntnisse
      Knappheiten umgelagert und verschoben werden konnten. Dies war
      möglich, wenn für ihre Anwendung die erforderliche Energie zur
      Verfügung stand. Das Buch entstand in Deutschland, dessen Boden
      zwar wenig natürliche Rohstoffe aber reichlich Kohle enthielt
      und das damals auch noch über ein relativ starkes Militär
      verfügte. In anderen Gegenden, zum Beispiel in den meisten der
      sogenannten Entwicklungsländern, fehlen entweder die
      Energiequellen oder das entsprechende Militär. Daher konnte dort
      die Wissenschaft auch keine Monopole brechen. Soweit es auch
      dort fähige Wissenschaftler gab, wanderten sie dorthin ab, wo es
      „Kohle“ im realen und im übertragenen Sinne gab. Diese Länder
      werden stets an die Bodenabhängigkeit der Herrschaft (Versorgung
      nur bei Wohlverhalten im Sinne der Versorger) und den Zwang,
      ihren Boden nicht oder nur bei Erfüllung bestimmter Auflagen zu
      behalten, erinnert.

      Erst die Nutzung der Kernenergie löste die
      Energieversorgung vom Boden und relativiert dadurch die
      Bodenbehauptung als Herrschaftsmittel. Zwar sind Kernbrennstoffe
      im Falle der Kernspaltung (schon nicht mehr im Falle der
      Kernfusion) von besonderen Rohstoffvorkommen im Boden und das
      heißt von militärischer Bodenbehauptung abhängig. Aber wegen
      ihrer hohen Energiedichte können große Mengen der
      Energierohstoffe bequehm transportiert und eingelagert werden,
      so daß es auf die Bedingungen des Bodens und seiner Fläche nicht
      mehr unmittelbar ankommt. Der Grund dafür ist, daß die
      Kernenergie die Bindungskräfte der Kerne nutzt, die
      millionenfach dichter gebündelt sind als die molekularen
      Bindungskräfte.

      Molekulare Verbindungen kommen – wie gesehen – über die
      Elektronenschalen zustande, die am äußeren Rand der Atome
      wirksam werden. Im Kern der Atome spielt sich alles viel
      konzentrierter ab. Hier drängen sich die gleichgerichteten
      Ladungen, die einander abstoßen sollten und die auf den
      Elektronenhüllen die Elektronen so weit wie möglich abspreitzen,
      als Protonen dicht zu sammen. Protonen müßten einander als
      Träger gleicher Ladung abstoßen, wenn sie nicht durch ungeheuer
      stärkere Bindungskräfte zusammengeholten würden. Ihre
      Abstoßungskräfte müssen dazu „neutralisiert“ werden. Dies
      geschieht durch sogenannte „Neutronen“. Diese sind an sich auch
      nicht stabil. Sie zerfallen außerhalb des Kerns nach 11 bis 20
      Minuten in ein Proton und ein positivgeladenes Elektron, ein
      Positron. Im Kern werden beide Teile des Neutrons durch die dort
      herrschende hohe Bindungsenergie zusammengehalten und sie halten
      selbst wiederum die Protonen des Kernes sehr dicht
      zusammen.

      Je mehr Protonen in einem Kern zusammen kommen, desto
      mehr Neutronen sind nötig, um sie zusammenzuhalten. Dabei können
      sich Atome gleicher Elemente, das heißt mit der gleichen Anzahl
      von Elektronen und Protonen durch die Zahl ihrer Neutronen
      unterscheiden. Man spricht dann von Isotopen. Solche Isotope
      können selbst noch stabil sein aber auch schon instabil.
      Offensichtlich gibt es ein optimales Verhältnis von Neutronen zu
      Protonen. Wenn dieses nicht erreicht wird, sind die Kerne
      instabil. Sie werden sich früher oder später stabilisieren.
      Stoffe, deren Kerne das tun, heißen „radioaktiv“. Der
      Stabilisierungsvorgang, die „Radioaktivität“ gilt
      Kernkraftgegnern als höchst mysteriös und, wenn sie vom Menschen
      ausgelöst wird, als unzulässiger Eingriff in die Natur. Dabei
      ist Radioaktivität, das heißt die spontane Selbststabilisierung
      der Kerne ein höchst natürlicher Vorgang. Ursprünglich dürften
      alle im Universum vorhandenen Kerne instabil gewesen sein. Sie
      waren radioaktiv und haben sich zwischenzeitlich mehr und mehr
      stabilieren können.

      Entscheidend für die Stabilität ist nicht nur das
      Verhältnis der Neutronen und Protonen zu einander, sondern auch
      die Größe eines Atoms. Mehr als 81 Protonen können mit Hilfe von
      Neutronen nicht mehr auf Dauer zusammenhalten gehalten werden.
      Schwere Kerne sind ihrem Wesen nach instabil. Dabei können aber
      wie bei Wismut, Thorium oder Uran 238 Protonen Neutronen
      Verhältnisse erzielt werden, die sehr lange zusammenhalten und
      entsprechend wenig radioaktiv sind. Die Stärke der
      Radioaktivität bemißt sich nach der Anzahl der Kernumwandlungen
      in einem Stoff pro Zeit. Je länger die Halbwertszeit, d.h. die
      Zeit bis sich die Hälfte der instabilen Kerne eines Stoffes
      stabilisiert hat, desto geringer die Strahlung – und umgekehrt.
      Wismut hat zum Beispiel eine Halbwertszeit von 2,5 mal 1017
      Jahren, daher ist es so gut wie nicht radioaktiv.

    Kernenergie und Radioaktivität

      Kerne stabilsieren sich auf vier typische Arten. Einmal
      sprengen sie einen Kernteil ab. Es handelt sich dabei um den
      stabilste Kern, den des Heliumgases (4), der aus zwei Neutronen
      und zwei Protonen besteht. Werden solche Kernstücke abgesprengt,
      spricht man von Alfa-Strahlung. Der bekannteste Alfa-Strahler
      ist Radium (226), das sich dabei zum Edelgas Radon (222)
      stabilisiert. Zur sogenannten Beta-Strahlung kommt es in der
      Regel, wenn sich ein Neutronen zum Protonen (oder umgekehrt)
      umwandelt. Dabei wird ein Elektron oder ein Positron abgestoßen.
      Die dritte, die sogenannte Gamma-Strahlung besteht nicht aus
      Kernteilen sondern aus Energiequanten. Kerne können sich auf
      unterschiedlichem Anregungsniveaus bewegen. Wenn sich dieses
      ändert, wird ein entsprechendes Energiequantum entweder
      aufgenommen oder abgegeben. Stellen Sie sich darunter vielleicht
      die Veränderung eines Drehimpulses vor. Wenn ein Schwungrad
      (Anregungszustand) abgebremst wird, wird auch Energie als
      Reibungshitze frei. Atome, Kerne und Kernteilchen haben unter
      anderem solche Drehimpulse.

      Die vierte Strahlungsart tritt auf, wenn sich sehr
      schwere Kerne (mit deutlich mehr als 81 Protonen) spontan
      spalten. Wie schon erwähnt, haben schwere Kerne, um stabil zu
      bleiben, im Verhältnis zu ihrer Protonenzahl realtiv mehr
      Neutronen nötig als kleine Kerne. Spaltet sich der schwere Kern
      in zwei oder gar drei kleinere Kerne, werden überschüssigen
      Neutronen mit hoher Energie weggeschossen.

      Die Nutzung der Kernenergie hängt mit dem gleichen
      Effekt zusammen. Je größer der Kern, desto geringer ist trotz
      relativ höherer Anzahl von Neutronen der innere Zusammenhalt der
      Kernteilchen, die innere Bindungsenergie. In einem Kern mit der
      Masse 240 (das sind im Fall Plutonium etwa 94 Protonen und 146
      Neutronen) werden die Teilchen mit einer Bindungsenergie von je
      7,6 Megaelektronen Volt (MeV) zusammengehalten. Bei einem Kern
      von der Masse 120 (zum Beispiel Zinn, mit 50 Protonen) sind das
      je Teilchen 8,5 MeV. Offensichtlich wirkt bei größeren Kernen
      eine wachsende Kraft gegen die Kernbindungskraft. Wird nun
      Plutonium in Zinn gespalten (rein theoretisch), werden pro
      Kernteilchen rund 0,9 MeV frei, also im Falle einer einzigen
      Plutoniumspaltung sind das insgesamt 216 MeV. Von dieser Energie
      wird rund 85 % als kinetischer Energie (Wärmebewegung der
      Kerntrümmer) abgegeben und 15% durch Anregungszustände der
      Bruchstücke, die dann durch Gamma-Strahlung und andere
      Strahlungen abgebaut wird.

      Daran wird deutlich, warum Spaltungsenergie in der Regel
      nur bei der Spaltung großer in sich schon instabiler Kerne
      möglich und ertragreich ist. Zur Spaltung kleiner Kerne wären so
      große Energiemengen nötig, die nur zu geringer Freisetzung von
      Unterschieden der Bindungsenergie führt. (Umgekehrt liegt es bei
      der Kernfusion, auf die wir hier nicht eingehen).

      Da noch immer instabile Kerne in der Natur vorkommen
      (mit zunehmendem Alter der Erde werden das immer weniger) gibt
      es hier immer noch natürliche Radioaktivität und damit auch eine
      natürliche Strahlung. Hinzukommt, daß eine sehr harte kosmische
      Strahlung aus dem Inneren unserer Galaxis auf die Erdatmosphäre
      trifft und dort Gasmoleküle und Kerne zerschlägt, die ihrerseits
      beschleunigt wieder auf andere Kerne treffen und so weiter. Auf
      diese Weise entsteht zum Beispiel aus dem Luftstickstoff das
      radioaktive Kohlenstoffisotop C14. Dieses lagert sich zum
      Beispiel über CO2 in Planzenmaterial an. Über die Häufigkeit
      dieses C14 in altem Bauholz oder sonstigen Pflanzenresten läßt
      sich ihr Alter bestimmen. Die natürliche Strahlung ist wie alles
      auf der Erde sehr unterschiedlich verteilt. Sie kann in manchen
      Gegenden (in Brasilien und Indien) auf weit über das
      Sechzigfache der bei uns vorkommenden Strahlung ansteigen. Man
      mißt die Strahlung in Becquerel Bq. 1 Bq entspricht einem
      Kernzerfall pro Sekunde.

      Welche Folgen hat die Strahlung? Radioaktive Strahlung
      heißt nach ihrer Wirkung jonisierende Strahlung, weil sie mit
      der äußeren Elektronenhülle der Atome reagieren und dort
      Elektronen herausschlagen oder anlagern kann. Damit ändert sich
      die Ladung des Atoms (es wird zu einem Ion) und sein chemisches
      Verhalten, vor allem seine Fähigkeit Verbindungen einzugehen. Da
      lebende Körper aus mitunter sehr komplexen Molekülen bestehen,
      kann solche Strahlung die Molekülketten verändern und
      beschädigen. Hätten die belebten Organismen nicht gelernt, mit
      solchen Schäden umzugehen, gäbe es kein Leben auf der Erde, da
      sie auf der Erde ständig einer gewissen radioaktiven Strahlung
      ausgesetzt waren und es noch immer sind. Wie bei allem macht
      auch hier die Dosis das Gift und nicht der Ursprung. Der
      Organismus kann zwischen künstlicher und natürlicher Strahlung
      nicht unterscheiden, wohl aber zwischen den Stahlungsarten und
      ihrer Intensität.

      Während Alfastrahlung zum Beispiel kaum durch ein Blatt
      Papier dringen kann, gelangt Beta-Strahlung einige mm in den
      Organismus hinein. Gammastrahlung dringt zwar tief ein, hat aber
      mangels Masse geringere Auswirkungen. Gefährlicher sind
      Neutronen, die eine große Durchdringungsfähigkeit haben. Mit
      ihrer Masse und meist großen Energie, können sie Moleküle
      empfindlich stören. Die Forschung hat aus unzähligen
      Beobachtungen und Vergleichen die Wirkung der verschiedenen
      Strahlungen erfaßt und mit einander verglichen. Daraus hat sie
      ein Maß für eine Äquivalentdosis und die biologische
      Strahlenbelastung ermittelt. Sie richtet sich nach der Stärke
      der Strahlung und der Zeit, während der ein Organismus einer
      Strahlung ausgesetzt ist und wird in m Millisievert pro Jahr
      (mSv/a) gemessen.

      Es ist nicht unerheblich, die Strahlung einiger
      natürlicher Dinge aus unserer Umgebung zu vergleichen. 1 m³ Luft
      weist 14 bis 70 Bq (Kernzerfälle pro Sekunde) auf, ein Liter
      Wasser 1 -4 Bq. Bei Heilwasser aus tiefen Brunnen sind es dann
      schon 37000 Bq pro Liter. Dageggen haben unsere sonstigen
      Lebensmittel nur rund 40 Bq vorzuweisen. Ein ausgewachsender –
      sagen wir 70 Kg schwerer – Mensch bringt es auf 7500 Bq, so daß
      ein Beischlaf für eine größere Strahlungsbelastung sorgt, als
      wenn ein schlecht gereinigter Castorbehälter vorbeifährt – aber
      welchen Rot-Grünen kümmert das schon.

      Dementsprechend werden wir Menschen unterschiedlichen
      Strahlenbelastungen ausgesetzt, auch hier ist ein Vergleich
      nützlich. Die Hintergrundstrahlung aus der natürlichen Umgebung
      bringt uns 0,45 mSv/a, die Kosmische Strahlung noch einmal 0,3
      mSv/a, die körpereigene Strahlenbelastung 0,25 mSv/a. Wohnen wir
      in einem Backsteinhaus bekommen wir 1,0 mSv/a ab. Die übliche
      durchschnittliche medizinische Betreuung bringt es pro Person im
      Durchnitt auf 1,5 mSv/a. Dagegen liegt die zulässige zusätzliche
      Belastung durch Kernkraftwerke bei 0,03 mSv/a, wo bei aber in
      der Regel nur 0,01 mSv/a erreicht werden. Aus sonstigen
      technischen und beruflichen Belastungen erreichen uns im
      Durchnitt 0,03 mSv/a. Das ganze ist – wie gesagt – vor dem
      Hintergrund zu sehen, daß die Strahlung auf der Erde mit
      zunehmendem Alter nachläßt und das Leben auf der Erde zu einer
      Zeit entstand und sich entfaltet hat, als die natürliche
      Strahlenbelastung noch wesentlich höher war.

    Spezielle
    „Probleme“ der Kernenergienutzung

      Die friedliche Nutzung der Kernenergie wird abgelehnt,
      weil die Menschen angeblich zwei Probleme prinzipiell nicht
      bewältigen können. Das eine ist die Gefahr eines sogenannten
      „GAU“, die Möglichkeit, daß sich das Inventar eines
      Kernkraftwerkes wie eine Atombombe entzündet, die andere sind
      die künstlich erzeugten Spaltprodukte mit sehr langen
      Halbwertzeiten, die man glaubt von der natürlichen Natur
      fernhalten zu sollen.

        a) Zum GAU.

          Bisher werden Kernkraftwerke „kritisch“ gefahren.
          Das heißt: in einen Reaktor werden in Form von Brennstoffen
          so viele spontan spaltende Kerne (meist Uran 235)
          eingebracht, daß eine Kettenreaktion zustande kommt. Da ein
          Urankern, wenn er sich spaltet rund drei Neutronen mit
          großer Energie absprengt, muß zweierlei geschehen. 1. Es muß
          verhindert werden, daß zwei von diesen Neutronen weitere
          Spaltungen auslösen können. Das würde wegen des
          exponentiellen Wachstums (3,9,27…) eine Explosion
          auslösen. Zwei Neutronen müssen daher eingefangen und
          unschädlich gemacht werden, das heißt, sie müssen in
          geeignetem Material stecken bleiben, möglichst ohne dieses
          selbst radioaktiv zu machen. Das dritte Neutron muß auf die
          Geschwindigkeit abgebremst werden, damit es von einem
          Urankern, auf den es trifft, nicht abfedert sondern sich ihm
          anlagert und ihn spaltet. Absorbtion und Bremsung geschieht
          vor allem durch sogenannte Kontrollstäbe, die um eine
          bestimmte Menge Spaltungen pro Zeiteinheit einzuhalten, mehr
          oder weniger weit in den Reaktor hineingesteckt oder
          herausgezogen werden. Wie alle mechanischen Apparate kann
          auch diese versagen, die Folge könnte ein rasches Anwachsen
          der Kernspaltungen pro Zeit, das heißt eine Überhitzung des
          Reaktors mit möglicherweise verheerenden
          Folgen.

        b) Zu den Spaltprodukten.

          Werden Neutronen absorbiert und schwere Atome
          gespalten, so bilden sich Isotope mit zum Teil recht
          instabilen Kernen, die früher oder später selbst zerfallen,
          die also radioaktiv sind. Die meisten dieser Isotope haben
          kurze Halbwertzeiten und stabilisieren sich bei intensiver
          Strahlung schnell. Aber einige bleiben sehr lange aktiv mit
          sehr langen Halbwertzeiten. Dies trifft auf einige
          Transurane und auf einige leichtere Isotope zu. Solche
          Stoffe, die zwar selbst realtiv wenig intensiv strahlen,
          sollen zum Strahlungsschutz und weil sie vom Menschen
          erzeugt und von Natur nicht vorhanden waren, sehr lange, oft
          über hunderttausende von Jahre von der belebten Natur
          ferngehalten werden. Für die angemessene Verwahrung über so
          lange Zeiträume kann niemand trotz der inzwischen gefundenen
          guten Aufbewahrungsmethoden eine absolute Garantie
          übernehmen. Daher rührt das angebliche Entsorgungsproblem,
          das bei nüchterner Betrachtung aber noch keines ist. Denn
          Spaltprodukte lassen sich über sehr lange Zeiträume sicher
          verwahren. Außerdem gibt es viele technische und
          medizinische Anwendungsbereiche für intensive
          Strahlenquellen. Als solche könnte ein großer Teil der stark
          radioaktiven „Abfälle“ aus Kernkraftwerken ebenso dienen,
          wie Kobalt 60, daß zur Zeit in kerntechnischen Anlagen für
          solche Zwecke eigens gebrütet wird.

    Lösungansatz

      Wesentlich ist aber, daß beide Probleme, der Gau und die
      Endlagerung, keine prinzipiellen Probleme der Kernenergienutzung
      sind, sondern sich lösen lassen. Reaktoren können unterkritisch
      betrieben werden. Dann enthalten sie einen nicht angereicherten
      Brennstoff, der ohne fremde Neutronen die Kettenreaktion selbst
      nicht aufrecht erhalten und sich damit nicht selbst entzünden
      kann. Die äußere Neutronenquelle, die mit Hilfe eines
      aufwendigen Beschleunigers betrieben wird, um die
      Spaltungsprozesse im Reaktor aufrecht zu erhalten, läßt sich
      jederzeit abschalten – schon ein Kurzschluß würde dazu
      genügen.

      Mit Hilfe der äußeren Neutronenquelle, lassen sich die
      Geschwindigkeit der Neutronen nach Wunsch einstellen. Man kann
      hohe Neutronengeschwindigkeiten wählen, bei denen andere
      Transurane gespalten, daß heißt nuklear verbrannt werden. Sie
      liefern zusätzlich Energie und belasten den radioaktiven Abfall
      nicht durch ihre zum Teil langen Halbwertzeiten. Auch lassen
      sich die überschüssigen bei der Spaltung freigesetzten Neutronen
      so steuern, daß sie kleinere instabile Kerne mit langen
      Halbwertzeiten stabilisieren und damit deren Radioaktivität im
      Abfall unterbinden.

      Voraussetzung für diese Möglichkeiten ist, daß sich die
      Geschwindigkeit der Neutronen mit Hilfe des Beschleunigers
      relativ genau regeln läßt und daß das Brennstoffgemisch
      möglichst flexibel gehandhabt werden kann. Dies ist möglich,
      wenn das nukleare Brennstoffgemisch zum Beispiel in flüssiger
      Form durch den Rekator geführt wird, so daß es bei jedem Umlauf
      – wenn nötig – neu zusammengesetzt werden kann. Wie das im
      einzelnen geschehen kann, haben wir an anderer Stelle
      ausführlicher dargelegt. (Transmutation, Das Zeitalter der
      Kerntechnik beginnt erst, Dr. Böttiger Verlags GmbH Wiesbaden,
      EUR 2,50)

      Die hier angedeutete sogenannte „Transmutation“ hat
      neben den genannten noch weitere Vorteile. Der Brennstoff, der
      zur Zeit im Reaktor nur zu 94 % abgebrannt wird, läßt sich auf
      diese Weise fast restlos verbrennen. Eine Anreicherung des
      Brennstoffs mit selbstkritischen Isotopen (Uran 235) entfällt.
      Damit werden die Anreicherungsanlagen, mit denen waffenfähiges
      Uran oder Plutonium hergestellt wird, überflüssig und können
      aufgegeben werden. Schließlich kann bei diesem Verfahren außer
      Uran auch das viel reichlich vorhandene und viel weniger
      radioaktive Thorium als Brennstoff eingesetzt werden, was die
      Energiereserven um ein Vielfaches vermehrt. Als zu entsorgende
      nukleare Asche verbleiben nur noch Spaltprodukte hoher Strahlung
      aber kurzer Halbwertzeit. Sie können nach relativ kurzer
      Abklingzeit weiterverarbeitet werden.

    Alternative Energien?

      Offensichtlich ist das Desinteresse der Kernkraftgegner
      an allen Möglichkeiten, die Nutzung der Kernenergie
      weiterzuentwickeln. Sie beharren darauf, daß Kernenergie zu
      gefährlich sei und daß sie im übrigen nicht nötig sei, da
      genügend andere Energieformen zur Verfügung stünden. Dies ist
      aus mehreren Gründen falsch. Hier sei nur auf zwei Probleme der
      alternativen Energien hingewiesen, die wenig beachtet
      werden.

      Ansich gibt es Sonnenenergie und ihre Derivate in einer
      hinreichenden Menge. Sie ist nur über die ganze Erdoberfläche
      verteilt und steht damit nur in sehr dünner Form zur Verfügung.
      Den eigentlichen Aufwand macht das Sammeln und Verdichten dieser
      Eenrgie und dazu ist zum Teil sogar mehr Energie nötig, als an
      nutzbarer Energie dabei gewonnen werden kann. Offensichtlich
      gibt es auch noch immer die Blaubeeren im Wald umsonst. Daß sie
      auf dem Markt einen relativ hohen Preis erzielen, hängt vom
      Aufwand ab, sie zu sammeln. Offensichtlich mörderisch wäre der
      Vorschlag, die mechanisierte Landwirtschaft aufzugeben und die
      Nahrungsversorgung der Menschen auf Blaubeeren umzustellen, weil
      es sie umsonst imWald gibt.. Bei den alternativen Energieformen
      liegt der gleiche Sachverhalt vor. Er ist nur weniger
      offensichtlich, weil die Mittel zum Sammeln und Verdichten der
      alternativen Energieformen noch mit Hilfe der vielfach
      wirksameren aber knapper werdenden fossilen Energiequellen
      hergestellt werden.

      Als zweites sollte offensichtlich sein, daß alternative
      Energiequellen die Rückkehr zur früheren, vom Boden abhängigen
      Energieversorgung darstellen und – das ist das Wesentliche daran
      – diese festschreiben. Die Umstellung auf alternative
      Energiequellen macht die Rückkehr zur Nutzung der Kernenergie –
      wenn eine späte Einsicht das wieder vorschlagen sollte –
      praktisch unmöglich, weil sich dann energieaufwendige
      kerntechnische Anlagen mit Hilfe alternativer Energiequellen
      nicht mehr herstellen lassen.

      Unabhängig von den subjektiven Wünschen und
      Vorstellungen der Befürworter alternativer Energien, besteht
      ihre gesellschaftspolitische Bedeutung darin, die traditionellen
      über die von Boden und Geld abhängigen Formen der Machtausübung
      und Beherrschung durch institutionalisierte Knappheit zu
      stabilisieren. Rot-Grüne Kernkraftgegner erweisen sich damit, ob
      sie sich so verstehen oder nicht, als gesellschaftspolitische
      Reaktionäre und Fortschrittsfeinde, wenn Fortschritt die
      fortschreitende Befreiung des Menschen von realer Not und der an
      Knappheit gebundenen Beherrschbarkeit ist.

      Schließlich verhindern die Rot-Grünen eine wirksame
      Umweltpolitik, die eine möglichst vollständige
      Recyclingwirtschaft verlangt. Alle Umweltprobleme gehen im
      Grunde auf zwei Problemarten zurück. 1.Es entstehen im Laufe der
      Güterproduktion – vor allem als Folge der Verwendung molekularer
      Bindungsenergie – chemische Verbindungen, die sich nicht weiter
      verwenden lassen. 2. Solche Moleküle sammeln sich in der Umwelt
      an, bis sie einen schädlichen Dosiswert erreichen. Zwar lassen
      sich solche Verbindungen wieder in ihre Bestandteile zerlegen,
      um daraus nützliche Stoffe zu bilden und ihrer unerwünschten
      Anreicherung in der Umgebung zu begegnen. Aber diese Moleküle zu
      spalten, um daraus nützliche Verbindungen zu machen, wird erst
      sinnvoll, wenn eine andere, dichtere Energiequelle als die
      chemische Bindungskräfte zur Verfügung steht. Es grenzt an
      Unfug, wollte man ungewünschte chemische Verbindungen durch
      Herstellung anderer ebenso ungewollter chemischer Verbindungen
      (Verbrennungsrückstände) beseitigen. Dies entspräche dem
      Versuch, den Teufel durch Beelzebub auszutreiben.

      Erst die Kernenergie macht eine vollständige
      Recyclingwirtschaft möglich, wie sie uns die belebte Natur mit
      ihrem energetischen CO2 und H2O Kreislauf unter zuhilfenahme der
      Kernenergie der Sonne vormacht. (Zum Beispiel hatte der u.a.
      auch von der SPD Landesregierung in NRW verhinderte
      Hochtemperaturreaktor mit dem Adam-Eva Konzept ein äußerst
      sinnvolles Recycling von CO2 ermöglicht).

    Fortschritt und menschliche Zivilisation

      Die Beherrschung der Kernbindungskräfte dürfte für den
      Menschen ähnlich wie die Beherrschung der molekularen
      Bindungsenergie (Feuer) einen tiefgreifenden kulturellen
      Entwicklungssprung bringen. Damals mußte der Mensch seine tiefe
      animalische Angst vor dem Feuer überwinden, um erst Mensch zu
      werden und eine menschliche Zivilisation aufzubauen. Dies gelang
      am Anfang gewiß nicht ohne Reibung. Man kann sich leicht
      vorstellen, daß die damaligen Führer, um ihre Führungsposition
      zu sichern, die animalischen Ängste bei den zurückgebliebensten
      menschlichen Wesen angeheizt haben, um sie gegen die ersten
      Menschen zu hetzen, denen es gelang, mit ihrer Angst auch das
      Feuer zubezähmen. Handeln die Rot-Grünen nicht entsprechend,
      wenn sie Ängste schüren, um den Ausstieg aus der Kernenergie zu
      erreichen und damit die materielle Grundlage der Herrschaft, die
      Knappheit festzuschreiben, ?

      Auch der heutige Übergang zur friedlichen Nutzung der
      Kernenergie trifft auf tief im Menschen sitzende Ängste. Sie
      sind anderer Natur als die animalischen Ängste vor dem Feuer.
      Sie betreffen den durch die modernen Herrschaftsmittel
      gefährdeten Kern des Menschseins, nämlich das, was den einzelnen
      in der Gesellschaft zum Individuum macht. Verlöre nicht die
      heute angebotene Form der sogenannten „Selbstverwirklichung“ des
      Einzelnen ihre Grundlage, wenn infolge überreichlicher
      Versorgung die Güter des Lebens ihren Preis verlören und nur
      noch ihren Gebrauchswert hätten? Wer könnte sich mit einem
      Superwagen und dergleichen hervortun, wenn jeder sich das
      gleiche leisten könnte. Wie ließe sich „Leistung“ anders steuern
      (menschliche Lebenszeit beherrschen), als durch unterschiedlich
      zugewiesene Grade von Knappheit und Mangel?

      Man sagt, die Menschen würden, wenn sie nicht durch Not
      und Mangel angetrieben werden, faul und untätig werden. Man
      befürchtet in einem nicht mehr durch Knappheit differenzierten
      kommunisitischen Einheitsbrei würden alle persönlichen
      Unterschiede dahinschmelzen, so daß sich niemand mehr zu einer
      besonderen Leistung aufraffen würde. Unter stellt diese Furcht
      nicht, daß Herrschaft und Zwang die prinzipielle Grundlage aller
      menschlichen Aktivität sei – also prinzipiell gefordert
      wird?

      Das Befürtete mag für einige zutreffen und es mag bei
      einer zu plötzlichen und unverdienten Befreiung von Not so
      eintreten. Stoßen wir aber nicht auch auf Menschen, die selbst
      große Not nicht abgehalten konnte, das zu tun, was ihnen
      persönlich zwar keinen Vorteil brachte, was sie aber für richtig
      hielten, weil es ihren Mitmenschen Freude, Schönheit, ein
      „besseres“ Leben oder mehr Wahrheit und Erkenntnisse bringen
      konnte? Und ist es nicht gerade eine solche Arbeitsweise, die
      wir als „menschlich“ bewundern. Die großen Anstengungen großer
      Menschen, welche die Menschheit in ihrer Entwicklung einen
      Schritt vorangebracht haben, haben ohne Herrschaft ohne Zwang
      und sogar gegen diese gehandelt und dabei oft große Nachteile in
      Kauf nehmen müssen. Hält denn – um ein banaleres Beispiel zu
      wählen – ein Marathonläufer seine Strapaze nur deshalb durch,
      weil man ihm eine große Belohnung verspricht oder die gröhlend
      applaudierenden Menge ihm einen Moment lang Anerkennung zollt?
      Oder bewegt ihn vielleicht der Wunsch, eine von ihm selbst nicht
      anerkannte, innere Trägheit zu überwinden, sich als jemand zu
      entwerfen, der er noch nicht ist aber sein will?

      Fragen wir anders. Wie ist Macht auszuüben oder ein
      entsprechend hoher Preis zu erzielen, wenn der materielle Mangel
      überwunden ist und auch nicht virtuell als Angst vor Mangel
      aufrechterhalten werden kann? Was unterscheidet die Machthaber
      dann noch von den Beherrschten, und womit könnten sie diese zu
      Handlungen nötigen, zu denen sie aus eigenen Stücken und eigener
      Überzeugung nicht bereit sind, und die zu überzeugen die
      Machthaber wegen der eigenen Verkommenheit nicht mehr fähig
      sind?

      Wie dem auch sei, die Not und vor allem die unnötig
      verlängerte und sinnlos beibehaltene Not lenkt uns von uns
      selbst ab und von der Herausforderung in uns, das zu werden und
      zu schaffen, was wir selbst sein und schaffen können und wollen.
      Wir selbst aber werden wir erst durch den ureigenen Beitrag, den
      wir und nur wir zur Besserung der Lebensumstände unserer
      Mitmenschen beitragen können und wollen, ohne dabei auf
      Verdienst und Anerkennung durch andere angewiesen zu sein.

      Man sagt, Technik habe mit Moral nichts zu tun, es käme
      darauf an, was der Mensch mit seinen technischen Möglichkeiten
      tut. Das mag stimmen, trifft aber nicht zu auf die Ablehnung
      oder gar Verhinderung technischer Möglichkeiten, welche die
      Menschen von materiellem Mangel und Not befreien könnten, durch
      deren Verhinderung anderen eine menschenwürdigere Existenz
      verweigert wird oder der sogenannten „Überbevölkerung“ sogar die
      nackte Existenz. Eine solche Ablehnung ist eine Frage der Moral.
      Ist es doch kaum verwerflicher einen Menschen zu erschlagen, als
      ihn durch aufgezwungene Lebensumstände verhungern zu lassen –
      wie es heute als Folge der Auflagen zum Beispiel des
      Internationalen Währungsfonds millionenfach geschieht.

      Es wird ohne die Nutzung der Kerntechnik in Zukunft
      weder eine Industriegeselschaft noch eine menschenwürdige
      Zivilisation geben. Die Frage der Kernenergie – nicht nur der
      Kernspaltung, von der hier die Rede war sondern mehr noch der
      Kernfusion – ist eine Schicksalsfrage der Menschheit und sie ist
      neben all den wissenschaftlichen und technischen Fragen, die im
      Zusammenhang mit ihr zu lösen sind, eine Frage der
      Moral.

      Die SPD des Parteitags von 1956 durfte sich damals mit
      Recht „progressiv“ nennen, nicht aber ihre ausstiegsorientierten
      Nachfolger von heute. Sie sind, ob sie sich dessen bewußt sind
      oder nicht, das Gegenteil davon, nämlich reaktionäre
      Menschheitsfeinde, die um der Machterhaltung derer, die die
      Preise hochhalten wollen und können, selbst davor nicht
      zurückstrecken, andere durch ihre Antikultur in Angst und in
      einem dementsprechend „induzierten Irresein“ zu halten, wie es
      vor ihnen schon andere mit allerlei Gespenstern, Höllen und
      Teufelsängsten, der Angst vor dem Klimagift CO2 und allerlei
      hochgespielten Ängsten vor angeblichen und behaupteten
      Lebenmittel- und Umweltvergiftungen (natürlich gibt und gab es
      soetwas auch in der Realtiät – dann gilt es technische Mittel zu
      ihrer Überwindung zu finden) versucht haben. Denn wie sonst als
      durch „induziertes Irresein“ ließe sich der Ausstieg aus der friedlichen Nutzung der Kernenergie erzielen.

      [Zitatnachweis auf Anfrage bei Dr. Helmut
      Böttiger
      ]


      7/2007

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Politik der Kernenergie

    CO2-EmissionenStromerzeugung

    Posted by Rauch on 23rd März 2007

    Dr.Ludwig Lindner Emslandstr.5
    Tel: 0049-2365-35725 45770 Marl, den 23.3.07
    Fax: 0049-2365-698 6782
    Ludwig_Lindner@t-online.de
    www.buerger-fuer-technik.de

    CO2-Bilanz von Stromerzeugungsanlagen im Lebenszyklus (CO2-Äqivalente in g/kWhel)

    Die nachfolgenden Daten beinhalten den gesamten Lebensweg. Bei Kernkraftwerken: Uranbergbau, Brennelementherstellung und Bau des Kraftwerkes, bei Wind, Solar, Wasserkraft analog. Bei Braunkohle, Steinkohle, Erdgas analog zusätzlich zu den Emissionen beim Betrieb.

    1 2 3 4 5

    Braunkohle 980 -1280 838-1231 1153 980-1054 1231b)

    Steinkohle 790-1080 750-1080 949 1078b)
    Steinkohle Deutsch 790-838
    Steinkohle Ausland 859-897

    Erdöl 890 550-946 885b)

    Erdgas 640 399-644 644b)

    Erdgas GuD 410-430 428 370-417 426b)

    Solarstrome) 80-160 78-217 101a) 319-334a) 78c)

    Solarstrom
    Import Spanien 27

    Winde) 8- 16 10-38 24 33-57 17c)

    Wasserkraft 4-13 4-36 40 25-31 4c)

    Kernkraft 16-23 5-33 32d) 16-17 8c)

    1) Prof Alt/FH Aachen www.buerger-fuer-technik.de
    Gleiche Zahlenwerte Süddeutsche Zeitung 10.3.07.
    2) www.kernenergie.net/r2/de
    3) Pressemitteilung Ökoinstitut Darmstadt 14.3.07 www.oeko.de/aktuelles/dok/525.php
    4) A,.Voss et al. „Ganzheitliche Bilanzierung der Energie- und Stoffströme von Energieversorgungs-techniken, IER Institut für Energiewirtschaft und Rationelle Energieanwendung, Universität Stuttgart,
    Aug.2002
    5) Paul Scherrer Institut , Villigen, Schweiz http://www.psi.ch/medien/Medienmitteilungen/Beitrag_zur_CH_Energiedebatte/Beitrag_zur_CH_Energiedebatte.pdf

    a) multikristallin
    b) Durchschnitt europäische Stromsysteme
    c) Schweizer Stromsysteme
    d) Hierin sind die Treibhausgaskosten bei der „Entsorgung“ und Endlagerung der abgebrannten Brennelemente noch nicht enthalten. Nach einer Abschätzung, die z.Z. noch in Bearbeitung ist, zeigt sich jedoch, dass sich selbst unter extremen Annahmen die Treibhausbilanz des Atomstroms bestenfalls verdoppelt.
    e) Die Entsorgungskosten für Fundamente bei Windkraftanlagen und bei den Solarzellen sind wahrscheinlich nicht berücksichtigt. Bei Solarstromanlagen auf freiem Feld müsste noch berücksichtigt werden, dass dort keine CO2-Senke durch Pflanzen möglich ist.

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für CO2-EmissionenStromerzeugung

    Letzter Teil: Ist der Ausstieg aus der Kernenergie moralisch vertretbar?

    Posted by Rauch on 3rd Februar 2007

    von Dr. Helmut Böttiger

    Praktische Gerechtigkeit
    Friedenssicherung
    Umweltschutz
    Fortschritt und menschliche Zivilisation


    schrieb Prof. Dr. Ing. D. Schwarz aus seinem Privatvermögen für denjenigen einen Preis von 100000 DM aus, der den Nachweis erbringen kann, daß der Ausstieg aus der Kernenergie ethisch zu fordern oder auch nur zu verantworten sei. In seinem Schreiben an zahlreiche bekannte Kernkraftgegner erläuterte er sein Vorhaben: „Es gibt viele Atomkraftgegner, darunter auch viele, die ihre Haltung für ethisch gerechtfertigt halten. Die meisten weigern sich aber, diese Auffassung gegen begründete Kritik zu verteidigen.“ Bis zu seinem kürzlichen Unfalltod hat sich bei Prof. Schwarz niemand um das nach eindeutigen Kriterien ausgeschriebene Preisgeld beworben.

    In Erinnerung an Prof. Schwarz soll hier der Nachweis der ethischen Vertretbarkeit oder Nichtvertretbarkeit der Kernenergie auf drei Ebenen erörtert werden. Als erster ethischer Maßstab wäre die praktische Gerechtigkeit zu nennen, nämlich die Forderung, allen Menschen einer Generation, aber auch den folgenden Generationen, auf Dauer die Voraussetzungen einer menschenwürdigen Existenz zu sichern. Dazu gehören die Versorgung mit Gütern, aber auch die Wahrung des Friedens, wenn wachsender Streit um die knapper werdenden Nahrungsmittel und Süßwasservorräte droht. Die zweite Ebene betrifft den Schutz der Natur vor Mißbrauch und die Förderung und Besserung der Biosphäre, in der die Menschen leben. Die dritte Ebene hat etwas mit der Kultur des Menschen zu tun und ließe sich als Schaffung menschenwürdiger Arbeitsplätze und Betätigungsmöglichkeiten der Menschen verstehen, durch die sie ihrem Leben Inhalt, Sinn und Wert verleihen können. Der Maßstab wäre die Frage, ob man durch den Ausstieg aus der friedlichen Nutzung der Kernenergie den angesprochenen Zielen näher kommt oder sich vielmehr von ihnen entfernt.

    Praktische Gerechtigkeit

    Vor langer Zeit, nämlich auf ihrem Parteitag 1956 in München, forderte die SPD die rasche Entwicklung der friedlichen Nutzung der Kernenergie als objektive Voraussetzung für die Überwindung von Not und Elend besonders in den unterentwickelten Ländern.
    Der Zusammenhang von Entwicklung und Energieverbrauch ist nicht zu leugnen. So berichtete die Financial Times Deutschland am 22. Januar 2003, daß China auf der Suche nach neuen Lieferquellen für den wachsenden Rohölbedarf des Landes zunehmend Rückschläge erlebt. Das Land war bis 1990 autark und muß als Folge seines Aufbauprogramms, das seiner riesigen Bevölkerung eine bisher nur geringfügig bessere Grundversorgung sichern half, inzwischen ein Drittel seines Rohölbedarfs importieren.

    Die steigende Nachfrage nach Öl, Kohle und Gas treibt zweifellos die Ölpreise auf den Weltmärkten hoch. Außerdem wird in den kommenden zehn Jahren bei den größten, bequem zugänglichen Ölgebieten der Scheitelpunkt der Förderkapazität überschritten sein. Man wird dann weniger leicht zugängliche Ölreserven erschließen müssen. Auch das dürfte die Preise für Rohöl weiter steigen lassen.

    Steigende Rohölpreise machen vor allem armen Ländern zu schaffen, die auf Erdölimporte angewiesen sind. In diesen Ländern ist schon heute das Überlebensrisiko der Bevölkerung um Größenordnungen höher als das Risiko, das von Kernkraftwerken einfacher Bauart mit geringem Sicherheitsstandard ausgeht. Nach Angaben der UNO leiden 800 Millionen Arme in der Welt Hunger. Rund 200 Millionen Kinder haben infolge der Unterernährung und Unterversorgung bleibende, geistige und körperliche Schäden erlitten, und jährlich sterben etwa 30 Millionen Menschen vorzeitig an den Folgen der Not – die Hälfte von ihnen bereits im Kindesalter. Auf rund eine Milliarde schätzt die UNO die Zahl der Menschen, die als Folge der Not und sich verschlechternder Umweltbedingungen umsiedeln müssen.
    Das Fehlen oder die Unerschwinglichkeit von Energie ist sicherlich nur ein Grund neben anderen für die wachsende Not, aber es ist auch offensichtlich, daß die zur Behebung der Not erforderlichen Versorgungsgüter bei allen anderen günstigen Reformen nicht ohne Energie hergestellt werden können.

    Wird der Energiepreis angehoben oder sein Anstieg in Kauf genommen, dann werden diese Völker „unter Lebensbedingungen gestellt, die geeignet sind, deren körperliche Zerstörung ganz oder teilweise herbeizuführen“. Genau so definiert unser Strafgesetzbuch (Par. 220a, Ziffer 3) Völkermord. Natürlich bilden die Energiekosten neben Auflagen des IWF und gezielter Spekulationsoperationen nur einen Faktor bei der Verelendung der Völker. Die Anhebung der Energiekosten durch den Ausstieg aus der Kernenergie ist aber mindestens eine – ebenfalls strafbare – „Beihilfe zum Völkermord“.

    Friedenssicherung

    Der augenblickliche Irakkrieg ist sicherlich nicht nur ein Raubkrieg ums knapper werdende Öl. Doch spielt die Kontrolle der Energiereserven auch eine wichtige Rolle im Bestreben, die Macht über die Welt auszuweiten und diese Kontrolle zu verfestigen. Energie ist für eine Gesellschaft das, was die Nahrung für den einzelnen Menschen ist. Wer die entsprechende Versorgung kontrolliert, kann den einzelnen oder Gesellschaften auch ein bestimmtes Verhalten abpressen. Was aber ist Machtausübung anderes als die Nötigung, sich so zu verhalten, wie es der Machtausübende wünscht? Der Ausstieg aus der Kernenergie wird diese Art der Machtausübung und Erpreßbarkeit national wie auch international deutlich verstärken.

    Die Rolle der Kernenergie ist in diesem Zusammenhang sogar besonders wichtig. Die hohe Energiedichte in den nuklearen Brennstoffen und der relativ geringe Anteil der direkten Brennstoffkosten bei der friedlichen Nutzung der Kernenergie ermöglicht es – anders als im Fall von Öl, Kohle und Gas – auch kleineren Nationen, sich auf engem Raum relativ große Energievorräte anzulegen und sich so gegen derartige Erpressungsversuche zu schützen.

    Der Ausstieg aus der Kernenergie verknappt nicht nur die verfügbaren Energiereserven mit entsprechendem Preisanstieg, sondern macht als Folge der Knappheit auch Verteilungskämpfe um die Ressourcen wahrscheinlicher. Das gilt vor allem auch für Wasser. Denn ein Blick auf die Erdkarte zeigt, daß es auf der Erde keineswegs an Wasser fehlt, wohl aber an Energie, um das reichlich vorhandene Wasser in einen für den Menschen und seine Landwirtschaft genießbaren und verwendungsfähigen Zustand zu bringen und es an die Stellen zu leiten, an denen es besonders dringend benötigt wird.

    Das gleiche gilt auch für andere Rohstoffe aller Art: In einem Kubikkilometer normalen Erdreichs sind alle Rohstoffe und Materialien enthalten, welche die Menschheit benötigt. Die noch vorherrschende Energieknappheit ist der einzige Grund, weshalb immer noch nach Lagerstätten Ausschau gehalten wird, in denen einzelne Stoffe in besonders hoher Konzentration vorhanden sind. Ein systematisches Rohstoffmanagement, dem eine sehr hohe Energiedichte zur Verfügung stünde, könnte mit höherer Energieeffizienz die Rohstoffbeschaffung aus normalem Oberflächengestein bewältigen. Die dafür benötigte Energiequelle steht spätestens mit der Beherrschung der Kernfusion zur Verfügung. Damit nämlich ließe sich dieses Gestein in Plasma umwandeln und in die einzelnen Elemente auftrennen.

    Umweltschutz

    Der Ausstieg aus der Kernenergie verhindert auch einen wirksamen, wirklichen Umweltschutz und ein entsprechendes, möglichst vollständiges Recycling aller Abfallstoffe. Der Grund, warum das so ist, ließe sich zwar leicht einsehen, wird aber von den wenigsten Kernkraftgegnern durchdacht.

    Alle Umweltprobleme gehen im Grunde auf zwei Problemarten zurück: Zum einen entstehen durch menschliche Eingriffe im Zuge der Güterproduktion oder ihrer Verwendung chemische Verbindungen (Abfälle), die sich nicht weiter verwenden lassen. Zum anderen sammeln sich solche Moleküle in der Umwelt an, bis sie einen schädlichen Dosiswert erreichen oder überschreiten.

    Wenn man nun bedenkt, daß alle Stoffe dieser Erde aus molekularen Verbindungen der nur rund 80 verschiedenen Elemente bestehen, dann wird deutlich, daß sich alle lästigen oder gefährlichen chemischen Verbindungen in ihre Bestandteile – nämlich diese Elemente – zerlegen lassen. Sie können im Gegenzug dann wieder zu den gewünschten Verbindungen zusammengebracht werden, die als Werkstoffe einen hohen Gebrauchswert haben. Hinzu kommt die Einsicht, daß stofflich gesehen die Erde ein weitgehend geschlossenes System ist. Das heißt, Stoffe können im nennenswerten Umfang weder von außen hinzukommen noch nach außen abgegeben werden. Wenn Umweltprobleme auftreten, dann muß es an der Verteilung der Stoffe liegen.

    Der Schlüssel, um beide mögliche Mißstände – die Ansammlung gefährlicher Stoffe oder das Verschwinden benötigter Stoffe an bestimmten Stellen der Erdoberfläche – zu beheben, ist die Verfügbarkeit über Energie. Mit ihrer Hilfe lassen sich gefährliche oder nicht mehr benötigte chemische Verbindungen wieder in ihre Bestandteile zerlegen, um daraus nützliche Stoffe zu bilden und verhindern, daß sich schädliche Stoffe in einem nicht gewünschten Grad anreichern.

    Die Spaltung der Moleküle in ihre Elemente, um daraus nützliche chemische Verbindungen zu machen, ist jedoch erst wirtschaftlich machbar, wenn eine andere, wesentlich dichtere Energiequelle als die der chemischen Bindungskräfte zur Verfügung steht. Nur weil diese nicht in geeigneter Menge und zu wirtschaftlich vertretbaren Kosten zur Verfügung steht, bleiben Abfälle liegen. Erst die millionenfach dichteren Kernbindungskräfte machen es sinnvoll, damit die entsprechend weniger festen molekularen Verbindungen aufzubrechen und deren Bestandteile neu zu verfügen.

    Die dazu benötigte hohe Energiedichte läßt erkennen, warum der oft vorgetragene Hinweis auf die reichlich auf die Erde eingestrahlte Sonnenenergie keinen Ausweg aus der Energieknappheit bietet. Diese Energieform hat den Nachteil, daß sie nur halbtags zur Verfügung steht und außerdem jeweils über die Hälfte der Erdoberfläche verteilt ist. Der eigentliche Aufwand besteht darin, diese Energie einzusammeln und zu verdichten. Das gleiche, was für Walderdbeeren gilt, trifft auch auf die Sonnenenergie zu. Obwohl diese im Wald kostenlos zur Verfügung stehen, erzielen sie auf dem Wochenmarkt hohe Preise.

    Ähnlich bestehen die eigentlichen Kosten der Sonnenenergie im Sammeln und Verdichten dieser Energieform. Diese Tätigkeit und die dazu erforderlichen Anlagen verschlingen mehr Energie, als mit ihnen an nutzbarer Energie schließlich gewonnen wird. In Geld ausgedrückt wird das klarer: Wer eine Energieanlage für hundert Euro kauft, um dann in Centbeträgen Energie zu erzeugen, und schließlich, wenn die Anlage verbraucht ist und verschrottet werden muß, gerade 80 Euro zurückgewonnen hat, der hat ein schlechtes Geschäft gemacht. Höhere Energiepreise mildern dieses Mißverhältnis nicht, sondern verschärfen es noch. Müßten die Solaranlagen schließlich selbst mit Hilfe der Solarenergie hergestellt werden, wird der trügerische Charakter der Hoffnung auf diese Energiequelle vollends offensichtlich.

    Fortschritt und menschliche Zivilisation

    Not – vor allem die unnötig verlängerte und sinnlos beibehaltene – lenkt uns von uns selbst ab und von der Herausforderung an uns, „wesentlich“ zu werden, so wie es dem Wesen des Menschen entspricht. Der Mensch ist erwiesenermaßen aber das Wesen, das sich – anders als Tiere – selbst entwickeln, über sich selbst hinauswachsen kann. Es ist den Menschen „eigentümlich“, daß wir durch unseren ureigenen Beitrag, den jeder einzelne einzigartig zur Besserung der Lebensumstände unserer Mitmenschen oder der Biosphäre insgesamt beitragen kann und will, erst wir selbst werden.

    Ein solcher eigener, schöpferischer Beitrag für andere – und sei es nur der geglückte Versuch, in traurigen Augen wieder den Schimmer von Freude zu wecken – oder für die Allgemeinheit ist das einzige wirkliche „Eigentum“, das wir uns im Unterschied zu unwesentlichem Besitz erwerben können. Kreativität, Weiterentwicklung ist aber, religiös ausgedrückt, immer verbunden mit dem Tod des alten und der Neugeburt des „neuen“ Menschen. Wo werden größere Ängste frei als in diesem wesentlichen Zusammenhang des Menschseins?

    Es wird behauptet, Technik habe mit Moral nichts zu tun, es käme nur darauf an, was der Mensch mit seinen technischen Möglichkeiten anfängt. Das mag in den meisten Fällen stimmen, trifft aber nicht auf die Ablehnung oder gar Verhinderung technischer Möglichkeiten zu, welche die Menschen von materiellem Mangel und Not befreien könnten – durch deren Verhinderung anderen eine menschenwürdigere Existenz oder der sog. „Überbevölkerung“ sogar die nackte Existenz verweigert wird. Eine solche Ablehnung ist eine grundlegende Frage der Moral. Ist es doch kaum verwerflicher, einen Menschen zu erschlagen, als ihn durch aufgezwungene Lebensumstände – wie es heute weltweit aus politischen und wirtschaftlichen und angeblichen umweltbedingten Gründen geschieht – verhungern zu lassen oder dies doch wenigstens billigend in Kauf zu nehmen.

    Es wird ohne die Nutzung der Kerntechnik in Zukunft weder eine Industriegesellschaft noch eine menschenwürdige Zivilisation geben. Der Mensch bleibt in gewisser Weise noch menschlich, wenn es ihm die materiellen Umstände nicht erlauben, sich zu entwickeln. Wenn er sich aus Faulheit oder Schlechtigkeit selbst aber der Entwicklungsmöglichkeit beraubt, wird er mit Sicherheit unmenschlich und sinkt noch unter die Stufe des „bewußtlos unschuldigen“ Tiers.

    Die Frage der Kernenergie – nicht nur der Kernspaltung, von der hier die Rede war, sondern mehr noch der Kernfusion, der Materie-Antimaterie-Reaktion und anderer Energie freisetzender Kernreaktionen – ist aus diesem Grunde eine Schicksalsfrage der Menschheit. Und das macht sie neben all den wissenschaftlichen und technischen Fragen, die im Zusammenhang mit der Verwendung der Kernenergie zu lösen sind, zu einer Frage der Moral. Die Kernenergie zu meistern, ist nicht nur eine technische, auch nicht nur eine politische, sondern vor allem eine menschliche Aufgabe.

    Teil1 Ehrlich streiten über Kernenergie
    Teil2 Quellen der Energie
    Teil3 Was geschieht eigentlich im Kernreaktor?
    Teil4 Warum der „GAU“ beherrschbar ist
    Teil5 Wann ist Radioaktivität gefährlich?
    Teil6 Das sogenannte Abfall-Problem
    Teil7 Transmutation
    Teil8 Der Öko-Reaktor
    Teil9 Ist der Ausstieg aus der Kernenergie moralisch vertretbar?


    Name: Dr. Helmut Böttiger
    Email:boettigerdrh@web.de
    Dieser Beitrag darf nur Mitzustimmung des Autors verändert werden.

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Letzter Teil: Ist der Ausstieg aus der Kernenergie moralisch vertretbar?

     
    Kosmisches Gesetz

     ©  Bauratgeber24  |  Impressum  |  Datenschutzerklärung   2/2022