bauratgeber24.de   Blog zum gesunden Bauen und Wohnen


Bauratgeber24  |  Sanierungskosten  |  Bauideen  |  Download  |  Impressum  |  Datenschutzerklärung
Artikel im Blog

Alle Beiträge


Baustoffkennwerte
Gewünschten Baustoff eingeben

  

Faching., Dipl.-Ing.oec., Ing.oec., Ing. Peter Rauch PhD
Peter Rauch PhD
Dipl.-Ing.oec., Ing.oec., Ing.
Es gibt viele Bauratgeber, welche im Auftrag oder für das System arbeiten, aber nicht für den freien Menschen.
Subscribe



Archives
  • März 2024
  • September 2023
  • August 2023
  • Juli 2023
  • Juni 2023
  • Mai 2023
  • Februar 2023
  • Januar 2023
  • Dezember 2022
  • November 2022
  • Oktober 2022
  • September 2022
  • August 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • März 2022
  • Februar 2022
  • Januar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • März 2020
  • Februar 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Juli 2019
  • Juni 2019
  • Mai 2019
  • April 2019
  • Februar 2019
  • Januar 2019
  • Dezember 2018
  • November 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • April 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • September 2017
  • August 2017
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • November 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • Oktober 2015
  • September 2015
  • Juli 2015
  • Juni 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Januar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juli 2013
  • Juni 2013
  • Mai 2013
  • April 2013
  • März 2013
  • Februar 2013
  • Januar 2013
  • Dezember 2012
  • November 2012
  • Oktober 2012
  • September 2012
  • August 2012
  • Juli 2012
  • Juni 2012
  • Mai 2012
  • April 2012
  • März 2012
  • Februar 2012
  • Januar 2012
  • Mai 2011
  • Dezember 2010
  • Oktober 2010
  • August 2010
  • Juli 2010
  • Juni 2010
  • März 2010
  • Februar 2010
  • Dezember 2009
  • November 2009
  • Oktober 2009
  • November 2007
  • September 2007
  • August 2007
  • Juli 2007
  • April 2007
  • März 2007
  • Februar 2007
  • Januar 2007
  • November 2006
  • Juni 2006
  • Februar 2006
  • September 2005
  • August 2005
  • Juli 2005
  • Juni 2005
  • Februar 2005
  • Januar 2005
  • August 2004
  • Mai 2003
  • April 2003

  • Altbausanierung Badezimmer Dachgeschoss Energiekosten Energiepolitik Energie sparen Energiesparen Energiewende Fachwerk Globaltemperatur Grundstück Holz Immobilien Kaminofen Klima klimawandel Luftfeuchtigkeit Stromkosten treibhauseffekt Umzug
    Meta
    Anmelden

    Сильнейшая защита от всего негатива и опасностей!


    Archive for the 'Energie- und Umweltpolitik' Category

    Eine Umwelt- und Energiepolitik mit Sachkompetenz, Fakten, Formen und Vernunft, nicht mit Fiktionen, Vermutung und Vision.

    Die Klimakatastrophe – was ist wirklich dran?

    Posted by Rauch on 16th November 2006

    Bitte schnell lesen, bald könnte es nicht mehr erlaubt sein. Frau Beckett, vormalige Umweltministerin in Großbritannien und jetzige Außenministerin behauptete.
    „On Thursday (16.11.06), Margaret Beckett, the Foreign Secretary, compared climate sceptics to advocates of Islamic terror. Neither, she said, should have access to the media.“ 1

    Vorwort

    Im November 2006 versammelten sich in Nairobi 6000 Klimaoffizielle, um gemeinsam der kommenden „Klimakatastrophe“ das Wort zu reden. Die Speisung der oberen 6000 funktioniert aufs Prächtigste die Fütterung der Medien hierzulande noch besser. Sämtliche Medien in deutschen Landen hyperventilieren ob dieser wunderbaren Katastrophe und beschicken Talkshows und Sendungen, sowie viele Artikel mit den wunderbarsten und schrecklichsten Grafiken, über das kommende Unheil, das die ganze Menschheit (darunter geht es nicht) bedrohen soll. Sogar Kofi Annan kann es nicht lassen, von der größten Katastrophe zu sprechen, die die Menschheit je bedroht hat. Und der sich auch darin gefiel die sog. Klimaskeptiker zu einer gefährlichen Minderheit zu erklären. Zitat2  This is not science fiction, These are plausible scenarios, based on clear and rigorous scientific modeling.A few diehard skeptics continue trying to sow doubt. They should be seen for what they are: out of step, out of arguments and out of the time“.in Deutsch: „ Das ist nicht Science Fiction, das sind plausible Scenarios, basierend auf strenger, wissenschaftlicher Modellierung. Es sind (nur) einige wenige hartgesottene Skeptiker, die versuchen Zweifel zu säen. Sie sollten gesehen werden als das wofür sie stehen. Aus dem Takt, außerhalb von Argumenten und aus der Zeit“ Zitatende. Nun, da hat wohl einer dem Secretary General mehrere ordentliche Bären aufgebunden. Besonders was die „plausible scenarios, based on clear and rigorous scientific modeling“ betrifft „.Wir werden das im Folgenden untersuchen. Also, was hat es denn nun mit dem so oft beschworenen Klimawandel wirklich auf sich? Hier der Versuch einer nüchternen Bestandsaufnahme. Dazu ist es am Besten die folgenden Fragen der Reihe nach und nach aktuellem Stand der Wissenschaft zu beantworten.

    1. Gibt es eine wesentliche Erwärmung über die normalen Schwankungen hinaus?

    2. Ist der CO2 Anstieg der in der Atmosphäre seit ca. 100 Jahren zu beobachten ist, die wesentliche Ursache dafür? Und wenn ja, hat der Mensch mit seiner technischen CO2 Erzeugung daran einen maßgeblichen Anteil?

    3. Ist dieser Klimawandel insgesamt schädlich oder eher nützlich?

                  und

    4. Können wir, die Menschheit insgesamt, realistischerweise etwas dagegen tun?

    Kapitel 1

    Gibt es eine wesentliche Erwärmung über die normalen Schwankungen hinaus?

    Schon diese einfach klingende Frage ist nicht einfach zu beantworten. Warum? Es gibt schlicht keine präzisen Aufzeichnungen der Durchschnittstemperatur der Erde, noch der nördlichen Halbkugel, die präzise Aussagen über mehrere hundert Jahre zulassen. Was es gibt -und es wird auch genutzt- sind indirekte Messungen aus Baumringen, Ernteaufzeichnungen, historische Beschreibungen, Isotopenbestimmungen in Eisbohrkernen etc. Seit ca. 145 Jahren gibt es dazu breit angelegte methodische Temperaturaufzeichnungen3, erst in Europa, dann in den USA und Australien zum Schluß auch im Rest der Welt. Im Jahre 1970 waren weltweit ca. 6000 Wetterstationen im Einsatz. Danach wurde abgebaut auf nur noch 1400 lt WMO. Erst seit 1979 umrunden Wettersatelliten die Erde, die eine verläßliche Datenbasis für die Entwicklung der Durchschnittstemperaturen der oberen Atmosphärenschichten geben.

    Die Durchschnittstemperatur der Erde

    Warum ist das denn so kompliziert, fragt man sich, ein Thermometer lesen kann doch jeder. Sicher, nur nicht alle gleich gut, nicht alle gleich genau und nicht alle regelmäßig genug und vor allem: Diese Thermometer zeigen die Gesamttemperatur der lokalen Umgebung in ca. 2 m Höhe an. Und diese Umgebung änderte sich fast überall rasant im Laufe der letzten ungefähr 145 Jahre. John Daly, ein privater Klimaforscher der ersten Stunde, hat sich der mühsamen Aufgabe unterzogen, die Genauigkeit und Zuverlässigkeit dieser bodennahen Meßstationen
    zu überprüfen. Er fand heraus4 daß nur eine sehr kleine Anzahl von Bodenmeßstationen – die ausschließlich in menschenleeren Zonen in den entwickelten Ländern liegen, zuverlässige Zeitreihen für die Temperaturen erbringen. Diese und nur diese stimmen dann sehr genau
    mit den Satellitenmessungen überein, auch mit den Wetterballonmessungen, reichen aber für eine Durchschnittsbildung der ganzen Erde oder auch nur der nördlichen Halbkugel, bei weitem nicht aus. Ihre Distanz zueinander beträgt tlw. um die 2000 km und mehr, d.h. die Temperaturen von Berlin und Madrid würden miteinander verglichen. Tatsache ist, daß kein Mensch weiß,
    wie groß die Erwärmung wirklich ist, zumal die zugrundeliegenden Datenkollektive stets verändert werden, so wie die Inflationswarenkörbe! Die Globaltemperatur von 1860 z.B. beruhte nur auf 300 nordhemisphärischen
    Wetterstationen. Heute sind es nach WMO 1400, wobei für je eine Fläche von 250 000 km2 (Gitterpunktweite 250 km) eine Temperatur genommen wird, die vorher noch auf NN reduziert wurde mit einem mittleren Gradienten von 0,65° C pro 100 m nach unten. Bleibt außerdem noch zu erwähnen, daß 70 % der Erdoberfläche von Wasser bedeckt sind und aus mehrmals pro Jahr über die Gitterquadrate fahrende Schiffe aus Schöpfeimern Jahresmitteltemperaturen konstruiert werden. Die Gruppe um Phol Jones hat 1982 erstmals die Zeitreihe 1860-1980, die zu den angeblichen 0,6° C führten, konstruiert, natürlich strengst wissenschaftlich!! Das kann nicht gut gehen. Als das IPCC (International Panel on Climate Change, der UN Arm für diesen Wirbel) sich zur Vorbereitung des kommenden Assessments No. 4 mit dieser Frage auseinandersetzte, stellten sie fest, daß nur die beiden Meßmethoden: Wetterballon und Satellitenmessung; sehr gut übereinstimmen, starke Abweichungen aber sind zu den terrestrischen Messungen gegeben (Sie zeigen – wider alle Theorie, die höhere Temperaturen gerade in den oberen denn in den unteren Luftschichten fordert – deutlich zu hohe Werte an). Statt nun diese Werte wegzulassen, einigte man sich darauf, daß diese Unterschiede- die sehr gravierend sind und vor allem in den Vorhersagemodellen wirken- , Ursachen in einer noch unverstandenen Atmosphärenphysik hätten, die es genauer zu untersuchen gälte. So schafft man Arbeitsplätze in Wissenschaft Forschung und Verwaltung.

    Die aktuelle Entwicklung

    Sei es wie es sei: Bis 1979 sind alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis ca. 1860 nur indirekt erforschte, ab 1860 mit vielen Unstimmigkeiten gemessene und seit 1979 gemessene Temperaturkurve der Erde.


    Wie man sieht, gab es einen dicken Buckel im Mittelalter, die Experten streiten sich noch, ob dieser Buckel etwas größer oder etwas kleiner als + 2 ° C über unserer heutigen Durchschnittstemperatur gelegen hat. Drüber lag er auf jeden Fall. Man erinnere sich an die Schulzeit, daß die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin soweit erwärmt, daß es die Besiedlung und den Ackerbau (Grünland) erlaubte. Oder wie Menzies glaubt, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und dort kaum Eis vorfanden. Es war eben schön warm. Die Ernten reichlich, die Menschen konnten überwiegend gut leben.

    Die große Frage ist. Wie haben es die Menschen geschafft im ausgehenden Mittelalter die Globaltemperatur zu beinflussen. Durch das CO2 ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht. Es war doch so schön alles im Einklang mit der Natur. Ein großes Rätsel, zu dem das IPCC bisher keine so richtigen Erklärung fand.

    Um das Jahr 1900 begann dann ein Verlauf wie er detaillierter und überlagert mit dem „errechneten“ CO2 Verlauf in der folgenden Grafik gezeigt wird.


    Dort sehen wir den vom IPCC 2001 im 3. Assessment-Report herausgegebenen Wert der CO2 Kurve überlagert vom (korrigierten) Temperaturverlauf den in seinem Originalverlauf ein Dr. Mann 1998 errechnet hatte, die so genannte „Hockeystickkurve”.
    Die, weil sie z.B. die mittelalterliche Wärmeperiode nicht zeigte, von den kanadischen Wissenschaftlern
    Stephen McIntyre & Ross McKitrick kurze Zeit später und gegen viele Widerstände, korrigiert wurde. Gezeigt wird hier die korrigierte Kurve der beiden. Diese „Hockeystickkurve“
    hat eine eigene denkwürdige Geschichte, die ich den Lesern nicht vorenthalten will. Aber zuerst gucken wir uns mal den Verlauf der beiden Kurven an. Wir sehen starke Schwankungen der Temperatur, aber so gut wie keine
    Schwankungen des
    CO2 Anteiles der Atmosphäre. In keiner erkennbaren Weise verknüpft oder eng korreliert mit dem Temperaturverlauf.
    Nur im letzten Rest, so gegen 1920 steigt die Temperatur an (es wirkt stärker weil, durch den Maßstab verzerrt) dto. der
    CO2 Anteil. Sollte plötzlich die Physik Kapriolen schlagen und CO2 auf die Temperatur heftig wirken lassen, oder war es vielleicht umgekehrt?

    Ich komme noch darauf zurück, aber zuerst wollen wir die bodennahe Temperaturentwicklung bis zur Gegenwart verfolgen. Das Goddard Institute (GISS) in den USA hat diese Werte ermittelt, wie gesagt auf Basis der bodennahen ungenauen und unzuverlässigen Meßstationen.


    Wir sehen dort einen Abfall ab 1880 dann einen recht starken Anstieg bis 1940 dann wieder einen Abfall bis 1976 (obwohl in diesem Zeitraum die CO2 Emissionen um 400 % anstiegen!) und von dort einen Anstieg bis 1998, dem Jahr mit der höchsten Spitze bedingt durch die El Niño Kapriolen und weiter bis 2005. (Dieser Abfall bis 1976 veranlaßte übrigens damals, den immer noch berühmten IPCC Forscher Prof. Stephen Schneider eine fürchterliche
    Eiszeit ab 2000 vorher zu sagen, heute prognostiziert er und mit ihm die UN eine mindestens so fürchterliche Warmzeit )

    Wie stark die Ungenauigkeiten der zusammengefaßten Trendmeldungen sich auswirken können zeigt die Kurve der Temperaturentwicklung nur für die USA, wo hunderte von präzise gewarteten Wetterstationen über das 20.te Jahrhundert die folgenden Werte zeigte:


    Man sieht viel, nur keine bedrohliche Erwärmung, (außer der El Niño Spitze 1998) vor der inzwischen auch -Al Gore sei Dank- die Amerikaner soviel Angst haben, wie wir. Beide Grafiken wurden vom GISS in Zusammenarbeit mit der NASA produziert).

    Die Hockeystickkurve

    Nun – wie versprochen- die Geschichte der Mann´schen Hockeystickkurve. Der amerikanische Wissenschafter Dr. Mann und die Seinen untersuchten 1998 die Baumringe -überwiegend nordamerikanischer- Nadelbäume und leiteten aus ihnen ein Rechnermodell ab, das den folgenden Verlauf der Temperatur der nördlichen Hemisphäre errechnete: Es entstand eine wunderbare Temperaturkurve ab dem Jahre 1000, die den erschröcklichen Anstieg zur Mitte des 20. Jahrhunderts zeigte: und das war genau das, was die leitenden Herren des IPCC haben wollten.


    Diese Kurve, 1998 berechnet, fand sofort und an prominenter Stelle Einlaß in den IPCC Bericht von 2001, wurde zigmal dort zitiert und nahm seinen Siegeszug durch die mediale und politische Welt. Wunderbar, der Mensch und sein CO2 ist schuld, hier sieht man´s ja. Einsetzen der Industrialisierung und Anstieg der Global Temperatur gingen eng gekoppelt – nicht mehr nur korreliert – Hand in Hand. Die Champagnerkorken knallten beim IPCC.
    Endlich hatte man was in der Hand, um den astronomischen Forderungen an die Kyotoländer Nachdruck zu verleihen. Hier war der Beweis. . Die Frage darf erlaubt sein: Ließen sich deshalb prominente Vertreter des IPCC
    – allen voran Sir Houghton – mit dieser Kurve im Hintergrund interviewen? Sie hatte allerdings einige Schönheitsfehler. Als
    Stephen McIntyre & Ross McKitrick und andere – darunter Hans von Storch in Deutschland – einen zweiten Blick auf diese Kurve warfen, fiel ihnen auf, daß die ganze schöne, mittelalterliche Warmzeit schlicht nicht vorhanden war. Obwohl sie – weil gut dokumentiert – einwandfrei nachweisbar war. Auch die dann folgende -noch besser dokumentierte- kleine Eiszeit war nicht so recht erkennbar. Den IPCC Oberen war das irgendwann auch aufgefallen. Statt jedoch zuzugeben, daß ihre so schöne Grafik, schwere Fehler enthielt, versuchten sie zu verhindern, daß die Kurve offiziell korrigiert wurde. Ein mit dieser Aufgabe befaßter IPCC Wissenschaftler faßte diese Versuche in der Bemerkung zusammen: „We have to get rid of this medievial warm up period“: in gut Deutsch: „Wir müssen irgendwie diese mittelalterliche Warmzeit loswerden“ Diese Bemerkung
    wurde 2004 gegenüber Dr. Deming -einem amerikanischen Palaeoklimatologen gemacht- weil dieser fälschlicherweise vom IPCC Mann als Gesinnungsgenosse eingestuft wurde. Er hat sie überliefert.

    Stephen McIntyre & Ross McKitrick versuchten nun das Computer – Modell nachzubauen (die Zusammenarbeit mit Dr. Mann war nicht sehr ergiebig) schaffte es aber dann doch und fütterte dieses Computerspiel nun mit
    allen möglichen Daten, auch den Originaldaten des Dr. Mann. Zuletzt und viele 10.000 Durchläufe später einfach mit Zufallszahlen. Und heraus kam – o Wunder- immer und immer ein Hockeystick. Das Modell konnte
    gar nicht anders. Es war auf diesen Schlenker hin programmiert.5



    Die UN und alle ihr folgenden Regierungen und NGO´s oder GO´s haben sich übrigens bis heute nicht für diesen bewußte Irreführung
    entschuldigt. Man kann sich ja mal irren, nicht wahr. Übrigens hatte sich die gesamte wissenschaftliche Fachpresse – auf wessen Druck wohl- geweigert diese Korrekturen öffentlich zu machen. Ein Schelm der Schlechtes
    dabei denkt. Die dann ordentlich überarbeitete Hockeystickkurve6 finden Sie hier noch einmal schön mit der IPCC –Kurve übereinander gelegt.

     

    Erdtemperaturverlauf bis Ende 2005

    Nun zur meßtechnischen Neuzeit. Die Temperaturentwicklung im Satellitenzeitalter: (Sie finden die Messungen der NASA und des GISS unter Angabe der Quellen in unten stehender  Grafik)


     

    Sie zeigt den aktuellsten Temperaturverlauf der Erde, von 1979 bis Ende 2005, wie er von div. Instituten im offiziellen Auftrag und mit verschiedenen Methoden gemessen wurde.
    „NCDC (lila gefärbt) Anomalies“ sind Temperaturen der terrestrischen Stationen, deren Zahl seit 1970 von ca. 5000 auf jetzt nur noch 2000(!) weltweit zurückgegangen sind. Sie befinden sich meist in oder in der Nähe von urbanen Zentren und zeigen als solche – u.a. durch den Wärmeinseleffekt- starke Abweichungen von den Meßreihen, die in unberührter Natur z.B. Arktis oder Antarktis, Tundra etc. durchgeführt werden. Das Problem: Korrekturen sind zwar möglich, aber nicht standardisierbar, da fast jede Meßreihe jeder Meßstation anderen Einflüsse unterliegt. Im Grunde sind diese Messungen, für den o.a Zweck, also mit ihnen die Erderwärmung zu messen, nutzlos. „UAH“ Messungen (blau gefärbt) sind solche mit Satelliten, die seit 1979 die Erde umrunden und eine sehr genaue Messung der durchschnittlichen Erwärmung erlauben. Sie zeigen sehr starke Abweichungen zu den terrestrischen Messungen. Nicht gezeigt sind die Wetterballonmessungen, die sich in sehr guter Übereinstimmung mit den Satellitenmes-sungen befinden. Näheres hierzu:
    unter
    http://www.john-daly.com/ges/surftmp/surftemp.htm.

    Wie man sieht, steigt die gemessene Oberflächentemperatur aus den bekannten Gründen deutlich stärker an, als es die Satelliten zeigen. Sie wird daher in fast allen Veröffentlichungen der Medien benutzt. Die Satelliten und Ballonmessungen steigen deutlich weniger an und auch nur bis zum Jahre 1998, dann setzt ein leichter Abfall ein, oder auch ein flacher Verlauf, so genau weiß man das noch nicht, aber kaum ein weiterer Anstieg.

     Es wäre aber unredlich daraus schon einen Trend abzuleiten, aber wahrnehmen kann man ihn – auch im Hinblick auf Nairobi- schon.

    Mein Fazit: Es gibt Erhöhungen der Globaltemperatur im 1/10 Grad Bereich seit Ausgang des 19. Jahrhunderts (ca. 0,6 ± 0,2 °C sagt das IPCC), davon ein großer Anteil vor 1940, als die CO2 Produktion der Industrienationen kaum begonnen hatte). Sie liegen – mit Blick auf die mittelalterliche Warmzeit- innerhalb der natürlichen
    Schwankungen. Ein geringer Einfluß des Menschen ist vielleicht trotzdem anzunehmen. Irgendetwas Bleibendes müssen wir doch hinterlassen. Aber sie rechtfertigt weder ein Kyotoprotoll noch andere Enteignungs- und
    Zwangsmaßnahmen, wie sie die Glaubensgemeinde der 6000 Erleuchteten in Nairobi derzeit vorbereitet.

    Kapitel 2

    Ist der CO2 – Anstieg der in der Atmosphäre seit ca. 100 Jahren zu beobachten ist, die wesentliche Ursache dafür? Und wenn ja, hat der Mensch mit seiner technischen
    CO2 Erzeugung daran einen maßgeblichen Anteil?

    CO2 ist als sog. Spurengas mit ca. 0,038 Prozent Anteil am Volumen (oder 380 p(art) p(er) m(illion)) in trockener
    Luft enthalten. Dieses Schicksal als Spurengas teilt es mit anderen Spurengasen wie Methan (CH4), Ozon etc. Der große Rest trockener Luft besteht aus Stickstoff (ca. 78%) Sauerstoff (ca. 21%) und Argon (0,9%). Der stark
    wetterbestimmende Wasserdampf ist zwischen 0 und 4 %– im Mittel mit 2%- in der dann feuchten Luft enthalten.

    Diese geringe Menge CO2 macht nun so viel Wirbel, und wird zum allerschlimmsten Killer der Menschheit ausgerufen. Was tut dieses böse CO2 denn so Schlimmes? Es treibt die Temperatur der Erde hoch, ist die inzwischen von allen Politikern und Medien ständig wiederholte Ansage, darunter müssen ganz schrecklich viele Menschen leiden, jetzt schon und in naher Zukunft noch viel mehr. Und – noch viel Schlimmer- wir im Westen sind daran schuld. Die bösen Industrienationen. Pfui Teufel.  

    Da sollte sich doch jeder Mitbürger der einigermaßen klar im Kopf ist und eine VorPisa-Bildung genossen hat fragen: Ja, stimmt denn das? Einig sind sich alle Wissenschaftler, daß der Anteil von CO2 an der Atmosphäre seit einiger Zeit angestiegen ist. Von 2807 ppm auf ca. 380 ppm z.Zt. Unstrittig ist auch, daß dieser Anstieg mit der Industrialisierung einher ging. Also korreliert ist, wie man es auch vornehm ausdrücken kann. Korrelation bedeutet nun aber nicht, daß die korrelierten Prozesse voneinander abhängen. Sie können, aber sie müssen nicht8. Gar nicht unstrittig ist, woher dieser Anstieg rührt. Überwiegend oder ganz aus den Aktivitäten des Menschen bei der Verbrennung fossiler Brennstoffe, wie es uns die Grünen und inzwischen die ganze politische Klasse immer wieder vorwirft. Oder hat der Anstieg überwiegend oder ganz, natürliche Ursachen? Auch dafür sprechen sehr gute Argumente.

    Welche Kapriolen das CO2 mit und ohne korrelierte Temperatur in der Erdvergangenheit geschlagen hat zeigt uns die folgende Grafik:


    Erst die Erwärmung, dann die CO2 Konzentration

    Einige davon sehen wir auch in der untenstehenden Grafik,

    die den Temperaturverlauf und die CO2 Schwankungen in der Antarktis der letzten 420.000 Jahre darstellt, wie er aus Eisbohrkernen aus der Antarktis – wenn auch recht grob- hergeleitet werden kann. Wir erkennen sofort,
    daß der CO
    2 Anteil periodisch schwankt und mit ihm die Temperatur. Bei genauem Hinsehen erkennen wir aber auch, daß erst die Temperatur ansteigt und dann das CO2. Dieser Abstand liegt je nach betrachtetem Abschnitt zwischen 500 und 1500 Jahren9

    Mit anderen Worten: Erst kommt die Temperatur, dann das CO2. Jeder, der mal eine Flasche Bier einige Zeit in der Sonne stehen ließ, kann bestätigen, da ist was dran. Wärme treibt gelöstes CO2 aus dem Wasser heraus und wohin, in die Atmosphäre.

    Nun kann man auf Grund dieser Grafik leicht zu dem Schluß kommen: Ja, der Zyklus -erst Temperatur dann CO2 Anstieg- mag ja sein, aber was ist mit dem absoluten Werten des CO2. So hoch wie heute waren sie ja wohl die letzten 420.000 Jahre nicht. So dachten bis vor kurzem auch alle, aber heute nur noch diejenigen die partout keine aktuellen Erkenntnisse zulassen, die ihrer Meinung entgegenstehen.

    (Folgendes Zitate sind entnommen einer Arbeit von A. von Alvensleben, der diese Informationen an Prof. Rahmstorf im Rahmen einer Erwiderung von Vorwürfen erarbeitet hat):

    „Die Messungen des CO2 -Gehalts in Eisbohrkernen haben sich, wie man erst seit wenigen Jahren weiß, doch als ziemlich ungenau erwiesen – wohl als Folge von Diffusionseffekten im Eis, durch die größere Schwankungen des CO2 -Gehaltes nivelliert wurden. Daher ist zur Zeit noch die Meinung verbreitet, in den letzten 420 000 Jahren habe der CO2 -Gehalt nur zwischen 190 ppm in den kältesten Zeiten und 280 ppm in den Warmzeiten gependelt. Daraus haben Botaniker gefolgert, der Anstieg des CO2 in der Atmosphäre um rund 30% in den letzten 140 Jahren sei in der jüngeren Erdgeschichte ein einzigartiger Vorgang, und die Natur werde sich darauf nicht einstellen
    können, mit katastrophalen Folgen für die Pflanzenvielfalt..
    Obwohl die Eisbohrkerne dies nicht erkennen lassen, zeigt das neue Meßverfahren, wie die atmosphärische
    CO2 -Konzentration von 260 ppm am Ende der letzten Eiszeit schnell auf 335 ppm im Preboreal (vor 11500 Jahren) anstieg, dann wieder auf 300 ppm abfiel und vor 9300 Jahren 365 ppm erreichte 10..“ Zitat Ende. 

    Nach soviel Naturwissenschaft wollen wir mal ein wenig zusammenfassen:

    1. Die Konzentration von CO2 steigt und fällt in der Atmosphäre im Wesentlichen aus natürlichen Ursachen.

    2. Die Konzentration von CO2 lag in den vergangenen 10.000 Jahren schon mal bei 365 ppm, evtl sogar darüber. Davor sogar noch wesentlich höher. (siehe Grafik weiter unten)

    3. Die Konzentrationszu- oder abnahme von CO2 folgt dem Temperaturverlauf mit einer Verzögerung zwischen 500 bis 1500 Jahren.Die ursachen dafür können immer noch nur vermutet werden.

    Des ungeachtet muß erwähnt werden, daß die menschliche Aktivität ebenfalls – jedenfalls einigermaßen
    wahrscheinlich- zum Anstieg der CO
    2 Konzentration beiträgt. Aber wieviel und mit welchen Wirkungen, das ist schlicht nicht genau bekannt. Es könnte ja gut sein, daß der einzige wirklich nachgewiesene Treibhauseffekt des CO2, nämlich das Pflanzenwachstum zu beschleunigen (ich komme weiter unten noch ausführlicher darauf) das zusätzlich entstehende CO2 schlicht absorbiert. Wir wissen es nicht. Es gibt zwar interessante Hypothesen, aber keine wirklichen Beweise s.o.

    Kann CO2 das Treibhausgas sein, welches die Globaltemperatur nach oben treibt?

    Wie ist es nun mit der These, daß CO2 das Treibhausgas ist, welches die Globaltemperatur nach oben treibt. Sehr viele Untersuchungen wurden angestellt und alle möglichen physikalischen und chemischen Effekte
    in der Atmosphäre wurden untersucht. Immerhin fließen jährlich ca. 8 Mrd $ in diese Forschung, davon 4 Mrd in die USA und den weitaus größten Teil der zweiten Hälfte erbringt die EU. Danach wirkt das CO
    2 hauptsächlich über seine Abstrahlung (Strahlungsantrieb) aufgenommener Energie, das ist überwiegend Energie direkt von der Sonne.
    Das IPCC schätzte 2001 den für die Wirkung entscheidenden Wert der Klimasensitivität
    CS11 – auf Grund von Modellrechnungen und Datenbankanalysen- auf ca. 2,8° C, Prof. Stephen Schneider -einer der führenden US – Klimaforscher und häufiger Katastrophenmahner, Mitglied in div. Forschungsgremien, so auch dem IPCC- konstatierte noch im Oktober 2000 ganz ehrlich: „Die Klimasensitivität (CS) der Erde für CO2 sei unbekannt, es werde jedoch für Simulationsrechnungen angenommen, daß der wahrscheinlichste (Gleichgewichts-)wert CS für eine CO2 Verdoppelung zwischen 1,5 und 4,5 ° C liegt“. Na, wenn das keine klare Ansage ist. Unbekannt, aber wir schätzen eben mal einen Wert für unsere Modelle irgendetwas zwischen 1,5 und 4,5 ° C. Andere Forscher haben nicht nur Modellrechnungen (Dietze, Barett u.a.) sondern aus den gemessenen Verläufen Regressionsanalysen12 gemacht. Daraus ergibt sich dieser Wert mit ca. 0,7° C. Also eine Verdoppelung des CO2 Anteiles (bei sonst unveränderten sonstigen Werten z.B. der Sonneneinstrahlung), ergibt – als Korrelation!- eine Erhöhung
    der Temperatur um schlappe 0,7 °.
    Das ist ein Viertel des IPCC Wertes. Sechs schöne und übeberaus plausible Methoden den CS-Wert aus realen Meßdaten zu ermitteln, finden sich hier:http://www.john-daly.com/miniwarm.htm Sie haben aber – aus Sicht des IPCC- einen gewaltigen Schönheitsfehler, sie ergeben nur CS-Werte zwischen 0,17°C bis 0,33°C. Wahrscheinlich ist das der Hauptgrund, warum das IPCC sie verschmäht.
    Sie passen so garnicht in die Mär von der menschengemachten Erderwärmung.

    Das IPCC bereitet z.Zt. seinen 4. Bericht vor darin soll wieder ein höherer CS-Wert genannt werden. Wie auch anders, daß Bedrohungsscenario gilt es aufrecht zu halten.

    Wir haben aber keine Verdoppelung des CO2 bisher erlebt, sondern einen Anstieg um 20 bis 30 % je nach dem auf welchen Eingangswert man sich bezieht. Die Untersuchungen von P. Dietze – offizieller Berichterstatter des IPCC – deckten des weiteren erhebliche Parameterfehler in den IPCC-Modellen auf, die bis 2100 insgesamt zu einer Überschätzung der CO2 – bedingten Erwärmung um etwa 600% führen. Man stelle sich vor 600 % zu viel!

    Führende IPCC Forscher wie Prof. Lennart Bengtsson et al. vom Klimarechenzentrum Hamburg gaben13 sogar
    zu, daß die Erwärmung weit geringer ausfällt und langsamer erfolgt, als bisher berechnet wurde. Hinsichtlich der Übertreibung der Klimaerwärmung sei auch an Prof. Stephen Schneider mit seiner bekannten Aussage von 1989 erinnert
    „To capture the public imagination, we have to offer up some scary scenarios, make simplified dramatic statements and little mention of any doubts one might have.
    Each of us has to decide the right balance between being effective, and being honest“14
    Auf gut Deutsch: „Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und keine Zweifel am Gesagten, jeder von uns (Forschern) muß entscheiden wie weit er eher ehrlich oder eher effektiv sein will“ Wir haben jedenfalls sehr effektive Forscher auf diesem Feld, ansonsten kein weiterer Kommentar nötig.

    Außerdem geht das IPCC von einem progressiven Anstieg des weiteren CO2 Gehaltes der Atmosphäre aus, die anderen und das deckt sich mit den Messungen, aber nur von einem linearen Anstieg. Zitat dazu von Juri Israel (Direktor des Instituts für Weltklima und Ökologie der Russischen Akademie der Wissenschaften, IPCC-Vizepräsident: „Viele Wissenschaftler sprechen von einem CO2 -Anteil in der Atmosphäre von 400 ppm als dem Grenzwert. Unsere Berechnungen ergaben: Selbst wenn die gesamten erkundeten und gewonnenen Kraftstoffe der Erde im Laufe von wenigen Stunden verbrannt würden, stiege die CO2 -Konzentration lediglich auf 800 ppm. Aber unsere Erde erlebte in ihrer Geschichte 6000 ppm, nämlich im Karbon, und das Leben, wie wir sehen, geht weiter.

    Ein linearer Anstieg würde – vorausgesetzt alles andere bliebe so wie es jetzt ist- zu einer Erhöhung der Temperatur um nur 0,24 ° C (bedingt durch den CO2 Anteil) bis 2100 führen, bezogen auf heute. Gleichzeitig würde das CO2 nicht über 470 ppm steigen können, schlicht aus Verfügbarkeits- und Preisgründen. Die fossilen Brennstoffe würden sich so verteuern, daß man es sich nicht mehr leisten kann sie zu verbrennen.

    Gibt es bei diesen Werten genügend Gründe aktiv zu werden? Ja, es gibt welche! Und das sind (durch Angstmache von uns) erpreßte Steuern und Abgaben! Das haben die Bürokratien der Welt, die politische Klasse und mit einiger Verzögerung, auch die Wirtschaft erkannt. Ich werde darauf zurückkommen. Übrigens, mal etwas zur Verhältnismäßigkeit: rechnet man 4 Menschen auf den m2 wie im Fahrstuhl, dann paßt die gesamte Menschheit auf die Fläche des Saarlandes, und es ist immer noch nur zu 60 % belegt.
    Das Saarland seinerseits paßt knapp 200.000 mal in die Oberfläche der Welt und immerhin noch gut 32.000 mal in die bebaubare Fläche der Erde.

    Kapitel 3

    Ist dieser Klimawandel insgesamt schädlich oder eher nützlich?

    Pflanzenwachstum

    Die Fragestellung nach der Wirkung des CO2 wäre unvollständig behandelt, wenn man nicht auch die anderen Wirkungen die ein CO2 Anstieg mit sich bringt, betrachtet. Wikipedia15 schreibt über CO2 u.a.„….Pflanzen benötigen das in der Luft enthaltene Kohlenstoffdioxid zur Photosynthese. Für fast alle Pflanzen ist dies die einzige
    Kohlenstoffquelle..“
    Zitatende. Der eigentliche wirklich sicher meßbare Treibhauseffekt des CO2 liegt in einem beschleunigten Pflanzenwachstum (s.Idso). Kein Zweifel, die Welternährung wurde drastisch und ohne Zutun des Menschen gesteigert. Das Center for the Study of Carbon Dioxide and Global Change stellt dazu vor kurzem fest: Zitat: „Was haben diese zusätzlichen 100 ppm uns in Form erhöhter landwirtschaftlicher Produktivität gebracht?
    In unserem Redaktionsbeitrag vom 11. Juli 2001 haben wir experimentelle Arbeiten beschrieben, die auf Studien von Mayeux et. al. (1997) und von Idso und Idso (2000) beruhten. Aus ihnen lässt sich ableiten, dass der Luftdüngungseffekt zu folgenden mittleren Ertragssteigerungen geführt hat: 70% für C3-Getreide, 28% für C4-Getreide, 33% für Obst und Melonen, 62% für Hülsenfrüchte, 67% für Wurzel- und Knollengewächse
    und 51% für Gemüse.” Der Autor fährt dann fort:
    “Dieser historische CO2-induzierte Erntezuwachs … war völlig ungeplant vom Menschen.
    Zitat Ende.

    Na, ist das nichts? Und noch mehr dazu: Zitat aus der vorher zitierten Arbeit von. A. von Alvensleben:

    Die positiven Wirkungen der CO2 -Vermehrung sind damit noch gar nicht alle aufgezählt: Mehr CO2 bedeutet meßbar geringeren Wasserbedarf der Pflanzen, also Erweiterung von Anbaumöglichkeiten in trockenere Gebiete hinein, und verlängerte Photosynthesezeiten in der Morgen- und Abenddämmerung (um Minuten) und im Frühjahr und Herbst (um Tage). Und zu den neuesten, noch nicht ganz gesicherten Ergebnissen gehört, daß vermehrtes CO2 auch als Heilmittel gegen das Waldsterben wirkt – den kranken Bäumen scheint die CO2 -Kur gut zu bekommen. Zitat Ende (Zum Glück für uns alle, hat sich das große Thema Waldsterben, wie so viele andere Themen wie z.B. auch die BSE-Krise, sang- und klanglos erledigt.)

    Und das alles wollen wir behindern, vermeiden, vernichten. Ja, es darf sich jeder selbst seinen Reim drauf machen. Die Hoffnung stirbt zuletzt. Aber, so werden viele einwenden, was ist denn mit dem Schmelzen der Gletscher, des weltweiten Eises und des drohenden Anstiegs der Meeresspiegel.

    Die Gletscher und das Eis

    Es ist ganz klar, wenn es wärmer wird, schmilzt Eis. Seit dem Ende der kleinen Eiszeit schmelzen daher nicht nur die alpinen Gletscher, auch die Kilomandscharoeiskappe schmilzt, (wenn auch aus anderen Gründen). In Norwegen und anderen Weltgegenden wachsen sie hingegen. Es gibt derzeit KEINEN globalen Trend der Gletscherschmelze (R.J. Braithwaite 2002″ Glacier mass balance: the first 50 years of international monitoring“ (Progress in Physical Geography 26: 76-95).
    Aber, selbst wenn alle Gletscher abschmelzen, ist das wegen der minimalen Eismasse belanglos. Eine aktuelle Übersicht über den Zustand (Massenbilanz) von 246 Gletscher von global 160 000 zwischen 1946 and 1995 hat
    R.J. Braithwaite 2002 vorgestellt. Der Autor weist nach, daß es weltweit keinen Trend zum Abschmelzen der Gletscher gibt. Dagegen entwickeln sich die Gletscher lokal unterschiedlich. Innerhalb Europas schrumpfen die
    alpinen Gletscher, die skandinavischen nehmen an Eismasse zu und die kaukasischen Gletscher sind stabil geblieben.

    Tatsächlich wissen wir noch zu wenig über den aktuellen Zustand der Gletscher der gesamten Erde, da bisher von den ca. 160 000 Gletschern erst 67 000 (= 42%) bezüglich einer Massenbilanz untersucht wurden. Für ca. 200 wurde eine 1-jährige Massenbilanz erstellt und von 115 kennt man die Massenbilanz über 5 Jahre, von 79 die im Sommer und Winter Nur 42 Gletscher wurden so über 10 Jahre untersucht (0,026%!!!). http://www.egbeck.de/treibhaus/meers1.htm Ob dabei wieder alte Wikingersiedlungen zum Vorschein kommen, wird mit Spannung erwartet. Andererseits wächst die Eismasse in Mittelgrönland und auf der Antarktis16.

    Der Meeresspiegel

    Die schlechte Nachricht ist: Ja, der Meeresspiegel steigt. Und zwar seit dem Ende der letzten Eiszeit. Lag er doch vor knapp 10.000 Jahren, ca. 120 m unter dem jetzigen. Und dieser Prozeß ist nicht abgeschlossen. Seit dem Ende der kleinen Eiszeit um 1860 steigt der Meeresspiegel global um ca. 2,5 mm/Jahr. In den Zwanzigern, so wie in den Neunzigern17.
    Weniger dramatisch sieht es im südlichen Pazifik aus. Glaubt man dem US Forscher Hansen (seine Aussage vor dem US Senat im Jahre 2000) dann wird der Meeresspiegel sich bis zum Jahre 2100 um mindestens 1 Meter erhöhen.
    Das erkannte er aus seinen Modellen. Nur, der Meeresspiegel tut es nicht! Auch nicht in Tuvalu und anderen paradiesischen Gefilden. Es soll dort nun bald das Meer über den Köpfen der Tuvalesen (aber zumindest über
    ihren Waden) zusammenschlagen, weil ihr Eiland nur wenige cm über dem Meeresspiegel liegt. Ganz Eifrige prüfen schon, ob sie nicht irgendwelche Regierungen auf Schadensersatz verklagen können, weil ja diese
    am CO
    2 Anstieg schulde sind.. Leider – oder besser Gott sei Dank- sieht die Situation – ganz entspannt so aus: A.v. Alvensleben schreibt dazu in seiner sehr lesbaren Dokumentation18 über den Stand der Forschung über den Klimawandel: Zitat: „Pegelmessungen über 3 Jahrzehnte in Tuvalu, einem kleinen pazifischen Inselstaat, und in Diego Garcia, dem englischen Flottenstützpunkt mitten im Indischen Ozean, zeigten keine Veränderung
    des Meeresspiegels. Lediglich von Zeit zu Zeit, wenn der Wind den El-Niño-Strom nach Osten trieb, sank der Meeresspiegel für einige Zeit um bis zu 30 cm, um anschließend zu normalen Werten zurückzukehren…..
    Entsprechendes gilt für den Inselstaat der Malediven, deren Vertreter in Marrakesch auf die drohende Überflutung ihrer Inseln hingewiesen haben sollen. Eine schwedische Untersuchungskommission unter Leitung eines
    führenden Experten für die Frage von Meeresspiegelschwankungen (Prof. Mörner) hat das Problem auf den Malediven untersucht und überhaupt keine Zunahme des Meeresspiegels für die letzten 100 Jahre gefunden.“
    Zitatende. Also Panik absagen! Weitersagen! 

    Fassen wir noch mal zusammen:  

    1. Die Konzentration von CO2 steigt und fällt in der Atmosphäre im Wesentlichen aus natürlichen Ursachen.

    2. Die Konzentration von CO2 lag in den vergangenen 10.000 Jahren schon mal bei 365 ppm.

    3. Die Konzentrationszu- oder abnahme von CO2 folgt dem Temperaturverlauf mit einer Verzögerung zwischen 500 bis 1500 Jahren. Die Ursachen sind nicht erforscht.

    4. Der CO2 Anstieg, mit einem nur unpräzise zu erfassenden Anstieg durch anthropogenes CO2 führt maximal – weil uns der Brennstoff bis dahin zu teuer würde ggf. sogar ausgegangen ist- zu einem Temperaturanstieg
    von ca. 0,2 bis 0,3 ° C. bis zum Jahre 2100.

    5. Der Anstieg der CO2 Konzentration bewirkt gleichzeitig eine weitere und dramatische Verbesserung der Welternährungslage, keine Veränderung des Anstiegs der Meeresspiegel und keine erkennbare Veränderung der Welteismassen..

    Kapitel 4

    Können wir, die Menschheit insgesamt, realistischerweise etwas dagegen tun?

    Die erste Feststellung dazu muß lauten: warum sollten wir? Die Erwärmung ist in erster Linie natürlichen Ursprungs, dazu, in der Bilanz ergeben sich wesentlich bessere Lebensbedingungen für alle, als ohne diese Erwärmung. Selbst die Klimaforscher erleben einen Geldsegen, den sie ohne die Erwärmung, ehrlicherweise natürlich auch ohne ihre Panikmache, sonst nicht bekommen hätten. (Die Frage nach dem alten lateinischen Grundsatz: Cui Bono, Wem nützt es? ist hier sicher auch angebracht) .

    Modellrechnungen des IPCC und anderen. 

    Aber das reicht den Verursachern und Aktivisten (s. Kapitel 5) nicht, sie wollen alles. Und dazu dienen auch die Modellrechnungen der UN (mit Zulieferung des IPCC, unter anderem auch des Max Plank Institutes für Meteorologie in Hamburg), der jetzt passend zu Nairobi veröffentlichte Sternreport und vieles andere mehr.

    Schauen wir uns erst einmal die Güte dieser Modellrechnungen an. Man benötigt dazu nicht so viele Kenntnisse, es genügt, wenn man sich die Verlautbarungen und Erklärungen der Modellierer selbst anschaut. Zur Einstimmung noch mal dazu die Einschätzung von Kofi Annan in seiner Eröffnungsrede in Nairobi Zitat:“…Das ist nicht Science Fiction, das sind plausible Scenarios, basierend auf strenger, wissenschaftlicher Modellierung….. “ Zitatende. Nun, da hat wohl einer dem Secretary General einige dicke Bären aufgebunden, bzw. hat er sich gerne aufbinden lassen. Hier dazu die passenden Äußerungen der Modellierer, wie sie ihre Modellierungskünste selbst sehen: Das MPI Hamburg betont in einer Presseerklärung feinsinnig (auf die Pleite hin, die es kürzlich mit seiner Prognose des Wetters in 50 Jahren erlebte) Zitat “ Wir betonen stets den Szenariencharakter (unserer Modelle). Deshalb benutzen wir in diesem Zusammenhang immer den Konjunktiv. Wir sagen NICHT das Klima voraus, sondern geben Entwicklungsmöglichkeiten des Klimas für die Zukunft an. “ Zitatende. Das konnte meine Oma schon mit ihrem Rheumaknie, und der Kaffeesatz war auch nicht schlechter, nur viel, viel billiger.

    Der kanadische Klimaforscher Prof. Dr. Tad Murry forderte kürzlich einen Journalisten auf, künftig „keine Ergebnisse meiner Computermodelle“ zu zitieren. Damit habe er Zitat „seit 45 Jahren zu tun und ich kann Ihnen damit beweisen, was immer Sie wollen. Wenn Sie wollen, kann ich eine weltweite Erwärmung herbeiführen, wenn Sie hingegen eine Eiszeit wollen, kann ich diese ebenfalls herstellen, mit einer sehr geringen Veränderung eines einzigen Modellparameters (die Anzahl der niedrig. Wolken).“ Zitatende..

    Das frühere Mitglied des Umweltschutzverbandes Sierra Club und Geologe sowie Jurist Paul Driessen schreibt in seinem Buch: Öko-Imperialismus u.a. Zitat: “ Bezüglich der Computermodelle ist hinzuzufügen, daß sie klimatische oder atmosphärische Komplexitäten nicht einmal im Ansatz darstellen können. Noch schlimmer: Sie widersprechen gemessenen Temperaturdaten, können weder künftige Temperaturen vorhersagen, noch frühere Temperaturen rekonstruieren und produzieren haarsträubend widersprüchliche Vorhersagen für identische Regionen.
    Das schlimmste: Sie schließen wahnwitzige(?) Annahmen über das künftige Wirtschaftswachstum und Emissionen ein. Ein Szenario der UNO sagt voraus, daß Lybien und Nordkorea am Ende dieses Jahrhunderts höhere
    Pro-Kopf Einkommen haben werden, als die Vereinigten Staaten.
    “ Zitatende. Und: Um zum Ergebnis einer Erwärmung von 1,4 bis 5,8 Grad in diesen Scenarien, die auch Sir Nicholas Stern benutzt, bis 2100 zu kommen, müssten sich beispielsweise die Einkommen in Asien versiebzig- bis verhundertvierzig-fachen. Ein solcher Einkommensanstieg wäre absolut beispiellos in der Geschichte. Zum Vergleich: im Verlauf des gesamten 20. Jahrhunderts haben sich die Einkommen in Japan nur knapp verzwanzigfacht. Selbst wenn man davon ausgeht, dass nur eine Erwärmung von 1,4 Grad bis 2100 stattfindet – also der untere Rand der Prognosebandbreite – impliziert das beispielsweise laut David Henderson, dass die Wirtschaftsleistung pro Kopf in Südafrika bis zum Jahr 2050 auf die doppelte Höhe der USA steigt.19

    Die Modelle und die Annahmen auf denen sie basieren, stimmen hinten und vorne nicht, das kann jeder sehen20.
    Weil aber auf jeden Falle etwas zur Klimahysterie am Ende passendes herauskommen soll, kommt keines dieser Modelle ohne „Fudge-Factor“ aus. Das heißt, es wird der Daumen auf den richtigen Teil der Waage gelegt,
    bis es stimmt, oder anders ausgedrückt: Es wird betrogen und gelogen daß sich die Balken biegen.

    Und in der Frankfurter Allgemeinen Sonntagszeitung vom 30.4.2004; schreibt der Autor Stefan Dietrich Zitat: „Die Zusammenfassung für politische Entscheider (des IPCC)“ listet zwölf solcher Klima-„Antriebe“ auf und vermerk t jeweils, in welchem Maß ihre Wirkungsweise wissenschaftlich erforscht sei. Acht fallen in die niedrigste Kategorie „sehr geringes Wissen“. Mit Wissenschaftlern aber, die nichts Genaues wissen, können politische Entscheidungsträger ebenso wenig anfangen wie Journalisten.“ Zitatende.

    Der bekannte Mathematiker und Chaosforscher Heinz-Otto Peitgen sagt zu diesem Thema Zitat: „Frage: Lässt sich denn das Klima modellieren?

    Peitgen: Jetzt reden wir von Glaubenssachen. Es gibt Leute, die glauben – und viele von denen sitzen in hoch bezahlten Positionen in sehr bedeutenden Forschungszentren -, dass man das Klima modellieren kann. Ich zähle zu denen, die das nicht glauben. Ich halte es für möglich, dass sich die mittlere Erwärmung der Ozeane in 50 Jahren mit einem bestimmten Fehler vorausberechnen lässt. Aber welche Wirkungen das auf das Klima hat, das ist eine ganz andere Geschichte.“ Zitatende.

    Hier die Grafik, wie das IPCC selbst sein Wissen um die klimabestimmenden Faktoren einschätzt:

    Einfacher gesagt: GiGo – Garbage in, Garbage out; das ist ein geflügeltes Wort aus dem Computerbereich. Müll rein, Müll raus! Es spricht für sich selbst.
    Jetzt macht das Eingangszitat des MPI in Hamburg sehr viel mehr Sinn, oder? Sie betreiben mit extrem teuren Computern, extrem teure Computerspiele. Und Kofi Annan läßt sich unterjubeln, daß dies Hardcore-Wissenschaft
    sei. Sollen sie doch weiterspielen, aber bitte nicht, um uns mit ihren unausgegorenen Scenarien, die Medien und Politik begeistert in Vorhersagen umwandeln, in Panik zu versetzen.Wie weit dem IPCC mit seinen Prognosen zu trauen ist, zeigt die Entwicklung seiner Voraussagen je nachdem zu welchem Zeitpunkt gerade abgefragt wird. Wie wir sehen, werden wir bald um Null landen.

    Jahr des IPCC Berichtes

    1988

    1990

    1995

    2001

    Erwärmung/Dekade

    0,8°C

    0,3°C

    0,2°C

    0,1°C

    Temperaturanstieg bis 2030

    3,0°C

    1,2°C

    0,8°C

    0,6°C

    Anstieg Meeresspiegel in cm

    20-150

    15-40

    5-35

    10-20

     Warum wird es trotzdem geglaubt? Das muß sich wohl jeder selbst fragen. Computern glaubt man eben. Computer sind die Kristallkugeln von heute. Am meisten aber müssen sich dies die Medien fragen, die tagtäglich diesen Unsinn verbreiten.

    Fassen wir auch den Sachstand zu den Modellen des IPCC zusammen:

    1. Es gibt keinen vernünftigen Grund zur CO2 Vermeidung außer den, knappe Resourcen sparsam einzusetzen. Eine solche Sparsamkeit erzwingt aber der Markt, knappe gefragte Güter werden teurer.

    2. Die Modelle des IPCC basieren auf falschen, unverstandenen und nur in wenigen Fällen (3 von 12!) auf wissenschaftlich gefestigten Annahmen. Sie sind deshalb
    schon vom Ansatz für Prognosen des künftigen Klimas und noch mehr, der wirtschaftlichen Folgen, unbrauchbar.

    3. Die Ergebnisse der Modellberechnungen liegen haarsträubend daneben, sowohl was das Klima als auch die zu Grunde liegenden Wachstumsraten
    der einzelnen Länder anbelangt.

    4. Seriöse Wissenschaftler und Ökonomen lehnen die Ergebnisse als Unsinn oder (Aber-)Glauben ab.

    5. Das IPCC selber senkt seine Prognosen laufend ab, aber erst dann, wenn sie durch die Realität eingeholt werden.

     

    Kapitel 5

    Kosten und Nutzen, oder warum geht es uns direkt an?

    Nun noch ein paar Worte zu den Kosten die dieser Massenwahn uns allen auferlegt. Das Kyoto nichts aber auch gar nichts bringt, außer Kosten, pfeifen inzwischen die Spatzen von den Dächern. Da sind sich sogar Klimaschützer und Klimaskeptiker einig. Der Temperaturanstieg bis 2050 wird gerademal um 2/100 °C abgebremst21.
    (Tritt dann aber 6 Jahre später doch ein, wie Lomborg nachwies) Aber es kostet, und wie! Das Bundeswirtschaftsministerium gab 200222 an: Für die Volkswirtschaft der Bundesrepublik sind es bis 2020 ca. 250 Mrd Euro. Ich behaupte: echte, ehrliche Kostenschätzungen kamen von diesen Leuten noch nie. Man kann getrost vom Doppelten ausgehen. Allein 2 Mrd Euro jährlich steckt Deutschland lt. Staatssekretär Würmeling23 in die Klimaforschung. Ein Geldsegen, den es zu erhalten gilt. Das sehen inzwischen auch die Liberalen in der FDP und
    in der Wirtschaft so. Es ist leicht verdientes Geld und obendrein gibt es den Segen der öffentlichen Tugendwächter a la Greenpeace. Ein Berater der FDP MdB`s schrieb dazu sinngemäß:
    „Ja, was wollen Sie denn, wenn wir uns geirrt haben, dann ist das Geld doch nicht verloren, nur auf andere Bereiche umgelenkt. Opportunitätskosten nennt man das in der Volkswirtschaft“. Dieser Mann blieb aber die Antwort auf die Frage schuldig, wessen Geld er dann so opportunistisch umlenkt, seins oder das der Bürger. Und, ob wir nicht alle einen Anspruch auf größtmögliche
    Effizienz beim Einsatz unserer Steuergelder haben. Und nicht auf pure Verschwendung zum Nutzen weniger und zu Lasten aller. Wie gesagt, darauf mochte er nicht antworten. Mich erinnert diese Antwort an den alten Börsenspruch
    unter Bankiers nach einem Börsenkrach: „Was wollen Sie denn, das Geld ist doch nicht verloren, es hat nur ein anderer“. So ist es! Und das ist noch längst nicht alles. Nicht von ungefähr hat Gordon Brown – designierter Nachfolger von Tony Blair den von ihm in Auftrag gegebenen Sternreport in die Öffentlichkeit gebracht. Just vor Nairobi und just vor der Notwendigkeit – aus seiner Sicht- die Steuerschraube in Großbritannien kräftig anzuziehen. Zur Unterstüzung seiner Ansichten konzentrierte sich Sir Nicholas, auf die Verurteilung des freien Marktes (er ist in seinen Augen schuld am ungebremsten CO
    2 Ausstoß) und auf die seiner Meinung nach sinnvollste Maßnahme zu Bekämpfung des CO2 Ausstoßes, die Rationierung Eine typische sozialistische Errungenschaft. Wir haben es in Europa doch schon erlebt. Was zieht Sir Nicolas da vom Leder, mit welch irren Summen24
    wirft er da um sich. Summen, die, wenn wir sie denn per Steuern und Umverteilung über die Bürokratie aufbringen, zu einer Begrenzung der Erwärmung von 2 ° C führen. Wir hätten dann das Glück, das wir nicht unter 4-5 ° C leiden müßten. Wenn wir aber nichts tun, so Sir Nicholas, dann würden wir schon 2035 die 2° C Marke übersteigen. Leider vergaß der Weltbankökonom in seiner Einleitung zu sagen, auf welchen Startwert sich diese 2° C beziehen. Christopher Monckton fand es heraus und veröffentlichte dies im englischen Telegraph25
    am 12.11.06. Irgendwo im 700 Seiten langen Bericht des Sir Nicholas, lag die Bezugszeit und die Bezugstemperatur versteckt. Sir Nicholas bezog sich auf das Jahr 1750, einer Zeit also, von der die globale Temperatur nur aus
    groben Schätzungen und durch wenige lokale Beschreibungen bekannt ist. Aus heutiger Sicht wären das, unter den schlimmsten Umständen ca. +0.7 ° C, bei einer CO
    2 -Konzentration von 485 ppm. Die IPCC – inzwischen vorsichtiger geworden, geht von + 0,3 ° C aus, bei 435 ppm. Diese präzisen Angaben basieren alle auf äßerst
    ungenauen Schätzungen. Sie gaukeln deshalb eine Genauigkeit vor, die sie nicht haben können:Was davon zu halten ist, haben wir ausführlich im Kapitel 2 gesehen. Wir müßten zu diesem Zeitpunkt, also 2035, etwa den größten Teil der bekannten fossilen Brennstoffe verheizt haben. Südafrika wäre im Begriff die USA beim pro Kopf-Einkommen zu überholen und Nordkorea und Lybien sind auf dem besten Wege dazu. Natürlich ging Sir Nicholas, wenn schon denn schon, vom schlimmsten Wert aus, der im kommenden IPCC Bericht als Scenarium vorgestellt wird. Wir kennen das vom deutschen Panzergeneral des 2. Weltkrieges Guderian.
    Von dem stammt -der aus seiner Sicht- nur konsequente Spruch: Nicht kleckern, klotzen!. Zu Befehl Sir Nicholas! Übrigens wurde Sir Nicholas von seinem Auftraggeber Gordon Brown kurz nach Veröffentlichung seines Reports
    aus dem engsten Kreise gefeuert. Hatte er zuviel geflunkert, hatte er zu wenig geflunkert? Wir wissen es nicht, nur daß der ganze Bericht ein einzige Flunkerei ist, das wissen wir. Na ja, was wir von Computermodellen
    und ihren Scenarien zuhalten haben, hatten wir schon beleuchtet.

    Kapitel 6

    Wie konnte es zu dieser weltweiten Hysterie kommen?

    Einige Motive und Aktionen der Klimakatastrophiker in Wissenschaft, Medien und Politik

    Wenn man das obige alles unvoreingenommen liest, dann dürfte der erste Eindruck sein. Dieser Mann, der Autor, hat sie nicht mehr alle. Das kann doch gar nicht wahr sein.
    Warum sollen denn alle die honorigen Forscher und sonstigen Offiziellen so lügen? So eine Riesenverschwörung gibt es doch nicht.

    Nein, die gibt es nicht, aber was es gibt, ist eine künstlich erzeugte und am Kochen gehaltene Massenpsychose. Am Kochen gehalten von Sozialisten der ersten Stunde und Gutmenschen, die zurück zur Natur wollen und all jenen die gemerkt haben, daß damit schnell viel gutes Geld einfach zu verdienen ist. Was es gibt, sind schnöde Motive vieler unserer Wissenschaftler („dienende Forscher“ wie sie Dr. Hartkopf Staatssekretär und UBA Gründer seinerzeit treffend genannt hat) und Offizielle, zunehmend auch Wirtschaftsbosse, die sofort erkannt haben, daß sich mit diesem Megathema wunderbar riesige Bürokratien aufbauen lassen, Steuermittel in Milliardenhöhe gerne genommen und gegeben werden und sich die Macht, der Einfluß und die Reputation auf einfache Weise steigern läßt. Viel leichter als auf ehrliche Weise! Wenn mühsam für Steuern und Abgaben geworben werden muß, wenn knappe Forschungsmittel im Wettbewerb eingeworben werden müssen, ohne diesen Angstaspekt. Wenn man obendrein noch, bei normaler Ausübung seiner Geschäfte von sog. NGO´s den unkontrollierbaren, völlig intransparenten Organisationen vieler idealistisch denkender Menschen, als Umweltverschmutzer, gar Umweltverbrecher, beschimpft oder gar boykottiert wird. Wer erinnert sich nicht an die Kampagne von Greenpeace gegen Shell, bezüglich der geplanten -völlig sauberen und vernünftigen- Versenkung der Bohrinsel Brent Spar. Solche Verleumdungskampagnen machen auch große Unternehmen nicht gerne durch. Da heißt es sich anpassen. Und nebenbei einige Milliarden abgreifen. Wer wüßte heute z.B., daß das Alfred Wegener Institut
    für Polarforschung sich mit der Erkundung des Eises in der Antarktis beschäftigt. Das wäre keine Nachricht wert. Aber wenn man dort dem Ganzen das Etikett „Klimawandel“ umhängt, dann berichtet auch „Der Spiegel“ an prominenter Stelle.

    Wie kam es denn nun zu dieser Hysterie?

    Seit den 50er Jahren gab es Konferenzen auf Grund von Beobachtungen die dem CO2 eine besondere Rolle in Bezug auf das Klima zu wiesen. Da sie keine bemerkenswerten Ergebnisse zeitigten wurden sie nicht besonders beachtet, vorher zugestandene Mittel gekürzt.
    Die Welt hatte andere, dringlichere Sorgen. (Wie heute auch, möchte ich zufügen) Doch gegen Ende der 60er Jahre änderte sich das. Die Umweltbewegungen erhielten einen höheren Stellenwert, maßgeblich beeinflußt vom reißerischen Buch der Angestellten im US-amerikanischen Fischereiministerium Rachel Carson. “Der stumme Frühling”. Ein Buch aufwühlend und anklagend, aber voller inhaltlicher Falschaussagen und systematischer Fehler.

    Im Jahre 1970 hielt die berühmte Anthroplogin Frau Prof. Margaret Mead in Bethesda einen wegweisenden Vortrag 26
    „Wir stehen vor einer Periode, in der die Gesellschaft Entscheidungen im globalen Rahmen treffen muss .., Was wir von Wissenschaftlern brauchen, sind plausible, möglichst widerspruchsfreie Abschätzungen, die Politiker nutzen können, ein System künstlicher, aber wirkungsvoller Warnungen aufzubauen, Warnungen, die den Instinkten entsprechen, die Tiere vor den Hurrikan fliehen lassen„, Es geht darum, dass die notwendige Fähigkeit, Opfer zu erbringen, stimuliert wird, Es ist deswegen wichtig, unsere Aufmerksamkeit auf die Betonung großer möglicher Gefahren für die Menschheit zu konzentrieren.«

    Das fiel auf fruchtbaren Boden. In den USA wurden die Mittel für die Beobachtung weltweiter Veränderung deutlich erhöht. NOAA und UNEP wurden aufgebaut. Allerdings hatte man um die Zeit noch die Sorge, die Erde könne sehr bald an einer neuen Eiszeit leiden.

    In Deutschland (1971) war der Staatssekretär im Innenministerium noch unter Hans Dietrich Genscher, Dr. Günther Hartkopf, einer der ersten auf Regierungsseite, der diese von Frau Mead angesprochenen „Systeme künstlicher aber wirkungsvoller Warnungen aufzubauen“ als himmlische Möglichkeiten in der Umweltpolitik erkannt hatte. Hartkopf war später der Hauptakteur bei der Gründung des Umweltbundesamtes und bei der Gründung und Finanzierung einiger NGO´s.  

    Die Rolle des Dr. Hartkopf

    Angeregt durch Frau Mead und ihre Idee, später befeuert durch Märchen des Buches „Die Grenzen des Wachstums“ von Dennis Meadows27 & Jay Forester und bestärkt durch die Honoratioren des Club of Rome, betrieb er effektiv und fast immer am Parlament vorbei, die Gründung und Unterstützung von Hunderten von Bürgerinitiativen und Umweltgruppen, lenkte Forschungsgelder in Institute und ihm genehme Wissenschafts-betriebe. Nach getaner Arbeit zog er 1986 stolz Bilanz wie Dr. Hug in seinem Buch „Die Angsttrompeter“ so treffend berichtet28
    (Alle Fett gesetzten Texte im folgenden Zitat sind Originalzitate, der Rest – nur kursiv- ist der Text des Autors Dr. Heinz Hug):

    Originalton Hartkopf: „Hohe Beamte in wichtigen Ressorts, die das Buch über die „Grenzen des Wachstums“ nicht nur gelesen, sondern auch verstanden hatten, organisierten daraufhin im Vorfeld des Treffens den Teilnehmerkreis so um, dass eine beachtliche Umweltstreitmacht den Wirtschaftsbossen gegenübergestellt wurde.“ Der argumentative Sieg der Verwaltung über die Wirtschaft und die ihr nahe stehenden Politiker war gegen Abend des denkwürdigen Tages eindeutig. Die Wirtschaft hat nie mehr versucht, ein zweites Gymnicher Gespräch zu verlangen.“ und weiter29

    In Bad Kissingen offenbarte Hartkopf dem Auditorium weitere erstaunliche Details. „Die Umweltverwaltung – die ja zum weit überwiegenden Teil aus Beamten besteht – (setzt) mit langem Atem einen Großteil ihrer Vorstellungen durch, weil sie genau weiß, wann die Zeit gekommen ist, neue Grenzwerte in die politische Entscheidung einzubringen. Eine reine Staatsorganisation könnte auch nicht übermäßige Erfolge vorweisen, weil als Gegner fortschrittlichen Umweltschutzes große
    finanzkräftige Wirtschaftsorganisationen mit Verbündeten innerhalb und außerhalb der Verwaltungseinheiten vorhanden sind. Zur Organisation des Umweltschutzes und damit zur Unterstützung der Umwelt bedarf es daher einer Lobby, die außerhalb von Verwaltung und Parlament Forderungen für Umweltschutz erhebt und damit in Politik und Medien gehört wird“
     

    Nun folgt das Interessanteste. Hartkopf erklärt, wie Bürger mithilfe hoher Beamter der Ökodressur unterworfen und Bürgerinitiativen mit Steuergeldern (!) produziert wurden. Im Originalton: „Nachdem zu Beginn der eigentlichen bundesdeutschen Umweltpolitik eine solche potente Gegenseite nicht vorhanden war, musste sie geschaffen werden…
    Es waren vorwiegend Beamte, die den Grundstein für die Arbeitsgemeinschaft für Umweltfragen legten und sie mit Leben und sachlichen Mitteln ausstatteten… Doch die Arbeitsgemeinschaft für Umweltfragen ist kein umweltpolitischer Kampfverband. Weil ein solcher fehlte, musste er eben gebildet werden. Es waren wiederum Beamte, die den Plan vorwärts trieben, örtliche Bürgerinitiativen zu einem Dachverband zusammenzuschließen, und die die Gründungsversammlung und noch einiges finanzierten.“
    (Fast ein Staatsstreich!) Was die Beamten mit Steuergeldern aus der Taufe hoben, waren Ökosingsangvereine, wie der „Bundesverband Bürgerinitiativen Umweltschutz« (BBU), der die bürgerkriegsähnlichen Schlachten um Brokdorf und Gorleben leitete und finanzierte. Nicht zu vergessen: Auch bei der Startbahn West, wo ein Polizist von einem der „kritischen jungen Leutchen“ erschossen wurde, mischte der BBU mit. Hartkop f nennt 1986 in Bad Kissingen auch eine bemerkenswerte Zahl: „Eine Mitgliedschaft von rund vier Millionen Bürgern kann jederzeit mobilisiert werden und bildet daher ein beachtliches Potenzial, an dem die Politik nicht vorbeigehen kann.“ Das muss man sich noch einmal durch den Kopf gehen lassen. Da schaffen sich Politiker und politische Beamte mit Steuergeldern (!) eine Öko-Sturmabteilung, um auf deren Druck hin der Bevölkerung gutmenschliche Öko-Correctness und später höhere Steuern zu verordnen!

    In seiner Rede geht Hartkopf auch darauf ein, wie die Ökoquisition die Medien zu nützlichen Idioten machte.
    Er spricht das vornehmer aus und spricht von
    “ Tendenzinformationen mit denen die Zeitungsmacher besser wäre die Zeitgeistmacher gefüttert wurden. Zur Glaubwürdigkeitssteigerung der gezielt in die Welt gesetzten Tartarenmeldungen erschienen Berichte in Wissenschaftsjournalen, die nach Hartkopf „aus der Feder von Beamten stammen, wenn man die Veröffentlichungen von Professoren und ihren beamteten Mitarbeitern an Universitäten mit einbezieht. Die Fülle der substanziellen Fachartikel
    ist so groß, dass die Wirtschaft weder von der Menge noch von der Qualität her mithalten kann“
    . Als einzelne Bundesländer in den 70er-Jahren versuchten, überzogene Grenzwerte im Interesse des gesunden Menschenverstands und der Wirtschaft abzuschwächen, wurden sie nach Hartkopfs Aussagen
    mithilfe der Medien wegadministriert.“

    Die Rolle des Journalisten Franz Alt

    Und Franz Alt, bekennender CO2 Bekämpfer und Journalist sagte vor einiger Zeit zum Thema Wahrheit und Objektivität30. : „Meine Erfahrungen beschränken sich… auf die politischen Magazine. Aber natürlich gibt es hier keinen objektiven Journalismus, aber natürlich müssen wir manipulieren – im Fernsehen noch mehr als beim Rundfunk und bei der Zeitung und im Magazin noch mehr als bei der Tagesschau. Ein Journalist, der sein Tun reflektiert, wird die Subjektivität seiner Arbeit nicht bestreiten können… Diese Manipulation ist nötig und möglich. Da sich aber in einem Ordnungssystem mit freier Publizistik die intentionale Manipulation nicht ausschließen lässt, ist wesentlich, dass es einen Pluralismus der Manipulationen, Manipulationsziele und Manipulationstechniken gibt. Es gibt keine Information ohne Manipulation.“ Zitat Ende. Franz Alt ist übrigens auch derjenige, der 2004 in einer Sendung von „hart aber fair“ über die Windkraftanlagen, CO2 als Dreck bezeichnete, das es gälte zu beseitigen, z.B. mit einer Drecksteuer. Wir sind dicht dran!

    Die sozialistische Internationale und die Riokonferenz von 1992

    Hierbei sollte man auch nicht die Aussage des kanadischen Ölmagnaten (nach eigener Angabe auch Kommunisten! und Mao-Freundes) Maurice Strong (Generalsekretär der Rio-Konferenz 1992 unter Gro Harlem Brundtland) über die von ihm angedachte verschwörerische Gruppe der „Planetenretter“ vergessen, welche Basis für die angestrebte Global Governance31 ist. „So in order to save the planet, the group decides: Isn’t the only hope for the planet that the industrial civilizations collapse? Isn’t it our responsibility to bring that about? This group of world leaders form a secret society to bring about an economic collapse“. Und wie man offenbar richtig erkannte, läßt sich der wirtschaftliche Kollaps am besten durch Umweltschutz sowie Verkehrs-, Produktions- und Konsumbeschränkung in Kombination mit drastischer Rationierung und Verteuerung von Energie erreichen.

    Zurück zu den Anfängen. Damals war ja nur das Waldsterben erfunden, DDT bereits verboten (mit vielen 100 Millionen Toten bis heute, die der Malaria seither zum Opfer fielen, eine Malaria die Ende der 70er Jahre fast ausgerottet war!) Der Atomkrieg drohte alle auszulöschen und am Wetter waren die Atombomben schuld. Das war sehr übersichtlich, der Atomwaffensperrvertrag war aber schon unterschrieben. Es galt neue Bedrohungen zu erfinden. Von Margaret Mead und anderen!

    Jay Forester und Dennis Meadows sagten in „Die Grenzen des Wachstums“ das Ende der Verfügbarkeit fast aller Rohstoffe noch im letzten Jahrhundert, und u.a. Prof. Stephen Schneider sah die nahende Eiszeit voraus. Und UThant UN-Generalsekretär organisierte in Kopenhagen 1972 die erste Umweltschutzkonferenz. Dann kamen die Amerikaner auf die Idee, daß CO2 zu verdammen, um die Kernenergie zu fördern. Sie fanden einen cleveren Verbündeten in Maggie Thatcher. Günter Ederer beschreibt dies in seinem Buch “ Die Sehnsucht nach einer verlogenen Welt“ S 349 ff. (wie seherisch dieser Titel doch geradezu anmutet!) was Frau Sonja Boehmer-Christiansen in einer Forschungsarbeit über die politischen Quellen der Treibhausgashysterie
    herausgefunden hat. Maggie Thatcher, als erbitterte Gegnerin der Gewerkschaften -vor allem der Bergarbeiter Gewerkschaft- bekannt, hatte andrerseits ein starkes Faible (und aus guten Gründen, wie ich anfügen möchte)
    für die Kernenergie. Mit den Bergarbeiter Gewerkschaften lag sie in ständiger Fehde. Um Sellarfield -der ersten Wiederaufbereitungs-anlage in Europa- mußte sie, wegen häufiger Pannen dort, bangen. Ausgerechnet
    der schon bekannte Al Gore, damals noch US-Senator, berichtete ihr von den noch nicht so bekannten CO
    2 Hypothesen. Sie sah ihre Chance sofort und ergriff sie: Um die Erde zu retten – a la Gore- benötigen wir Atomstrom, aber wir müssen CO2 verhindern. Denn, CO2 ist ja, nach dieser Hypothese, Haupt-Verursacher der Erwärmung, und ist gleich Verbrennung, gleich Kohle, gleich Bergarbeiter, gleich Gewerkschaft. Gedacht, getan! So überzeugten die Briten im Auftrag ihrer Premierministerin und zusammen mit den Amerikanern erst noch Australien, Kanada und Neuseeland. Dann stampften sie mit ihnen gemeinsam über die UN die erste IPCC-Konferenz aus dem Boden. Willfährige Wissenschaftler wurden mit üppigen Forschungsgeldern geködert und um das Ganze rund zu machen, durften auch Wissenschaftler aus Dritte-Welt-Staaten als Stellvertreter der Angelsachsen mitmachen32. Ähnlich war das Verhältnis bei den Amerikanern. Und, während die überwältigende Mehrheit der unabhängigen Wissenschaftler die CO2 -Hypothese ablehnt, wurde sie von den regierungsabhängigen Wissenschaftlern tatkräftig unterstützt.
    Und das mit Erfolg, wie wir heute wissen.

    Nur, der Schuß ging, bezüglich der Atomkraft und was unser Land betrifft, nach hinten los. Während erst die Grünen begeistert die CO2 -Hypothese aufgriffen, gefolgt von der politischen Klasse, und jetzt von der verängstigten Mehrheit im Volke, lehnten sie den 2. Teil dieses Konzepts, den Ausbau und Förderung der Kernenergie, vehement ab. Und hatten Erfolg damit. Deutschland gilt heute bei allen IPCC und sonstigen Klimakonferenzen als Scharfmacher bei gleichzeitig totaler Ablehnung der Kernkraft. Ein toller Erfolg!

    Aber es kam noch besser. Nachdem die ersten IPCC Konferenzen für genügend Aufregung gesorgt hatte, schaltete sich die sozialistische Internationale ein, die ehemalige norwegischen Ministerpräsidentin Gro Harlem Brundtland war eine ihrer Vizepräsidenten. Frau Brundtland erreichte, daß die UN sie 1988 mit Leitung der Brundtland-Kommission beauftragte, welche die erste große UN-Konferenz 1992 in Rio organisieren sollte. Bei dieser Konferenz wurde das Konzept der nachhaltigen Entwicklung (sustainable development) beschossen, aus dieser ging dann die Agenda 21 hervor. Wenig danach bekannte Frau Brundtland freimütig im Interview eines kanadischem Reporter Zitat: „Das Programm der Sozialistischen Internationale ist die Basis der Riokonferenz33. . Der Realsozialismus ist zwar tot aber es lebe die nachhaltige (grüne) Entwicklung mit „gerechter“ Zuteilung aller lebenswichtigen Ressourcen. Und jetzt ergibt das an den Eingang gestellte Zitat der britischen Außenministerin noch mehr Sinn: On Thursday, Margaret Beckett, the Foreign Secretary, compared climate sceptics to advocates of Islamic terror. Neither, she said, should have access to the media.“. Sie wird wissen warum.

    Da ist nicht mehr viel hinzufügen. Nur das noch. Die Umweltbürokratie hat sich – nach Anfängen in den USA- europaweit durchgesetzt, jetzt wird die Welt in Angriff genommen. Siehe jüngstes Beispiel: Nairobi mit 6000 Delegierten aus 188 Ländern. Besser und einfacher lassen sich die Bürger gar nicht schröpfen und gängeln. Das begreifen fast alle. Auch Dritte Welt Staaten. Nur wir nicht!

     Nun die letzte Frage: Können wir etwas dagegen tun? Noch ja, zum Glück: Die „verschwindende Minderheit“ der Klimaskeptiker, wie es der Spiegel im letzten Umwelttitel (Ausgabe 44) formulierte, ist sehr aktiv und wird täglich stärker und lauter. Genaueres findet man in den Veröffentlichungen der 400 (inzwischen über 2000) Wissenschaftler -einschließlich Nobelpreisträgern-), die den „Heidelberger Appell“ unterzeichnet haben, sowie der 19.000 Wissenschaftler und Fachleute, welche sich mit der so genannten „Oregon-Deklaration“ gegen das Kyoto-Protokoll gewandt haben Vielleicht demnächst Sie auch? Das gäbe doch Anlaß zur Hoffnung.

     Argus im November 2006


    1  Christopher Monckton im Telegraph 15.11.06http://www.telegraph.co.uk/news/main.jhtml?xml=/news/2006/11/12/nclim12.xml

    2  bei seiner Eröffnungsrede in Nairobi Nov. 2006 der ganze Absatz lautete:This is not science fiction, These are plausible scenarios, based on clear and rigorous scientific modeling.  A few diehard skeptics continue trying to sow doubt. They should he seen for what they are: out of step, out of arguments and out of the time. In fact, the scientific consensus is becoming not only more complete,
    but also more alarming. Many scientists long known for their caution are now saying that global warming trends are perilously close to a point of no return.“

    3  Professor Dr. Helmut Kraus, emeritierter Direktor des Meteorologischen Institutes der Universität Bonn hat das Lehrbuch „Die Atmosphäre der Erde“ geschrieben (2002). Dort steht im Kapitel
    „Bodennahe Klima Änderungen“ der Satz: „Am Beispiel beider Stationen (Anm.: Wien und Hohenpeißenberg) erkennt man deutlich, dass es zum Ende des 18. Jahrhunderts noch etwas wärmer war als heute”

    4  Näheres hier: http://www.john-daly.com/ges/surftmp/surftemp.htm

    5  Die Daten die Mann und Co unterdrückt hatten, fanden sich in seinem Computermodell, das zuletzt doch zugänglich
    gemacht wurde, im Ordner „Censored Data“. Das spricht für sich.

    6  Zur Güte der Vorhersagen der Computermodelle unserer Wissenschaftler vom Max Plank Institut für Meteorologie oder anderen IPCC UNO Nutznießern komme ich noch mal separat zu sprechen)

    7  von Arrhenius 1890 -und viele haben sehr gute Gründe zu meinen- zu niedrig geschätzen 280 ppp

    8  Bestes Beispiel für eine -sogar enge- Korrelation ist die Menge der Störche und die Menge an Babys,
    die geboren werden. Diese beiden Prozesse sind eng korrelliert (wir zählen weniger Störche und haben weniger Babys), aber daß sie voneinander abhängen, das hat noch niemand ernsthaft behauptet.

    9  Quelle: Fischer et al. Science Vol 283, 1999

    10  Ein neues Meßverfahren – und überraschende Ergebnisse (Frederike Wagner, Universtät Utrecht)

    Eine neue, robuste Technik zur Bestimmung der CO2 -Gehalte der Luft in der Vergangenheit wurde nun in den späten Neunziger Jahren eingeführt. Zwischen der Flächendichte der
    Spaltöffnungen (Stomatae) in den Blättern bedecktsamiger Pflanzen (Angiospermen) und der umgebenden atmosphärischen
    CO2 -Konzentration besteht ein enger inverser Zusammenhang. Dieser macht es möglich, den einstigen CO2 -Gehalt der Atmosphäre aus fossilen Blättern zu bestimmen. Für weniger weit zurückliegende Epochen können CO2 -Gehalte abgeleitet werden aus Blättern, die man im Torfmoor findet.

    Obwohl die Eisbohrkerne dies nicht erkennen lassen, zeigt das neue Meßverfahren, wie die atmosphärische CO2 -Konzentration von 260 ppm am Ende der letzten Eiszeit schnell auf 335 ppm im Preboreal (vor 11500 Jahren) anstieg, dann wieder auf 300 ppm abfiel und vor 9300 Jahren 365 ppm erreichte.
    Diese Beobachtungen widerlegen die Annahme einer stabilen „vorindustriellen“ Atmosphäre und zeigen, daß
    CO2 -Niveaus wie das heutige das Ergebnis sonnengesteuerter Temperaturzunahmen mit darauffolgender Ozean-Entgasung sind. Der rekonstruierte Verlauf aus der Zeit vor 9000 Jahren
    gibt Auskunft über CO2-Zunahmen von 65 ppm pro Jahrhundert, die zu
    CO2 -Niveaus wie dem heutigen führten, bei Temperaturen ebenfalls ähnlich den heutigen. Daraus folgt, daß man nach Beweisen für Effekte der industriellen CO2 -Emissionen vergeblich suchen wird. Weder die heutigen Temperaturen noch die heutige atmosphärische Chemie zeigen Anomalien.“ (Ende des Zitats)

    11  das ist die Temperaturerhöhung, die rechnerisch bei einer Verdoppelung des CO2 Anteiles in der Luft auftritt.

    12  das sind mathematische Methoden zur Herleitungen von Formeln aus aufgezeichneten Verläufen, aus denen
    sich die Parameter dann bestimmen lassen

    13  im Journal of Geophysical Research 104, S. 3865 (Februar 1999) unter dem Titel „Why is the global warming
    proceeding much slower than expected?“

    14  http://www.john-daly.com/schneidr.htm

    15  zumindest mit dieser Aussage kann man wohl Wikipedia als verläßliche Wissensquelle betrachten.
    Obwohl sonst viele Zweifel erlaubt sein dürfen.

    16  Das haben erst kürzlich Wingham, D.J., Shepherd, A., Muir, A. und Marshall, G.J. (2006. Mass balance of the Antarctic ice sheet. Philosophical Transactions of the Royal Society
    A 364: 1627-1635.) wieder festgestellt.

    17  CO2 Science Magazine, 18 October 2006, In einer kürzlich durchgeführten Untersuchung über den globalen Anstieg der Meeresspiegel kommen Wissenschaftler zu der Erkenntnis: daß, wenn man dekadische
    Veränderungen mittels statistischer Computeranalysen des Meerespiegels untersucht, dann erkennt man daß es keine signifikanten Anstiege von 1950 bis 2000 zu erkennen sind. Die Zahlen von 1993 bis 2000 und die Zahlen
    von 1920 bis 1945 sind so gut wie gleich groß. (2,4 ± 1.0 mm/Jahr zu 2,6 ± 0,7 mm/Jahr)!

    18  Kohlendioxid und Klima Vortrag vor Old Table Freiburg am 21.2.2002 von Dipl.-Phys. Alvo v. Alvensleben Revidierte Fassung März 2002, http://www.schulphysik.de/klima/alvens/klima.html

    19  Zitat aus den IPCC Veröffentlichungen, gefunden bei science.orf.at/science/n#56150E

    20  Viel Wissenswertes über inhaltliche und methodische Fehler und Verfälschungen der IPCC Modelle findet sich hier:www.john-daly.com/tar-20#5C5247

    21  Amtliche Schätzung auf der letzten Marrakesch Klimakonferenz

    22  ..(also unter Rot/Grün) auf eine kleine Anfrage zur Bennennung der Kosten von Kyoto an

    23  ..so in einer Phönix-Runde zur Nairobi Konferenz am 15.11.06

    24  1 % des BSP jährlich, weltweit sind das in 2005 ca.. 450 Mrd $ der Löwenanteil davon für
    die EU& USA, Stern schätzt dann auch großzügig ca. 500 Mrd $

    25  http://www.telegraph.co.uk/news/main.jhtml?xml=/news/2006/11/12/nclim12.xml

    26  Auszüge entnommen dem Buch, „die Angsttrompeter“ von Heinz Hug:

    27  Dennis Meadows gestand später ein, daß er und seine Mitarbeiter nur 0,1 Prozent ihrer Wissens auf die Datenbasis verwendeten. D.h. sie errechneten Modelle ohne jeden Bezug zur Wirklichkeit. Wie heute
    wieder!

    28  Alle Fett gesetzten Texte im folgenden Zitat sind Originalzitate, der Rest – nur kursiv- ist der Text des Autors Dr. Heinz Hug.

                      Zitat „Nein, die Hysterie ist nachweislich ein von er sozialliberalen Regierung Brandt/Schmidt veranstalteter Klamauk, der als politisches Perpetuum terribile unter Töpfer während der Ära Kohl unaufhörlich
    weiterklapperte, Wie das ablief, schildert Hartkopf 1986 in Bad Kissingen. Klar und deutlich beschreibt er in einer Rede die Kriegführung der Politik gegen die Wohlstandsgesellschaft, die Industrie und deren Arbeitnehmer.
    Zunächst berichtet er, wie die Vorstände großer Unternehmen am 3. Juli 1975 auf Schloss Gymnich geleimt wurden, als sie sich gegen überzogene Umweltauflagen zur Wehr setzen wollten.

    29  Dr Hug:….Spiel, Satz und Sieg für die Okoquisition! Im Rückblick verwundert es nicht allzu sehr weshalb die Vorstandschefs großer Industrieunternehmen – von Ausnahmen abgesehen – sofort der
    Ökofahne nacheilten und ihre leitenden Mitarbeiter die Suppe auslöffeln ließen, während die kleineren Angestellten zu Hause fleißig den Müll trennten, Dies hat Folgen, denn die allgemein akzeptierte
    vollsynthetische Scheinrealität macht Unternehmen erpressbar wie der Fall der Brent Spar. Und genau aus diesem Grund haben deutsche, Firmen inclusive Shell die freie Meinung aufgegeben und sich bei der Okopolonaise eingereiht.

    30  Franz Alt 1976 in einem Anfall von Ehrlichkeit in Bild der Wissenschaft

    31  Zitat aus Dixy Lee Ray und Lou Guzzo (1993) „Environmental Overkill“, S.1143:

    32  Die Zusammensetzung der ersten Konferenz nach Herkunftsländern zeigt das deutlich: 25 Neuseeländer, 72 Australier, 38 Kanadier, 29 Briten, 135 US Amerikaner, standen gerade mal 6 Russen, 8 Chinesen,
    9 Franzosen, und 2 Indern gegenüber. Nigel Calder – der berühmte Wissenschaftsjournalist und Autor des Bestsellers von „Die launische Sonne“ kennt fast alle Teilnehmer persönlich und auch ihre Herkunft.
    60 % der britischen Teilnehmer stammten aus regierungsabhängigen Organisationen, (wieviel mögen es derzeit in Nairobi sein?), nur zu 40 % waren es unabhängige Wissenschaftler.

    33  Die Angsttrompeter S. 105

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Die Klimakatastrophe – was ist wirklich dran?

    Geheimdienst CIA propagierte „Blitzkrieg des Schnees“

    Posted by Rauch on 25th Juni 2006

    Wolfgang Thüne

    Nun hat sich der Kreis geschlossen, hat steter Informationstropfen die Gehirne erweicht und sich im Unterbewusstsein fest eingenistet. Die „Klimapolitik“ hängt nicht mehr in luftleeren Räumen, sondern steht nun felsenfest auf dem Boden der „Volksmeinung“ und ist in ihr sozialpsychologisch verankert. Jetzt wissen wir es, die „Klimakatastrophe“ steht kurz bevor, denn nach einer Umfrage des Emnid-Instituts sind mehr als zwei Drittel der Deutschen fest davon überzeugt, dass der Klimawandel zu einem bösen Ende führen wird. Der US-Chemiker James Lovelock warnt sogar: „Millionenstädte wie Hamburg und London könnten in einigen Jahrzehnten überflutet sein.“ Auch aus UNO-Kreisen verlautet, dass alles noch viel schlimmer komme. Die Erde erhitze sich schneller als befürchtet und werde sich bis 2100 um 4,5 Grad Celsius erwärmen. Dem IPCC-Klimabericht 2007 zufolge beschwöre der Mensch nach dem „Blitzkrieg des Schnees“ gerade die „Super-Eisschmelze“ hervor.

    „Erst kommt das Fressen, dann die Moral“! Wer kennt ihn nicht, diesen Spruch von Bert Brecht. Er beschreibt eine Grundbefindlichkeit des Menschen. Hunger kann nicht nur Angst und Panik auslösen, allein das Gefühl kommenden Hungers entfacht vorbeugend Ängste, regt die Phantasie an wie die Suche nach Schuldigen. Solch eine kollektive Angstsituation herrschte angesichts der „Getreidekrise“ im Jahre 1972 nach etlichen wetterbedingten Missernten in den sechziger Jahren. Die Nachrichten und Schlagzeilen in den Medien häuften sich und es kam zu einer Nachrichtendichte, die den amerikanischen Geheimdienst CIA veranlasste, den vielen wilden Spekulationen nach den Ursachen dieser Wetterkapriolen nachzugehen und die führenden Klimatologen um Auskunft und Rat zu ersuchen. Dies war die „Geburtsstunde“ der numerisch prognostischen Klimaforschung. Sie beendete praktisch die Ära der klassischen deskriptiven Klimatologie und verhalf einer neuartigen Spezies von Wissenschaftlern zu ungeahnter politischer Karriere, den „Klimaexperten“. Sie entwickelten eine physikalisch exakt erscheinende Wahrsage- und Vorhersagekunst, die an das berühmte „Orakel von Delphi“ anknüpft.

    Die vor über 30 Jahren vom CIA ausgelösten Klima-Prophezeiungen, die einer ständigen dramaturgischen Verstärkung in einer nach Sensationen lechzenden Gesellschaft unterliegen, verfehlten und verfehlen natürlich ihre Wirkung nicht, stimulieren Meinungen und schaffen Verunsicherung, doch was ist davon zu halten? Sind sie nur wilde wissenschaftliche Spekulationen, die aus Computersimulationen resultieren oder beruhen sie auf wirklich belastbaren Fakten? Was den zu erwartenden UNO-Bericht betrifft, so beruht er auf der üblichen Fortschreibung von gehorsamen Modellen, die immer genau das prophezeien, was an Ergebnis vorgegeben wurde. Es gilt die alte Skatregel, „wer schreibt, der bleibt“. Doch Skepsis ist immer angebracht bei solch alarmierenden Aussagen wie, „seit 20.000 Jahren habe es keinen so raschen Anstieg der Temperatur gegeben“. Wenn man jedoch rekonstruiert, wie schnell die letzte Eiszeit endete und wie rasch Skandinavien mitsamt dem Südrand der Ostsee vom Eise befreit wurden, dann ist größte Skepsis angesagt. Wie gigantisch muss damals die Erwärmung gewesen sein, auch ohne Mensch, denn der wanderte erst später nach Skandinavien wie den Alpenraum ein.

    Blickt man nur wenige Jahre zurück, dann kann man feststellen, wie schnell sich Moden und Meinungen in Wissenschaft und Politik ändern können. Das Verdienst, das „Klima“ als Forschungsobjekt entdeckt, die moderne numerische Klimaforschung begründet zu haben, gebührt dem CIA, dem „Central Intelligence Service“ der Vereinigten Staaten von Amerika. Es waren führende Denker der CIA, die Anfang der siebziger Jahre zu dem Ergebnis kamen, daß die Veränderungen des Klimas „vielleicht die größte Herausforderung (seien), der sich Amerika in den kommenden Jahres ausgesetzt sehen wird“. Aus der Angst heraus, dass die USA ihre Vormachtstellung als Getreideexporteur durch Missernten verlieren könnten, gab der CIA mehrere Studien über das Klima der Welt, die wahrscheinlich zu erwartenden Veränderungen und deren vermutliche Auswirkungen auf Amerika und die übrige Welt in Auftrag. Was die Methoden der Klimatologie betraf, so gab es 3 Schulen und Lehren, die Lamb-Schule in England, die Smagorinsky-Schule in den USA und die Budyko-Schule in der Sowjet-Union. Die Studien erklärten, die Welt trete in eine schwierige Periode ein, in der es zu einer erheblichen Klimaveränderung kommen werde, wobei die Minderheit für eine Erwärmung, die Mehrheit aber für eine drastische und dramatische Abkühlung plädierte..

    Die CIA-Studie erregte damals wenig öffentliches Interesse. Sie wurde von der intellektuellen Elite schlicht ignoriert, denn was sollte außer gezielter Desinformation schon Gutes vom CIA kommen. Die nachrichtendienstlich relevanten Ergebnisse des CIA wurden 1977 in den USA unter dem Titel „The Weather Conspiracy“, „Die Wetter Verschwörung“ publiziert. 1978 erschien dieses Buch in Deutschland von einem Impact-Team unter dem Titel „Der Klima-Schock“ veröffentlicht. Auf der Titelseite liest man: „Die nächste Eiszeit steht kurz bevor. Der Bedarf an Heizenergie wird unerfüllbar. Große Teile der Erde werden unzugänglich. Der Hunger wird größer.“ Die Geheimberichte des CIA ließen die grüne Umweltbewegung „kalt“, sie entfachte aber durch riesige staatliche Forschungsmittel einen Forschungsboom ohnegleichen. Damals kam die überwiegende Mehrheit der Wissenschaftler zu dem Ergebnis, dass das Klima einer schnellen Abkühlung entgegen geht. Diese neuartige Klimatheorie trug den erschreckenden Namen „Schneeblitz“. „Dieser Schneeblitz ist ein Blitzkrieg des Schnees, der in wenigen kurzen Jahren Ostkanada, Nordeuropa, die Alpen und andere nördliche Regionen mit Inlandeis bedecken und den unerbittlichen Marsch der vielen Gletscher der Welt nach Süden auslösen könnte.“

    Politischer Sieger unter den diversen Studien war die Wiskonsin-Studie, die unter der Leitung von Professor Reid Bryson entstand. Sie sagte vorher, „dass die Erde zu dem Klimasystem zurückkehrt, das von Beginn des 17. Jahrhunderts bis zur Mitte des 19. Jahrhunderts geherrscht hat und üblicherweise die neoborale oder „Kleine Eiszeit“ genannt wird.“ In dieser Zeit lebte Nordeuropa überwiegend in der Dämmerung ständigen Winters. Schlechte Ernährung hatte große Epidemien in Europa, Russland, Indien und Afrika zur Folge, während die Iberische Halbinsel, Italien und Griechenland blühten. Professor Brysons Gedankengang lautet so: „Bis etwa 1940 wurde die Welt wärmer; Mitte der vierziger Jahre setzte dann eine entgegen gesetzte Entwicklung ein, da sich die Polarluft nach Süden ausdehnte und sich die nördliche Halbkugel abkühlte. Prof. Bryson glaubte, dass die 3 Hauptfaktoren dabei sind: vulkanische Asche, vom Menschen erzeugter Staub und Kohlendioxyd.“

    Doch die Schneeblitz-Theorie blieb Theorie, auch wenn sie noch für zu harmlos hingestellt wurde. Der sowjetische Klimatologe Michail Budyko glaubte, dass ein weiteres Absinken der durchschnittlichen Temperatur auf der Erde um 1,6° C die Gletscher in Marsch setzen würde. Sollte die Temperatur dann noch um 0,4° C fallen, dann könnte das eine 90.000 Jahre währende Tyrannis unter Schnee und Eis herbeiführen.“ Nach Meinung des US-Experten John Kutzbach laufe der maximale Temperatursturz normalerweise innerhalb von 40 Jahren nach Beginn ab. Doch wann begann der Beginn? Der CIA setzt ihn wie folgt fest: „Die Klimaänderung setzte 1960 ein, doch niemand, die Klimatologen eingeschlossen, erkannte es.“ Wir leben heute im Jahre 46 nach Beginn und schauen gespannt wie damals auf die Orakel-Sprüche der Wissenschaft.

    Doch inzwischen hat die Karawane der Klimaexperten die Richtung gewechselt und entdeckt, dass mit der „Treibhaustheorie“ von der Erderwärmung langfristig das einträglichere und nachhaltigere Geschäft zu machen sei. Schließlich sitze die Angst vor der Hölle viel tiefer im kollektiven Unterbewusstsein der Völker, zumal sie sich viel leichter mit der Sündhaftigkeit des Menschen koppeln und für den politisch gewünschten Ablasshandel instrumentalisieren lasse. Auch die Angst vor der „Sintflut“ ist ein immerwährender Publikumsrenner. Schließlich ist seit Urzeiten die Angst- und Panikmache ein probates Mittel der Politik, um sich „Massen“ gefügig zu machen. So zahlen die Bürger in Deutschland jährlich etwa 20 Milliarden Euro an „Ökosteuern“ und glauben dennoch resignierend, dass die „Klimakatastrophe“ unausweichlich ist. Die Wissenschaftshörigkeit wie die Leichtgläubigkeit gegenüber den Wissenschaftlern als den hohen Priestern der Weisheit und Selbstlosigkeit kennen keine Grenzen. Alle Fakten, so das Impact-Team zeigten damals „deutlich, dass zwar die verschiedenen Klimatologen unterschiedliche Veränderungen für die Zukunft vorhersagen, dass sie jedoch übereinstimmend der Ansicht sind, das Wetter wird sich von nun an gegen die Menschheit und gegen die Welt, die wir geschaffen haben, „verschwören“.“ Das Wetter als Verschwörer? Hier wird offenbar, mit Wissenschaft haben die Klimaprophezeiungen nichts mehr zu tun. Das ist finsterster Okkultismus.

    Der Okkultismus entwickelte sich zu Beginn des 20. Jahrhunderts aus der Lebensreform-Bewegung. Damit verbunden entstanden zahlreiche okkulte Gesellschaften und Logen wie OTO und Fraternitas Saturni. Sigmund Freud, der „Vater des Unbewussten“ bezeichnete den Okkultismus als „Aberglauben“. Viel schärfer ging mit ihm Theodor W. Adorno zu Gericht: „Die Neigung zum Okkultismus ist ein Symptom der Rückbildung des Bewusstseins. Es hat die Kraft verloren, das Unbedingte zu denken und das Bedingte zu ertragen. Anstatt beides, nach Einheit und Differenz, in der Arbeit des Begriffs zu bestimmen, vermischt es beides unterschiedslos. Das Unbedingte wird zum Faktum, das Bedingte unmittelbar wesenhaft.“ Die Begriffe Wetter und Klima werden unterschiedslos vermischt und dann zu „Wesen“ erklärt, die sich gegen den sündhaften Menschen verschwören und seine Vernichtung betreiben – wenn nicht im unterkühlten „Eishaus“, dann im überhitzten „Treibhaus“.

    Wenn auch der Glaube angeblich Berge versetzen kann, das Wetter beeinflussen, das kann er nicht. Das Wetter ist ein vom Menschen völlig unabhängiger Naturvorgang; ihm müssen wir uns unterordnen und anpassen, ob dies uns passt oder nicht! Aus dieser Erkenntnis heraus wünschen uns nichts sehnlicher als bessere, zuverlässigere Wettervorhersagen. Die Qualität wie Quantität einer Ernte hängt einzig und allein vom Wetter während der Vegetationsperiode ab und nicht von irgendwelchen Klimawerten. Doch von exakten Wettervorhersagen sind selbst die staatlichen Wetterdienststellen meilenweit entfernt. Weder der Mensch noch sein Hilfsgeselle Computer haben das Wettergeschehen enträtseln können. Jede Wettervorhersage, selbst für 24 Stunden, verbirgt ein Kaleidoskop an mehr oder weniger wahrscheinlichen Möglichkeiten. Ob dieser naturgegebenen Unsicherheiten halten sich die Meteorologen bei langfristigen Vorhersagen stets zurück. Von Klimavorhersagen halten sie rein gar nichts, denn Klima ist nichts als ein wesenloses Abstraktum, gewonnen aus der statistischen Verarbeitung des vergangenen Wetters. Dies hat auch der intelligente CIA erkannt und zur Ehrenrettung der „Wetterfrösche“ festgestellt: „Die meisten Meteorologen erklärten, sie fänden keinerlei Rechtfertigung für derartige Vorhersagen.“ Daran hat sich bis heute nichts geändert. Klimavorhersagen haben keinerlei Rechtfertigung, denn es gibt „Klima“ weder als „Wesen“ noch als „Naturvorgang“!

    Oppenheim, den 25. Juni 2006

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Geheimdienst CIA propagierte „Blitzkrieg des Schnees“

    Endlager für CO2 – wie gefährlich ist das?

    Posted by Rauch on 22nd Juni 2006

    von Dr. Lutz Niemann 23.06.2006

    Im „CO2-freien Kohlekraftwerk“ wird die Kohle mit reinem Sauerstoff verbrannt, so dass als Rauchgas nur reines CO2 entsteht. Dieses kann aufgefangen werden und soll unter hohem Druck in tiefen geologischen Schichten, z. B. alten Bergwerken, erschöpften Erdöl- oder Erdgaslagerstätten, endgelagert werden. Bei Druckerhöhung auf 55bar kann CO2 zu einer Flüssigkeit mit der Dichte 0,76g/ml verflüssigt werden. Es stellt sich die Frage nach der Gefahr des unterirdisch gelagerten CO2: Kann es zu dazu kommen, das endgelagertes CO2 wieder die Erdoberfläche erreicht und dort das Leben erstickt? CO2-Gas ist schwerer als Luft, es sammelt sich daher an tiefen Stellen, wenn die Luftbewegung eingeschränkt ist. Bei Konzentrationen über 10% CO2 in der Atemluft führt es zur Bewusstlosigkeit. Da CO2 geruch-los ist, kann ansteigender Gehalt in der Luft vom Menschen nicht bemerkt werden. Schon bodennahe CO2 -Ansammlungen in Gärkellern, Höhlen oder Besucherbergwerken können Gefahren bergen, insbesondere für Kleintiere wie zum Beispiel Hunde [1].

    Für unsere Überlegungen wählen wir als Zahlenbeispiel ein typisches Steinkohlekraftwerk der Mittellast, und zwar das Kraftwerk Mehrum in der Nähe von Hannover am Mittellandkanal (692 MW, Wirkungsgrad 40%, Kohleverbrauch 900 000 t pro Jahr bei 4400 Betriebs-stunden). Dort werden pro Jahr rund 3 Mill. t CO2 mit dem Volumen von 1500 Mill. m³ (unter Normalbedingungen) produziert und in die Luft geblasen. Diese Menge ist das 7,5-fache vom Fassungsvermögen des Ederstausees, des größten deutschen Stausees, oder das 15-fache vom Fassungsvermögen des Sylvensteinspeichers. In der durch Druck verflüssigten Form nimmt diese CO2-Menge ein Volumen von 4 Mill. m³ ein, auch das ist noch ein wahrhaft gigantisches Volumen. Daher benötigt das „CO2-freie Kohlekraftwerk“ ein ständig zur Ver-fügung stehendes Endlager. Eine Zwischenlagerung des CO2 ist nicht möglich, denn die da-zu erforderlichen Duckbehälter müssten ebenfalls gigantische Ausmaße haben. Weitere Info finden Sie unter http://www.energie-fakten.de/html/kohlendioxid.html

    CO2-Ausbruch am Nyos-See [2]
    Im Jahre 1986 gab es am Nyos-See, einem Kratersee in Kamerun eine schlimme Naturkatastrophe, bei der rund 2000 Menschen zu Tode kamen. Dort wurde explosionsartig eine CO2-Gaswolke aus dem See freigesetzt, die alles atmende Leben erstickte. Das CO2-Gas vulkanischen Ursprunges hatte sich im Tiefenwasser des sehr tiefen und stillen Sees über lange Zeiten hinweg angereichert und kam plötzlich zum Ausbruch. Das schwere Gas verdrängte die Luft, füllte wie Wasser die Täler aus, wälzte sich durch die Täler und erstickte bis in eine Entfernung von 20 km Menschen und Tiere. Der CO2 -Ausbruch vom Nyos-See ist kein Einzelereignis extremer Seltenheit, schon 2 Jahre zuvor gab es an dem in der Nähe gelegenen Monoun-See einen ähnlichen Gasausbruch mit 37 Opfern.
    Das Ereignis vom Nyos-See zeigt die Gefahr von unterirdisch gelagertem CO2 an. Die 1986 in Kamerun freigesetzte CO2 -Menge wird auf 170 Mill. m³ geschätzt, das ist nur gut ein Zehntel der Menge, die unser Vergleichskraftwerk Mehrum im Jahre liefert. Die Gefahr durch endgelagertes CO2 von einem einzigen kleinen Kohlekraftwerk wäre also noch um ein viel-faches größer.

    Bombardierung der Staumauer des Edersees im Mai 1943 [3]
    Dieses Ereignis im Bombenkrieg des Zweiten Weltkrieges führte zu einem Bruch der Staumauer der Edertalsperre. Die Wassermassen schossen zu Tal und brachten über 2000 Menschen den Tod.
    Wasser und CO2 zeigen ähnliches Verhalten, sie füllen Bodensenken, sie fließen zu Tal. So wie das Wasser des Edersees im Krieg, so ähnlich könnte auch die ungleich größere CO2 -Menge unseres Vergleichskraftwerkes bei einer Freisetzung Tod und Verderben bringen.

    Blow-out von Offshore-Bohrungen [4]
    Blow-out nennt man den unkontrollierten Ausbruch von Erdöl oder Erdgas, der besonders für Offshore-Bohrungen ein hohes Risiko beinhaltet. Es gibt in der Nordsee Bohrplattformen mit einem Einzelwert bis zu 2 Mrd. US-$, entsprechend groß sind die Schäden bei einem der-artigen blow-out-Ereignis. In [4] sind für den Zeitraum von 1974 bis 1985 insgesamt 90 Großschäden in der Meerestechnik dokumentiert, davon sind rund 20% durch einen blow-out verursacht wurden. Es handelt sich also um eine häufige Schadensursache. Durch die Bohrung und das Abpumpen des Erdöles und Erdgases entstehen im Deckgebirge über der Lagerstätte Veränderungen, die das in der Tiefe vorhandene und unter hohem Druck stehende Gas oder Öl an die Oberfläche pressen und so einen blow-out zur Folge haben. Hohe Verluste sind damit verbunden.
    In gleichem Maße, wie Erdöl und Erdgas unkontrolliert zum Ausbruch kommen können, ist es auch mit endgelagertem CO2 zu erwarten, wenn es in ausgebeutete Gas- oder Ölfelder eingepresst wird.

    Deutung des Tunguska-Kometen als Methan-Ausbruch [5, 6]
    Im Jahr 1908 ging über Sibirien ein Komet nieder, verbunden mit gewaltigen Explosionen und Lichterscheinungen. Das Einschlaggebiet war weit ab jeglicher Siedlungen, es konnte erst Jahre später von Wissenschaftlern besucht werden. Man fand in einem Umkreis von 30 bis 40 km die meisten Bäume abgeknickt. Aber man fand keinen Einschlagkrater und keine Gesteinsbrocken von dem Himmelkörper, das war ungewöhnlich [5].
    In einer anderen Deutung dieses Ereignisses wird von einem Methan-Ausbruch ( = Erdgas, es enthält rund 90 % Methan) aus dem Untergrund gesprochen, also ein blow-out auf dem Festland. Das Methan kam zur Explosion und ergab die Lichterscheinungen, die Druckwelle knickte die Bäume [6].

    Ebenso wird das plötzliche Verschwinden von Schiffen, z. B. im Bermuda-Dreieck, dem Aus-bruch riesiger Gasmassen aus der Tiefe zugeschrieben. Das durch Gas aufgeschäumte Wasser hat geringere Dichte, damit vermindert sich für Schiffe der Auftrieb (Prinzip des Archimedes) und diese sinken. Die physikalische Begründung ist einleuchtend, eventuell handelt es sich bei diesen Geschichten aber doch um „Seemannsgarn“. Meldungen der be-schriebenen Art gibt es immer wieder [7].

    Schlußfolgerungen
    Es ist sicher, daß in der Tiefe der Erdkruste eingeschlossen Gase nach oben steigen können und das Leben bedrohen können. In der Vergangenheit hat es viele derartige Ereignisse gegeben, wobei die ausgeströmten Gasmengen wie beim Nyos-See gar nicht so groß waren.

    Die CO2-Mengen von einem Kohlekraftwerk der Mittellast sind um ein vielfaches größer, die davon ausgehenden Gefahren bei unterirdischer Lagerung ebenfalls.
    Es ist unverständlich, wie heute dem Endlager von in der Menge sehr geringen aber festen Abfallstoffen eines Kernkraftwerkes Gefahren angedichtet werden, die Endlagerung der gasförmigen Abfälle eines Kohlekraftwerkes auf genau die gleiche Weise von Politik und Stromwirtschaft aber mit Euphorie begleitet wird.

    Bei nüchterner Betrachtung zeigt sich:
    Das „CO2-freie Kohlekraftwerk“ hat keine Zukunft, die Versuche dazu sind schon heute ein aussichtsloses Unterfangen.

    Literatur
    [1] Römpp, Chemielexikon
    [2] Marguerite Holloway, „Killer-Seen“, Spektrum der Wissenschaft Jan. 2001, Seite 70 bis 77
    [3] google-Suche unter Edertalsperre, im „Zweiter-Weltkrieg-Lexikon“
    [4] Münchener Rückversicherungsgesellschaft, „Wirtschaftsraum Ozean“, 1988
    [5] J.-L. Bertaux in IRO-Atlas der Astronomie, 1986, Kapitel „Kometen“
    [6] Dagmar Röhrlich, „Es war kein Meteorit, der die Katastrophe in der Tunguska auslöste“, DIE WELT vom 5.10.2002
    [7] Siegfried Helm, „Bermuda-Dreieck in der Nordsee“, DIE WELT vom 1.12.2000

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Endlager für CO2 – wie gefährlich ist das?

    Harmlose Hochspannungsleitungen?

    Posted by Rauch on 3rd September 2005

    Bei der sehr niedrigen Frequenz von 50 Hertz – die allgemeine Norm der klassischen Stromnetze in ganz Europa – ging man immer davon aus, dass alle EM-Strahlungen für die Bevölkerung ohne Gefahr sind. Wir sind es somit gewohnt, unter einem riesigen Spinnennetz von Hochspannungsleitungen zu leben, die unsere Umgebung mit ihren verdichteten Knotenpunkten beim Ausgang aus den Kraftwerken und beim Eintritt in die großen städtischen Agglomerationen überziehen. Gewiss, ab und zu erhoben sich Stimmen, um die Unschädlichkelt der starken, von diesen elektrischen Autobahnen hervorgerufenen Magnetfelder, die den bewohnten Gebieten mit wachsender Siedlungsdichte manchmal recht nahe kommen, in Frage zu stellen. Lange Zeit wurden diese Besorgnisse mangels vertiefter Studien nicht ernst genommen. Seit rund zehn Jahren fragen sich jedoch die Experten, ob es einen Zusammenhang mit den Leukämien bei Kindern gibt, die in der Nähe solcher Leitungen geboren wurden und längere Zeit dort lebten. Die Daten wiesen auf eine mögliche Häufung der Fälle hin, und man kam überein, dass in dieser Tendenz, sollte sie sich erhärten, „mehr als nur einen Zufall“ zu sehen sei.

    Im vergangenen Juni hat das British Medical Journal Ergebnisse einer epidemiologische Studie eines Teams der Universität Oxford veröffentlicht. Es wurden 9700 Fälle von Leukämien bei Kinder unter 15 Jahren verglichen. Auf einer Karte von Großbritannien wurde ca. 22.000 Masten des Hochspannungsnetzes verzeichnet. Das Resultat weist auf ein um 70% erhöhtes Leukämierisiko bei Kindern hin, die weniger als 200 Meter von einer solchen Leitung wohnen. „Die Autoren gehen vorsichtig davon aus, dass ein auffälliger, daraus herzuleitender Ursache-Wirkungs-Zusammenhang immer noch weniger als 1% der kindlichen Leukämiefälle in diesem Land betrifft. Dieser Zusammenhang wird überdies durch die Tatsache relativiert, das die Untersuchungen sämtlicher kindlichen Leukämiefälle zumeist auf vorgeburtliche DNA- Veränderung oder später wichtige Umweltfaktoren, etwa eine ausgeprägte Aussetzung gegenüber ionisierten Strahlen, als Krankheitsursache hinweisen.“ Die Ergebnisse haben zwar vorläufig beschränkte Aussagekraft, jedoch sollen künftig strengere nationale Normen für die zulässigen Distanzen von elektrischen Leitungen eingeführt werden.

    Quelle: FTEinfo, Magazin über europäische Forschung 46, Aug. 2005, S. 5

    Mehr unter www.greenfacts.org/power-lines/l-2/power-lines-3.html#2
    Elektrosmog – eine gesundheitliche Beeinträchtigung?

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Harmlose Hochspannungsleitungen?

    Klimagefährdung-Klimaschutz

    Posted by Rauch on 4th August 2005

    Agitation ohne wissenschaftliche Rechtfertigung

    Leserbrief im ew Jg.104 (2005), Heft 5, S. 12f

    Aufsatz „Klimawandel – Tatsache oder Fiktion“ (ew 1-2/2005, S. 26 ff.) von Herrn Prof. Dr. Christian-D. Schönwiese

    Das Thema einer vom Menschen als Folge der Verwendung fossiler Energieträger, des dadurch verstärkten Eintrags von Kohlendioxid (CO2) in die Lufthülle der Erde, vermuteten Beeinflussung des Klimas ist weiter aktuell. Dabei ist weder der gesamte CO2-Kreislauf detailliert verstanden, noch sind die Zusammenhänge um die energetischen Prozesse in der Atmosphäre, die Wetter und damit Klima formen, ausreichend geklärt. Die Vermutungen einer vom Menschen verursachten Klimaänderung werden mit der Zunahme des CO2-Gehaltes der Atmosphäre begründet, wodurch die Energieabfuhr aus dem System Erde/Atmosphäre behindert würde. Mit der Durchsetzung des Kyoto-Protokolls werden bereits kostspielige Maßnahmen zur Verminderung der CO2-Emissionen getroffen, die unsere Volkswirtschaft belasten. Die rechtzeitige Nutzung des besonders im Bereich der Stromerzeugung mittels Wärmekraftwerken speziell im Fachgebiet Wärmelehre vorhandenen Sachverstandes anstatt des blinden Vertrauens auf vermuteten Sachverstand im Bereich der Klimamodellierung hätte die gegenwärtig ablaufende politische Entwicklung frühzeitig beenden können. Im Folgenden werden die Gegebenheiten und Verhältnisse des Energieein- und -austrags in das/aus dem System Erde/ Atmosphäre und des Verbleibs der Energie in diesem System erläutert. Es ist unter Nutzung naturwissenschaftlichen Grundlagenwissens keinerlei Gefährdung der klimatischen Gegebenheiten auf unserer Erde durch einen höheren CO2- Gehalt in der Luft zu erkennen.

    Die Lufthülle der Erde – ein Energiespeicher

    Auch wenn wir meinen, auf der Erde zuleben, sollte bewusst sein, dass wir uns zugleich am Boden eines Ozeans aus Luft bewegen. Unter uns haben wir zumeist feste, gelegentlich auch flüssige Materie, um uns herum gasförmige Materie, die umgebende Luft. Wir befinden uns nicht im geringsten im materiefreien Raum, im Vakuum. Wir leben zudem in einem Energiespeicher. Luft, verstärkt im Zusammenwirken mit der darin enthaltenen Feuchtigkeit, speichert Wärme. Dies ist vor allem die über die Sonneneinstrahlung zugeführte Wärme; gegenüber dieser Energiequelle für das System Erde/Atmosphäre sind sämtliche anderen freigesetzten Wärmemengen, z. B. durch Verbrennung von Energieträgern, Erdwärme geologischen Ursprungs u. a. m. von untergeordneter Bedeutung.

    Über die uns umgebende Luft nehmen wir den für unseren Stoffwechsel nötigen Sauerstoff auf; in diese Luft geben wir ein Endprodukt unseres zum Lebenserhalt erforderlichen Stoffwechsels, das CO2 ab, und zwar pro Kopf und Jahr rd. 350 kg.

    Bild 1. Energie- und Wassergehalt trockener und feuchter Luft bei 1 bar (Quelle: ew Jg.104 (2005), Heft 5 S. 15)

    Die Luft nutzen wir auch zur Temperierung, d. h. Kühlung, ggf. auch Erwärmung, sowie zur Ventilierung unseres Körpers. Die Eigenschaft der Luft, dass sie äußerst beweglich ist und schon bei kleinsten Dichteunterschieden von selbst in Bewegung gerät [1], ist die Voraussetzung für jegliches menschliche Leben und für das tierische Leben, soweit Lungenatmung vorliegt. Durch diese Eigenschaft ersticken wir nicht in der von uns ausgeatmeten Luft. Luft, in Verbindung mit dem auf unserem Planeten zumeist üppig vorhandenen Wasser und der jeweils enthaltenen Wärme, ist ursächlich dafür, dass es Wetter und in längerfristiger Sicht Klima, den längerfristigen Mittelwert (30 Jahre) des Wetters, gibt. Schon 1824 hatte der Physiker Sidi Carnot erkannt: „Der Wärme sind die bedeutenden Bewegungen zuzuschreiben, die wir überall um uns auf der Erde beobachten. Wärme ist die Ursache der Strömungen in der Atmosphäre, der aufsteigenden Wolkenbewegungen, des Regens und anderer atmosphärischer Erscheinungen.“ Damit hatte S. Carnot schon auf die Minimalvoraussetzung zum Verstehen der Wettervorgänge, der physikalischen Gegebenheiten und Abläufe im untersten Bereich der Atmosphäre, hingewiesen, nämlich eine gewisse Kenntnis der Grundlagen der Wärmelehre.

    Ein paar Grundlagen

    Man muss sich zunächst weniger Begriffe erinnern. Einer davon ist Wärme. Wir empfinden Wärme als Temperaturzustand der uns umgebenden Materie, z. B. als Wärme der Luft, des Wassers, des Dampfes oder sonstiger Medien. Wärme ist eine Form von Energie, sie wird verknüpft mit der ungeordneten Bewegung der Atome bzw. Moleküle eines Stoffes bzw. von Stoffgemischen.

    Wärme ist immer mit dem Vorhandensein von Materie, des Wärmeträgers, verbunden. Im materiefreien Raum gibt es keine Wärme. Die Wärmelehre (Thermodynamik) definiert Wärme als Energieform mit besonderen Übertragungseigenschaften: „Wärme ist Energie, die allein aufgrund eines Temperaturunterschiedes zwischen einem System und seiner Umgebung (oder zwischen zwei Systemen) über die gemeinsame Systemgrenze übertragen wird.“ [2] Oder: „Wärme ist (…) die Energieform, die bei der Wechselwirkung eines Systems mit einem anderen aufgrund einer Temperaturdifferenz über die Systemgrenze fließt.“ [3] Wir empfinden Wärme aufgrund des Übergangs derselben vom umgebenden Medium auf uns oder umgekehrt. Wärme ist Energie, es gibt eine Gleichwertigkeit von Wärme und Arbeit.

    Temperatur ist der zweite Begriff, an den erinnert werden muss. Temperatur ist eine Größe, die über den Zustand der mittleren Bewegungsenergie der Atome und Moleküle der betrachteten Materie Auskunft gibt. Die Temperatur eines Körpers ist dieser mittleren Bewegungsenergie seiner Atome und Moleküle proportional.

    Die Temperatur ist anhand von Skalen festgelegt. Der absolute Nullpunkt liegt bei 0 K bzw. -273,15 °C, tiefere Temperaturen gibt es nicht. Die Temperatur ist durch Vergleich der Zustände unterschiedlicher Körper festzustellen: „Systeme im thermischen Gleichgewicht haben die gleiche Temperatur, Systeme, die nicht im thermischen Gleichgewicht stehen, haben verschiedene Temperaturen.“ [4] Die Temperatur wird wie folgt korrekt gemessen: „Um die Temperatur eines beliebigen Systems zu messen, stellt man das thermische Gleichgewicht zwischen diesem System und dem Thermometer her. Das Thermometer hat dann dieselbe Temperatur wie das zu untersuchende System. Bei dieser Operation ist darauf zu achten, dass sich nur der Zustand des Thermometers ändert, der Zustand des untersuchten Systems praktisch konstant bleibt. Das Thermometer muss also ‚klein‘ gegenüber dem System sein, damit sich bei der Einstellung des thermischen Gleichgewichtes allein seine Temperatur ändert, aber die des Systems nur im Rahmen der zulässigen Messunsicherheit.“ [5]

    Um die Messung der Lufttemperatur für meteorologische Zwecke korrekt vornehmen zu können, wird diese in Bodennähe (2 m über dem Erdboden) mittels Thermometer gemessen, welche in Wetterhütten untergebracht sind. Diese Wetterhütten sind vollständig durchlüftet, das Thermometer wird vor jeglicher Sonnen- oder sonstiger Einstrahlung bewahrt; somit kann sich das thermische Gleichgewicht zwischen der Luft und dem Thermometer einstellen.

    Der Wärmeinhalt der Luft hängt von drei Parametern ab: Temperatur, Menge der in der Luft enthaltenen Feuchtigkeit und Dichte bzw. Druck. Dabei wird der Wärmeinhalt stets auf eine Bezugsgröße bemessen, üblicherweise auf 1 kg Masse. Die exakte Kenntnis zumindest der ersten beiden der genannten drei Parameter ist unabdingbare Voraussetzung zur genaueren Kenntnis des Energiegehaltes der Luft.
    klimagefaehrdung

    Im Bild 1 sind die Verhältnisse für Temperaturen im Bereich -10 bis +30 °C bei relativen Feuchten von 0 bis 99 % graphisch dargestellt. Der Druck ist dabei konstant belassen; in dem hier betrachteten Bereich gibt es nur eine vernachlässigbare Druckabhängigkeit des Energiegehaltes der Luft. Der Energieinhalt trockener Luft steigt mit der Temperatur, und zwar um rd. 1 kJ/kg je Grad. Bei feuchter Luft wird der Energieinhalt in erheblichem Maß durch die latente Wärme des enthaltenen Wasserdampfes bestimmt, nur in Bereichen sehr nahe und unter 0 °C kann wegen des dann sehr geringen Wassergehaltes schon anhand der Temperatur auf den Energieinhalt geschlossen werden. Bei höheren Temperaturen ist dies anders. Beispielsweise ist bei +20 °C (und 1 bar) der Energieinhalt der Luft bei 99 % relativer Luftfeuchtigkeit um rd. 13 % bzw. 37,5 kJ/kg (entspricht 10 Wh/kg) höher als der trockener Luft von gleicher Temperatur und gleichem Druck. Bei 1 bar haben trockene Luft der Temperatur von +26,4 °C und feuchte Luft mit 99 % relativer Feuchte und +8,8 °C denselben Energieinhalt (300 kJ/kg). Der Unterschied in den hier betrachteten Zuständen der Luft liegt im Gehalt an Wasserdampf, trockene Luft enthält kein Wasser, feuchte Luft, 99 % relative Feuchte, enthält bei 8,8 °C bereits 7,1 g Wasser je kg Luft. Aus diesen Gegebenheiten ist zu folgern, dass aufgrund lediglich von Temperaturmessungen bei Temperaturen oberhalb des Gefrierpunktes keine ausreichend genauen Erkenntnisse gewonnen werden, die auf die in der Luft gespeicherte Energie, d. h. auf die enthaltene Wärme, schließen lassen. Und da Wetter und Klima energetische Vorgänge sind, kann auf der Basis gemessener Temperaturveränderungen allein nicht auf die tatsächlich eingetretenen Veränderungen geschlossen werden.

    Wie kommt die Wärme in die Luft?

    Unser Planet bezieht die auf ihm spürbare Wärme von der Sonne. Die Sonne strahlt ständig Energie ab. In der Literatur wird für die Position der Erde zur Sonne die Leistung der Sonneneinstrahlung mit 1360 bis 1380 W/m2 genannt [6]. Mit dieser Leistung würde eine oberhalb der Atmosphäre senkrecht zur Sonneneinstrahlung befindliche Fläche beschienen. Es ist üblich, die Leistung der Sonneneinstrahlung bezogen je Quadratmeter Erdoberfläche und weltweit vergleichmäßigt darzustellen. Damit wird die Leistung am oberen Atmosphärenrand auf 1/4 des Wertes der Solarkonstante vermindert, also auf rd. 342 W/m2. Das Schema in Bild 2 gibt über den Verbleib der auf die Erde einfallenden Sonneneinstrahlung Auskunft; es zeigt, dass die von der Sonne insgesamt eingestrahlte Energie (100 Einheiten bzw. 342 W/m2) zu 30 % durch Reflexion und Rückstreuung direkt wieder ins All zurückgeschickt wird.

    Wolken verursachen 2/3 dieser Rückstrahlung, bezogen auf die Einstrahlung also 20 %. Durch Wasserdampf, Sauerstoff, Ozon und CO2 werden rd. 20 % der Einstrahlung absorbiert. Die restlichen rd. 50 % der Einstrahlung kommen an der Oberfläche der Erde an. Das Schema in Bild 2 enthält aber erhebliche Unsicherheiten, denn der Anteil der Reflexion durch Wolken ist mit 20% der Einstrahlung (also rd. 69 W/m2) fixiert, obwohl es keine Hinweise gibt, dass der Grad der durchschnittlichen Bewölkung weltweit konstant war, ist und bleibt.

    klimagefaehrdung

    Bild 2. Schema der globalen Strahlungs- und Energieflüsse nach Peixoto/Oort [7], die Flüsse beziehen sich auf den Wert der eintreffenden, global vergleichmäßigten Solarstrahlung, die mit 100 Einheiten bezeichnet ist (Quelle: ew Jg.104 (2005), Heft 5 S.16)

    Wolken bestimmen sehr erheblich den Energieeintrag in den untersten Teil der Atmosphäre. Bei einer geschlossenen Wolkendecke kommen nur noch ungefähr 50 % der oberhalb der Wolkendecke verfügbaren Sonneneinstrahlung am Erdboden an [8]. Die in Bild 2 gezeigte, an der Erdoberfläche ankommende Strahlungsleistung trifft also nur beim angesetzten Grad der mittleren Bewölkung zu. Bei dem Anteil von 20 % für Reflexion der eintreffenden Sonneneinstrahlung durch Wolken handelt es sich zudem um eine Schätzung. Eine Variation dieser Schätzung im Bereich 25 bis 15 % würde bedeuten, dass an der Erdoberfläche 159 bis 185 W/m2 ankommen. Aus Untersuchungen von Ohmura [9] geht hervor, dass sich in den vergangenen Jahrzehnten die Leistung der an der Erdoberfläche ankommenden Sonneneinstrahlung je Dekade um rd. 3% vermindert hat, also in den letzten 30 Jahren um rd. 10% (bzw. auf die genannten mittleren Werte bezogen um 17 W/m2). Das ist eine Größenordnung, die der Wirkung einer Variation der Bewölkung um 5 Prozentpunkte übertrifft. Der Rückgang ist bei unveränderter Intensität der Einstrahlung am oberen Rand der Atmosphäre eingetreten. Die Ursachen der von Ohmura festgestellten Entwicklung sind nicht bekannt; verlässliche Daten über die Veränderung der Bewölkung in diesem Zeitraum liegen nicht vor, wenngleich eher von einer Zunahme berichtet wird. Trotz der erheblich geringeren an der Erdoberfläche ankommenden Sonneneinstrahlung waren jedoch keine rückläufigen Lufttemperaturen zu verzeichnen.

    Die an der Erd- bzw. Wasseroberfläche ankommende Strahlung wird dort absorbiert, was zur Erwärmung der Erd- bzw. Wasseroberfläche führt. Die so aufgenommene Wärme wird wieder abgeführt, vor allem (zu 48 %) durch Verdunstung, thermische Strahlung (rd. 40 %) sowie Konvektion (12 %). Die bei der Verdunstung von Wasser im dabei gebildeten Wasserdampf enthaltene Verdampfungswärme wird als „latente Wärme“, also ohne unmittelbar feststellbare Temperaturwirkungen, in die Luft übernommen. Erst beim Kondensieren des Wasserdampfes, in der Regel in der Höhe bei Wolkenbildung, wird die Verdampfungswärme wieder an die Luft abgegeben, und zwar auf dem Temperaturniveau der jeweiligen Höhe. Die von der Erdoberfläche abgegebene thermische Strahlung (rd. 68 W/m2) wird zu 70 % durch einige Bestandteile der Luft, hauptsächlich Wasserdampf, daneben auch CO2, innerhalb der Lufthülle absorbiert und in Wärme umgewandelt, lediglich die restlichen 30 % der thermischen Abstrahlung (21 W/m2) gelangen direkt ins All. Dass bei einer vermehrten Bewölkung auch hier wesentlich veränderte Zahlen anzusetzen wären, ist wegen der geringeren Durchlässigkeit der Wolken für fast alle Strahlungsfrequenzen zwingend. Diese Wirkungen sind bislang nicht ausreichend quantifiziert. Die in die Luft eingebrachte Wärme, egal ob dies durch Absorption ankommender Sonneneinstrahlung, durch Aufnahme der Kondensationswärme (Verdampfungswärme) bei der Kondensation der Luftfeuchtigkeit, durch Absorption der von der Erdoberfläche abgehenden thermischen Strahlung oder auch durch Konvektion an der Erdoberfläche geschah, bewirkt, dass in der Luft die jeweils aktuellen Temperaturen feststellbar sind. Gase, und Luft ist ein Gemisch aus mehreren Gasen, haben die Eigenschaft, komprimierbar zu sein. Bringt man Gas unter Druck, so wird es verdichtet. Dabei wird Arbeit geleistet. Diese Arbeit wirkt sich in einer Erhöhung des Arbeitsinhaltes des Gases aus und wird, sofern sonst keine weiteren Änderungen eintreten und keine Wärmeabfuhr möglich ist, durch eine Temperaturerhöhung nachweisbar. Der grundlegende Zusammenhang ist durch die Allgemeine Gasgleichung pv = R(Druck mal Volumen = Gaskonstante mal Temperatur) beschrieben. Die Wirkung dieser Eigenschaft der Gase soll im folgenden Beispiel veranschaulicht werden.

    Man stelle sich zwei nebeneinander aufrecht stehende, gegeneinander und gegen die Umgebung völlig isolierte (keine Wärmeleitung, keine Konvektion, keine Strahlung) Röhren vor, jede 10 000 m hoch. Die Röhren seien oben und unten durch ebenfalls von der Umgebung thermisch total isolierte Bögen verbunden. Die Röhren werden auf der Erdoberfläche, auf NN, platziert, sie seien mit trockener Luft gefüllt. Auf NN wird eine Öffnung angebracht, sodass dort innen der gleiche Luftdruck wie außen herrscht. In den Verbindungsbogen auf NN wird noch ein Ventilator eingebracht, der für einen Zwangsumlauf der Luft in diesem System sorgt. In einer Röhre steigt die Luft auf, geht am oberen Bogen in die andere Röhre über und sinkt dann wieder bis zum unteren Ende ab. Drücke und Temperaturen der in den Röhrenzwangsumlaufenden Luft haben nun je nach Höhe unterschiedliche Werte. Auf NN sollen die Temperatur +15 °C und der Druck 1,0 bar betragen. Mit der Höhe sinken die Temperatur um rd. 1 °C je 100 m und der Luftdruck um unten zunächst rd. 13 mbar je 100 m, nach oben hin schwächer, am oberen Ende mit 4,2 mbar je 100 m Höhenzuwachs. Am oberen Ende beträgt die Temperatur der Luft noch rd. -85 °C, der Luftdruck ist auf rd. 0,2 bar zurückgegangen, das Volumen von 1 kg Luft beträgt hier das rd. 3,2-fache dessen am unteren Ende der Röhre. Mit steigender Höhe sinkt die Temperatur der Luft in beiden Röhren gleichmäßig ab. Grund hierfür ist, dass der Druck jeweils durch die „Gewichtskraft“ der darüberliegenden Luftsäule bestimmt ist. Und diese wird mit größerer Höhe immer geringer.

    Jedes Luftvolumenteil, das sich etwas höher befindet als das darunterliegende, ist weniger komprimiert, weniger dicht und damit leichter und zudem noch wegen der eingetretenen Ausdehnung kälter. Die Temperaturänderungen der in den Röhren zirkulierenden Luft sind allein durch die physikalischen Eigenschaften der Luft und den mit der Höhe rückläufigen Luftdruck verursacht. Die Röhren sollen so weite Durchmesser haben, dass auch Auf- und Abströmungen in jeder der beiden Röhren nebeneinander stattfinden können. Wenn in diesen Röhren durch örtliche Energiezufuhr Luftpakete erwärmt werden, sich dabei ausdehnen und damit leichter als die umgebende Luft werden, dann steigen sie wegen des eingetretenen Auftriebs unverzüglich auf. Eine bleibende Erwärmung am Ort der Energiezufuhr tritt nicht auf, es könnte sich lediglich die Zirkulation der Luft etwas verändern. Jegliche irgendwie und irgendwo in dieses System eingespeiste Wärme wirkt unverzüglich auf das gesamte System; es ist unmöglich, z. B. durch Wärmeeinspeisung am unteren Ende einer Röhre den Temperaturabfall (Temperaturgradienten) darin mit der Höhe irgendwie zu beeinflussen. Solange die Luft frei beweglich in diesem System ist, solange beträgt der Temperaturrückgang der hier vorhandenen trockenen Luft mit der Höhe rd. 1 °C je 100 m. Und genau so ist es auch in der ständig bewegten Lufthülle der Erde. Jede – in welcher Höhenlage auch immer – zugeführte Energiemenge verändert den Zustand der gesamten Lufthülle und führt keineswegs dazu, dass am Eintragsort die Luft wärmer ist als in den umgebenden Bereichen. Die Hypothese eines anthropogenen Klimawandels leitet aus der angenommenen Zunahme der Absorption der vom Erdboden direkt ins All gehendenStrahlung eine vermehrte Erwärmung der Atmosphäre ab. Diese Zunahme der Absorption soll durch den Anstieg des CO2-Gehaltes der Luft hervorgerufen werden. Es handelt sich dabei lediglich um die Absorption eines Bruchteils der restlichen, nicht bereits absorbierten thermischen Strahlung der Erdoberfläche, also um einen Bruchteil der 6% (21 W/m2), die derzeit noch unmittelbar ins All gelangen. Zur Beurteilung der Berechtigung der Klimawandel-Hypothese muss einerseits betrachtet werdenn, ob denn eine Zunahme des CO2-Gehaltes der Luft die verbliebene thermische Abstrahlung der Erdoberfläche direkt ins All vollständig unterbinden könnte. Hug [10] hat hierzu festgestellt, dass eine solche zusätzliche Absorption von thermischer Strahlung durch einen erhöhten CO2-Gehalt der Luft allenfalls marginal sein kann, d. h. vernachlässigbar, da die bereits vorhandenen CO2-Anteile die spektralen Absorptionsmöglichkeiten bereits nahezu erschöpfend erfüllen. Andererseits muss die Funktionsweise des Energieaustrags aus dem System Erde/Atmosphäre angesehen werden, um Wirkungen einer erhöhten Wärmezufuhr in die Atmosphäre beurteilen zu können.

    Der Wärmeaustrag aus dem System Erde/Atmosphäre

    Die mittels Satelliten beobachteten Emissionsspektren der Erde bestätigen, dass zum sehr erheblichen Teil Wärme unmittelbar aus der Atmosphäre, und nicht direkt von der Erdoberfläche, ins All gestrahlt wird:

    Bild 3 enthält zwei solcher Spektren, sie zeigen die Emissionsverhältnisse aus dem tropischen Bereich des westlichen Afrika. Das obere Diagramm ist bei geschlossener Wolkendecke aufgenommen worden, das untere bei klarem Himmel. Die Unterschiede zwischen beiden Diagrammen sind erheblich. Bei klarem Himmel ist unmittelbar von der Erdoberfläche ausgehende Strahlung im Bereich der Wellenzahlen von 800 bis 1000 cm-1 und 1 080 bis 1280 cm-1 festzustellen. Bei geschlossener Wolkendecke ist die Intensität jener Strahlung, die bei der Messung bei klarem Himmel der Emissionsquelle Erdoberfläche zugeordnet werden kann, auf ein solches Maß vermindert, dass man als Emissionsniveau die Höhe der Wolken annehmen kann. Ob es sich bei dieser Verminderung der Strahlungsintensität in den Frequenzbereichen, die bei klarem Himmel transparent für die von der Erdoberfläche emittierte thermische Strahlung sind, ausschließlich um die Wirkung der diffusen Reflexion der Wolken oder aber auch um Absorption und Emission durch die Wolken handelt, kann anhand der Spektren nicht geklärt werden.

    klimagefaehrdung
    Bild 3. Vom Satelliten gemessene Emissionsspektren [11](Quelle: ew Jg.104 (2005), Heft 5, S.18)

    In der Wirkung ist die Präsenz der geschlossenen Wolkendecke jedoch so, dass dann überhaupt keine Strahlungsintensität mehr registriert werden kann, die unzweifelhaft dem Temperaturniveau der Erdoberfläche zuzuordnen wäre. Sämtliche Abstrahlung des Systems Erde/Atmosphäre geschieht dann mit Intensitäten, die Emissionsquellen in größeren Höhen der Lufthülle zugeordnet werden können.

    In den Diagrammen in Bild 3 ist ferner zu erkennen, dass im Bereich der Wellenzahlen kleiner als 580 cm-1 und größer als 1280 cm-1 die Emissionsquelle der Wasserdampf in der Luft ist, die Emission geht aus größerer Höhe aus, vermutlich aus dem Bereich von 5 000 bis 6 000 m bei Temperaturen um -15 °C (rd. 260 K). Lediglich im Spektralbereich des CO2 (400 bis 750 cm-1) wird Strahlung aus noch größerer Höhe, etwa um 12 000 bis 13 000 m bei Temperaturen um -60 °C (rd. 215 K) emittiert. Im Spektralbereich des Ozons (980 bis 1080 cm-1) liegt die Emissionsquelle etwa in Höhe der – falls vorhanden – Wolkendecke.

    Der Vergleich beider Diagramme zeigt außerdem, dass bei geschlossener Wolkendecke die Intensität und damit die Leistung der thermischen Abstrahlung ins All lediglich rd. 50 % jener bei klarem Himmel entspricht. Auf globale Mittelwerte bezogen bedeutet dies einen durch geschlossene Bewölkung gegenüber klarem Himmel verursachten Unterschied in der Abstrahlungsleistung von 120 W/m2. Dieses Ausmaß an Beeinflussung der thermischen Abstrahlung aus dem System Erde/Atmosphäre in das All allein durch Wolken ist so gewichtig, dass damit alle übrigen vermuteten Beeinflussungen, wie sie z. B. in [12] bei einer Zunahme des CO2-Gehaltes der Luft behauptet werden, nämlich bei Verdopplung des CO2-Gehaltes eine Verminderung der thermischen Abstrahlung ins All um 4 W/m2, in den Bereich der völligen Bedeutungslosigkeit verwiesen werden. Die Wirksamkeit der Wolken für den Energiehaushalt des Systems Erde/Atmosphäre ist gegenüber allen anderen möglichen Wirkungsmechanismen [13] so überwältigend, dass diese anderen keiner größeren Beachtung bedürfen. Die Rolle der Bewölkung ist vor allem deswegen so extrem, weil es keinen beständigen Grad der Bewölkung gibt, auch nicht in längerfristiger Sicht. Die prinzipiellen Zusammenhänge beim Energieaustrag aus dem System Erde/Atmosphäre sind im Folgenden zu betrachten. Sämtliche aus dem System Erde/Atmosphäre in das All abzuführende Energie kann nur über Strahlung abgegeben werden, da außerhalb der Atmosphäre wegen des Fehlens eines Trägermediums Wärmeleitung und Konvektion zur Wärmeübertragung ausscheiden.

    Bei der Wärmeübertragung mittels Strahlung gibt es eine Abhängigkeit der Leistung von den 4. Potenzen der absoluten Temperaturen des abgebenden und des aufnehmenden Mediums. Die prinzipiellen Zusammen-hänge beschreibt das Stefan- Boltzmannsche Gesetz, das da lautet: = σ F T4. Die von einem absolut schwarzen Körper abgegebene Strahlungsleistung ist seiner Oberfläche und der 4. Potenz seiner absoluten Temperatur proportional.

    klimagefaehrdung
    Bild 4. Veränderung von Energieinhalt und Abstrahlungsleistung des Systems Erde/Atmosphäre in Abhängigkeit der Lufttemperatur, Messpunkt der Lufttemperatur:
    2 m über Oberfläche in Seehöhe (Rechenansatz: 20 % der Abstrahlungsleistung gehen von der Erdoberfläche, 75 % aus rd. 4000 m und 5% aus rd. 10 000 m Höhe ab)(Quelle: ew Jg.104 (2005), Heft 5, S.19)

    Das System Erde/Atmosphäre ist zwar kein „Schwarzer Strahler“, aber die Temperaturabhängigkeit der Strahlungsleistung gemäß der 4. Potenz der Temperatur bleibt uneingeschränkt erhalten.

    Damit ergeben sich Zusammenhänge zwischen der Abstrahlungsleistung der ins All strahlenden Bereiche des Systems Erde/Atmosphäre und dem Wärmeinhalt der Lufthülle der Erde. Bei 1 K Temperaturanstieg steigt der Energieinhalt einer bestimmten Luftmasse, beispielsweise eines kg trockener Luft bei 0,5 bar und einer Temperaturveränderung von -10 auf -9 °C um 264,15/263,15 bzw. rd. 0,38 %. Gleichzeitig steigt aber die Abstrahlungsleistung aus dieser Luftmasse mit den 4. Potenzen der absoluten Temperaturen, also um 264,154/263,154 bzw. 1,5% an, also um rd. Das Vierfache der Zunahme des Energieinhaltes. Im Bild 4 ist dieser Zusammenhang in Diagrammform dargestellt. Die im Diagramm angegebene Lufttemperatur bezieht sich auf den Messpunkt 2 m über dem Erdboden, die Temperaturen der höheren Emissionsbereiche sind jeweils mit dem in der Fachliteratur genannten Temperaturgradienten feuchter Luft (0,7 K/100 m) vermindert. Bedingt durch den auch bei Temperaturveränderungen unverändert bleibenden Temperaturgradienten sind Veränderungen der Lufttemperatur an der Position 2 m über dem Erdboden in absolut gleichem Ausmaß durchgängig auch in der Höhe wirksam.

    Bild 4 zeigt, dass bei einer Temperaturerhöhung im System Erde/Atmosphäre um Δ der Energieinhalt der Luft um Δ ansteigt. Gleichzeitig steigt aber die Abstrahlungsleistung etwa viermal so stark an, um Δ p. Dieser weitaus überproportionale Anstieg der Abstrahlungsleistung gegenüber der Zunahme des Energieinhaltes der Luft, des überhaupt zur Abstrahlung zur Verfügung stehenden Wärmeangebotes, bewirkt, dass bei einer Temperaturerhöhung durch verstärkte Abstrahlung (negative Rückkopplung) unverzüglich der alte Zustand wieder hergestellt wird. Bei einer Temperaturabsenkung würde der entgegengesetzte Mechanismus wirksam. Systeme, die solche Eigenschaften ausweisen, befinden sich im stabilen Gleichgewicht, es gibt keine Möglichkeit, solche Systeme aus dem Gleichgewicht zu bringen. Andere Aufteilungen der für Bild 4 angesetzten Anteile der Abstrahlung auf die einzelnen Emissionsquellen bringen sehr ähnliche Ergebnisse; auch für feuchte Luft ergeben sich prinzipiell gleichwertige Resultate. Selbst für die Annahme, dass bei steigendem CO2-Gehalt die Emissionsleistungaus dem CO2-Band infolge einer Verlagerung in größere Höhen vermindert würde [12], überkompensiert die Zunahme der Strahlungsleistung aus den anderen Bereichen diesen Effekt. Der Denkansatz, dass durch eine etwas erhöhte Absorption der von der Erdoberfläche abgehenden thermischen Strahlung bei ansteigendem CO2-Gehalt der Atmosphäre (z. B. bei Verdopplung von derzeit rd. 0,035% auf künftig eventuell 0,07%) Auswirkungen auf die Temperaturen in der Atmosphäre haben könnte, ist somit keineswegs begründbar, unter Anwendung von Strahlungsphysik und der Thermodynamik ist dieser Denkansatz als absurd zu werten. Folgerungen Veränderungen der gemessenen Temperaturen und der daraus gebildeten globalen Durchschnittswerte allein sind kein ausreichendes Maß, um von Klimaveränderungen sprechen zu können. Die Atmosphäre in Verbindung mit dem Wasser funktioniert prinzippiell ähnlich einer Wärme-Kraft-Maschine. Um das Geschehen in einer solchen Maschine verstehen zu können, ist die Erfassung der jeweils an den einzelnen Orten verfügbaren Energie sowie deren Zu- und Abgänge eine Minimalvoraussetzung. Vor allem ist für die Erfassung des jeweiligen örtlichen Energiezustandes auch die Kenntnis der Luftfeuchtigkeit von Bedeutung. Nicht ohne Grund unterscheidet die Meteorologie mehr als 30 Klimate in fünf Klimazonen, wobei die jeweilige Präsenz von Niederschlag wesentliche Bestimmungsgröße ist. Eine Veränderung der Atmosphärenmasse, die nach Auffassung des Verfassers nicht völlig auszuschließen ist [13], hätte in jedem Fall spürbare Folgen für die thermischen bzw. energetischen Verhältnisse auf unserer Erde. Die Frage nach der Stabilität der Atmosphärenmasse, nach eventuellen Einwirkungen der Menschen darauf, ist den Klimaprognostikern überhaupt noch nicht bewusst geworden. Das System Erde/Atmosphäre ist bezüglich des Energieein- und -austrags stabil, die darin herrschenden Gleichgewichtskräfte können durch ansteigende CO2-Gehalte nicht beeinflusst werden. Ein Bestandteil der Atmosphäre, der die Gleichgewichtsbedingungen beeinflussen und durchaus gewisse Schwankungen beim Energieein und -austrag verursachen kann, ist das Wasser, besonders in der Form von Wolken. Solange das Verständnis des Wasserkreislaufs mit all seinen Wirkungen nicht ausreichend detailliert entwickelt ist, allein die völlig unzureichende Treffsicherheit von nur mehrtägigen Wettervorhersagen beweist uns dies täglich, sollte man mit Prognosen zur Klimaentwicklung zurückhaltend sein. Denn Klima ist und bleibt nun mal der statistische Mittelwert des Wetters über längerfristigen Zeitraum. Und Wetter ist nichts anderes als der Ablauf thermodynamischer Vorgänge, zu deren Verständnis Kenntnisse der Strahlungsphysik [12] nicht ausreichen. Die Zusammenhänge bezüglich der Bedeutungslosigkeit eines erhöhten CO2-Gehaltes auf den Energieinhalt der Atmosphäre und die Unzulässigkeit, allein aufgrund von gewissen Veränderungen bei gemessenen Lufttemperaturen auf Klimaveränderungen zu schließen, dürften vorstehend nachvollziehbar erklärt sein. Soll die Politik nun aber auf jeden Fall unsere Volkswirtschaft mit kostspieligen Maßnahmen zur Vermeidung von CO2-Emissionen belasten, nur weil sich Politiker einst sachunkundige Berater geholt hatten? Das Beherzigen einer alten chinesischen Weisheit kann hier weiterhelfen: Wer einen Fehler gemacht hat, und diesen nicht korrigiert, begeht einen zweiten.

    Literatur:

    [1] http://people.freenet.de/klima/index.htm#wieso

    [2] BaehrH.D.: Thermodynamik, 10. Aufl. 2000, Springer, S. 69

    [3] LucasK.: Thermodynamik, Springer, 2000, S.153

    [4] BaehrH.D.: a. a. O., S. 32

    [5] BaehrH.D.: a. a. O., S. 33

    [6] KrausH.: Die Atmosphäre der Erde, Friedr. Vieweg & Sohn, 2000, S. 123

    [7] PeixotoJ. P.OortA. H.: Physics of Climate, American Institute of Physics, 1992, S. 94

    [8] z. B. Folie 11 in http://www.ssec.wisc.edu/gifts/navy/ meetings/2003/PYang_MURI_2003.ppt

    [9] Goodbye sunshine, http://www.guardian.co.uk/life/feature/story/0,13026,1108853,00.html

    [10] HugH.: Der CO2-Effekt oder die Spur einer Spur, Chemische Rundschau, Nr. 15/2002

    [11] Spektren aus: HanelR. A. et al.: Exploration of the solar system by infrared remote sensing,

    Cambridge University Press, 2-nd edition, 2003

    [12] http://www.dmg-ev.de/gesellschaft/aktivitaeten/pdf/treibhauseffekt.pdf

    [13] mit Ausnahme einer Veränderung der Atmosphärenmasse, wofür es aber zurzeit keine ausreichend

    Heinz Thieme,Kaarst

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Klimagefährdung-Klimaschutz

    Dem Geheimnis des Lebens auf der Spur?

    Posted by Rauch on 16th August 2004


    Element-Transmutation und Kernfusion durch Pflanzen

    Helmut Böttiger (16.8.04)

    Alchemisten hegten nicht nur den Traum, aus minderwertigem Blei teures Gold zu erzeugen -ein Traum, der ohnehin nur das Gold wertlos gemacht hätte- sie wollten mit dem „Stein der Wiesen“ das „Geheimnis des Lebens“ ergründen. Das Umwandeln von Blei in Gold hätte bedeutet, daß sie aus dem Atomkern des Bleies Protonen hätten entfernen müssen. So etwas ist nach heutigem Verständnis nur mit sehr harten Neutronenstrahlen möglich, die damals keiner kannte, geschweige denn beherrschte. Alchemisten gelten unseren Wissenschaftlern daher als irregeleitete Spinner oder als Betrüger und Scharlatane.

    Inzwischen wissen wir mehr über die Entstehung der Elemente und deren Umwandlung. Mittlere und schwere Elemente scheinen bei riesigen Super Nova Explosionen im Inneren unserer Galaxis, bei denen es zu gewaltigen Energieausbrüchen kommt, aus leichteren Elementen, vor allem aus Wasserstoffkernen, zu verschmelzen. Heute beherrschen wir Kräfte, um die Transmutation, die Umwandlung von Elementen, in winzigen Mengen technisch vornehmen zu können, wenn man einzelne Atome gezielt mit energiereichen Teilchen beschießt. Diese Teilchen müssen in mächtigen Beschleunigeranlagen energetisch soweit aufgeladen werden, daß sie die elektrostatische Coulomb-Abstoßung des Atomkerns, auf den sie treffen, überwinden und sich dem Kern entweder anlagern oder Teile dieses Kerns absprengen. Dabei müssen enorm starke Kräfte walten.

    Eine bedenkenswerte Beobachtungen

    Nun liegen seit langer Zeit Beobachtungen an Pflanzen vor, die sich nur durch Elementumwandlungen erklären lassen, ohne daß dabei große physikalische Kräfte bemerkt worden wären. Um das Jahr 1600 pflanzte der Niederländer Jan Baptista Helmont ein junges Weidenbäumchen in einen Blumentopf. Er hatte die verwendete Blumenerde zuvor restlos getrocknet und genau ausgewogen. Fünf Jahre lang begoß er die Pflanze, die inzwischen zu einem stattlichen Bäumchen herangewachsen war, regelmäßig und ausschließlich mit destilliertem Wasser. Danach nahm er den Baum aus dem Topf und stellte fest, daß er inzwischen 82 kg schwerer geworden war. Die Blumenerde wog er nach dem gleichen Verfahren wie zu Beginn seines Experiments und stellte fest, daß ihr Gewicht kaum abgenommen hatte. Helmont fragte sich nun, woher die Pflanze stamme, ob sie ihr Holz tatsächlich nur aus Wasser, Licht und Luft hergestellt hatte.

    Helmonts Bericht regte viele Forscher zu weiteren Überlegungen und Versuchen an. Sie alle fragten sich, wie und woraus denn nun die Pflanzen wirklich entstehen. Pflanzen, so die einfachste Erklärung, entnehmen dem Boden, auf dem sie wachsen, dem Regenwasser, dem Licht und der Luft, alles, woraus sie selbst bestehen. Wenn sie absterben und verrotten, führen sie dem Boden diese Bestandteile wieder zu.

    Was geschieht aber, wenn die Böden abgeerntet und die Ernteerträge weit von dem Land, auf dem sie gewachsen waren, weg geschafft werden? Wird der Boden abgeerntet, werden ihm doch die entsprechenden Elemente -z.B. insbesondere lebenswichtige Grundnährstoffe und Spurenelemente- entzogen. Justus von Liebig hat den Landwirten klar gemacht, daß die entzogenen Elemente dem Boden wieder regelmäßig zugeführt werden müssen, wenn man dort gute Erträge sichern will. Bei der Kultur von Kartoffeln z.B. verbrauchen diese mindestens 220 kg Kali pro Hektar aus den Böden, um eine gute Ernte zu bringen.

    Nun gibt es aber Kulturböden, die über Tausende von Jahren nicht, vor allem nicht mit den in den Pflanzen enthaltenen Hauptnährstoffen und Spurenelementen gedüngt wurden, ohne daß die Böden bei entsprechender Pflege über die Maßen ausgelaugt und die Ernten geringer geworden wären. In manchen Fällen hatte es sogar den Anschein, als hätte die Bodenfruchtbarkeit mit den Jahren zugenommen. Wie ist das zu erklären?

    Nur Schlamperei?

    Einer, der dieser Frage sehr intensiv nach ging, war der Baron Albrecht von Herzeele aus Freienwalde an der Oder. In seinem 1873 erschienen Buch Der Ursprung anorganischer Substanzen trat er den Beweis an, daß lebende und wachsende Pflanzen nicht nur dem Boden über Wasser, Licht und der Luft Stoffe entziehen, sondern selbst neue Stoffe bilden, beziehungsweise Elemente eines Stoffs in andere Elemente umwandeln.

    Der Baron züchtete in unzähligen Versuchen die verschiedensten Pflanzen in Porzellanschalen, die er mit einer Glasglocke überdeckte und mit destilliertem Wasser versorgte. Er wählte jeweils gleiche Samen aus, ließ einen Teil von ihnen in seinen Schalen keimen, den genau gleich großen anderen Teil der Samen untersuchte er auf ihre chemischen Bestandteile hin. Später trocknete er die Keimlinge und untersuchte auch sie auf das Gewicht ihrer chemischen Bestandteile. Beim Vergleich der Ergebnisse stelle er bemerkenswerte Unterschiede fest. Die Keimlinge verzeichneten regelmäßig hohe Mehrerträge der Elemente gegenüber den Samen. Die Pflanzen schienen außerdem Phosphor in Schwefel, Kalzium in Phosphor, Magnesium in Kalzium, Kohlenstoff in Magnesium und Stickstoff in Kalium umgewandelt zu haben.

    Von Herzeele beschrieb seine Versuche und Versuchsergebnisse über zehn Jahre lang immer wieder in zahlreichen Veröffentlichungen peinlich genau. Doch seine Darstellungen fanden in der herrschenden Wissenschaft keine Beachtung. Die anerkannten Wissenschaftler hatten bei Antoine Laurent Lavoisier, dem „Vater der Chemie“, gelernt, daß in der Chemie keine neuen Elemente entstehen, sondern scheinbar neue Stoffe nur aus veränderten chemischen Verbindungen der jeweils gleichen Elemente bestehen. Die Elemente selbst, ihre Atome, lassen sich chemisch nicht verändern. Was von Herzeele herausgefunden zu haben glaubte, konnte nach Auffassung anerkannter Wissenschaftler nicht stimmen und es schien ihnen müßig, seinen Behauptungen wissenschaftliche Beachtung zu schenken. Der Baron hatte – so die Erklärung – seine Experimenten und Analysen wohl laienhaft ungenau durchgeführt.

    Demnach schaffen sich Lebewesen wichtige Bestandteile selbst

    In neuerer Zeit war der französische Wissenschaftler Henri Spindler auf die Untersuchungen von Herzeeles gestoßen. Spindler wollte herausfinden wie eine Algenart, die Laminaria an das in ihr enthaltene Jod gelangt. Er informierte unter anderen Professor Pierre Baranger, den Leiter des Laboratoriums für organische Chemie der Ecole Polytechnique in Paris über diese Versuche. Dieser ließ die Versuche von Herzeeles, über einen Zeitraum von fast zehn Jahren -auch von fremden Instituten- untersuchen. Von Herzeeles Ergebnisse wurden durchgehend bestätigt. Im Jahr 1963 hatte Baranger unter anderem nach dem modernsten Stand der Experimentalchemie schlüssig bewiesen, daß in einer Mangansalzlösung auskeimende Leguminosen-Samen Mangan in Eisen umwandeln.

    Natürlich wollte Baranger wissen, wie die Leguminosen das machen. Er stellte nach unzähligen Versuchen eine Reihe von Rahmen- und Einflußbedingungen fest, wie Lichtverhältnisse, Zeitpunkt der Auskeimung und anderes, fand aber keine Antwort auf die Frage nach den eigentlichen Umwandlungsmechanismen.

    Es gab andere Phänomene. Der Ingenieur und Biologe Corentin Louis Kervran lebte in der kalkarmen Bretagne. Er beobachtete die Hühner seiner Eltern, die fast täglich ihre Eier mit ganz normaler Eierschale aus Kalk legten. Bei näherem Hinsehen entdeckte er, daß die Hühner neben den Körnern immer wieder kleine Bröckchen Glimmererde aufpickten. Glimmererde enthält Kalium, aber keinen Kalk. Sollten die Tiere das Element Kalium in Kalzium umwandeln, um daraus den Kalk (Kalziumkarbonat) für ihre Eierschalen zu gewinnen? Die Beobachtung wurde im Labor untersucht. Man brachte Hühner in eine kontrolliert kalziumfreie Umgebung und ernährte sie kalziumarm. Solange sie Kalium in Form der Glimmererde oder in anderer Form erhielten, legten sie weiterhin normale Eier und erzeugten so über vier Mal so viel Kalzium als sie über die Nahrung bekamen. Erst als man ihnen auch noch Kalium und Silizium (Sand) vorenthielt, verkümmerten sie und legten zuvor noch ein Ei ohne Schale, das nur von einer Haut zusammengehalten wurde.

    Ähnliche Versuche wurden mit Schalentieren, die im Meer leben und üppige Kalkpanzer bilden, z.B. mit besonderen Krabben, durch geführt. Diese Tiere werfen hin und wieder ihre Schale ab, um sich einen neuen, ihrem Wachstum angemessenen Panzer zuzulegen. Im Meereslaboratorium Roscoff wurden frischgehäutete Krabben in Meerwasser ausgesetzt, dem zuvor Kalzium restlos entzogen worden war, das aber den üblichen Anteil an Kalium und Magnesium etc. enthielt. Die Tiere bildeten innerhalb von etwa 30 Stunden 350 Gramm schwere Kalkpanzer. Während der Häutung ist die Krabbe sehr verletzlich und angreifbar, sie verzichtet daher in dieser Zeit auf die Jagd und hält sich versteckt. Man hat die Tiere im Anschluß an das Experiment untersucht und festgestellt, daß sich der Kalk an der Außenseite einer Membrane bildet, an deren Innenseite sich kein Kalzium nachweisen ließ. Die Experten waren ratlos.

    Kervran veröffentlichte 1962 sein Buch Transmutations Bilogiques (Librarie Maloine S.A. Paris), in dem er von diesen und vielen anderen Erscheinungen dieser Art berichtet und zu dem Schluß kommt: „Lebende Organismen besitzen eine bisher nicht entdeckte Eigenschaft, die weder in der heutigen Chemie, noch in der heutigen Kernphysik Beachtung findet, das heißt, beide Wissenschaften sind hier gar nicht zuständig. Am Ende mag bei diesen Vorgängen etwas Chemisches herauskommen, doch nur als Ergebnis und Folge des nicht wahrgenommenen Phänomens der Umwandlung.“

    Kervran hatte unter anderem in ähnlichen Verfahren, wie sie von Herzeele durchgeführt hatte, herausgefunden, daß der Kalziumanteil in Haferkeimlingen bis zu 100% größer als in Hafersamen ist. Diese Versuche griff später J.E. Zündel mit einem viel größerem Aufwand an Instrumenten auf. Zündel war Direktor einer Papierfabrik und arbeitete später als Chemieingenieur am Polytechnikum in Zürich. Er überprüfte diese Versuche in Hunderten von Experimenten mit Tausenden von Haferkörnern und konnte Kervrans und Herzeeles Ergebnisse wieder nur bestätigen (French Academy of Agriculture Bull. No 4 1972).

    1979 griff Zündel seine früheren Versuche mit den modernsten Analysegeräten seiner Zeit, dem Massespektrometer des Instituts für Mikroanalyse am nationalen Forschungszentrum Frankreichs (C.N.R.S.), noch einmal auf und betrieb Massenanalyse mittels Neutronenaktivierung beim Schweizer Institut für Nuklearforschung in Villingen im Aargau. Es ergab sich eine relative Zunahme an Kalzium um 61% +/- 2%, die sich durch statistische Streuung nicht mehr erklären läßt. Ähnliche Versuche mit Hafer führten zu einer Zunahme von Phosphor um 29 % und von Schwefel um 36%. In Japan unternahm Professor Hisatoki Komaki, Leiter des Instituts für angewandte Mikrobiologie in Otsu, ähnliche Untersuchungen und stellte eine biologische „kalte Fusion“ (Atomkernverschmelzung bei niedrigen Temperaturen) fest. Danach würde in lebenden Organismen (auch in Mikroorganismen) Natrium und Sauerstoff zu Kalium, Kalium, Wasserstoff und Kalzium zu Mangan und Sauerstoff, beziehungsweise Silizium und Kohlenstoff jeweils zu Kalzium fusionieren.

    Diese Ergebnisse deuten daraufhin, daß der Metabolismus lebender Materie einige Elemente in beträchtlicher Menge bei geringer Energiezufuhr ohne großen, nach außen in Erscheinung tretenden Energieaufwand umwandelt.

    In folgender Graphik ist dargestellt, welche Veränderungen der Elemente im wesentlichen festgestellt wurden:

    Transmutation

    Eine Widerlegung?

    Solche experimentellen Ergebnisse ließen nun auch „etablierte“ Wissenschaftler nicht mehr ruhen. Dr. Enrico di Vito und Dr. Carla Candian führten am Istituto Tecnico Agrario Statale „G.Cantoni“ in Treviglio mit erheblichem Apparateaufwand Untersuchungen an Hafersamen in der Art Kervrans durch. Sie konnten die Ergebnisse Kervrans nicht bestätigen.

    Sie hatten die Samen nicht dem Sonnenlicht unter Glas, sondern einer künstlichen Beleuchtung, insbesondere einer 20W UV-Lampe innerhalb des Versuchsbehälters ausgesetzt. UV-Licht ist im natürlichen Sonnenlicht enthalten, wird aber von Glas, unter dem von Herzeele, Baranger und Kervran ihre Experimente durchführen, absorbiert, wie es ja auch durch die Böden geschieht, in denen Samen normalerweise keimen. Das von den Italienischen Forschern verwendete UV-Licht kann die Gesundheit und Qualität der Keime bei den Experimenten sehr negativ beeinflußt haben, da sich lebende Zellen in Organismen mittels UV-Lichts untereinander verständigen, wie man aufgrund der Arbeiten A.G. Gurvitsch’s zur Ermittlung des „mitogenetischen Effekts“ her weiß. Danach übermitteln organische Zellen Wachstumsinformationen auf andere Zellen in Lichtgeschwindigkeit. Gurwitsch konnte die Strahlung dieses Effekts noch nicht messen. Er stellte aber fest, daß sie Quarzglas passieren konnte, während sie von Fenster-Glas unterbrochen wurde (dieses ist das Charakteristikum des UV-Lichts).

    Die Arbeiten Gurvitsch’s wurden vor allem von Dr. Vlail Kaznechejews, Direktor des Instituts für klinische und experimentelle Medizin in Novosibirsk, weiter vorangetrieben. In Deutschland bemühte sich Dr. Fritz A. Popp in Neuss um das Verständnis der „mitogenetischen“ Strahlung. Inzwischen weiß man, daß sich Pflanzenzellen über Photonen in bestimmten UV Wellenbereichen und nur gelegentlich auch im Infrarotbereich über einander wechselseitig betreffende Wachstumsprozesse „verständigen“. Vor allem die Untersuchungen Kaznechejews legen den Schluß nahe, daß nicht die Photonen „an sich“ die Informationen übertragen, sondern daß ihnen diese in gewisser Weise aufmoduliert sein müssen. Wenn man das einzelne Photon als ein Wellenelement vorstellt, wären ihm wie im Bild gezeigt, weitere Wellen aufmoduliert.

    Photon als ein Wellenelement

    Es ist daher sehr wahrscheinlich, daß das von den Italienischen Forschern verwendete künstliche UV-Licht die Modulation-Informationen in den Zellen der Keimlinge gestört hat und deshalb keine Transmutationen der Nährstoffe mit dem entsprechenden Massen-Gewinn der einzelnen Nährstoffe stattfinden konnten.

    Wie läßt sich die Pflanzentransmutation erklären?

    Der Professor für Theoretische Physik am physikalischen Institut der Naturwissenschaftlichen Fakultät Paris und Direktor des CNRS, Oliver Costa de Beauregard, wagte eine Erklärung der an Lebewesen beobachteten Umwandlungsvorgänge im Rahmen moderner physikalischer Theorien. Danach erfolgt die Umwandlung nicht aufgrund der an Atomkernen beobachteten, beziehungsweise aus dem Atommodell berechneten „Starken Kraft“, auch nicht durch elektromagnetische Kräfte, sondern durch die sogenannte „Schwache Kraft“. Der entsprächen Vektor-Busonen, sogenannte Z° Teilchen, welche die Teilchenphysik kürzlich neu entdeckt zu haben glaubt. Die Haferkeimlinge würden demnach Neutrinos aus der Kosmischen Strahlung, die aus der Tiefe der Galaxis ständig auf uns einströmt, einfangen, um mit Hilfe der Schwachen Kraft Kalium in Kalzium umzuwandeln. Die Z° Teilchen sollen dabei als eine Art virtuelle Teilchen gespeichert und zur Wirkung gebracht werden. Mit derartigen Erklärungen ließe sich die Transmutation bestimmter Elemente in den Bereich der modernen Physik integrieren. Danach würden in der belebten Materie nicht nur chemische oder elektromagnetische Reaktionen wie im Fall der Photosynthese stattfinden, bei der Photonen des Sonnenlichts die entscheidende Rolle spielen, sondern im Molekularverband der lebenden Zelle auch schwache Interaktionen, die möglicherweise durch Neutrinoeinstrahlung aus der Tiefe der Galaxis energetisch gespeist werden.

    Diese Überlegungen sind noch sehr hypothetisch und nur schwer nachzuvollziehen. Sie würden im Zusammenhang mit ähnlichen Beobachtungen die moderne Physik wieder mit Vorstellungen der alten Ätherlehre in Verbindung bringen und dem Wissen der alten Alchemisten in gewisser Weise neue Bedeutung zukommen lassen. Die Gefahr besteht allerdings, daß Forscher und Leute, die von ihren Beobachtungen erfahren, wenn sie den Boden der überprüfbaren Beobachtungen unter den einzelnen Schritten ihrer Überlegungen verlieren, – wie es zum Beispiel dem erwähnten Professor H. Komaki in jüngster Zeit ergangen sein könnte – in esoterische Phantastereien abgleiten. Andererseits dienen solche esoterische Mutmaßungen, die um die Beobachtungen ranken, wiederum anderen dazu, ihre festgefügte Vorstellungen und Theorien gegen Beobachtungen abzudichten, die ihr Glaubenssystem in Frage stellen. Beide Reaktionsweisen, um neue Erkenntnisse zu blockieren, sind typisch: Etablierte Wissenschaftler leugnen einfach, daß es hier unverstandene Vorgänge gibt und versuchen sie zu banalisieren. Phantasten umnebeln die Vorgänge mit esoterischem Glanz.

    Doppelte Folgerungen aus der Erkenntnis der Transmutation in Lebewesen

    Transmutierende Vorgänge würden, wenn sie sich tatsächlich klären ließen, unser Verständnis von dem, was Leben ist, bereichern. Man könnte verstehen, was den Unterschied zwischen einem molekular gleich zusammengesetzten Zellverband im gesunden, kranken oder toten Zustand ausmacht und wie man auf diesen Zustand über modulierte Photonen einwirken könnte. Diese Möglichkeiten öffnen – und das lassen die Arbeiten Professor Kaznachejews vermuten – Wege zu ganz neuartigen Heilungs- aber auch Vernichtungsmethoden (biologische Waffen), wenn es gelingen sollte, den Photonen z.B. des Sonnenlichtes entsprechende Information aufzumodellieren.

    Bereits im Mai 1978 bestätigt ein militärisches Forschungspapier von Solomon Goldfein et. al.: „Energy Development from Elemental Transmutations in Biological Systems“, Report 2247 des US Army Mobility Equipment Research and Development Command in Fort Belvoir, Virginia, DDC No. AD A056 906. solche Bemühungen. Es heißt dort „Die Arbeiten Kervrans, Komakis und anderer wurden mit dem Ergebnis überprüft, daß, wenn es zu solchen Transmutationen (Na in Mg, K in Ca, und Mn in Fe) kommt, ein Netto-Energieüberschuß produziert wurde“. Der Text geht dann auf die Rolle von Mangnesium Adenosin Triphosphat (MgATP) bei diesen Transmutationen ein, und stellt fest, „daß man es für eine Art Cyclotron auf molekularer Ebene halten kann.“ Der Bericht endet in der Feststellung: „Man ist hier zu dem Schluß gekommen, daß Elemente-Transmutation tatsächlich in lebenden Organismen vorkommen und diese möglicherweise von einem Netto-Energiegewinn (für den Organismus H.B.) begleitet sind“.

    Die Natur hat für den wachen Geist noch viele Überraschungen bereit, die über das heutige Verständnis der Teilchen- und Quantenphysik hinausgehen und die der Mensch zum Segen und zum Verderben einsetzen kann. Die hier angeschnittenen, durchaus noch offenen Fragen der kalten Fusion oder Elemente-Transmutation in Organismen ist jedoch viel zu wichtig, um sie wilden esoterischen Denkern oder dem Militär zu überlassen.

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Dem Geheimnis des Lebens auf der Spur?

    Vom Winde gedreht

    Posted by Rauch on 30th Mai 2003

    Strom aus Windkraft ist umstritten

    Auf der notwendigen Suche nach erneuerbaren Energien haben Windräder zur Stromerzeugung Konjunktur. Zu Lande sind die begehrten Standorte mittlerweile gut besetzt, jetzt geht es mit so genannten Offshore-Windparks aufs Meer hinaus. Doch die alternativen Energielieferanten sind ökologisch und ökonomisch nicht unumstritten – egal, ob zu Land oder zu Wasser.

    Rund um die Standorte der Windräder zu Land hagelt es reihenweise Kritik von Landschafts- und Tierschützern. Auch der Tourismus soll in den betroffenen Regionen unter den Windparks mit ihren bis zu 160 Meter hohen Rotortürmen zu leiden haben.

    Einer Faustformel zu Folge, können Windräder nur rund zehn Prozent an konventioneller Wärmekraftwerksleistung ersetzen. Das bedeutet, wenn herkömmliche Kraftwerke mit einer Leistung von 1.000 Megawatt durch Windkraft ersetzt werden sollen, müssen Windräder mit einer Leistung von insgesamt 10.000 Megawatt errichtet werden.

    Nach dem Vorbild Dänemarks, Schwedens und den Niederlanden sollen jetzt in der Nord- und Ostsee großflächige Windparks installiert werden. Damit erhofft man sich langfristig Ruhe an der Naturschützerfront. Zudem versprechen sich die Betreiber eine um rund 40 Prozent höhere Strom-Ausbeute als bei den Windrädern an Land. Doch stehen den 0ffshore-Parks auch wesentlich höhere Investitions- und Wartungskosten gegenüber, die den vermeintlichen Vorteil schnell verpuffen lassen können. Auch schalten Windkrafträder aus Sicherheitsgründen bei Windgeschwindigkeiten über 25 Meter pro Sekunde ab, indem sie die Rotoren auf Durchzug stellen, in diesen Phasen muss die Energielieferung konventionell erfolgen. Die Anlagen an der Nordsee müssen aus Naturschutzgründen im Wattenmeer über 100 Kilometer von der Küste entfernt in 40 Meter tiefem Wasser platziert werden. Sie müssen so konstruiert sein, dass sie heftigen Stürmen, hohen Wellen, Angriffen durch Meersalz und Eisschollen trotzen. Für Wartung und Reparatur ist der teure Einsatz von Hubschrauben und Schiffen erforderlich.

    Subventionen wie bei der Kohle

    Trotz der in zweifacher Hinsicht fragwürdigen Öko-Bilanz der Windräder werden sie kräftig subventioniert. Im Technik-Teil der Frankfurter Allgemeinen Zeitung war unlängst eine Berechnung nachzulesen, nach der die 14.000 Windräder in Deutschland alleine über den Strompreis mit 1,4 Milliarden Euro pro Jahr subventioniert werden. Das Erneuerbare-Energien-Gesetz sieht demnach vor, dass die Windradbetreiber für ins Netz eingespeisten Strom pro Kilowatt-Stunde (kW/h) derzeit 8,9 Cent gezahlt bekommen. Das Geld kommt vom Stromver-braucher über den lokalen Energieversorger. Der hat nach der FAZ-Rechnung aber noch wei-tere Kosten zu tragen: 1,5 Cent je kW/h wegen Absicherung der unsteten Windkraft durch konventionelle Kraftwerke, 0,7 Cent je kW/h für den komplizierten Betrieb der Stromnetze und 0,2 Cent je kW/h für den Transport des Stroms von der Küste in die Ballungszentren. Macht alles in allem 11,3 Cent pro kW/h, wovon drei Cent für vermiedene Erzeugungskosten in konventionellen Kraftwerken gutgeschrieben werden.

    Bei 17 Milliarden kW/h erzeugtem Windstrom in 2002 ergibt sich eine jährliche Förderung von 1,4 Milliarden Euro, was einer Subventionierung jedes Arbeitsplatzes in der Windradbranche mit rund 40.000 Euro entspricht. Der Steinkohlebergbau lässt grüßen.

    Weniger Kohlendioxyd

    Berechnungen des Strom-Multis EON sollen Aufschluss über die Umweltentlastung durch Windkraft geben. Demnach konnten 2002 rund 9,5 Millionen Tonnen Kohlendioxyd durch den Betrieb der Windräder in Deutschland vermieden werden. 19 Millionen Tonnen könnten es sein, wenn EU-weit alle Kohlekraftwerke ihren Wirkungsgrad um nur ein Prozent verbessern würden.  AS

    Quelle: Der Steuerzahler Mai 2003 S. 93

    Posted in Energie- und Umweltpolitik | Kommentare deaktiviert für Vom Winde gedreht

     
    Kosmisches Gesetz

     ©  Bauratgeber24  |  Impressum  |  Datenschutzerklärung   2/2022