Forschung: Aktueller Forschungsschwerpunkt 2001

(Abteilung: Klimamodellierung)

Das Klima des 20. und 21. Jahrhunderts


Nach dem kürzlich erschienenen Bericht des "Intergovernmental Panel on Climate Change" (IPCC), ein Gremium des Umweltprogramms der Vereinten Nationen (UNEP), hat sich die globale Mitteltemperatur der Erdoberfläche im 20. Jahrhundert um etwa 0.6 Grad erhöht, wobei die 90er Jahre die wärmsten seit Beginn der instrumentellen Temperaturmessungen waren. Für diesen Erwärmungstrend kann es mehrere Gründe geben, und es gehört zu den Aufgaben der Klimamodellierung, die Ursachen zu identifizieren. In Frage kommen natürliche Prozesse durch interne Wechselwirkungen, Änderungen von Sonneneinstrahlung und Vulkanausbrüchen sowie anthropogene Einflüsse wie geänderte Landnutzung und Veränderungen in der Zusammensetzung der Atmosphäre durch Verbrennung von fossilen Energieträgern wie Kohle und Öl. Hierdurch werden Treibhausgase wie Kohlendioxid (CO2) freigesetzt, die die Wärmeabstrahlung in den Weltraum blockieren und damit zu einer Erwärmung beitragen, aber auch Aerosole (kleine Partikel wie Staub und andere Stoffe), die einen Abkühlungseffekt haben, da sie einen Teil der Sonnenstrahlung zurückstreuen und auch die Wolkenbildung begünstigen. Anthropogene Emissionen von Spurengasen beeinflussen auch die Ozonverteilung. So hat die Zunahme von Stickoxiden zu einer Ozonzunahme in den unteren Luftschichten bis hinauf zur Tropopause geführt (Grenzfläche in etwa 15 km Höhe, die die gut durchmischte Troposphäre von der Stratosphäre trennt, die etwa 90% des gesamten Ozongehaltes enthält). In der Stratosphäre wird dagegen eine Ozonabnahme beobachtet infolge der Freisetzung von Fluorchlorkohlenwasserstoffen (FCKW) in den vergangenen Jahrzehnten. Die spektakulärste Ozonabnahme wird während des Frühjahrs über der Antarktis beobachtet. Ozon ist ein Treibhausgas wie CO2. Außerdem filtert es einen Teil der ultravioletten Sonnenstrahlung und schützt damit das Leben auf der Erde. Die beobachteten Ozonänderungen bergen somit Risiken sowohl für das Klima wie für das Leben auf der Erde.

Eine quantitative Abschätzung des menschlichen Einflusses auf das Klima ist nur mit Hilfe von Computermodellen des gesamten Klimasystems möglich. Dazu gehört der physikalische Teil, also die dynamischen und thermodynamischen Prozesse in Atmosphäre und Ozean inklusive der Landoberflächen und Eisgebiete, ebenso wie diverse biogeochemische Kreisläufe (Kohlenstoff, Schwefel, Stickstoff, Methan, Ozon usw.). Die Kopplung von physikalischen Klimamodellen mit biogeochemischen Kreislaufmodellen ist bisher nur ansatzweise realisiert worden. Ein Modell des Gesamtsystems, das alle wesentlichen Wechselwirkungen zwischen den einzelnen Komponenten beschreibt, existiert noch nicht. Daher wird die Zusammensetzung der Atmosphäre, die durch diese Prozesse gesteuert wird, in Klimamodellen nicht berechnet, sondern vorgegeben (gemäß Beobachtungen oder extern berechnet mit Hilfe biogeochemischer Modelle).

Eine prinzipielle Limitierung physikalischer Klimamodelle besteht darin, dass zwar die Modellgleichungen bekannt sind, dass aber allgemeine Lösungen dieser Gleichungen nicht existieren. Näherungslösungen erhält man durch Anwendung numerischer Verfahren auf der Basis von "diskretisierten" Gleichungen, die in einem 3-dimensionalen Gitter gelöst werden, wobei die Zeit ebenfalls diskretisiert wird. Diese Methode erzeugt Fehler, die umso kleiner werden je feiner das Gitter ist. Allerdings erhöht sich durch Verfeinerung des Gitters die Rechenzeit (Faktor 16 bei einer Halbierung der horizontalen und vertikalen Gitterabstände). Typische Gitterabstände heutiger Klimamodelle betragen etwa 300 km in der Horizontalen und 1 km in der Vertikalen bei einem Zeitschritt von etwa einer halben Stunde. Eine weitere Folge der Diskretisierung ist, dass "kleinskalige" Prozesse (Turbulenz, Wolken- und Niederschlagsbildung, Strahlungsübertragung usw.) im Gitter nicht erfassbar sind und daher in vereinfachter "parameterisierter" Form berücksichtigt werden müssen. Eine Gitterverfeinerung würde auch diese Fehler reduzieren, da ein größerer Anteil kleinskaliger Prozesse durch die Modellgleichungen beschrieben werden könnte. Diese Hinweise zeigen, wie sehr die Klimamodellierung von Fortschritten in der Computertechnologie abhängt.

Klimamodelle haben eine ähnliche Funktion wie ein Versuchslabor in der Physik, indem sie "Experimente" unter kontrollierten Bedingungen erlauben und somit die Möglichkeit schaffen, Zusammenhänge im Klimasystem zu verstehen. Darüber hinaus ist es möglich, ausgehend von einem bekannten Anfangszustand, vergangene oder auch zukünftige Klimazustände zu simulieren, wenn der zeitliche Verlauf einiger Einflussgrößen oder "Randbedingungen" entweder bekannt ist oder berechnet werden kann. Dazu gehört die Sonneneinstrahlung, die Konzentration klimawirksamer Spurenstoffe in der Atmosphäre oder auch die Vegetation. Ein ideales Modell müsste in der Lage sein, unter Vorgabe beobachteter Anfangs- und Randbedingungen den Klimaverlauf der Vergangenheit zu reproduzieren. Allerdings sind nicht alle Klimaschwankungen reproduzierbar, sondern nur diejenigen, die durch Änderungen in den Randbedingungen verursacht werden. Klimaschwankungen aufgrund interner Wechselwirkungen im Klimasystem sind allenfalls in ihren statistischen Eigenschaften erfassbar, nicht aber in der zeitlichen Reihenfolge ihres Auftretens. Die Überlagerung von deterministischen, vorhersagbaren "Signalen" mit stochastischen, nicht vorhersagbaren Schwankungen ("Klimarauschen") erschwert die Interpretation von Zeitreihen der Temperatur und anderer Klimavariablen. Zur besseren Trennung von Signal und Rauschen wird in der Modellierung häufig die Methode der "Ensemblesimulation" angewandt, wobei eine Reihe von Klimasimulationen durchgeführt werden, die sich nur in den Anfangsbedingungen geringfügig unterscheiden. Modell und Randbedingungen müssen dagegen in den einzelnen Realisationen identisch sein. Durch Mittelbildung über das Ensemble lassen sich die stochastisch bedingten Schwankungen eliminieren, so dass die gesuchten reproduzierbaren Klimavariationen isoliert werden können.

Klimamodelle werden insbesondere für die Simulation zukünftiger Klimazustände genutzt, um Risiken anthropogener Emissionen abzuschätzen. Die Methode ist ähnlich wie bei der Simulation vergangener Klimate. Allerdings müssen Annahmen über die zukünftige Entwicklung der Emissionen gemacht werden (abhängig von Weltbevölkerung, Energieverbrauch usw.). Die erwarteten Emissionen werden in biogeochemische Modelle eingegeben und die zeitliche Entwicklung der atmosphärischen Konzentrationen von CO2 und anderen Spurenstoffen berechnet. Auf der Basis dieser Daten können Klimamodelle die zukünftige Klimaentwicklung hochrechnen. Die Glaubwürdigkeit der Prognosen hängt von der Qualität der Modelle ab. Die Qualitätskontrolle ist daher ein wichtiger Bestandteil der Modellentwicklung. So kann z.B. untersucht werden, bis zu welchem Grad Klimamodelle in der Lage sind, beobachtete Trends zu reproduzieren, z.B. die Klimaentwicklung der vergangenen 100 Jahre. Dieser Zeitraum bietet sich an, weil sowohl die Zusammensetzung der Atmosphäre als auch das Klima relativ gut bekannt sind.

Mit einem am Institut entwickelten Modell wurde die Klimaentwicklung von 1860 bis zum Jahre 2100 berechnet. Das Modell enthält folgende Komponenten, die synchron miteinander gekoppelt sind:

* Atmosphäre (Wind, Temperatur, Wasserdampf, Wolken)
* Ozean (Strömung, Temperatur, Salzgehalt)
* Meereis (Eisdicke, eisbedeckte Fläche)
* Landoberflächen (Temperatur, Wassergehalt, Schnee)
* Flüsse (an den Flussmündungen wird der kontinentale Abfluss in den Ozean geleitet)
* Schwefelkreislauf (Schwefeldioxid und Sulfataerosole)

Unverändert bleiben im Modell die Vegetation (abgesehen vom Jahresgang) sowie das Inlandeis (Grönland, Antarktis). Die horizontale Gitterauflösung beträgt etwa 300 km. Allerdings wird zur Erfassung von El Niño Ereignissen, eine der Hauptquellen natürlicher Klimavariabilität, das ozeanische Gitter in niederen geographischen Breiten verfeinert (etwa 50 km in Äquatornähe). Der vertikale Gitterabstand in der Atmosphäre variiert zwischen 60 m nahe der Erdoberfläche und 7 km in der obersten Modellschicht in etwa 30 km Höhe. Im folgenden werden drei Modellexperimente diskutiert:

(1) "Referenzexperiment": Die Zusammensetzung der Atmosphäre sowie alle anderen externen Einflussgrößen werden zeitlich konstant vorgegeben (abgesehen von täglichen und jährlichen Schwankungen der Sonneneinstrahlung). Damit können Klimaschwankungen allein durch interne Wechselwirkungen erzeugt werden.

(2) "Treibhausgase": Die atmosphärische Konzentration von CO2 und anderen Treibhausgasen (Methan, Lachgas und diverse FCKWs) werden als Funktion der Zeit vorgegeben (von 1860 bis 1990 wie beobachtet, von 1990 bis 2100 nach einem "business-as-usual" IPCC Szenarium). Die Aerosolkonzentrationen ändern sich nicht.

(3) "Treibhausgase + Aerosole": Zusätzlich zu den Treibhausgasen nehmen hier auch die Aerosole mit der Zeit zu. Sulfataerosole werden auf der Basis vorgegebener Emissionen innerhalb des Klimamodells berechnet. Für den Zeitraum 1860 bis 1990 basieren die Emissionsdaten auf Schätzungen von Energieverbrauch, Schwefelgehalt der verwendeten Brennstoffe usw., während für den Zeitraum 1990 bis 2050 die verwendeten Emissionen auf einem IPCC Szenarium beruhen. Zusätzlich wird die zeitliche Entwicklung der troposphärischen Ozonverteilung vorgegeben. Diese wurde nicht innerhalb des Klimamodells berechnet, sondern "extern" mit Hilfe eines Chemie-Transport-Modells, wobei die Emissionen der Vorläufersubstanzen von Ozon (Stickoxide u.a.) in zeitlicher Entwicklung vorgegeben wurden, der Klimazustand aber unverändert blieb.

Anders als in (1) sind in den Experimenten (2) und (3) auch extern angeregte Klimaschwankungen und insbesondere längerfristige Trends zu erwarten. Durch Vergleich von (2) und (3) kann auch die gemeinsame Wirkung von Sulfataerosolen und troposphärischem Ozon auf die vergangene und zukünftige Klimaentwicklung abgeschätzt werden. Auf diese Weise ist es möglich, Mechanismen zu identifizieren, die für die Klimaentwicklung seit 1860 eine Rolle gespielt haben. Ein Beispiel zeigt Abbildung 1, in der die simulierten zeitlichen Entwicklungen der globalen Mitteltemperatur in Oberflächennähe sowie die entsprechenden Beobachtungen (bis 1995) dargestellt sind. Wie erwartet treten im Referenzexperiment (1) zwar jährliche und längerfristige Variationen der Temperatur in der Größenordnung von einigen Zehntel Grad auf, es wird aber kein nennenswerter langfristiger Trend simuliert. Zu beachten ist, dass die Jahreszahlen für dieses Experiment keine Bedeutung haben, da die atmosphärische Zusammensetzung zeitlich konstant ist. Die Wirkung ansteigender Treibhausgaskonzentrationen seit Beginn der Industrialisierung äußert sich im Experiment (2) als allmähliche globale Erwärmung, die jedoch früher als beobachtet einsetzt und insgesamt auch zu stark ausfällt. Der beobachtete Trend der vergangenen 30 Jahre wird in Experiment (3) am besten simuliert, während die beobachtete Erwärmung zwischen 1910 und 1940 nicht reproduziert wird. In diesem Zeitraum ist allerdings der CO2 Anstieg noch vergleichsweise gering, so dass vermutet werden kann, dass es sich hier um eine zufällige natürliche Klimaschwankung handelt, zumal Temperaturänderungen in dieser Größenordnung auch im Referenzexperiment (1) vorkommen. Nicht auszuschließen ist ein Zusammenwirken mit natürlichen externen Faktoren wie Änderungen von Sonnenstrahlung und Vulkanismus (tatsächlich war in den 30er Jahren die vulkanische Aktivität relativ gering).

Diese Ergebnisse sind im Einklang mit dem kürzlich erschienenen IPCC Bericht, der den beobachteten Erwärmungstrend der vergangenen 30 Jahre mit hoher Wahrscheinlichkeit auf anthropogene Aktivitäten zurückführt, die zu einem Anstieg von CO2 und anderen Treibhausgasen in der Atmosphäre sowie von Sulfataerosolen geführt haben.

Aufgrund der Hochrechnungen bis zum Jahre 2100 in Experiment (2) bzw. bis zum Jahre 2050 in Experiment (3) wird ein weiterer Temperaturanstieg erwartet, der deutlich über dem im 20. Jahrhundert beobachteten bzw. simulierten liegt. Danach wird sich der Erwärmungstrend der vergangenen Jahrzehnte bei unveränderter Zuwachsrate der Treibhausgase linear fortsetzen. Die simulierten Temperaturänderungen haben (auch in anderen Klimamodellen) eine charakteristische geographische Verteilung. Als Beispiel wird in Abbildung 2 die Temperaturänderung der Dekade 2040-50 im Vergleich zur Dekade 1990-2000 für das Experiment (3) gezeigt. Relativ gering ist die Erwärmung der Meeresoberfläche, weil der zusätzliche Wärmeeintrag an der Oberfläche durch vertikale Vermischungsprozesse über ein größeres Volumen verteilt wird als auf der festen Erde. Damit wird die Klimaänderung abgeschwächt und verzögert. Der retardierende Effekt der Ozeane ist umso größer je effizienter die vertikalen Vermischungsprozesse sind. Diese sind besonders groß in Teilen des Nordatlantik und am Rande der Antarktis, wo im Winter kaltes Oberflächenwasser bis in große Tiefen absinkt. Umgekehrt findet man die stärkste Erwärmung von bis zu 5 Grad im Bereich der Arktis. Ursache ist eine selbstverstärkende Rückkopplung, wobei eine Erwärmung zu einer Verringerung der Eis- und Schneeflächen führt. Dadurch werden helle Oberflächen durch dunklere ersetzt (Eis durch Wasser und schneebedecktes Land durch schneefreies Land), so dass mehr Sonnenstrahlung infolge verminderter Reflektion verfügbar ist, was wiederum zu verstärkter Schmelze von Eis und Schnee und damit zu weiterer Erwärmung führt.

Die beobachtete und simulierte zeitliche Entwicklung der arktischen Meereisausdehnung ist in Abbildung 3a dargestellt. Für die Berechnung der Eisausdehnung wird nur die geographische Lage des südlichen Eisrandes benötigt. Offene Stellen im Eis werden in der Ausdehnung also mit einbezogen. Die tatsächliche Eisfläche ist damit kleiner als die Ausdehnung. Da Beobachtungen der Eisfläche erst seit Beginn der Satellitenmessungen um 1980 vorliegen, wird in Abbildung 3a die Eisausdehnung gezeigt. Wie bei der globalen Mitteltemperatur bleibt im Referenzexperiment (1), von jährlichen und längeren Schwankungen abgesehen, die Eisausdehnung praktisch konstant. Die Berücksichtigung der Sulfataerosole in (3) hat anders als in (2) ein anfängliches Eiswachstum zur Folge, bis um 1980 ein negativer Trend einsetzt, der sich nur unwesentlich von dem in (2) simulierten unterscheidet. Die beobachtete Entwicklung zeigt einen qualitativ ähnlichen Verlauf mit einer nahezu konstanten Eisausdehnung von 1901 bis etwa 1970 und einer Reduktion um etwa 10% zwischen 1970 und 1997 (Fläche von Niedersachsen jährlich). Quantitativ unterscheiden sich die Simulationen von den Beobachtungen sowohl im Mittelwert (etwa 5% höher), in der ebenfalls höheren natürlichen Variabilität als auch im Trend (etwa 50% des beobachteten). Ob diese Differenzen real sind, kann nicht entschieden werden, weil die beobachtete Eisausdehnung vor Beginn der Satellitenmessungen wegen der schlechten Datenlage große Fehler aufweist.

Für die Meereisdicke ist die Datensituation noch schlechter, so dass es praktisch unmöglich ist, die zeitliche Entwicklung des Meereisvolumens zu rekonstruieren. Andererseits ist das Meereisvolumen ein guter Klimaindikator, weil es ähnlich wie die Gletscher frühere Störungen der Wärmebilanz akkumuliert und damit in der zeitlichen Entwicklung widerspiegelt. Der simulierte Verlauf des arktischen Meereisvolumens wird in Abbildung 3b gezeigt. Wie bei der Eisausdehnung fällt das Anwachsen des Eisvolumens bis etwa 1980 im Experiment (3) auf. Dies ist die Folge relativ großer Schwefelemissionen im 20. Jahrhundert, die in Teilen der Nordhemisphäre die Wirkung der CO2-Emissionen überkompensieren. Deutlicher als der Rückzug der Eisausdehnung ist die Verringerung des Eisvolumens zwischen 1980 und 2050 (rund 50% gegenüber 15% bei der Ausdehnung). Dieser Unterschied hat zwei Ursachen: Einerseits verringert sich die mittlere Eisdicke, andererseits schmilzt das Eis nicht nur am südlichen Rand, sondern es bilden sich auch innerhalb der Eisgebiete größere eisfreie Flächen infolge von Wind und Meeresströmungen. Dieser Prozess ist bei dünnem Eis wirksamer als bei dickem Eis.

Ein ähnlich guter Klimaindikator wie das Eisvolumen ist der Wärmeinhalt der Ozeane. Hier ist die Datenlage zwar nicht völlig befriedigend (es gibt immer noch große Datenlücken im Weltozean) aber deutlich besser als beim Eisvolumen. Abbildung 4 zeigt die beobachtete und simulierte zeitliche Entwicklung des Wärmeinhaltes verschiedener Ozeanbecken bis zu einer Tiefe von 300 m. Da der Wärmeinhalt u.a. vom Wasservolumen abhängt, tragen große Ozeane wie der Pazifik sehr viel mehr zum Wärmeinhalt des Weltozeans bei als der Indische Ozean oder der Atlantik (daher die unterschiedlichen Skalen). Dies gilt nicht nur für den Wärmeinhalt selbst, sondern auch für die hier gezeigten Anomalien. Während der Beobachtungszeit von 1948 bis 1998 ist das Modell (Experiment 3) in der Lage, den beobachteten Verlauf in guter Näherung zu reproduzieren. Dies gilt nicht nur für die drei Ozeane insgesamt (rechte Spalte), sondern auch für die Asymmetrien zwischen Nord- und Südhemisphäre wie sie etwa im Indischen Ozean oder Pazifik erkennbar sind. Während sich die nördlichen Teile relativ stabil verhalten, ist in den südlichen Teilen ein positiver Trend erkennbar. Sehr gut erfasst das Modell auch den deutlichen Erwärmungstrend im Nordatlantik. Im Südatlantik zeigt das Modell relativ sprunghafte Änderungen um 1940 und 1990 mit einem relativ konstanten Verlauf dazwischen. In den Beobachtungen ist der Erwärmungstrend in diesem Zeitraum kontinuierlicher.

Die gute Übereinstimmung zwischen den beobachteten und simulierten Trends im ozeanischen Wärmeinhalt legt den Schluss nahe, dass die vertikalen Vermischungsprozesse durch Windeinflüsse und vor allem auch durch stabilitätsbedingte Umverteilungen der Wassermassen im Modell realistisch modelliert werden. Dies ist für die Abschätzung zukünftiger Änderungen wichtig, weil die Klimaentwicklung nicht nur von anthropogenen Einflüssen und atmosphärischen Rückkopplungen bestimmt wird, sondern auch von der thermischen Trägheit der Ozeane infolge vertikaler Vermischung.

Neben der Temperatur als einem der wichtigsten Umweltparameter liefern Klimamodelle auch Informationen über Niederschlag, Wolken, Wind und viele andere messbare Größen. Von großer Bedeutung für die Risikoabschätzung zukünftiger anthropogener Emissionen ist vor allem auch die Frage nach möglichen Änderungen von Extremereignissen (Dürren, Überschwemmungen, Stürme usw.). In Abbildung 5a wird die Häufigkeit von ausgeprägten Tiefdrucksystemen (Zyklonen) im Nordatlantik in Experiment (2) zum "heutigen" Zeitpunkt (Dekade 1980-90) gezeigt. Prozesse dieser Intensität werden in Klimamodellen wegen ihrer groben Gitterstruktur systematisch unterschätzt. Tatsächlich ist die beobachtete Zahl von Extremzyklonen in den Wintermonaten etwa doppelt so hoch. Andererseits wird die räumliche Verteilung mit einem Maximum südöstlich von Grönland in der Modellsimulation relativ gut getroffen. Zum Zeitpunkt der CO2-Verdoppelung in diesem Experiment, in den Jahren 2060-2070, nimmt die Zahl dieser Ereignisse gemäß Abbildung 5b systematisch zu, mit den stärksten Änderungen in der Labradorsee, der Dänemarkstraße zwischen Grönland und Island sowie im Europäischen Nordmeer. Die Zunahme dieser Ereignisse hat Konsequenzen für die Starkwindverteilung über Kanada, Europa und dem Atlantik. Während in den nördlichen Gebieten eine Zunahme simuliert wird, nehmen in den südlichen Regionen wie dem Mittelmeerraum die Starkwindereignisse ab. Eine Zunahme von Extremzyklonen und Windgeschwindigkeiten wurde in den letzten 30 Jahren über dem Nordatlantik tatsächlich beobachtet. Ob diese Änderungen schon ein Indiz für einen zunehmenden Treibhauseffekt sind, ist allerdings umstritten. In den Modellrechnungen ist dieser Effekt erst in einem stärker gestörten Klima erkennbar.

Die hier diskutierten Ergebnisse zeigen, dass das am Institut entwickelte Modell in der Lage ist, den beobachteten Klimatrend im 20. Jahrhundert in guter Näherung zu reproduzieren, wenn die wichtigsten anthropogenen Einflussgrößen wie Treibhausgase und Sulfataerosole berücksichtigt werden. Dies gilt nicht nur für die globale Mitteltemperatur, sondern auch für die arktische Eisausdehnung sowie für den Wärmeinhalt der großen Ozeanbecken. Hochrechnungen zukünftiger Klimazustände (Szenarienexperimente) zeigen, dass die in den letzten 30 Jahren beobachteten und simulierten Klimatrends praktisch linear in die Zukunft extrapoliert werden können, wenn unverminderte Zuwachsraten für die Emissionen von CO2 und anderen Treibhausgasen sowie Aerosolen angenommen werden. Dies hat nicht nur Konsequenzen für die Änderung der Temperatur und anderer Klimaparameter, sondern möglicherweise auch für die Häufigkeit von Extremereignissen. Dennoch muss berücksichtigt werden, dass Modelle nur unvollständige Abbilder der Wirklichkeit sein können und heutige Klimamodelle eine Reihe von möglicherweise wichtigen Prozessen ignorieren. Dazu gehört u.a. die Wechselwirkung zwischen Klima, Biosphäre und atmosphärischer Chemie. Eine Erweiterung der Klimamodelle in Richtung auf ein umfassendes Erdsystemmodell, das die wichtigsten Rückkopplungen zwischen Klima und biogeochemischen Prozessen enthält, ist daher ein zentraler Forschungsschwerpunkt für die kommenden Jahre (Roeckner).

Abbildung 1
Zeitlicher Verlauf von simulierter und beobachteter globaler Jahresmitteltemperatur in Erdbodennähe (2m über Grund) als Abweichung von den jeweiligen Mittelwerten der Jahre 1860 bis 1890.

Abbildung 2
Differenz der Jahresmitteltemperatur in Erdbodennähe zwischen den Dekaden 2040 bis 2050 und 1990 bis 2000 im Experiment, in dem neben den Treibhausgasen auch die Sulfataerosole in einem "business-as-usual" Szenarium als Funktion der Zeit vorgegeben wurden (s. blaue Kurve in Abbildung 1).

Abbildung 3
a) Zeitlicher Verlauf von simulierter und beobachteter Ausdehnung des arktischen Meereises im Jahresmittel.
b) Zeitlicher Verlauf des simulierten arktischen Meereisvolumens im Jahresmittel.

Abbildung 4
Zeitlicher Verlauf von simuliertem (schwarz) und beobachtetem (rot) Wärmeinhalt verschiedener Ozeanbecken in den obersten 300 m als Abweichungen vom jeweiligen Mittelwert der Jahre 1948 bis 1998. Nur für diesen Zeitraum (gekennzeichnet durch graue Rechtecke) liegen Beobachtungen vor. Der Wärmeinhalt ist das Produkt aus Wasserfläche, Wassertiefe (hier 300 m), mittlerer Temperatur in dieser Wasserschicht und einer physikalischen Konstanten (spezifische Wärme von Salzwasser).

Abbildung 5
a) Zahl von extremen Zyklonen mit einem Kerndruck < 970 hPa in den Wintermonaten (Dezember bis Februar) als Mittelwert über die Jahre 1980 bis 1990 im "Treibhausgasexperiment", in dem CO2 und andere Treibhausgase als Funktion der Zeit vorgegeben wurden. Die Zahlen charakterisieren die Häufigkeit des Auftretens von Extremzyklonen in Flächenelementen von jeweils 10° x 10°. Der Abstand der Isolinien beträgt 1.
b) Änderung in der Häufigkeit von Extremzyklonen im gleichen Experiment zum Zeitpunkt der CO2-Verdoppelung (2060-2070). Der Abstand der Isolinien beträgt 0.5.
c) Änderung von Extremwindgeschwindigkeiten in 10 m Höhe in den Wintermonaten 2060-2070 bezogen auf 1980-1990 im "Treibhausgasexperiment". Dargestellt sind Änderungen der oberen 10% der Häufigkeitsverteilung. Der Isolinienabstand beträgt 0.4 m/s, wobei Gebiete mit Windzunahmen im Starkwindbereich von mehr als 0.4 m/s gelb und Gebiete mit Windabnahmen von mehr als 0.4 m/s grün gekennzeichnet sind. Die Änderungen über Norddeutschland z.B. entsprechend einer Zunahme im Starkwindbereich von etwa 5-10%.

Zu den Abbildungen:

Abbildung 1: