© Getty Images / Jens Ahner

Klimawandel

Technik wird die Klimakrise nicht lösen

Autorinnen des Artikels
etwa 22 Min. Lesedauer

Manchmal kommt die Erkenntnis blitzschnell. Verschwommene Umrisse nehmen Gestalt an, plötzlich ergibt alles einen Sinn. Aber dem voraus geht oft ein viel langsamerer Abwägungsprozess: Im Unterbewusstsein wachsen die Zweifel, ob die Dinge zusammenpassen. Bis etwas klick macht und stimmt – oder vielleicht zerbricht.

Zusammengenommen haben wir drei Autoren dieses Artikels wohl mehr als 80 Jahre damit verbracht, über den Klimawandel nachzudenken. Warum also hat es so lange gedauert, bis wir uns zu den offensichtlichen Gefahren des Konzepts der Klimaneutralität – Netto-Null genannt – zu Wort melden? Zu unserer Verteidigung: Die Grundannahme von Netto-Null ist einfach, täuschend einfach – und wir geben zu, dass sie selbst uns in die Irre geführt hat.

Der Klimawandel ist eine direkte Folge davon, dass sich zu viel Treibhausgase, in erster Linie Kohlendioxid (CO2), in der Atmosphäre befinden. Daraus folgt: Wir müssen aufhören, mehr davon auszustoßen, und sogar CO2 entfernen.

Diese CO2-Entfernung ist zentraler Bestandteil des aktuellen Plans, eine Katastrophe auf der Erde zu verhindern. Für die Umsetzung gibt es viele Vorschläge, von der massenhaften Anpflanzung von Bäumen bis hin zu Hightech-Geräten, die Kohlendioxid aus der Luft absaugen.

Derzeit herrscht Einigkeit darüber, dass wir die globale Erwärmung schneller stoppen können, wenn wir Kohlendioxid mit bestimmten Techniken entfernen und gleichzeitig die Nutzung von Brennstoffen wie Kohle, Erdöl und Gas reduzieren. So werden wir hoffentlich um die Mitte dieses Jahrhunderts die „Netto-Null“, also die Klimaneutralität erreichen. Das ist der Punkt, an dem alle verbleibenden Emissionen von Treibhausgasen durch Technologien ausgeglichen werden, die diese aus der Atmosphäre entfernen.

Theoretisch ist das eine tolle Idee. Leider trägt sie in der Praxis dazu bei, den Glauben an eine technologische Lösung aufrechtzuerhalten. Die Dringlichkeit nimmt ab, die Emissionen jetzt einzudämmen.

Wir glauben, dass die Idee der Netto-Null-Emissionen einen rücksichtslosen, leichtfertigen Ansatz zugelassen hat nach dem Motto: „Jetzt verbrennen, später bezahlen.“ Mit der Folge, dass der CO2-Ausstoß weiter angestiegen ist. Diese Idee hat auch die Zerstörung der Natur durch ständig steigende Abholzung beschleunigt und das Risiko erhöht, dass diese Zerstörung in der Zukunft weitergeht.

Um zu verstehen, wie es dazu kommen konnte, dass die Menschheit ihre Zivilisation auf der Basis von Versprechen künftiger Lösungen aufs Spiel gesetzt hat, müssen wir in die späten 1980er Jahre zurückkehren. Damals war auf internationaler Bühne erstmals vom Klimawandel die Rede.

1988 hätten die Menschen die Klimakrise noch verhindern können

Im Juni 1988 hatte James Hansen als Leiter des Goddard-Instituts für Weltraumstudien der NASA eine prestigeträchtige Position. Doch außerhalb der akademischen Welt war der US-Amerikaner weitgehend unbekannt.

Am Nachmittag des 23. Juni war er auf dem besten Weg, der berühmteste Klimaforscher der Welt zu werden. Denn in seiner Aussage vor dem US-Kongress lieferte er Beweise, dass sich das Erdklima erwärmt und der Mensch die Hauptursache dafür ist: „Der Treibhauseffekt ist nachgewiesen und er verändert jetzt unser Klima.“

Es lohnt sich, Hansens Erklärung vor dem US-Kongress aus dem Jahr 1988 im Original nachzulesen (auf Englisch). Hier die Kurzfassung:

„Meine wichtigsten Schlussfolgerungen sind: (1) die Erde ist 1988 wärmer als zu jedem anderen Zeitpunkt in der Geschichte der instrumentellen Messungen, (2) die globale Erwärmung ist jetzt groß genug, dass wir mit einem hohen Maß an Vertrauen eine Ursache-Wirkungs-Beziehung zum Treibhauseffekt herstellen können, und (3) in unseren Computer-Klimasimulationen ist der Treibhauseffekt jetzt schon groß genug, um die Wahrscheinlichkeit des Auftretens von Extremereignissen wie Sommerhitzewellen zu beeinflussen; die Modellergebnisse implizieren, dass das Auftreten von Hitzewellen/Trockenheit im Südosten und Mittleren Westen der USA im nächsten Jahrzehnt häufiger sein könnte als in klimatologischen (1950 bis 1980) Statistiken.“

Wenn wir damals nach Hansens Aussage gehandelt hätten, wären wir in der Lage gewesen, unsere Wirtschaftsweise so umzustellen, dass pro Jahr etwa zwei Prozent weniger Kohlendioxid freigesetzt werden. Dann hätten wir etwa eine Zwei-Drittel-Chance gehabt, die Erwärmung auf nicht mehr als 1,5 Grad Celsius zu begrenzen. Es wäre eine riesige Herausforderung gewesen, aber die Hauptaufgabe hätte lediglich darin bestanden, die zunehmende Nutzung fossiler Brennstoffe zu stoppen und gleichzeitig die künftigen Emissionen fair zu verteilen.

Vier Jahre später gab es einen Hoffnungsschimmer, dass dies möglich sein würde. Auf dem Erdgipfel in Rio 1992 einigten sich alle Nationen darauf, die Konzentrationen von Treibhausgasen zu stabilisieren, um sicherzustellen, dass sie keine gefährlichen Auswirkungen auf das Klima haben. Der Kyoto-Gipfel 1997 versuchte, dieses Ziel in die Tat umzusetzen. Doch im Laufe der Jahre wurde die Aufgabe immer schwieriger, da immer mehr fossile Brennstoffe genutzt wurden.

Etwa zu dieser Zeit entwickelten Forscher die ersten Computermodelle, die die Treibhausgasemissionen mit den Auswirkungen auf verschiedene Wirtschaftssektoren verbanden. Diese hybriden Klima- und Wirtschaftsmodelle ermöglichten es den Modellierern, wirtschaftliche Aktivitäten mit dem Klima zu verknüpfen. Sie untersuchten zum Beispiel, wie Veränderungen von Investitionen und von Technologie zu Veränderungen der Treibhausgasemissionen führen könnten.

Diese Modelle schienen wie ein Wunder: Man konnte Maßnahmen am Computerbildschirm ausprobieren, bevor man sie umsetzte, was der Menschheit kostspielige Experimente ersparte. Sie entwickelten sich schnell zu einer wichtigen Orientierungshilfe für die Klimapolitik. Diese Vorrangstellung behielten sie bis zum heutigen Tag bei.

Leider haben sie auch die Notwendigkeit für tiefgreifendes kritisches Denken beseitigt. Solche Modelle stellen die Gesellschaft als ein Netz von idealtypischen, emotionslosen Käufern und Verkäufern dar und ignorieren damit komplexe soziale und politische Realitäten oder sogar die Auswirkungen des Klimawandels selbst. Sie gehen davon aus, dass marktbasierte Ansätze immer funktionieren werden. Folglich beschränkten sich die Diskussionen über politische Maßnahmen auf das, was für die Politiker am bequemsten war: Sie änderten schrittweise Gesetze und Steuern.

Ungefähr zu der Zeit, als die Modelle entwickelt wurden, gab es Bestrebungen, die USA zu Klimaschutzmaßnahmen zu bewegen, indem man ihnen erlaubte, die Kohlenstoffsenken der Wälder ihres Landes anzurechnen. Das Argument der USA war: Bei guter Bewirtschaftung der Wälder sind sie in der Lage, eine große Menge an Kohlenstoff in Bäumen und Böden zu speichern. Diese Menge sollte von ihren CO2-Einsparzielen abgezogen werden. Letztendlich setzten die USA ihren Willen weitgehend durch. Ironischerweise waren die Zugeständnisse alle vergeblich, da der US-Senat das entsprechende Abkommen nie ratifiziert hat.

Wer eine Zukunft mit mehr Bäumen postuliert, könnte die Verbrennung von Kohle, Öl und Gas in der Gegenwart ausgleichen. Da Modelle leicht Zahlen ausspucken konnten, die den Kohlendioxidgehalt so weit sinken ließen, wie man wollte, konnten immer ausgefeiltere Szenarien erforscht werden. Gleichzeitig nahm die wahrgenommene Dringlichkeit ab, den Verbrauch fossiler Brennstoffe zu reduzieren. Durch die Einbeziehung von Kohlenstoffsenken in klimaökonomische Modelle wurde die Büchse der Pandora geöffnet.

An dieser Stelle entstand die heutige Netto-Null-Politik.

„Es war für mich ein echter Schock zu erkennen, dass ich persönlich zur Netto-Null-Falle beigetragen haben muss. Im Jahr 2008 veröffentlichte ich einige Berechnungen, die ich eigens durchgeführt hatte, um die Notwendigkeit von Netto-Null auf lange Sicht zu zeigen. Ich stellte fest, dass alle verbleibenden Kohlendioxid-Emissionen als Folge menschlicher Aktivitäten durch eine künstliche Senke ausgeglichen werden müssten. Aber da keiner der Co-Autoren unserer Studie ein Experte war, haben wir nicht berücksichtigt, wie viele dieser künstlichen Senken nötig wären, um unser Wirtschaftssystem aufrechtzuerhalten oder ob es überhaupt technisch möglich wäre, sie zu schaffen.“
Wolfgang Knorr,
leitender Wissenschaftler für Physische Geografie und Ökosystem-Wissenschaften an der Universität Lund, Schweden

Mitte der 1990er Jahre lag das Hauptaugenmerk jedoch auf der Steigerung der Energieeffizienz und der Umstellung auf andere Energieträger (zum Beispiel der Umstieg von Kohle auf Gas) sowie auf dem Potenzial der Atomenergie, große Mengen an kohlenstofffreiem Strom zu liefern. Solche Innovationen würden hoffentlich den Anstieg der Emissionen fossiler Brennstoffe schnell umkehren.

Doch um die Jahrtausendwende zeigte sich: Diese Hoffnungen waren vergeblich. Angesichts der Kernannahme eines stufenweisen Wandels wurde es für ökonomische Klimamodelle immer schwieriger, gangbare Wege zu finden, um einen gefährlichen Klimawandel zu vermeiden. Als Reaktion darauf begannen die Modellierer, immer mehr Beispiele für die Abscheidung und Speicherung von Kohlendioxid einzubeziehen. CO2 sollte aus Kohlekraftwerken aufgefangen und dann tief unter der Erde für unbestimmte Zeit gespeichert werden.

Eine Speicherung ist in ausgebeuteten Gas- oder Erdöllagerstätten, in salinen Aquiferen oder im Meeresuntergrund möglich. Einige Wissenschaftler gehen davon aus, dass durch die Abscheidung von CO2 bei der Verbrennung fossiler Brennstoffe und einer anschließenden unterirdischen Speicherung 65 bis 80 Prozent des CO2 dauerhaft aus der Atmosphäre ferngehalten werden können. Ob die als Carbon Capture and Storage (⁠CCS⁠) bezeichnete Technik dieses Versprechen halten kann, ist jedoch noch nicht geklärt und gegenwärtig Thema verschiedener Forschungs- und Pilotprojekte. Mehr dazu beim Umweltbundesamt.

Dass dies grundsätzlich möglich ist, zeigte eine Reihe von Projekten seit den 1970er Jahren. Dabei wurde komprimiertes Kohlendioxid von fossilem Gas getrennt und dann in den Untergrund gepresst. Ziel dieser „Enhanced Oil Recovery“-Programme war eigentlich, Gase über Bohrlöcher einzuspeisen, damit das Öl zu den Bohrtürmen gedrückt wird und so mehr gefördert werden kann – Öl, das später verbrannt wird, wodurch noch mehr Kohlendioxid in die Atmosphäre gelangt.

Die Weiterentwicklung „Carbon Capture and Storage“ (CCS) bot den Dreh, das Kohlendioxid nicht mehr zur Förderung von Öl zu verwenden, sondern im Untergrund zu belassen und es aus der Atmosphäre zu entfernen. Diese angeblich bahnbrechende Technologie sollte klimafreundliche Kohle und damit die weitere Nutzung dieses fossilen Brennstoffs ermöglichen. Doch lange bevor die Welt Zeuge eines solchen Vorhabens wurde, war der hypothetische Prozess bereits in klimaökonomische Modelle eingeflossen. Am Ende bot die bloße Aussicht auf Kohlenstoffabscheidung und -speicherung den politischen Entscheidungsträgern einen Ausweg, die dringend benötigte Verminderung des Treibhausgasausstoßes zu verschieben.

Der Aufstieg der Netto-Null (oder: 2009 sollte Biomasse als „Senke“ das Klima retten)

Als sich die internationale Klimagemeinschaft 2009 in Kopenhagen traf, war klar: Kohlenstoffabscheidung und -speicherung würde aus mehreren Gründen nicht ausreichen. Niemand hatte Anlagen zur Abscheidung und Speicherung von Kohlendioxid in einem Kohlekraftwerk in Betrieb. Es war auch nicht abzusehen, dass diese Technologie in naher Zukunft irgendeinen Einfluss auf die steigenden Emissionen aus der zunehmenden Nutzung von Kohle haben würde.

Das größte Hindernis für die Umsetzung waren im Wesentlichen die Kosten. Der Anreiz, riesige Mengen an Kohle zu verbrennen, liegt in der Erzeugung von relativ billigem Strom. Die Nachrüstung der bestehenden Kraftwerke mit Kohlenstoffabscheidern, der Aufbau der Infrastruktur für den Transport des abgetrennten Kohlendioxids und die Entwicklung geeigneter geologischer Lagerstätten erforderten riesige Geldsummen. Folglich ist die einzige Anwendung der Kohlenstoffabscheidung in der Praxis damals – und heute –, das abgetrennte Gas in verbesserten Programmen zur Ölgewinnung zu verwenden. Abgesehen von einem einzigen Demonstrationsprojekt hat es nie eine Abscheidung von Kohlendioxid aus dem Schornstein eines Kohlekraftwerks mit anschließender unterirdischer Lagerung gegeben.

Genauso wichtig ist, dass 2009 immer deutlicher wurde, dass es nicht einmal möglich sein würde, die von den politischen Entscheidungsträgern geforderten schrittweisen Reduktionen zu erreichen. Noch nicht einmal, wenn die Kohlendioxidabscheidung und -speicherung funktionieren würden. Die Menge an CO2, die jedes Jahr in die Atmosphäre freigesetzt wurde, belegte, dass der Menschheit zusehends die Zeit davonlief.

Da die Hoffnungen auf eine Lösung der Klimakrise wieder schwanden, war ein weiteres Wundermittel gefragt. Es musste eine Technologie her, die den Anstieg der Kohlendioxidkonzentration in der Atmosphäre nicht nur verlangsamt, sondern sogar umkehrt. Folglich griffen die klimaökonomischen Modellierer – die bereits in der Lage waren, pflanzliche Kohlenstoffsenken und geologische Kohlenstoffspeicher in ihre Modelle einzubeziehen – zunehmend auf die „Lösung“ zurück, diese beiden Auswege aus der CO2-Misere zu kombinieren.

So wurde die Bioenergie-Kohlenstoffabscheidung und -speicherung (Bioenergy Carbon Capture and Storage, BECCS) schnell zur neuen Rettungstechnologie. Indem man „austauschbare“ Biomasse wie Holz, Feldfrüchte und landwirtschaftliche Abfälle anstelle von Kohle in Kraftwerken verbrennt und dann das Kohlendioxid aus dem Schornstein des Kraftwerks abfängt und unterirdisch speichert, könnte BECCS Strom erzeugen und gleichzeitig Kohlendioxid aus der Atmosphäre entfernen. Denn wenn Biomasse wie ein Baum wächst, saugt sie Kohlendioxid aus der Atmosphäre. Durch das Pflanzen von Bäumen und anderen Biomassepflanzen und die Speicherung des Kohlendioxids, das bei ihrer Verbrennung freigesetzt wird, könnte mehr Kohlenstoff aus der Atmosphäre entfernt, als eingebracht werden.

Mit dieser neuen Lösung in der Hand gruppierte sich die internationale Gemeinschaft nach wiederholten Misserfolgen neu, um einen weiteren Versuch zu starten, unsere gefährlichen Eingriffe in das Klima einzudämmen. Die Bühne war bereitet für die entscheidende Klimakonferenz 2015 in Paris.

Im Jahr 2015 kommen Zweifel an den Fantasiewelten auf

Als der Generalsekretär die 21. Konferenz der Vereinten Nationen über den Klimawandel beendete, ertönte Jubel. Menschen sprangen auf, Fremde umarmten sich, Tränen quollen aus vom Schlafmangel blutunterlaufenen Augen.

Die Emotionen vom 13. Dezember 2015 waren nicht nur für die Kameras bestimmt. Nach wochenlangen, zermürbenden Verhandlungen auf höchster Ebene war in Paris endlich ein Durchbruch erzielt worden. Wider Erwarten hatte sich die internationale Gemeinschaft nach Jahrzehnten der Fehlstarts und Misserfolge endlich darauf geeinigt, das Nötige zu tun, um die globale Erwärmung auf deutlich unter 2 Grad Celsius, am besten auf höchstens 1,5 Grad Celsius gegenüber dem vorindustriellen Niveau zu begrenzen.

Das Pariser Abkommen war ein überwältigender Sieg für diejenigen, die am meisten vom Klimawandel bedroht sind. Zwar trifft der globale Temperaturanstieg auch zunehmend die reichen Industrienationen. Aber es sind die tief liegenden Inselstaaten wie die Malediven und die Marshallinseln, die wegen des steigenden Meeresspiegels unmittelbar in ihrer Existenz bedroht sind.

Ein Sonderbericht des Weltklimarats (Intergovernmental Panel on Climate Change, IPCC) machte 2018 deutlich, dass die Zahl der Todesopfer durch heftigere Stürme, Brände, Hitzewellen, Hungersnöte und Überschwemmungen deutlich zunehmen würde, wenn es nicht gelingt, die globale Erwärmung durch das Pariser Abkommen auf 1,5 Grad Celsius zu begrenzen. Eine Zusammenfassung des Berichts bietet das Umweltbundesamt auf Deutsch.

Doch wer ein wenig tiefer gräbt, könnte eine weitere Emotion finden, die am 13. Dezember die Delegierten umtrieb. Zweifel. Es fällt uns schwer, einen einzigen Klimawissenschaftler zu nennen, der das Pariser Abkommen zu diesem Zeitpunkt für umsetzbar hielt. Inzwischen haben uns einige Wissenschaftler gesagt, das Pariser Abkommen sei „natürlich wichtig für die Klimagerechtigkeit, aber nicht umsetzbar“ und „ein kompletter Schock, niemand hielt eine Begrenzung auf 1,5 Grad Celsius für möglich.“ Anstatt die Erwärmung auf 1,5 Grad Celsius zu begrenzen, kam ein hochrangiger Wissenschaftler, der am IPCC beteiligt war, zu dem Schluss, dass wir bis zum Ende dieses Jahrhunderts auf über 3 Grad Celsius zusteuern.

Anstatt uns unseren Zweifeln zu stellen, beschlossen wir Wissenschaftler, immer aufwändigere Fantasiewelten zu konstruieren, in denen wir sicher wären. Der Preis für unsere Feigheit: Wir müssen den Mund halten über die immer größer werdende Absurdität der geforderten Kohlendioxid-Entfernung im Weltmaßstab.

„Sich auf ungetestete Mechanismen zur Beseitigung von Kohlendioxid zu verlassen, um die Ziele von Paris zu erreichen, obwohl wir die Technologien haben, um heute von fossilen Brennstoffen wegzukommen, ist schlichtweg falsch und leichtsinnig.“
Robert Watson, emeritierter Professor für Umweltwissenschaften, Universität von East Anglia, Großbritannien

Im Mittelpunkt stand BECCS, weil zu diesem Zeitpunkt nur so klimaökonomische Modellierer Szenarien finden konnten, die mit dem Pariser Abkommen vereinbar waren. Denn anstatt sich zu stabilisieren, waren die globalen Kohlendioxid-Emissionen seit 1992 um etwa 60 Prozent gestiegen.

Leider war BECCS, wie alle bisherigen Lösungen, zu schön, um wahr zu sein.
In den vom Weltklimarat erstellten Szenarien mit einer 66-prozentigen oder besseren Chance, den Temperaturanstieg auf 1,5 Grad Celsius zu begrenzen, müsste BECCS jedes Jahr 12 Milliarden Tonnen Kohlendioxid entfernen. BECCS in diesem Umfang würde massive Anpflanzungsprogramme für Bäume und Bioenergiepflanzen erfordern.

Sicher, die Erde braucht mehr Bäume. Seit Beginn der Landwirtschaft vor etwa 13.000 Jahren hat die Menschheit etwa drei Billionen Bäume gefällt. Aber anstatt den Ökosystemen die Möglichkeit zu geben, sich von den menschlichen Einflüssen zu erholen und Wälder nachwachsen zu lassen, bezieht sich BECCS meist auf spezielle Plantagen im industriellen Maßstab, die regelmäßig für Bioenergie geerntet werden, anstatt den Kohlenstoff in Wäldern in Stämmen, Wurzeln und Böden zu speichern.

Derzeit sind die beiden effizientesten Biokraftstoffe Zuckerrohr für Bioethanol und Palmöl für Biodiesel – beide werden in den Tropen angebaut. Endlose Reihen solcher schnell wachsenden Monokulturen von Bäumen oder anderen Bioenergiepflanzen, die in kurzen Abständen geerntet werden, zerstören die Artenvielfalt.

Man schätzt, dass BECCS zwischen 0,4 und 1,2 Milliarden Hektar Land benötigen würde. Das sind 25 bis 80 Prozent aller derzeit bewirtschafteten Flächen. Wie wollen wir das erreichen, wenn wir gleichzeitig 8 bis 10 Milliarden Menschen in der Mitte des Jahrhunderts ernähren wollen? Wie, ohne die einheimische Vegetation und Artenvielfalt zu zerstören?

Der Anbau von Milliarden von Bäumen würde riesige Mengen an Wasser verbrauchen – teilweise an Orten, an denen die Menschen bereits durstig sind. Eine zunehmende Walddecke in höheren Breitengraden kann mehr Erwärmung bedeuten, weil die Landoberfläche dunkler wird, wenn Grasland oder Felder durch Wälder ersetzt werden. Dieses dunklere Land absorbiert mehr Sonnenenergie, die Temperaturen steigen. Und wer den Schwerpunkt auf die Entwicklung riesiger Plantagen in ärmeren tropischen Ländern legt, riskiert, dass Menschen von ihrem Land vertrieben werden.

„Der Vorläufer von Netto-Null wurde und wird immer noch Kompensation genannt. Einst war ich voller Hoffnung, dass Kohlenstoff-Kompensationsprogramme das Kunststück vollbringen könnten, intakte Waldökosysteme vor der fast sicheren Zerstörung durch wirtschaftliche Entwicklung zu retten. Doch heute erschrecken mich die Folgen von Netto-Null fast mehr als die der Klimaerwärmung.“
Wolfgang Knorr

Außerdem wird oft vergessen, dass die Bäume und das Land im Allgemeinen bereits große Mengen an Kohlenstoff aufnehmen und speichern – die sogenannte natürliche terrestrische Kohlenstoffsenke. Eingriffe in dieses System könnten sowohl diesen Vorgang stören als auch zu doppelter Bilanzierung führen.

Weil diese Auswirkungen immer besser verstanden werden, hat die Aufbruchstimmung rund um BECCS abgenommen.

Neue Trugbilder ersetzen fehlgeschlagene technische Lösungen

Als die Erkenntnis dämmerte, wie schwierig die Umsetzung von Paris angesichts der ständig steigenden Emissionen und des begrenzten Potenzials von BECCS sein würde, entstand in Politikerkreisen ein neues Schlagwort: das „Überschreitungsszenario“. Danach dürfen die Temperaturen kurzfristig über 1,5 Grad Celsius steigen, müssen dann aber bis zum Ende des Jahrhunderts durch eine Reihe von Maßnahmen zur Kohlendioxid-Entfernung gesenkt werden. Dies heißt, dass Netto-Null eigentlich Kohlenstoff-negativ bedeutet. Innerhalb weniger Jahrzehnte müssen wir unsere Zivilisation von einer Wirtschaftsweise, die derzeit jährlich 40 Milliarden Tonnen Kohlendioxid in die Atmosphäre pumpt, auf eine umstellen, die netto 10 Milliarden Tonnen entfernt.

Massenhaft Bäume anzupflanzen für Bioenergie oder als Versuch des Ausgleichs, war die jüngste Bemühung, den Verbrauch fossiler Brennstoffe zu drosseln. Aber der immer größer werdende Bedarf an Kohlenstoffentfernung verlangt nach mehr. Deshalb hat sich die Idee der direkten Luftabscheidung durchgesetzt, die jetzt von einigen als die vielversprechendste Technologie angepriesen wird, die es gibt. Sie ist generell schonender für die Ökosysteme, weil sie deutlich weniger Land für den Betrieb benötigt als BECCS, einschließlich des Landes, das für die Energieversorgung mit Wind- oder Sonnenkollektoren benötigt wird.

Direkte Luftabscheidung ist eine technologische Methode, die chemische Reaktionen nutzt, um Kohlendioxid aus der Atmosphäre abzuscheiden. Wenn sich die Luft über diese Chemikalien bewegt, reagieren sie selektiv mit dem CO2 und entfernen es, lassen aber die anderen Bestandteile der Luft durch. Sobald das Kohlendioxid aus der Atmosphäre abgeschieden ist, wird es in der Regel durch Wärmezufuhr aus dem Lösungsmittel oder Sorptionsmittel gelöst, das erneut verwendet werden kann. Das abgeschiedene CO2 kann zur dauerhaften Speicherung in bestimmten geologischen Formationen in den Untergrund verpresst oder in verschiedenen Produkten und Anwendungen eingesetzt werden. (Mehr dazu beim World Ressources Institute, auf Englisch.)

Leider wird weithin angenommen, dass die direkte Luftabscheidung aufgrund ihrer exorbitanten Kosten und ihres Energiebedarfs, falls sie jemals in großem Maßstab eingesetzt werden kann, nicht mit BECCS konkurrieren kann, trotz dessen unersättlichen Appetits auf erstklassige landwirtschaftliche Flächen.

Es sollte nun klar werden, wohin die Reise geht. Wenn die Trugbilder einer magischen technischen Lösung verschwinden, taucht eine andere, ebenso untaugliche Alternative auf, um ihren Platz einzunehmen. Die nächste ist bereits am Horizont zu sehen – und sie ist sogar noch grauenhafter. Sobald wir erkennen, dass Netto-Null nicht rechtzeitig oder überhaupt nicht erreicht werden kann, wird wahrscheinlich Geo-Engineering – der absichtliche und großflächige Eingriff in das Klimasystem der Erde – beschworen werden als Lösung, um den Temperaturanstieg zu begrenzen.

Eine der am meisten erforschten Geoengineering-Ideen ist die Beeinflussung der Sonneneinstrahlung – die Injektion von Millionen Tonnen Schwefelsäure in die Stratosphäre, die einen Teil der Sonnenenergie von der Erde abstrahlen soll. Es ist eine verrückte Idee, aber einige Akademiker und Politiker meinen es todernst, trotz erheblicher Risiken. Die US National Academies of Sciences zum Beispiel haben empfohlen, in den nächsten fünf Jahren bis zu 200 Millionen US-Dollar bereitzustellen, um zu erforschen, wie Geo-Engineering eingesetzt und reguliert werden kann. Die Finanzierung und Forschung in diesem Bereich wird sicherlich deutlich zunehmen.

„Es ist erstaunlich, wie die andauernde Abwesenheit einer glaubwürdigen Technologie zur Kohlenstoffentfernung die Netto-Null-Politik nicht zu beeinflussen scheint. Mittlerweile habe ich erkannt, dass wir alle einer Form von Verarschung aufgesessen sind.“
James Dyke, Senior Lecturer für Globale Systeme, Universität von Exeter, Großbritannien

Schwierige Wahrheiten (oder: Netto-Null-Politik taugt nicht zur Begrenzung der Erderwärmung)

Im Prinzip gibt es nichts Falsches oder Gefährliches an Vorschlägen zur Kohlenstoffentfernung. In der Tat kann es sich ungeheuer aufregend anfühlen, Möglichkeiten zur Reduzierung der Kohlendioxidkonzentration zu entwickeln. Du setzt Wissenschaft und Technik ein, um die Menschheit vor einer Katastrophe zu bewahren. Was man tut, ist wichtig. Es gibt auch die Erkenntnis, dass die Entfernung von CO2 notwendig sein wird, um einen Teil der Emissionen aus Sektoren wie der Luftfahrt und der Zementproduktion aufzufangen. Deshalb wird es eine kleine Rolle für eine Reihe von verschiedenen Ansätzen zur Kohlendioxidentfernung geben.

Problematisch wird es erst, wenn davon ausgegangen wird, dass diese Vorschläge in großem Maßstab eingesetzt werden können. Damit wird praktisch ein Blankoscheck für die weitere Verbrennung fossiler Brennstoffe und die zunehmende Zerstörung von Lebensräumen ausgestellt.

Die Technologien zur Kohlenstoffreduzierung und das Geoengineering sollten als eine Art Schleudersitz gesehen werden, der die Menschheit vor raschen und katastrophalen Umweltveränderungen bewahren könnte. Genau wie ein Schleudersitz in einem Düsenflugzeug sollte er nur als allerletztes Mittel eingesetzt werden. Politik und Wirtschaft scheinen es jedoch durchaus ernst zu meinen mit dem Einsatz hochspekulativer Technologien als Mittel, um unsere Zivilisation auf einen nachhaltigen Weg zu bringen. Tatsächlich handelt es sich dabei um nichts mehr als Märchen.

Der einzige Weg, die Menschheit zu schützen, ist die sofortige und nachhaltige radikale Senkung der Treibhausgasemissionen auf sozial gerechte Weise.

Gewöhnlich sehen sich Akademiker als Diener der Gesellschaft. In der Tat sind viele als Beamte angestellt. Diejenigen, die an der Schnittstelle von Klimawissenschaften und Politik arbeiten, kämpfen verzweifelt mit einem zunehmend schwierigen Problem, dem Klimawandel. In ähnlicher Weise arbeiten auch diejenigen mit den besten Absichten, die sich für das Netto-Null-Ziel einsetzen.

Die Tragödie ist, dass sie mit ihren kollektiven Bemühungen nie in der Lage waren, einen klimapolitischen Prozess wirksam zu hinterfragen, der nur die Untersuchung von wenigen Szenarien zulässt.

Den meisten Akademikern ist es ausgesprochen unangenehm, die unsichtbare Linie zu überschreiten, die ihren Tagesjob von umfassenderen sozialen und politischen Belangen trennt. Sie befürchten, dass es ihre Unabhängigkeit gefährden könnte, wenn sie als Befürworter oder Gegner bestimmter Themen gesehen werden. Wissenschaftler gelten als eine der vertrauenswürdigsten Berufsgruppen. Vertrauen ist sehr schwer aufzubauen und leicht zu zerstören.

Aber es gibt noch eine andere unsichtbare Linie, die die Wahrung der akademischen Integrität von der Selbstzensur trennt. Als Wissenschaftlern wird uns beigebracht, skeptisch zu sein, Hypothesen gründlich zu testen und zu hinterfragen. Aber wenn es um die vielleicht größte Herausforderung für die Menschheit geht, zeigen wir oft einen gefährlichen Mangel an kritischer Analyse.

Im privaten Bereich äußern Wissenschaftler erhebliche Skepsis gegenüber dem Pariser Abkommen, BECCS, Kompensationsmaßnahmen, Geoengineering und Netto-Null. Von einigen löblichen Ausnahmen abgesehen, gehen wir in der Öffentlichkeit ruhig unserer Arbeit nach, beantragen Fördermittel, veröffentlichen Publikationen und lehren. Der Weg zu einem katastrophalen Klimawandel ist mit Machbarkeitsstudien und Folgenabschätzungen gepflastert.

Anstatt den Ernst unserer Lage anzuerkennen, beteiligen wir uns weiter an der Utopie von Netto-Null. Was werden wir tun, wenn die Realität uns einholt? Was werden wir unseren Freunden und Angehörigen über das Versäumnis sagen, uns jetzt zu Wort zu melden?

Es ist an der Zeit, unsere Ängste auszusprechen und gegenüber der Allgemeinheit ehrlich zu sein. Die aktuelle Netto-Null-Politik wird die Erwärmung nicht auf 1,5 Grad Celsius begrenzen, weil sie nie dazu gedacht war. Sie wurde und wird immer noch von der Notwendigkeit angetrieben, Business as usual zu schützen, nicht das Klima. Wenn wir die Menschen schützen wollen, dann müssen wir die Kohlenstoffemissionen jetzt stark und nachhaltig reduzieren. Das ist der ganz einfache Härtetest, der auf alle klimapolitischen Maßnahmen angewendet werden muss. Für Wunschdenken ist es zu spät.


James Dyke ist Senior Lecturer für Globale Systeme an der Universität Exeter in Großbritannien.

Robert Watson ist emeritierter Professor für Umweltwissenschaften an der Universität von East Anglia in Großbritannien.

Wolfgang Knorr ist leitender Wissenschaftler für Physische Geografie und Ökosystem-Wissenschaften an der Universität Lund in Schweden.

Ihren Artikel veröffentlichten sie auf Englisch bei The Conversation. Hier könnt ihr den Originalartikel lesen.


Übersetzung: Vera Fröhlich; Redaktion: Rico Grimm; Schlussredaktion: Susan Mücke; Bildredaktion: Till Rimmele; Audio: Iris Hochberger

The Conversation
Prompt headline