Archiv der Kategorie: Wirtschaft

Gefahr Corona Virus – Wie groß ist das Risiko wirklich?

Nackte Zahlen sagen nicht alles

Täglich werden vom Robert-Koch-Institut (RKI) die neuen Corona-Fallzahlen verkündet und auf die vom Corona Virus ausgehende Gefahr hingewiesen. Drei Zahlenwerte werden dabei vor allem genannt: 1. Die Anzahl der COVID-19 Fälle insgesamt. 2. Die kumulierten COVID-19 Todesfälle. 3. Die Anzahl der von COVID-19 Genesenen. Per 17.08.2020 sind das die folgenden Fallzahlen:

  • COVID-19-Fälle insgesamt = 224014
  • COVID-19-Todesfälle insgesamt= 9232
  • COVID-19-Genesene insgesamt = 202100

Die ganz wichtige weitere Zahl wird – aus welchen Gründen auch immer – nicht genannt. Es ist die Anzahl der aktuell Infektiösen, also die der tatsächlich ansteckenden Personen. Man kann diese Zahl leicht aus den obigen Werten berechnen.

  • COVID-19-Infektiöse = COVID-19-Fälle – COVID-19-Genesene – COVID-19-Todesfälle

Aktuell (per 17.08.2020) beläuft sich die Anzahl der akut ansteckenden Personen (COVID-19-Infektiöse) auf 12682.

Bei Lichte betrachtet ist es nur die letztgenannte Zahl, von der eine Gefahr für die weitere Verbreitung des Corona-Virus ausgeht, denn anstecken kann man sich nur bei akut infizierten Personen. Was heißt dabei „akut infiziert“? Nach mehrfach bestätigten Studien besteht nur innerhalb der ersten 7 – 14 Tage nach der Infektion eine Ansteckungsgefahr. Wenn Sie also jemand treffen, der vor 3 Wochen positiv getestet wurde und keine Symptome zeigt, brauchen Sie sich keine Gedanken um Ihre Gesundheit zu machen.

Die Zahlen richtig interpretieren und kühlen Kopf bewahren

In Presse Funk und Fernsehen wird teilweise in unverantwortlicher Weise Panik geschürt. Im Ergebnis überschätzen die Menschen das Risiko für eine ernsthafte Erkrankung an COVID-19 um Größenordnungen. Einer der Gründe dafür ist die wenig differenzierte Berichterstattung des RKI. Die absoluten Zahlen von sogenanntem Neuinfizierten zu nennen, ist zweifellos eine wichtige Information, sie sagt aber nicht alles aus. Vor allem muss diese Zahl auch in Bezug gesetzt werden zu den insgesamt vorgenommenen Tests. Aktuell werden pro Woche mehr als 500000 Tests durchgeführt. Positiv sind weniger als 1% (KW 29: 0,6%, KW 30: 0,8%) davon. Zum Vergleich: Im April waren teilweise 9% der Tests positiv. Man sieht schon daran: Es ist fahrlässig, angesichts dieser Zahlen von einer zweiten Welle zu reden.

Dabei muss man auch sehen, dass die Falsch-Positiv-Rate bei den Tests nicht vernachlässigbar ist. Man kann abschätzen, dass bei Anwendung des RT-PCR-Tests auf eine Gruppe mit niedriger Infektionswahrscheinlichkeit (was für die Allgemeinheit nach wie vor zutreffen dürfte) teilweise bis zu 60% der positiv Getesteten tatsächlich gar keine Virenträger sind (Basis: Testsensitivität 70%, Testspezifität 95%, Prävalenz 5%). Immerhin kann man einem negativen Testat vertrauen: 98% der negativ Getesteten sind tatsächlich negativ.

Das Bild dreht sich um, wenn Risikogruppen mit einer hohen Prävalenz (Prätest-Infektionswahrscheinlichkeit) getestet werden. In diesem Fall sind nur 7% der positiv Getesteten in Wahrheit negativ. Umgekehrt tragen dann allerdings 24% der negativ Getesteten das Virus in sich, sind also positiv (Basis: Testsensitivität 70%, Testspezifität 95%, Prävalenz 50%).

Nach dem Vorstehenden kann man festhalten, dass die Aufregung um gegebenenfalls steigende Infektionszahlen verfrüht ist, solange die Testergebnisse nicht durch mindestens einen weiteren Test bestätigt werden. Denn die Unsicherheit singulärer RT-PCR-Tests bei Anwendung auf Niedrigrisikogruppen ist hoch. – Könnte denn eine Blitzampel mit einer Fehlerquote von 60% rechtssichere Bußgeldbescheide begründen?

Wir haben oben gesehen, dass derzeit weniger als 1% der Testergebnisse positiv ausfallen. Bei aller Unsicherheit bezüglich der Testaussagen sieht man schon daran: Das Risiko, sich mit dem Corona-Virus zu infizieren ist bei Weitem nicht so hoch, wie dies die teilweise alarmistische Berichterstattung nahelegt.

Auch wenn man sich infiziert hat: Leichte Befunde und Krankheitsverläufe sind die Regel. In 80% der Fälle haben die Infizierten keine oder nur milde Symptome. Damit soll die Gefahr nicht verharmlost werden, denn natürlich gibt es auch die schweren Verläufe, die insbesondere Menschen mit Vorerkrankungen treffen. Immerhin jeder 6. bis 7. Betroffene muss stationär behandelt werden.

Unterstellt, die Anzahl der insgesamt Infizierten (COVID-19-Fälle insgesamt) spiegele die Realität vollständig wider, es gebe also keine Dunkelziffer, liegt die dokumentierte Letalität (Sterblichkeit) deutschlandweit bei etwa 4 bis 5%. Der Vollständigkeit halber sei hier angemerkt, dass in einer räumlich begrenzten Studie auf der Basis eines vollständigen Screenings eine deutlich niedrigere Letalität von unter 0,4% bestimmt wurde. Der Grund dafür ist die potentiell hohe Dunkelziffer unerkannt Infizierter. Inwiefern dieser niedrigere Wert auf die größere Population in Deutschland übertragbar ist, kann derzeit nicht gesagt werden. In Unkenntnis der Dunkelziffer an Infizierten muss man sich seriöser Weise am höheren Wert orientieren.

Wie groß ist das Risiko für das Individuum wirklich?

Angesichts der sich teilweise überschlagenden und dabei auch widersprüchlichen Medienberichterstattung, fällt es dem Einzelnen schwer, die tatsächlich vom Corona-Virus ausgehende Gefahr realistisch einzuschätzen und sein eigenes Risiko zu veranschlagen. Dabei kann dieses Risiko relativ einfach aus den vom RKI übermittelten Zahlen bestimmt werden.

Wir haben oben gesehen, dass es derzeit 12682 akut ansteckende Personen (COVID-19-Infektiöse) gibt. Deutschland hat etwa 83 Mio. Einwohner. Demnach beläuft sich der Anteil der infektiösen Mitbürger auf 0,0153%, d.h., etwa 1 von 6544 Menschen ist akut ansteckend.

Was heißt das?

Jemand der täglich mit 65 unterschiedlichen Personen Kontakt hat, wird im Mittel alle 100 Tage auf einen an COVID-19 erkrankten und akut infektiösen Menschen treffen. Wer nur mit max. 18 Personen pro Tag Kontakt hat, wird statistisch nur einmal im Jahr in die Nähe eines akut Infizierten kommen.

Natürlich geht es hier um Mittelwerte. Wer in einem Landkreis oder einer Stadt mit höherer Dichte an akut Infizierten lebt, wird mit höherer Wahrscheinlichkeit bzw. häufiger mit ansteckenden Personen in Kontakt kommen. Nehmen wir Hamburg: Der Anteil der akut Infektiösen liegt dort bei 0,022%. Wer täglich mit 18 unterschiedlichen Personen in Kontakt kommt, wird also im Mittel etwa alle 8 Monate einem konkreten Infektionsrisiko ausgesetzt sein.

Das gleiche gilt natürlich auch umgekehrt. In Mecklenburg-Vorpommern (das Bundesland mit den niedrigsten Infektionszahlen) ist der Anteil der akut Infektiösen mit einem Wert von 0,0033% fast 5-mal geringer als im deutschlandweiten Schnitt. Wer dort 18 Personen pro Tag nahe kommt, wird im Mittel nur alle 4 bis 5 Jahre auf einen Infizierten treffen.

Auch wenn man mit einem Infektiösen Kontakt hat, heißt dies noch nicht, dass man sich auch selbst infiziert. Das konkrete Risiko hängt von vielen Faktoren ab. Relevant sind auf jeden Fall die Nähe, die Intensität und die Dauer des Kontakts. Schon einfache Vorsichtsmaßnahmen sind geeignet, das Ansteckungsrisiko deutlich zu reduzieren. Bei einem normal-distanzierten Kontakt unter Fremden oder entfernt Bekannten (kurzes Gespräch) liegt das Risiko vermutlich auch ohne Maske unter 10%. Mit Maske vielleicht bei 1%. Enger und langanhaltender Kontakt unter Freunden („Party mit Saufgelage“) hebt das Risiko mit einiger Sicherheit in Richtung 100%. Nach diesen Vorüberlegungen wollen wir nun das individuelle tägliche COVID-19-Krankheitsrisiko für drei Musterpersonen auf Grundlage der mittleren deutschlandweiten Infektionsgeschehens abschätzen. Wir verwenden dabei die folgenden Eckwerte:

  • Tatsächliches Ansteckungsrisiko bei einer normal-distanzierten Begegnung mit Fremden oder Bekannten pro individuellem Kontakt ohne Maske 10%.
  • Tatsächliches Ansteckungsrisiko bei einer sehr sorglosen oder länger andauernden Begegnung mit Fremden oder Bekannten pro individuellem Kontakt ohne Maske 50%.
  • Tatsächliches Risiko für einen ernsteren Verlauf bei nachgewiesener Infektion (Ausbruch der Krankheit und stationäre Behandlung) 20%.
  • Tatsächliches Sterberisiko bei stationärer Behandlung 25%, (entsprechend einer Letalität von 5% bei nachgewiesener Infektion).

Person A: 1x pro Woche im Supermarkt (20 Personen), 1x pro Woche im Restaurant (5 Personen), 1x Treffen mit Bekannten oder Familienangehörigen (10 Personen). A hat im Mittel Kontakt mit 5 Personen pro Tag.

A ist vernünftig und bleibt im Kontakt ohne Maske lieber etwas reservierter (Ansteckungsrisiko pro Kontakt 10%). Das individuelle tägliche Infektionsrisiko von A liegt demnach bei ca. 1:1300 (= 5*0,000153), sein Erkrankungsrisiko (A infiziert sich tatsächlich) bei 1:13000 (= 0,1*5*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei A kommt damit auf 1:65000 (= 0,2*0,1*5*0,000153), sein tägliches Corona-Sterberisiko beläuft sich demnach auf 1:260000 (= 0,00038% = 0,25*0,2*0,1*5*0,000153).

Um das richtig einzuschätzen: Werfen Sie 18-mal hintereinander eine Münze. Wiederholen Sie diesen Prozess jeden Tag aufs Neue, immer wieder. An dem Tag, an welchem 18-mal hintereinander Zahl fällt, ist Person A tot und an COVID-19 verstorben.

Übrigens, das statistische tägliche Sterberisiko für einen 80-jährigen Mann liegt auch ohne Corona schon bei 1:5200 (= 0,019%), mithin also etwa 50-mal höher als das spezifische Risiko durch Corona. Wobei dieser Vergleich insofern schief ist, als dass das individuelle COVID-19-Risiko für einen schweren Krankheitsverlauf bei einem 80-Jährigen gegenüber Personen mittleren Alters per se deutlich erhöht ist. Vergleichen wir also das berechnete COVID-19-Sterberisiko für Person A mit dem allgemeinen Sterberisiko für einen Menschen mittleren Alters.

Für 50-Jährige liegt das tägliche Sterberisiko bei etwa 1:120000 (= 0,00082%). Das für Person A zusätzlich entstehende Risiko durch Corona liegt demnach etwa halb so hoch. D.h., Corona erhöht das tägliche Sterberisiko für Person A von 0,00082% auf 0,0012%. Etwas Bewegung an frischer Luft oder die Reduktion des Fleischkonsums um wenige Prozent dürfte diese Risikoerhöhung locker kompensieren, denn nach wie vor sind Herz-Kreislauferkrankungen aufgrund mangelnder Bewegung und falscher Ernährung die Haupttodesursachen.

Person B: 1x pro Woche im Supermarkt (20 Personen), 3 Tage Heimarbeit (0 Personen), 2 Tage in der Firma (10 Personen) 2x Essen in der Kantine (20 Personen), 1x Treffen mit Bekannten oder Familienangehörigen (20 Personen). B hat im Mittel Kontakt mit 10 Personen pro Tag.

B ist vernünftig und bleibt im Kontakt ohne Maske lieber etwas reservierter (Ansteckungsrisiko pro Kontakt 10%). Das individuelle tägliche Infektionsrisiko von B liegt demnach bei ca. 1:650 (= 10*0,000153), sein Erkrankungsrisiko (B infiziert sich tatsächlich) beträgt also 1:6500 (= 0,1*10*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei B errechnet sich damit zu 1:32500 (= 0,2*0,1*10*0,000153), sein tägliches Corona-Sterberisiko beläuft sich demzufolge auf 1:130000 (= 0,00077% = 0,25*0,2*0,1*10*0,000153).

Unterstellt, B habe mittleres Alter, erhöht sich sein allgemeines tägliches Sterberisiko pauschal von 0,00082% auf knapp 0,0016%. Auch das ist leicht auszugleichen durch ein Minimum an gesünderer Ernährung und Sport. Übrigens, das Risiko im Straßenverkehr ums Leben zu kommen liegt für Personen mit einer durchschnittlichen jährlichen Fahrleistung von 15000 km bei etwa 0,0075% pro Jahr.

Person C: 2x pro Woche im Supermarkt (20 Personen), 5 Tage in der Firma (50 Personen), am Wochenende Party oder Disco (50 Personen). C hat im Mittel Kontakt mit 20 Personen pro Tag.

C ist unvernünftig und schert sich um nichts (Ansteckungsrisiko pro Kontakt 50%). Das individuelle tägliche Infektionsrisiko von C liegt demnach bei ca. 1:325 (= 20*0,000153), sein Erkrankungsrisiko (C infiziert sich tatsächlich) bei 1:653 (= 0,5*20*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei C kann somit auf 1:3267 (= 0,2*0,5*20*0,000153) abgeschätzt werden. Sein pauschales tägliches Corona-Sterberisiko errechnet sich daraus zu 1:13000 (= 0,0077% = 0,25*0,2*0,5*20*0,000153).

Unterstellt, C gehöre der jüngeren Generation an (20-30 Jahre), erhöht sich sein allgemeines tägliches Sterberisiko pauschal von 0,000137% auf knapp 0,0078%. Das ist nun schon eine signifikante Steigerung, eine fast 60-fach erhöhte Sterbewahrscheinlichkeit! Allerdings: Hier bleibt unberücksichtigt, dass Jüngere ein deutlich reduziertes Risiko für einen schweren COVID-19-Krankheitsverlauf mit stationärer Behandlung und Todesfolge haben. Stellt man dies mit einer Hospitalität von 10% statt 20% und einem Sterberisiko bei stationärer Behandlung von 5% (entsprechend einer Letalität von 0,5%) statt 25% in Rechnung, so kommt man beim individuellen täglichen Corona-Sterberisiko für C auf 1:130000 (= 0,00077% = 0,05*0,1*0,5*20*0,000153). Das ist derselbe Wert, wie bei Person B.

Resümee

Natürlich muss jeder für sich selbst bewerten, inwiefern die hier exemplarisch bestimmten Corona-Risiken individuell als bedrohlich oder als eher niedrig angesehen werden. Nach meiner persönlichen Einschätzung sind die Risiken für Gesunde in der Gesamtschau und verglichen mit anderen Lebensrisiken nicht ungewöhnlich hoch. Anders mag es aussehen für Menschen mit Vorerkrankungen und insbesondere für Ältere mit Vorerkrankungen. Diese Gruppe hat grundsätzlich ein höheres Sterberisiko, das nun durch Corona noch weiter erhöht wird.

Gewiss ist das Verbot von Massenveranstaltungen nach wie vor sinnvoll. Wahllose und fahrlässig enge Kontakte mit Fremden sollte man fraglos vermeiden. Umgekehrt muss man gefährdete Personen aktiv schützen, dabei ist auch das Tragen einer Maske in Situationen mit einem unvermeidlichen engeren Kontakt grundsätzlich sinnvoll. Ansonsten darf man die Kirche im Dorf lassen und zu einer vernünftigen Normalität zurückkehren.

Quellen:

[1] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) – 17.08.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. Robert-Koch-Institut

[2] Altersspezifische Sterbewahrscheinlichkeiten der Männer in Deutschland. Bundesinstitut für Bevölkerungsforschung (BIB)

[3] Sterblichkeitsrate nach Risikogruppen – Für wen ist das Coronavirus besonders gefährlich? RTL.de, 08. Juni 2020

[4] Altersabhängigkeit der Todesraten im Zusammenhang mit COVID-19 in Deutschland. Dtsch Arztebl Int 2020; 117: 432-3; DOI: 10.3238/arztebl.2020.0432

Nach der Ausnahme kommt die Normalität

Ausgangsbeschränkungen können wirken

Die getroffenen Maßnahmen zur Eindämmung der weiteren schnellen Ausbreitung des Coronavirus sind grundsätzlich sinnvoll. Entscheidend ist: Zunächst müssen wir die verfügten Verhaltensregeln konsequent einhalten und die Einschränkungen geduldig hinnehmen. Nur so kann eine Wirkung erzielt werden (s. a. Coronavirus – Schluss mit lustig). Offenbar sieht das die Mehrzahl der Menschen gleichfalls so. Noch ist das so richtig, muss man einschränken, doch darf der Übergang in die Normalität nicht beliebig in die Zukunft verschoben werden (s. a. Sehnsucht nach Normalität).

Nur um die Zahlen in die richtige Relation zu bringen: Derzeit sind in Deutschland ca. 0,1% der Bevölkerung mit dem Coronavirus infiziert. Von der Dunkelziffer wissen wir natürlich nichts genaues. Dennoch gibt es (noch) keinen Grund zur Panik! Das befürchtete schnelle exponentielle Wachstum der Infektionszahlen kann durch die verfügten Ausgangsbeschränkungen wirksam bekämpft werden (s. Coronavirus – Schluss mit lustig). Im besten Falle gelingt es so, die Zahl der Neuinfektionen in einem unkritischen Bereich zu halten (s. Das Coronavirus – So schnell breitet es sich aus).

Auswirkungen auf die Wirtschaft

Allerdings haben die Ausgangsbeschränkungen auch eine Kehrseite. Das öffentliche Leben kommt zum Stillstand. Die Wirtschaft leidet schon jetzt erheblich. Bei einer längeren Dauer würde sie schwer in Mitleidenschaft gezogen. Der Schaden wäre immens. Es geht dabei nicht nur um schnöden Mammon, etwa die ausbleibenden Gewinne von Konzernen. Weit gefehlt, es ist viel dramatischer. Die nackte Existenz von kleinen und größeren Unternehmen, Gewerbetreibenden und Selbständigen steht auf dem Spiel. Und schon bald wären die Beschäftigten mit ihren Familien unmittelbar davon betroffen, mit allen Konsequenzen für ihre Lebensgestaltung. Bereits binnen weniger Monate wäre der Niedergang für Hunderttausende, wenn nicht Millionen mit schwerwiegenden Einbußen bis hin zu Existenzverlusten verbunden.

Der Stillstand darf nur von kurzer Dauer sein

Die aus den jetzigen Maßnahmen resultierenden unmittelbaren Folgenwirkungen sind daher nur für eine eng begrenzte Zeitspanne von vielleicht maximal 4 – 6 Wochen akzeptabel. Spätestens ab Mai muss man zu einer gewissen Normalität mit verkraftbaren Einschränkungen zurückkehren und (je nach Stand der Dinge) andere Maßnahmen ergreifen, sonst ist der Schaden größer als der Nutzen und es droht langfristig die Erkenntnis: „Operation Gesundheitswesen gelungen, Patient Wirtschaft tot“. Oder so:

Leben temporär gerettet, Existenzen dauerhaft vernichtet.

Mit anderen Worten: Ausnahmen sind nur ausnahmsweise akzeptabel. Freies und selbstbstimmtes Leben und Wirtschaften ist nur in der Normalität möglich.

Es geht ums Ganze, nicht nur um das Gesundheitswesen

Die Aufrechterhaltung der Funktionsfähigkeit des Gesundheitssystems ist ein wichtiges Ziel. Es darf aber nicht getrennt von den gravierenden Nebenwirkungen verfolgt werden. Trotz der Gefährlichkeit des Coronavirus ist die Bekämpfung der Pandemie letztlich keine wissenschaftliche Frage, die Virologen beantworten können. Es ist vielmehr eine Herausforderung an die politische Bewertung. Wissenschaftler, auch Virologen, haben hierbei eine Stimme, mehr aber auch nicht. Letzten Endes müssen die verantwortlichen Politiker entscheiden und dabei alle relevanten Aspekte ins Auge fassen.

Auch im Hinblick auf die ethischen Fragen ist eine differenziertere Betrachtung vonnöten, als dies im ersten Impuls naheliegend erschien. Ist es wirklich human, jetzt Alte und Todgeweihte im Altersheim oder auf der Intensivstation zu isolieren? Bei Abwägung aller Bedenken könnte es am Ende menschlicher sein, von seinen engsten Angehörigen Abschied nehmen zu dürfen, als einige Wochen später vereinsamt dahinzuscheiden.

Die Freiheitsrechte sind ein sehr hohes Gut

Unabhängig davon sind auch die Eingriffe in die Grundrechte der Menschen nicht für einen längeren Zeitraum hinnehmbar. Die Hürden dafür müssen hoch, sehr hoch gelegt werden. In einer freiheitlichen Demokratie darf sich der Staat nicht dauerhaft derart tief in die Lebensgestaltung der Menschen einmischen.

Das Wesen der Freiheit liegt in der Selbstbestimmung des Individuums.

Es ist nicht Aufgabe des Staates, den mündigen Bürger durch Zwangsmaßnahmen vor sich selbst zu schützen. Genauso wenig darf er Ältere von der Teilhabe am öffentlichen Leben ausschließen, nur weil sie – rein statistisch gesehen – tendenziell stärker vom Coronavirus bedroht sind.

Der Weg in die fürsorgliche Diktatur ist kürzer, als man denkt

Was der Staat tun kann und tun muss ist, die Allgemeinheit vor dem Einzelnen zu schützen, sofern eine Gefahr von ihm ausgeht. Letzten Endes bleibt es aber eine schwierige Grenzziehung.

Dabei droht das Abgleiten in einen wohlmeinenden Totalitarismus, der sanfte Weg in die Diktatur. Indes, auch eine fürsorgliche Diktatur bleibt eine Diktatur. Totalitäre Staaten sind ja nicht per se böse. Auch sie wollen das Gute, aber eben mit den Zielen und auf die Weise, die die jeweils Herrschenden für richtig halten. Es ist die Normalität von Diktaturen, in das Leben der Bürger einzugreifen. Die Freiheit und Selbstbestimmung des Individuums bleiben dabei regelmäßig auf der Strecke. Das kann nicht unser Weg sein.

Nur in extremen Ausnahmesituationen und zeitlich streng limitiert, darf sich der Staat anmaßen, das Aufenthaltsbestimmungsrecht seiner Bürger einzuschränken.

Coronavirus – Schluss mit lustig!

Nach den neuesten Zahlen gibt es mittlerweile in Deutschland schon weit mehr als 10.000 Corona-Fälle. Im Artikel „Das Coronavirus – So schnell breitet es sich aus. Aber wir können etwas tun! (>LinkedIn 2020-03-18)“ wird ein Modell für die Ausbreitung des Coronavirus entwickelt und dargelegt, wie schnell die Anzahl der Infizierten schon in wenigen Wochen ansteigen wird, wenn wir nicht SOFORT wirksame Gegenmaßnahmen ergreifen.

Rigide Maßnahmen sind unabwendbar

Die gegenwärtig in allen Bundesländern verfügten Maßnahmen sind hilfreich. Es ist aber zu befürchten, dass sie nicht ausreichend sind, die Ausbreitung des Virus effektiv zu bekämpfen. Zudem ist es fraglich, ob der ausschließliche Fokus der Politik auf die Funktionsfähigkeit des Gesundheitssystems nicht zu eng gesetzt ist.

Wenn wir jetzt zu zögerlich sind, werden wir nur den Anstieg der Neuinfektionen weiter nach hinten verschieben und etwas flacher gestalten. Momentan scheint genau dies noch das – etwas fatalistisch anmutende – Ziel der verantwortlichen Politiker zu sein (s. z.B. https://www.welt.de/politik/deutschland/article206578991/Coronavirus-Spahn-Das-wird-eher-viele-Monate-so-gehen-als-viele-Wochen.html). Das reicht aber nicht! Es reicht vielleicht zum Überleben, es reicht aber nicht dafür, die Krise in all ihren Aspekten tatsächlich und nachhaltig wirksam zu überwinden.

Was bringen halbherzige Maßnahmen?

Mit einer moderaten Eindämmung der Anzahl der Neuinfektionen im Sinne einer Kurvenverflachung und Verschiebung des Peaks der Virusinfektionen in die weitere Zukunft wird es uns gelingen, die Funktionsfähigkeit des Gesundheitssystems aufrechtzuerhalten. Wir können so sicherstellen, dass die Anzahl der Corona-spezifischen Todesfälle niedrig bleibt. Das ist ein großartiges Ziel. Es ist aber nicht das Einzige, worum es geht und worum es gehen muss. Im oben zitierten Artikel „Das Coronavirus – So schnell breitet es sich aus. Aber wir können etwas tun! (>sumymus blog 2020-03-20)“ wird gezeigt, dass es bei Zweitinfektionsraten von maximal 1,2 bis 1,3 (d.h., 10 Erkrankte infizieren 12 bis 13 Gesunde) voraussichtlich viele Monate dauern wird (wahrscheinlich mehr als 12), den Peak bei der Anzahl der Neuinfektionen auf ein vom Gesundheitssystem beherrschbares Niveau abzusenken.

Es geht nicht nur um das Gesundheitssystem

Der Schaden eines solch langen Stillstands wäre immens. Die Wirtschaft würde dadurch schwer in Mitleidenschaft gezogen. Für alle wäre der Niedergang schon in wenigen Monaten spürbar. Und viele Existenzen wären ernstlich bedroht. So kann nur verfahren, wer sehenden Auges “Das Kinde mit dem Bade ausschütten“ will. Langfristig wäre das ein viel, viel größeres Unglück, als jetzt für einige Wochen auf billigen Spaß und Zerstreuung verzichten zu müssen. Ein bisschen Gegensteuern kann also nicht die Lösung sein.

Mit den gegenwärtig verfügten moderaten Maßnahmen sind vermutlich keine kleineren Zweitinfektionsraten als die genannten erreichbar. Das bedeutet: ein halbes, vielleicht ein ganzes Jahr mit merklichen und von vielen bereits als schmerzhaft empfundene Beeinträchtigungen des öffentlichen Lebens. Für nicht wenige existenzbedrohend. Und was erreicht man damit? – Die Aufrechterhaltung der Funktionsfähigkeit des Gesundheitssystems. Das kostet einen hohen Preis und greift dennoch zu kurz.

Klare Entscheidungen, vernünftiges und konsequentes Handeln

Die Politik muss jetzt wirklich drastische Maßnahmen ergreifen bis hin zu Ausgangssperren. Das gilt zumindest für die großen Städte. Wer immer noch nicht verstanden hat, dass die Lage ernst ist, der muss erforderlichenfalls mit Zwangsmaßnahmen zu einem sozialverträglichen Verhalten genötigt werden. Es sollte jedermann klar sein: Die Freiheit des einzelnen endet da, wo die Unversehrtheit und Freiheit aller ernsthaft gefährdet ist. Deshalb gilt: Vernünftige Menschen bleiben zuhause und reduzieren ihre sozialen Kontakte auf das absolut notwendige Mindestmaß. Wem diese Einsicht fehlt, dem muss man klare Anweisungen erteilen.

Das Ziel muss es sein, der Ausbreitung des Virus die Basis zu entziehen. Das geht nur durch entschlossenes und schnelles Handeln.

Mit halbherzigen Maßnahmen droht eine Hängepartie, ein viele Monate andauernder Stillstand in Wirtschaft und Gesellschaft mit unabsehbaren Konsequenzen.

Was wäre die Alternative?

Für den Fall, dass wir jetzt nicht wirksam handeln und es nicht gelingt, die Anzahl der Neuinfektionen dramatisch zu reduzieren, droht am Ende die Erkenntnis:

Operation Gesundheitswesen gelungen,
Patient Wirtschaft tot.

Das kann nicht das Ziel sein! Das darf nicht das Ziel sein! Es ist keine Option, die Krise auf viele Monate hinzuziehen. Deswegen müssen wir jetzt den beschwerlichen Weg einschlagen und kurzfristig schmerzhafte Beeinträchtigungen für jeden einzelnen hinnehmen. Die Alternative wäre ein wirtschaftlicher Zusammenbruch, wie man ihn nur aus Kriegszeiten kennt.

Lieber ein Ende mit Schrecken, als ein Schrecken ohne Ende

Nochmal: Vernünftige Menschen haben in den nächsten Wochen keine vermeidbaren (d.h., nicht lebensnotwendigen) persönlichen Kontakte außerhalb ihrer vier Wände. Alle anderen müssen bei Strafandrohung zuhause bleiben. So jedenfalls sollte die klare Ansage der verantwortlichen Politiker lauten.

Zusammenfassung

Wir haben drei Alternativen:

  1. Alles laufen lassen, wie gehabt.
    Haltung: Wird schon nicht so schlimm kommen.
    Gesundheitssystem: Die Anzahl der Infizierten steigt bereits jetzt rasant und wird an noch Geschwindigkeit zulegen. Der Peak der Infektionszahlen wird schon in einigen Wochen erreicht. Millionen werden davon betroffen sein. Viele Infizierte haben nur mäßige Symptome, wie das auch bei den jährlichen Grippewellen der Fall ist. Personen mit Vorerkrankungen sind besonders von ernsten Verläufen betroffen. Schon in wenigen Wochen, spätestens 2 – 3 Monaten ist das Gesundheitssystem völlig überlastet, es gibt viele Tote.
    Wirtschaft und Gesellschaft: Die Wirtschaft floriert zunächst munter weiter. Aber das dicke Ende kommt mit Sicherheit. Wahrscheinlich steuern wir auf eine massive Rezession zu. Dazu ernten wir eine gesellschaftliche und eine politische Krise.

  2. Moderate Maßnahmen ergreifen (so wie wir das aktuell sehen).
    Ziel: das Gesundheitssystem am Laufen halten.
    Gesundheitssystem: Die Anzahl der Infizierten steigt zunächst noch ungebremst exponentiell. Nach wenigen Wochen wird sich der Anstieg etwas verlangsamen. Der Peak der Infektionszahlen wird erst nach vielen Monaten erreicht. Aufgrund der geringeren Neuinfektionszahlen pro Zeiteinheit im Vergleich zur Alternative 1 bleibt das Gesundheitssystem funktionsfähig. Es gibt nur wenige Tote.
    Wirtschaft und Gesellschaft: Die Maßnahmen ziehen sich lange hin. Gesellschaft und Wirtschaft werden über viele Monate hinweg stark beeinträchtigt. Die Wirtschaft stagniert und bricht dann wahrscheinlich dramatisch ein. Es gibt viele Insolvenzen. Alle werden darunter leiden, am Ende sogar der Staat.

  3. Drastische Maßnahmen ergreifen (inkl. Ausgangssperren).
    Mehrere Ziele: das Gesundheitssystem am Laufen halten, der Ausbreitung des Virus den Boden entziehen. Wirtschaft und Gesellschaft so schnell wie möglich wieder in einen Normalmodus bringen.
    Gesundheitssystem: Die Anzahl der Infizierten steigt jetzt noch schnell, wird aber nach Inkrafttreten der scharfen Maßnahmen bald an Dynamik verlieren. Der Peak der Neuinfektionen wird schon in wenigen Wochen erreicht. Wir reden dann wahrscheinlich von „nur“ einigen zehntausend Menschen. Insgesamt wird eine höchstens 6-stellige Anzahl von Personen betroffen sein. Das Gesundheitssystem bleibt funktionsfähig. Es gibt nur wenige Tote. Infizierte werden konsequent in Quarantäne genommen. Die Ausbreitung des Virus ist eingedämmt.
    Gesellschaft und Wirtschaft kommen jetzt sofort zum fast vollständigen Stillstand. Aber: Schon in wenigen Wochen kann man schrittweise wieder in einen normal zu nennenden Modus mit nur leichten Einschränkungen zurückkehren. Die Wirtschaft erholt sich sehr schnell. Es gibt Beeinträchtigungen, sie sind aber zu verkraften. Der Kollaps wird abgewendet.

Etwas anderes als Alternative 3, kann doch wohl niemand ernsthaft in Erwägung ziehen.

Das Coronavirus – So schnell breitet es sich aus.

Aber wir können etwas dagegen tun!

Zusammenfassung

Es wird ein Modell für die Ausbreitung des Coronavirus entwickelt. Darauf fußend werden die resultierenden Zahlen der Infektionsverläufe prognostiziert (Diagramme) und die Sinnhaftigkeit der Maßnahmen abgeleitet.

Sofern wir die jetzt verfügten Maßnahmen umsetzen und uns alle daran halten, ist mit hoher Wahrscheinlichkeit sichergestellt, dass es nicht wieder zu einem exponentiellen Anstieg der Infektionszahlen und damit zu neuen Ausbreitungswellen kommt. In einer etwas moderateren Form ist das erforderlich bis zur Zulassung und allgemeinen Verfügbarkeit eines Impfstoffs. Erst danach können wir wieder in „alte Verhaltensmuster“ zurückfallen.

Entscheidend ist: Zunächst müssen wir die akut anstehenden drastischen Verhaltensregeln konsequent einhalten und die Einschränkungen geduldig hinnehmen. Dabei wird die Wirtschaft kurzfristig leiden, aber schon nach Überwindung des jetzt noch vor uns liegenden hohen Anstiegs an Neuinfektionen wird in 4 bis 6 Wochen ein durchaus normales Wirtschaftsleben mit einigen kleineren Einschränkungen wieder möglich sein. Die Alternative einer halbherzigen Umsetzung wäre ein dauerhaftes Stagnieren der Wirtschaft, weil immer wieder neue Ansteckungswellen drohen.

Hinweis für den eiligen Leser: Die Abschnitte „ABER: Wirtschaft und Gesellschaft ebenfalls im Auge behalten„, „Validierung der Lösungsstrategie“ und „Schluss und Ausblick“ weiter unten enthalten alles Wesentliche für die erfolgreiche Bewältigung im Hinblick auf die weitere Ausbreitung des Virus.

Einleitung

Am Corona-Virus kommt man in diesen Tagen nicht vorbei. Nahezu alle öffentlichen Veranstaltungen sind abgesagt. Sportstätten, Theater, Museen sind dicht, Fußballspiele finden nicht mehr statt. Clubs geschlossen, Kneipen und Restaurants im reduzierten Abstandsbetrieb. Konferenzen und Messen abgesagt. Mittlerweile sind auch die Grenzen geschlossen. Können wir so die weiter Ausbreitung der Epidemie stoppen oder zumindest den Verlauf und Anstieg der Neuinfektionen verlangsamen? Zumindest kann man diesen Maßnahmen, auch ohne Experte  zu sein, die Vernünftigkeit nicht absprechen. Die Idee dahinter: Wenn die Menschen weniger in Kontakt zueinander treten, dann sollte doch zumindest das Ansteckungsrisiko für die Nichtinfizierten sinken. Das ist einleuchten!

Im Folgenden soll zunächst ein einfaches Modell für die Verbreitung des Virus entwickelt werden. Auf Basis des Modells können wir dann abschätzen, wie die Zahl der Infizierten weiter wachsen wird. Ferner können wir durch Variation der Modellparameter unterschiedliche Szenarien durchspielen und so die Verhaltensmaßregeln der Mediziner (Hygiene, soziale Kontakte, …) im Modell spiegeln. Wir gewinnen so Erkenntnisse über die mutmaßliche Wirksamkeit der Maßnahmen im Hinblick auf die Ausbreitungsgeschwindigkeit der Corona-Epidemie und können auf dieser Basis unser eigenes Verhalten daraufhin abstimmen.

Ausgangsbasis für die Modellbildung

Die Inkubationszeit des „COVID-19“ genannten Virus beträgt zwischen 2 und 14 Tagen. Meist werden 7 – 14 Tage angegeben. Das Virus wird vornehmlich durch Tröpfcheninfektion übertragen. Diese kann von direkt von Mensch zu Mensch erfolgen, wenn Virus-haltige Tröpfchen an die Schleimhäute der Atemwege gelangen. Auch eine Übertragung durch Schmierinfektion über die Hände, die mit der Mund- oder Nasenschleimhaut sowie mit der Augenbindehaut in Kontakt gebracht werden, ist prinzipiell nicht ausgeschlossen, spielt aber vermutlich nur eine untergeordnete Rolle. Das Virus ist hoch ansteckend und kann schon innerhalb der Inkubationszeit auf andere übertragen werden. Oft ist es sogar so, dass ein Infizierter noch gar keine Beschwerden verspürt) (s. https://www.infektionsschutz.de/coronavirus-sars-cov-2.html).

Das Robert-Koch-Institut gibt für die  Dauer der Infektiosität einen Zeitraum von bis zu 8 Tagen an. (https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Steckbrief.html#doc13776792bodyText5). Das ist die Zeitspanne, innerhalb derer Patienten, die mit COVID-19 infiziert sind und Symptome aufweisen, das Virus an andere übertragen können. Diese Zahl ist indes unsicher, sie beruht tatsächlich nur auf einer kleinen Studie mit 9 Patienten. Ebenfalls bekannt ist, dass auch Patienten ohne Symptome andere infizieren können, offenbar auch schon innerhalb der Inkubationszeit. Für die Modellbildung entscheidend ist weniger die genaue Größe der Infektiosität, als vielmehr die definitive zeitliche Begrenztheit. Wenn jeder Infizierte dauerhaft Überträger des Virus sein würde, wäre es unausweichlich, dass über kurz oder lang alle Menschen erkrankten. Völlig gleich, welche (realistischen) Schutzmaßnahmen man auch immer ergreifen würde.

Mathematisches Modell für die Beschreibung der Ausbreitung

Sei  \(N\) die Größe der Population. Der Wert \(q\) steht für die Wahrscheinlichkeit, dass beim Kontakt mit einem Virusträger eine Übertragung stattfindet (was nach den obigen Ausführungen nur innerhalb der begrenzten Infektionszeit möglich ist). Ferner sei \(k\) die durchschnittliche Anzahl der Kontaktpersonen und \(k_{n}\) die durchschnittliche Anzahl der nicht infizierten Kontaktpersonen eines Erkrankten. Die Anzahl der Neuinfizierten im Intervall  bezeichnen wir mit \(a_{n}\). Die Gesamtanzahl aller bis zum Intervall \(n\) bereits Erkrankten in der Population nennen wir \(s_{n} \). Offensichtlich gilt \(s_{n} = \sum_{i=0}^{n} a_{i} \).

Für die Anzahl der Neuinfizierten im Intervall \(n+1\)  erhalten wir nun:

\begin{equation} a_{n+1} = q \cdot k_{n} \cdot a_{n} \end{equation}

Wie kommen wir hierin zum Wert von \(k_{n}\)? Ganz einfach: Die Wahrscheinlich dafür, dass eine zufällig aus der Gesamtpopulation gewählte Kontaktperson noch nicht infiziert ist, können wir leicht bestimmen. Es ist der Quotient \(\frac{N-s_{n}}{N} \). Demnach gilt

\begin{equation} k_{n} = \frac{N-s_{n}}{N} \cdot k \end{equation}

Zusammengefasst erhalten wir also

\begin{equation} a_{n+1} = q \cdot k \cdot \left (1 – \frac{s_{n}}{N} \right ) \cdot a_{n} \end{equation}

Oder ausgeschrieben

\begin{equation} a_{n+1} = q \cdot k \cdot \left (1 – \frac{1}{N} \sum_{i=0}^{n} a_{i} \right ) \cdot a_{n} \end{equation}

Damit sind wir mit der Modellformulierung bereits fertig.

Hinweis: Das Produkt aus Kontaktanzahl und Infektionswahrscheinlichkeit wird oft auch als Reproduktionsfaktor oder R-Wert bezeichnet.

Exemplarische Modellbetrachtung

Was ist ein vernünftiges Intervall in der Modellbeschreibung? Nach dem eingangs zur Inkubationszeit und zur Zeitdauer der Infektiosität Gesagten, erscheint es sinnvoll, als Intervall einen Zeitraum von etwa 7 Tagen zu wählen. Der Index \(n\) steht daher für die fortlaufende Nummer einer Woche. Wir fragen also nach der Anzahl der Neuinfektionen in der \(n\)-ten Woche des Betrachtungszeitraums.

Das RKI (Robert-Koch Institut) gibt an, dass derzeit ein Erkrankter im Mittel 2,4 bis 3,3 weitere Personen infiziert. Im Modell können wir das folgendermaßen abbilden: Wir nehmen z.B. an, die durchschnittliche Anzahl  \(k\) der Kontaktpersonen eines Infizierten liege bei etwa 24 – 33 (pro Woche); gleichzeitig unterstellen wir ein Ansteckungsrisiko von  \(q\) pro Kontaktperson. Im Hinblick auf die Ausbreitung des Virus liefe es im Mittel auf dasselbe hinaus, wenn wir stattdessen von 2,4 bis 3,3 Kontaktpersonen bei einem Ansteckungsrisiko von 100% ausgehen würden oder 48 bis 66 Kontaktpersonen bei einem Ansteckungsrisiko von 5%. Entscheidend ist lediglich das Produkt aus beiden Modellparametern.

Dadurch wird das effektiv von einem Erkrankten ausgehende Risiko bei Einhaltung der Verhaltensregeln (Hygienemaßnahmen, möglichst weitgehende Kontaktreduzierung) beschrieben. Solange noch kein Impfstoff zur Verfügung steht, ist dies die einzige Stellgröße zur Verlangsamung des Anstiegs der Infektionszahlen. In Abb. 1 und 2 sind die gerechneten Verläufe der Neuinfektionen und der Gesamtfallzahlen für Zweitinfektionsraten von 3,3 bzw. 2,4 dargestellt.

Anwendung auf den Status quo

Nachfolgend sind zwei Diagramme dargestellt, die zeigen, wie sich die Infektionszahlen wahrscheinlich entwickeln, wenn man nichts tut.

Abb. 1: Verlauf der Infektionen bei \(q = 10\%\), \(k = 33\) (entsprechend 3,3 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 16. Woche mit ca. 37 Mio. ihr Maximum. Dann sind schon 60 Mio. Einwohner infiziert. Bereits nach 17 Wochen sind nahezu alle 83 Mio. Einwohner erkrankt.

Abb. 2: Verlauf der Infektionen bei \(q = 10\%\), \(k = 24\) entsprechend 2,4 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 22. Woche ihr Maximum mit ca. 23,5 Mio. Bis dahin sind bereits über 50 Mio. Einwohner infiziert. Die Gesamtanzahl der Infizierten bleibt nach der 24. Woche mit knapp 80 Mio. konstant. Am Ende werden nur etwa 3 Mio. verschont.

Die aus den aktuell vorherrschenden Zweitinfektionen (2,4 – 3,3) resultierenden Verläufe sind gewiss nicht beherrschbar. Bei 3,3 (s. Abb. 1) erhalten wir 37 Mio. Neuinfektionen bereits in der 16. Ausbreitungswoche. Sogar bei 2,4 (s. Abb. 2) sind es im Maximum immer noch fast 24 Mio. Neuinfektionen, wenn auch erst in der 22. Woche.

Einfache Modellanalyse

Mittels des Modells kann man leicht bestimmen, welche Bedingung erfüllt sein muss, damit die Anzahl der Neuinfektionen ab einem bestimmten Zeitintervall nicht weiter wächst. Dies ist doch offensichtlich dann der Fall, wenn \(\frac {a_{n+1}}{a_{n}}  \le 1\) ist, wenn also gilt, \( q k \left (1 – \frac{s_{n}}{N} \right ) \le 1\). Demnach lautet die Bedingung

\begin{equation} \frac{s_{n}} {N} \ge 1 – \frac{1}{q k} \end{equation}

Erst dann also, wenn der relative Anteil der Infizierten an der Gesamtpopulation erstmals den Wert \(1 – \frac{1}{q k}\) übersteigt, gehen die Neuinfektionen zurück. Diesen Zusammenhang kann man umgekehrt zur Bestimmung der Gesamtanzahl der Erkrankten bei diesem Wendepunkt nutzen. Im Falle der obigen Werte des RKI (2,4 bis 3,3) liegen die entsprechenden kumulierten Infektionszahlen im Wendepunkt bei \(\frac{s_{N}}{N} = 58\%\) (das sind etwa 48 Mio. Menschen in Woche \(n = 16\)) bzw. \( \frac{s_{N}}{N} = 70\% \) (das sind etwa 58 Mio. Menschen in Woche \(n = 22\)).Variation der Modellparameter

Im Folgenden betrachten wir den Verlauf der Neuinfektionen bei Variation der Zweitinfektionsrate pro Erkranktem von 3 bis hinunter auf 1,1 (s. Abb. 3).

Abb. 3: Verlauf der Neuinfektionen bei Variation der Zweitinfektionsrate pro Erkranktem von 3 bis hinunter auf 1,1 (entsprechend \(q = 10\%\), \(k = 30, 25, 20,\cdots11\) oder jeder anderen Kombination von Ansteckungsrate \(q\) und Anzahl der Kontaktpersonen \(k\) mit dem gleichen Produkt \(q \cdot k\)). Die nicht dargestellten Maxima bei den Kurven für 3, 2,5, 2 und 1,9 Zweitinfektionen liegen bei 37 Mio., 24,5 Mio., 15,5 Mio. und 14 Mio. Neuinfektionen pro Intervall (Woche). Der Höchststand für 1,1 Zweitinfektionen (dunkelgrüne Kurve ganz rechts) liegt weit außerhalb des Betrachtungszeitraums etwa in der 149. Woche mit nur noch 365.000 Neuinfektionen und ist gleichfalls nicht dargestellt.

Wie man der Grafik (s. Abb. 3) entnimmt, verschiebt sich das Maximum der Anzahl der Neuinfektionen bei einer geringeren Anzahl von Zweitinfektionen schnell nach rechts. Man gewinnt durch die Reduktion der Zweitinfektionsrate also auf jeden Fall Zeit, die Leben retten kann. Diese Zeit kann man nutzen, um z.B. einen Impfstoff zu finden und einsatzreif zu machen. Fast noch wichtiger in diesem Zusammenhang: Die Überlastung des Gesundheitssystems wird vermieden, wenn bestimmte Grenzen von Neuinfektionen pro Woche unterschritten werden.

Im Gesundheitssystem handlungsfähig bleiben

In Deutschland verfügen wir über ca. 20.000 Intensivstationen. Wenn wir annehmen, dass die schweren Krankheitsverläufe in etwa 1% der Fälle vorkommen, wären wir folglich in der Lage, im Extremfall bis zu 2 Mio. (= 20.000/0,01) Neuinfektionen pro Woche zu beherrschen. Das entspricht einer Zweitinfektionsrate von 1,2 – 1,3 (s. die beiden entsprechend betitelten grünen Kurven in Abb. 3). Noch besser wäre es freilich indessen, die Anzahl der Zweitinfektionen auf 1,1 zu bringen (dunkelgrüne Kurve ganz rechts in Abb. 3; ihr Maximum ist nicht mehr dargestellt und liegt etwa in der 149. Woche mit nur noch 365.000 Neuinfektionen; s. a. Abb. 10 im Anhang).

Ohne Impfstoff müssen wir die Zweitinfektionen unterhalb von 1,3 halten, andernfalls lässt sich die Überlastung des Gesundheitssystems mit der Konsequenz vieler Todesfälle kaum vermeiden. Wenn das nicht gelingt, werden wir schon bei noch moderaten 1,5 bzw. 1,4 Zweitinfektionen im Maximum 6 Mio. bzw. 4,2 Mio. Neuinfektionen pro Woche sehen. Dies wird dann allerdings erst in der 43. bzw. der 50. Woche auftreten, so dass man immerhin hoffen kann, dass bis dahin ein Impfstoff verfügbar sein wird (s. a. Abb. 8). Mit 1,2 Zweitinfektionen würden wir die Neuinfektionen pro Woche unter dem Maximalwert von 1,3 Mio. halten können, wobei dieser Höchstwert sogar erst in 84. Woche auftreten würde.

ABER: Wirtschaft und Gesellschaft ebenfalls im Auge behalten

Ist das also die Lösung? Wohl kaum! Richtig ist: Aufgrund der Kurvenverflachung wäre die Corona-Krise für Zweitinfektionsraten von maximal 1,2 bis 1,3 am Ende vom Gesundheitssystem zu bewältigen. Das hieße aber auch, die Wirtschaft über 9 bis 12 Monate oder vielleicht sogar noch weit darüber hinaus auf Sparflamme zu fahren. Wir würden zwar überleben, aber zu welchem Preis? Letztlich ist es also keine sinnvolle Lösung, den Peak der Neuinfektionen einfach nur in die Zukunft zu schieben, wie das in den Medien und Talkrunden gerne dargestellt wird. Endscheidend ist dies: Wir müssen es schaffen, die Zweitinfektionen auf einen Wert von 1 oder darunter zu bringen. Nur so können wir Neuinfektionen aus der Phase des exponentiellen Wachstums herausbringen und die Krise letztlich für das Gesundheitssystem, die Wirtschaft UND die Gesellschaft insgesamt konstruktiv gestalten.

Dafür ist es unbedingt erforderlich, jetzt sofort und mit aller Macht wirksame Maßnahmen zu ergreifen. Die Maßnahmen sind z. T. schon in Kraft gesetzt, sie müssen aber auch von allen konsequent eingehalten und nötigenfalls gar verschärft werden. Bei Erfolg werden wir schon binnen 4 bis 6 Wochen Licht am Ende des Tunnels sehen und können sukzessive zur Normalität zurückkehren.

Validierung der Lösungsstrategie

Mittels des Modells können wir diese Strategie leicht überprüfen. Derzeit befinden wir uns noch in der Phase exponentiellen Wachstums mit \(q \cdot k = 2.4 \cdots 3.3\) Zweitinfektionen und rechnen daher mit um die entsprechenden Faktoren 2,4x bis 3,3x vervielfachten Neuinfektionen von Woche zu Woche. Wir müssen dafür sorgen, dass das Produkt \(q \cdot k \) relativ schnell \(< 1\) wird.

Das erste Auftreten des Corona-Virus in Deutschalnd liegt etwa 8 Wochen zurück. Im bisherigen Verlauf hat sich das Virus mit etwa 3,3 Zweitinfektionen ausgebreitet (wir gehen in der Modellrechnung von diesem pessimistischen Wert aus). Nun unterstellen wir, dass es gelingt, mit den angekündigten und ggf. noch zu verschärfenden Maßnahmen diesen Wert nach Woche 10 auf 0,9 zu drücken (im Modell also \(q \cdot k = 0.9\)). Abb. 4 zeigt den resultierenden Verlauf der Neuinfektionen und der Gesamtanzahl der Infizierten über die Zeit.

Ziel 1: 0,9 Zweitinfektionen – nicht hinreichend

Abb. 4: Verlauf der Infektionen bei \(q =10\%\), \(k = 33\) bis Woche 10 und \(q = 10\%\), \(k =9\) ab Woche 11 (entsprechend 0,9 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Es dauert ein Jahr, bis die Krise komplett überstanden ist.

Der Verlauf nach Abb. 4 zeigt, wie es prinzipiell gehen kann. Die Anzahl der Neuinfektionen erreicht in der 10. Woche ihr Maximum mit ca. 46.000. Danach gibt es von Woche zu Woche etwa 10% weniger Neuinfektionen. Zum Zeitpunkt des Höchststands sind bereits knapp 70.000 Personen Einwohner infiziert. Die Gesamtanzahl der Infizierten bleibt nach der 52. Woche mit knapp 470.000 konstant. Die Dauer der Krise ist mit einem vollen Jahr aber dennoch entschieden zu lang.

Ziel 2: Dauerhaft 0,5 Zweitinfektionen – zu optimistisch

Betrachten wir ein zweites Beispiel. Wieder mit den pessimistischen 3,3 Zweitinfektionen im anfänglichen Verlauf bis zur 10. Woche. Ab Woche 10 gehen wir nun von nur noch 0,5 Zweitinfektionen aus (im Modell also \(q \cdot k = 0.5\)). Abb. 5 zeigt den resultierenden Verlauf.

Abb. 5: Verlauf der Infektionen bei \(q =10\%\), \(k = 33\) bis Woche 10 und \(q = 10\%\), \(k = 5\) ab Woche 11 (entsprechend 0,5 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Bereits 6 Wochen (ab Woche 16) nach Inkrafttreten der wirksamen Maßnahmen ist die Krise im Wesentlichen überstanden.

Wie im vorigen Fall erreicht auch hier die Anzahl der Neuinfektionen in der 10. Woche ihr Maximum mit ca. 46.000. Danach sinkt die Anzahl der Neuinfektionen rapide (von Woche zu Woche etwa 50% weniger Neuinfektionen). Zum Zeitpunkt des Höchststands sind wieder etwa 70.000 Personen erkrankt. Die Gesamtanzahl der Infizierten bleibt nun aber schon spätestens ab der 16. Woche nach Ausbruch der Krise und nur 6 Wochen nach Verfügen der wirksamen Maßnahmen konstant unter 120.000. Die Krise kann derart im Wesentlichen innerhalb eines Quartals entschärft werden: Für das Gesundheitssystem, die Wirtschaft UND die Gesellschaft.

Ziel 3: 0,5 Zweitinfektionen / 1 Zweitinfektion

Auch für den Fall, dass es nicht gelingt, die Zweitinfektionen dauerhaft auf 0,5 zu halten und der Wert nach Aufheben der rigiden Maßnahmen z.B. ab der 20 Woche wieder auf etwa 1 steigt, darf die Krise i. W. als überwunden gelten. Die Anzahl der Neuinfektionen pro Woche kann nach aller Voraussicht auch mit dem höheren Zweitinfektionswert noch unter 100 oder zumindest im niedrigen 3-stelligen Bereich gehalten werden. Das ist ohne weiteres beherrschbar. Die entsprechende Kurve ist in Abb. 6 dargestellt, unterscheidet sich insgesamt aber kaum von der Darstellung in Abb. 5.

Abb. 6: Verlauf der Infektionen mit \(q = 10\%\), \(k = 33\) bis Woche 10 und \(q =10\%\), \(k = 5\) ab Woche 11 (entsprechend 0,5 Zweitinfektionen pro Erkranktem) sowie \(q = 10\%\), \(k = 10\) ab Woche 20 (entsprechend 1 Zweitinfektion pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen halbiert sich nach Woche 10 im Wochenrhythmus bis zur 20. Woche. Danach bleibt die Rate in etwa konstant bei bis zu einigen 100 oder darunter. Der genaue Wert hängt davon ab, wie lange und konsequent die rigiden Maßnahmen beibehalten werden. Und auch davon, wie die Zweitinfektionen pro Erkranktem in der Phase danach tatsächlich liegen. Auf jeden Fall müssen sie \(\le 1\) bleiben. Der Gesamtverlauf ist im Wesentlichen derselbe wie im Falle von Abb. 5 (man beachte die unterschiedliche Skalierung der rechten Achse).

Schluss und Ausblick

Die unbedingte Voraussetzung für das Gelingen ist:

  • Die Zweitinfektionsrate (im Modell das Produkt \(q \cdot k\)) muss dauerhaft auf Werte \(\le 1\) gedrückt werden. Dazu müssen entweder die Kontaktzahlen auf niedrigerem Niveau als bisher allgemein üblich gehalten und/oder das individuelle Ansteckungsrisiko durch dauerhaft hohe Hygienestandards („sozialverträgliches“ Husten, häufiges Händewaschen, auf Händeschütteln verzichten etc.) deutlich reduziert werden.

Sofern wir das entsprechend umsetzen und uns alle daran halten, ist sichergestellt, dass es nicht wieder zu einem exponentiellen Anstieg der Infektionszahlen und damit zu neuen Ausbreitungswellen kommt. Das ist erforderlich bis zur Zulassung und allgemeinen Verfügbarkeit eines Impfstoffs. Erst danach können wir wieder in „alte Verhaltensmuster“ zurückfallen. Wobei die Einhaltung höherer Hygienestandards auch nach der Überwindung der Krise nicht von Nachteil sein wird.

Entscheidend ist: Zunächst müssen wir die akut anstehenden drastischen Verhaltensregeln konsequent einhalten und die Einschränkungen geduldig hinnehmen. Dabei wird die Wirtschaft kurzfristig leiden, aber schon nach Überwindung des jetzt noch vor uns liegenden hohen Anstiegs an Neuinfektionen wird in 4 bis 6 Wochen ein durchaus normales Wirtschaftsleben mit einigen kleineren Einschränkungen wieder möglich sein. Die Alternative einer halbherzigen Umsetzung wäre ein dauerhaftes Stagnieren der Wirtschaft, weil immer wieder neue Ansteckungswellen drohen.


Anhang

Im Folgenden sind die Verläufe der Neuinfektionen und der Gesamtanzahl der Infizierten bei Zweitinfektionsraten von 2, 1,5, 1,2, und 1,1 dargestellt. Solche Verläufe sind kritisch und weisen auch bei kleinen Zweitinfektionsraten \(> 1\) einen exponentiellen Anstieg der Infektionszahlen auf. Werte von 1,1 oder 1,2 können allenfalls dabei helfen, Zeit zu gewinnen bis zur Zulassung eines Impfstoffs. Richtig ist dabei: Der Peak der Neuinfektionen wird weit in die Zukunft hinausgeschoben und abgeflacht (1 – 3 Jahre). Das hilft indes nur dem Gesundheitssystem, würde aber trotzdem erhebliche wirtschaftliche und soziale Einschränkungen nach sich ziehen. Bei längerer Dauer von nur halbherzigen Maßnahmen ist zu befürchten, dass bis dahin die Wirtschaft einen totalen Zusammenbruch erleidet. Deswegen führt an den oben skizzierten drastischen Maßnahmen kein Weg vorbei. Alles andere wäre wirtschaftlicher Selbstmord.

2 Zweitinfektionen

Abb. 7: Verlauf der Infektionen bei \(q = 10\%\), \(k = 20\) (entsprechend 2 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 26. Woche ihr Maximum mit ca. 15,5 Mio. Zu diesem Zeitpunkt sind bereits 42 Mio. Einwohner infiziert. Die Gesamtanzahl der Infizierten bleibt nach der 32. Woche mit knapp 72 Mio. konstant. Am Ende bleiben nur 11 Mio. verschont.

1,5 Zweitinfektionen

Abb. 8: Verlauf der Infektionen bei \(q = 10\%\), \(k = 15\) (entsprechend 1,5 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 22. Woche ihren Höchststand mit ca. 6 Mio. Dann sind bereits 28 Mio. Einwohner infiziert. Die Gesamtanzahl der Infizierten bleibt nach der 52. Woche mit ca. 51 Mio. konstant (61,5% der Bevölkerung). Am Ende bleiben 32 Mio. Einwohner verschont.

1,2 Zweitinfektionen

Abb. 9: Verlauf der Infektionen bei \(q = 10\%\), \(k = 12\) (entsprechend 1,2 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 85. Woche ihr Maximum mit ca. 1,3 Mio. Bis dahin haben sich insgesamt ca. 14 Mio. Einwohner infiziert. Die Gesamtanzahl der Infizierten ändert sich nach zwei Jahren (ab der 104. Woche) kaum noch und verharrt bei ca. 27 Mio. (33% der Bevölkerung). Am Ende bleiben in diesem Fall 56 Mio. Einwohner verschont.

1,1 Zweitinfektionen

Abb. 10: Verlauf der Infektionen bei \(q = 10\%\), \(k = 11\) (entsprechend 1,1 Zweitinfektionen pro Erkranktem). Gesamtanzahl der Infizierten (blau) auf der linken Achse, Neuinfektionen (rot) auf der rechten Achse. Die Anzahl der Neuinfektionen erreicht in der 149. Woche ihren Höchststand mit ca. 365.000. Bis dahin haben sich insgesamt ca. 7,5 Mio. Einwohner infiziert. Die Gesamtanzahl der Infizierten ändert sich nach 4 Jahren (ab der 200. Woche) kaum noch und verharrt bei ca. 15 Mio. (18% der Bevölkerung). Am Ende bleiben in diesem Fall 68 Mio. Einwohner verschont.

Gutes Klima – Globale Erwärmung, CO2 und der ganze Rest (1)

Teil 1: Von der Eiszeit in die Heißzeit?

Was ist Klima? Gibt es die globale Erwärmung und den Klimawandel? Steuern wir auf die „Heißzeit“ zu? War es früher kalt und damit besser?

Zu den Inhalten der Teile 2 und 3 siehe Ende des Textes.

Klima und Wetter

Was ist Klima? Klima ist das über einen längeren Zeitraum von mindestens 30 Jahren statistisch gemittelte Wettergeschehen für einen Ort oder ein geographisch definiertes Gebiet. Bezüglich der beobachteten Phänomene sind dabei insbesondere die Mittelwerte aber auch die Schwankungsbreiten von vorrangigem Interesse. Unter anderem sind das z.B. die mittlere Temperatur sowie die typischen Maxima und Minima im jahreszeitlichen Temperaturverlauf. Aber natürlich auch andere Phänomene wie durchschnittliche Niederschlagsmenge, Sonneneinstrahlung und Wolkenbildung, Häufigkeit von Stürmen usw. (s. a. https://de.wikipedia.org/wiki/Klima).

Klima und Wetter sind zwei verschiedene Dinge. Im Grundsatz weiß das jeder. Nichtsdestotrotz wird es aber auch in der medialen Diskussion immer wieder durcheinandergebracht. Erleben wir einen heißen Sommer, so wird das als ein Effekt des Klimawandels gesehen und am Ende kurzerhand damit gleichgesetzt. In Wahrheit ist es aber Wettergeschehen, auch wenn es im Einzelfall perfekt in das Narrativ vom Klimawandel passt. Damit soll nicht gesagt werden, den Klimawandel gebe es nicht. Die Unterscheidung muss man aber dennoch treffen.

Der wichtigste Klimaindikator

In der öffentlichen Diskussion zum Klimawandel steht insbesondere die Durchschnittstemperatur eines Jahres im Fokus: in Deutschland, in Europa, in der Arktis oder gar global. Die globale Durchschnittstemperatur und deren Veränderung im Vergleich zur vorindustriellen Zeit gelten dabei als zentrale Indikatoren für den beobachteten Klimawandel. So wird z.B. im UN-Klimaabkommen von Paris ganz klar das Ziel benannt, die globale Erwärmung auf deutlich unter 2 Grad verglichen mit der vorindustriellen Zeit zu begrenzen. Oft wird das als „2 Grad Ziel“ oder schärfer auch als „1,5 Grad Ziel“ zitiert.

Klärung der Begriffe

Im Sinne einer Klärung der Begriffe sollte man sich dabei durchaus nochmal vor Augen führen, dass es „das Klima“ nicht gibt; auch nicht „den Klimawandel“. Die Begriffe beziehen sich ihrem Wesen nach immer auf ein geographisches Gebiet (oder einen Ort) mit einem im weitesten Sinne einheitlichen oder zumindest vergleichbaren mittleren Wettergeschehen. Es existiert kein globales Klima im strengen Sinne. Gleichwohl kann man die Gesamtheit der unterscheidbaren Klimate rund um den Globus in gewisser Weise als „das globale Klima“ auffassen, obwohl damit der meteorologische Klimabegriff arg strapaziert wird. Veränderungen dieses solchermaßen unscharf definierten „globalen Klimas“ darf man sodann als „globalen Klimawandel“ verstehen. Man sieht, dass man sich damit aufs Glatteis begibt, denn Veränderungen irgendwo auf der Welt gibt es immer.

Einfacher wird’s, wenn man einzelne Aspekte herausgreift, am besten solche, die man – vermeintlich –  relativ leicht messen kann, womit wir wieder bei der globalen Durchschnittstemperatur  gelandet sind. Es ist ein denkbar einfacher Begriff, den jedermann versteht und den man deswegen auch gut transportieren kann. Tatsächlich  ist es indes gar nicht so trivial, die globale Durchschnittstemperatur  verlässlich zu bestimmen.

Was ist relevant?

Im Hinblick auf die einleitenden Bemerkungen muss man sich dabei auch klarmachen, dass die globale Durchschnittstemperatur eines bestimmten Jahres zunächst nur ein Messwert in einer Datenreihe darstellt. Das ist keine unmittelbar klimarelevante Größe. Erst durch die Mittelwertbildung über eine Vielzahl von aufeinanderfolgenden Jahren entsteht ein Vergleichswert für die Beurteilung des Klimas. Deswegen ist eine Aussage wie „2019 war es im Mittel 0,9 Grad wärmer als 1850“ zwar interessant, sie sagt aber für sich genommen noch wenig über eine Klimaveränderung aus.

Wenn aber die Durchschnittstemperatur in größeren Zeiträumen (wie oben also etwa 30 Jahre) höher ist als in entsprechenden klimarelevanten Vergleichszeiträumen, dann müssen wir das ernsthaft als Indiz für eine Klimaveränderung registrieren. Das verlinkte Beispiel (s. Abb. 1, Statista Infografik: In Deutschland wird es immer heißer), gehört indessen eher zur oben genannten Kategorie: interessant, aber nicht relevant; allenfalls ein Indiz.

Abb. 1: Jahresmitteltemperaturen in Deutschland (1960 – 2019). ©Statista

In diesem Zusammenhang soll nun zunächst auf zwei wichtige Punkte eingegangen werden. 1. Gibt es so etwas wie eine globale Durchschnittstemperatur und wie misst man sie? 2. Welches ist der angemessene Vergleichszeitraum für die Bestimmung einer globalen Veränderung des Klimas, konkret also die mittlere globale Erwärmung.

Die globale Durchschnittstemperatur

Die Angabe einer globalen Durchschnittstemperatur wurde schon verschiedentlich kritisiert (populär z. B. vom Magazin Quarks). Es ist in der Tat schwierig, wenn nicht unmöglich, dafür einen seriösen Wert zu bestimmen. Eigentlich bräuchte man ein dichtes Netz von gleichmäßig verteilten Messstellen rund um den Globus. Das gibt es nicht. In den meist dicht besiedelten entwickelten Ländern haben wir sehr viele Wetterstationen. In vielen anderen Weltgegenden wird die jeweilige Temperatur aber nur von sporadisch verteilten Messstellen erfasst oder nur indirekt mittels Satellitenbeobachtung bestimmt (s. Abb. 2 [exemplarisch]). Dadurch entstehen Ungenauigkeiten, die geeignet sind, das Gesamtbild zu verzerren.

Abb. 2: Verteilung von Wetterstationen. Links: Europa, Grönland und Nordafrika. Rechts: Ostasien. Quelle: Wetterdienst.de.

Nun könnte man sagen, gleichviel, ob nun die aktuell in 2019 bestimmte absolute globale Jahresmitteltemperatur bei 14,7, 15,1 oder 15,5 Grad lag. Wichtig ist doch allein die Beobachtung der Veränderung zum Vorjahr bzw. zum Vergleichszeitraum. Das ist nur zum Teil richtig, denn es unterstellt, dass die beobachtete Veränderung an den Messstationen sich in gleicher Weise auch dort manifestiert, wo nicht gemessen wird. Das gilt umso mehr, wenn die heutigen Werte mit weiter zurückliegenden historischen Zeiträumen ohne direkte instrumentenbasierte Temperaturmessung verglichen werden.

Instrumentell bestimmte Temperaturdaten gibt es seit dem 18. Jahrhundert und auch das im Wesentlichen beschränkt auf Europa. Der Vergleich der heute mit hoher Genauigkeit gemessenen Werte mit den meist nur indirekt bestimmten historischen Temperaturen ist daher schwierig und mit bemerkenswerten Unsicherheiten behaftet. Die auf Basis von diversen Modellen bestimmten völlig unterschiedlichen historischen Temperaturverläufe machen dies offenkundig (s. Abb. 4 weiter unten).

Vergleichen … aber womit?

Hier ist das Stichwort Vergleichszeitraum  gefallen. Womit vergleicht man? Welches ist denn überhaupt der vernünftige klimarelevante Vergleichszeitraum. Ist es das Klima um 1850 (also das „mittlere Wetter“ bzw. der Durchschnittswert der globalen Jahresmitteltemperatur zwischen 1820 und 1850, oftmals als „vorindustrieller Vergleichszeitraum“ zitiert? Ja, das ist eine Möglichkeit. So wird es ja auch vom IPCC (Intergovernmental Panel on Climate Change) und auf den diversen UN-Klimakonferenzen gemacht. Man kann natürlich auch einen anderen Vergleichszeitraum zugrunde legen. Dieser sollte sinnvollerweise vor dem Beginn des Industriezeitalters liegen, weil man ja den eventuellen anthropogenen Effekt bestimmen möchte.

Die Mitte des 19. Jahrhunderts ist eine zulässige und nicht unvernünftige Wahl, sie ist aber nicht die einzig mögliche. Wenn man weiter zurückblickt, dann sieht man, dass im 19. Jahrhundert die mittleren Temperaturen eher etwas niedriger waren als in etlichen anderen Vergleichszeiträumen. Es gibt daher durchaus gute Gründe dafür, andere historische Zeiträume als Referenz für das „normale“ Klima zu nehmen. Wobei es ein „normales“ Klima im engeren Sinne überhaupt nicht gibt. Dazu später mehr.

Der historische Temperaturverlauf …

Klimaforscher haben mittlerweile ein passables Bild von der Temperaturentwicklung der letzten 1000 bis 2000 Jahre erarbeitet. Noch weiter zurück bis zur letzten Eiszeitperiode, die ca. um 10000 bis 8000 v. Chr. endete, ergibt sich etwa der in Abb. 3 dargestellte Verlauf der mittleren bodennahen Temperaturen auf der Nordhemisphäre.

Abb. 3: Ungefährer Temperaturverlauf von 9000 v. Chr. bis 2000 n. Chr.

… oder „die“ historischen Temperaturverläufe

Aufgrund der oben skizzierten Schwierigkeiten ist die Darstellung mit Unsicherheiten behaftet. Die von verschiedenen Forschern rekonstruierten Temperaturverläufe sind nicht deckungsgleich und widersprechen sich teilweise, wie wir bald sehen werden.

Auf die in Abb. 4 exemplarisch dargestellte Unschärfe wurde schon oben hingewiesen. Es sind die Verläufe der Durchschnittstemperaturen  zwischen den Jahren 700 und 2000 nach verschiedenen Rechenmodellen aufgetragen. Man sieht die relativ großen Abweichungen zwischen den diversen Modellen (s. Legende) und die daraus resultierenden Ungenauigkeiten. Die Streubreite liegt teilweise bei bis zu ±0,5 Grad.

Es fällt auch auf, dass die Temperaturkurven häufig relativ steile Gradienten aufweisen, also schnelle Änderungen der Temperaturen in relativ kurzen Zeiträumen. Ob dies Fakt ist oder auf möglicherweise falsche Modellannahmen zurückzuführen ist, kann nicht entschieden werden. In diesem Sinne ist daher auch Abb. 3 eher als eine Annäherung an die tatsächlichen historischen Bedingungen zu verstehen. Insbesondere dürfen weder der genaue Kurvenverlauf noch die absoluten Abweichungen von der mittleren Temperatur als exakte Werte genommen werden. Es sind aber immerhin plausibel begründete Abschätzungen.

Abb. 4: Ungefährer Temperaturverlauf von 700 bis zum Jahr 2000 n. Chr.

Andere Rechenmodelle kommen teilweise wieder zu völlig unterschiedlichen Verläufen (s. Abb. 5 und 6).

Abb. 5: Modellmäßig rekonstruierte Temperaturverläufe über den Zeitraum 1000 bis 2000 n. Chr.

Abb. 6: Globale Temperaturveränderungen in den letzten 2000 Jahren.

Aktuelle Messdaten vs. Historie

Zwischen den diversen Rechenmodellen gibt es immerhin einige bemerkenswerte Gemeinsamkeiten: (a) Vom Spätmittelalter (1400) bis zum Beginn der Industrialisierung (1850) waren die Durchschnittstemperaturen eher geringer als im langfristigen Mittel; dies kann man allen vier Abbildungen entnehmen („kleine Eiszeit“). (b) Im Hochmittelalter (850 – 1150) und um die Zeitenwende (Zeitalter des Römisches Reichs) lagen die mittleren Temperaturen eher höher als im langfristigen Mittel und in etwa knapp unter dem heutigen Niveau.

Bezüglich des Mittelalters kann man diesen Effekt in zwei der Abbildungen (Abb. 4 und 5) erkennen. Dazu nochmals der Hinweis: Es handelt sich um modellierte Temperaturwerte auf der Basis von indirekt bestimmten Messdaten, i. W. aus der Analyse von Baumringen oder Bohrkernen. Sie sind daher mit höheren Unsicherheiten behaftet. Man darf diese Befunde nicht überinterpretieren. Deswegen werden die Resultate hier nur qualitativ in der Weise verwendet, wie sie sich in der Farbgebung (warm: rot, kalt: blau) von Abb. 3 und der oben vorgenommenen Unterteilung in die Kalt- und Warmphasen (a) und (b) widerspiegeln.

Man sieht, dass der üblicherweise vorgenommene Vergleich der heutigen Durchschnitts­temperaturen mit den Werten um 1850 die derzeit beobachtete globale Erwärmung in gewisser Weise verzerrt und im Ergebnis überhöht darstellt. Damit ist nicht gesagt, dass es diese globale Erwärmung nicht gibt. Es kann ihr aber bei vernünftigem Ermessen in der längerfristigen Betrachtung nicht dieser singuläre und bei manchen Zeitgenossen Alarmismus auslösende Charakter beigemessen werden. Verglichen mit der mittelalterlichen und der römischen Warmzeit liegen wir heute bei aller Unsicherheit nur knapp darüber. Weiter zurück muss man auch die bemerkenswerten längeren Wärmeperioden um 5000 v. Chr. und um 2300 v. Chr. ins Auge fassen (s. Abb. 3).

Rascher Anstieg der globalen Durchschnittstemperatur

In den Abb. 4, 5 und 6 sticht der instrumentell gemessene Anstieg seit etwa 1900 ins Auge.  Verglichen mit den historischen Kurvenverläufen fällt dabei die schwarze Linie bezüglich ihres steilen Gradienten aus dem Rahmen. Der Verlauf spiegelt das rechte Ende der berühmten Hockeystick-Kurve wider, die in ihrem suggestiv vereinfachten Gesamtverlauf indessen mittlerweile allgemein als nicht länger haltbar erkannt wurde. Der dargestellte Kurvenanteil ab 1850 ist nichtsdestotrotz als unverändert gültig zu betrachten. – Wird damit die globale Erwärmung in hinreichender Weise bereits schlüssig untermauert und ihre Einzigartigkeit belegt?

Ist das der Beweis für den Klimawandel?

Völlig unzweifelhaft belegt dieser gemessene Anstieg – wichtig: gemessen, nicht modelliert – trotz der oben bezüglich der Messmethoden vorgebrachten Kritik die globale Erwärmung in hinreichender Weise. Die Erwärmung an sich (verglichen mit 1850) ist daher eine unbestreitbare Tatsache. Bezüglich der genauen Höhe des globalen Anstiegs bleiben indes Fragezeichen und ernstzunehmende Unsicherheiten. Wie schon oben erwähnt, ist es dabei durchaus fragwürdig, inwiefern die Angabe einer globalen Durchschnittstemperatur überhaupt zielführend ist.

Sicher ist: In den gut untersuchten Regionen zeigen sich überwiegend ähnliche Tendenzen in Richtung eines Anstiegs der mittleren Temperaturen. Die klimatische Veränderung ist also nicht auf einzelne geographische Bereiche (z. B. Europa) beschränkt, wie das in der Vergangenheit öfters der Fall war. – Dies ist ein valides, ein starkes Indiz für den globalen Klimawandel. Indessen kann das derzeit erreichte globale Temperaturniveau im längerfristigen historischen Vergleich erkennbar nicht als Extremabweichung nach oben angesehen werden (dazu mehr weiter unten). Dies ist erst dann der Fall, wenn es zu einem weiteren signifikanten Anstieg kommt.

Nach dem Vorstehenden verbleibt als das wichtigste Indiz für eine menschengemachte globale Erwärmung der durch konkrete Messwerte belegte rapide Anstieg der Durchschnittstemperaturen seit 1850 oder 1900 im Gleichschritt mit der Industrialisierung und der damit einhergegangenen Emission von CO2. Oder ist das doch ein Kurzschluss?

Zumindest muss man auch dies relativieren, weil wir eben über keine weiter zurückliegenden konkreten Messwerte in der erforderlichen hohen zeitlichen Dichte und Qualität und damit valide Vergleichskurven für gleiche geographische Gebiete verfügen. Wir können daher nicht ausschließen, dass z.B. 850 n. Chr., 200 v. Chr. oder 2900 v. Chr. in den relevanten Gebieten der Temperaturanstieg in Richtung der darauffolgenden Wärmeperioden ähnlich schnell verlaufen ist.

Das ist keine Haarspalterei! Darauf hinzuweisen ist vielmehr ein Gebot der kritischen Vernunft. Der Sache nach wird durch den beobachteten Temperaturanstieg im näherungsweisen Gleichklang mit der CO2-Emission seit 1850/1900 zunächst eben nur eine Korrelation nachgewiesen, keine Kausalität. Wobei Letzteres hier nicht ausgeschlossen werden soll, weil es auch dafür gute Gründe gibt. Mehr dazu in Teil 2.

Belegen die Schäden durch extreme Wetterereignisse den Klimawandel?

Natürlich gibt es neben dem Anstieg der globalen Durchschnittstemperatur noch weitere Indikatoren für den Klimawandel. Zuvorderst zu nennen sind hier die immer höheren Schäden durch extreme Wetterphänomene. – Definitiv, die Schadensummen aufgrund von extremen Wetterereignissen (Stürme, Hurrikane, Trockenheit, Niederschläge und Überschwemmungen) sind in den letzten Jahrzehnten stark angewachsen. Doch ist dies wirklich auf eine entsprechende Zunahme solcher Extremereignisse zurückzuführen?

Die Wetterstatistik lässt daran zweifeln. Der Grund dafür liegt eher im enormen Anstieg der Besiedelungsdichte aufgrund des extremen Wachstums der Weltbevölkerung in den letzten Jahrhunderten (s. Abb. 7). Im Zuge des damit einher gegangenen zivilisatorischen Aufbaus wurden enorme Werte geschaffen, deren fallweiser Verlust nun gleichfalls auch die potentiellen Schäden in die Höhe schnellen lässt.

Abb. 7: Wachstum der Weltbevölkerung von 10000 v.Chr. bis zum Jahr 2100 (geschätzt).

Um ein drastisches Beispiel dafür zu nennen: Durch den Hurrikan Katrina kamen im Jahr 2005 in New Orleans (damals knapp 500.000 Einwohner) und im Südosten der USA mehr als 1800 Menschen ums Leben. Die Schadensumme wird auf über 100 Milliarden Dollar geschätzt. Noch 100 Jahre zuvor hatte New Orleans nur halb so viel Einwohner. Wie hoch wären die Zahl der Opfer und die Schadenshöhe durch einen Hurrikan ähnlicher Stärke wie Katrina wohl gewesen? – Die Vermutung liegt nahe, dass es ungefähr die Hälfte der Toten und eine halb so hohe Schadensumme gewesen wären (auf Kaufwertbasis). Vor 200 Jahren hatte New Orleans gar nur etwa 10.000 Einwohner. Die gleiche Frage nach der Zahl der Opfer und der Schadenshöhe: Vielleicht 30, 50 oder 60 Tote und allenfalls ein Schaden in sehr niedriger einstelliger Milliardenhöhe (ebenfalls auf Kaufwertbasis gerechnet). Das kann man fortsetzen bis zu wahrscheinlich null Toten und verschwindendem Schaden 10.000 v. Chr. – Wohlgemerkt, ein Extrembeispiel!

Das vorstehende Exempel belegt: Solche Vergleiche und Statistiken müssen in den größeren Kontext gestellt werden und zeigen für sich genommen keine objektive Wahrheit. Das gilt generell: Fakten werden zu Botschaften erst durch den Kontext. Deswegen sind im Zweifel auch vermeintlich wahre Klimafakten wertlos, wenn sie aus dem Zusammenhang gerissen werden und am Ende nur als Vehikel für die Kommunikation einer vorgefassten Meinung dienen.

Immer dasselbe Klima?

In der öffentlichen Diskussion wird vielfach der Eindruck erweckt, es gebe so etwas wie ein Normklima, von dem wir gegenwärtig nach oben abzuweichen beginnen. Wie wir bisher in Auszügen gesehen haben, ist das so natürlich nicht richtig. Klimawandel ist erdgeschichtlich nicht die Ausnahme, sondern die Regel. Blicken wir dazu auf Abb. 8 mit der Darstellung des Temperaturverlaufs über die letzten 500 Millionen Jahre. Man muss dabei beachten, dass die Zeitskala logarithmisch aufgetragen ist. Die beiden Felder im rechten Teil des Diagramms erstrecken sich daher nur über den (für die Menschheit enorm wichtigen) Zeitraum der letzten 1 Million Jahre. Sie würden bei linearer Skalierung also nur 0,2 % der Diagrammbreite einnehmen, kaum mehr als Strichstärke. Wie man der Darstellung unschwer entnehmen kann, lagen die durchschnittlichen Temperaturen in den letzten 500 Mio. Jahren nahezu immer – mindestens über 90% des Zeitraums – signifikant über dem heutigen Niveau.

Bemerkenswert ist der Temperaturverlauf im Pleistozän mit Temperaturen deutlich unter den heutigen Vergleichswerten. Die langen Kaltphasen wurden mehrfach und jeweils mit steilen Anstiegen von kurzen Warmzeitphasen (über maximal einige 1000 Jahre) unterbrochen. Über den Zeitraum der letzten 1 Million Jahre war es auf der Erde daher fast immer kälter als heute. Besonders markant ist die letzte große Kaltzeit am Ende des Pleistozäns. Übrigens: Nüchtern betrachtet und frei von aller Romantik sind Gletscher lediglich Relikte aus der letzten großen Eiszeit. Und auch wenn es herzlos klingt: Eisbären werden aussterben, wenn sie sich nicht an die veränderten klimatischen Bedingungen anpassen können. Genauso, wie zahllose andere Arten von der Erde verschwunden sind, weil es im Eozän und Pliozän deutlich kälter geworden war.

Das Klima soll so bleiben, wie es jetzt ist!

All diese Klimaveränderungen fanden ohne jede Einflussnahme durch Menschen statt. Selbstredend beweist dies nicht, dass die heute beobachtete globale Erwärmung in gleicher Weise ausschließlich natürliche Ursachen hat. Es belegt aber, dass es natürliche Einflussfaktoren gibt, die zu massiven Klimaveränderungen führen können. In der Gesamtschau ist die Menschheit vor allem Profiteur der globalen Erwärmung zu Beginn des Holozäns. Umgekehrt gilt daher auch: Vermutlich mindestens genauso dramatisch wie eine Erhöhung der globalen Durchschnittstemperatur um 2 Grad wäre ein Absinken um den gleichen Betrag. Wir haben ein Interesse daran, dass die klimatischen Bedingungen ungefähr so bleiben, wie wir sie im Zuge des Aufbaus der Zivilisation vorgefunden haben. Dafür gibt es aber – völlig unabhängig von unserem Tun und Lassen  – letztlich keine Garantie.

Abb. 8: Temperaturverlauf über die letzten 500 Millionen Jahre

Hätte es nach dem Beginn der letzten großen Kaltzeit vor 100.000 Jahren keinen Klimawandel mehr gegeben, würde die Erde heute nicht von 7,7 Mrd. Menschen bevölkert sein, allenfalls wären es einige wenige Millionen. Sehr wahrscheinlich würde sich die kulturelle Entwicklung nicht in der beschleunigten Weise abgespielt haben. Die meisten von uns würden gar nicht existieren.

Mögen wir’s nicht lieber etwas wärmer?

Tatsächlich waren das Ende der Kaltzeit (9500 v. Chr.:  Beginn der Jungsteinzeit, Ackerbau) und die namhaften Warmzeiten des Holozän (ab ca. 6000 v. Chr.­­ für fast 2000 Jahre,  ab 3000 v. Chr. für fast 1500 Jahre) jeweils Zeiten kulturellen Fortschritts und Bevölkerungswachstums (Sesshaftigkeit, Ackerbau und Viehzucht, erste Städte, Metallverarbeitung) und insofern Glücksfälle für die Menschheit. Die Römer konnten in der neu eroberten Provinz Britannien im 2. Jahrhundert nach Christus Wein anbauen. Aufgrund der später dann kälteren klimatischen Bedingungen war das nach der Römerzeit ab dem 5. Jahrhundert n. Chr. nicht mehr möglich. Heute wieder kann man daran denken, im Süden Englands Weingärten anzulegen.

Gegenwärtig haben wir also im historischen Vergleich ziemlich günstige klimatische Bedingungen. Ein angenehmes Temperaturniveau, um das uns Generationen unserer Ahnen beneidet haben würden. Für Untergangsszenarien ist es jedenfalls noch zu früh. Einstweilen dürfen wir uns auf den nächsten richtigen Sommer freuen.

Panik ist ein ganz schlechter Ratgeber, verkauft sich aber gut. Wie z.B. diese Meldung in der Zeit zeigt: 50.000 Fehltage wegen Hitze. Eine Nachricht, die wunderbar ins Klima-Narrativ passt. Wirklich? Oder zeigen sich hier bei den Redakteuren erste Beeinträchtigungen der Urteilsfähigkeit aufgrund des heißen Sommerwetters im Juli 2019?

Die genannten 50.000 Fehltage muss man in Bezug setzen zu den insgesamt 500 Mio. Fehltagen p.a. in der deutschen Wirtschaft. Es sind genau 0,01%. Dem stehen immerhin 50 Mio. Fehltage aufgrund von Kälte, Glätte und Nebel im Winter entgegen. Man sieht, es ist eher noch zu kalt. Dazu passt auch die nachfolgende Statistik (s. Abb. 9) , die vom Urheber mit der bemerkenswerten Überschrift „Im Winter wird mehr gestorben“ versehen wurde .

Abb. 9: Sterbefälle in Deutschland nach Monaten. © Statista / Statistisches Bundesamt.

Allen Unkenrufen von Panikmachern zum Trotz , scheinen die „heißen“ Sommermonate für die Menschen im Jahreszyklus offenbar eher zu den weniger „gefährlichen“ Zeiten zu gehören. Kein Wunder, sonnig und warm empfinden die meisten als angenehm. Wer mag es schon dunkel und kalt?

Unser größtes Problem

Nun soll aber der obige Befund nicht einseitig mit der rosa Brille betrachtet werden. Selbstverständlich würde ein signifikanter Anstieg der globalen Durchschnittstemperatur um 2 Grad und mehr angesichts einer Weltbevölkerung von bald 10 Milliarden Menschen (s. Abb. 7, oben) dramatische Auswirkungen haben. Daran kann es keinen Zweifel geben. Im Hinblick auf den benötigten Ressourcenbedarf (Energie, Ernährung, Flächenbedarf) und die daraus resultierende Belastung der Umwelt (Müll, Schadstoffe, Abholzung), liegt darin das eigentliche Problem. Es ist die schiere Größe der Weltbevölkerung und ihr immer noch anhaltendes rasantes Wachstum. Zumal zu befürchten ist, dass diese Progression die Biosphäre weiter aus dem Gleichgewicht bringen und in der Folge auch Auswirkungen auf das Klima nach sich ziehen wird. Wer Umwelt und Klima wirklich und wirksam schützen will, muss vor allem und möglichst schnell das weitere Bevölkerungswachstum stoppen.

Nichtsdestotrotz ist es fraglich, inwieweit wir es wirklich in der Hand haben, eine weitere globale Erwärmung zu verhindern. Das wird nur dann gehen, wenn der beobachtete Klimawandel tatsächlich fast ausschließlich oder zumindest überwiegend anthropogene Ursachen hat (z.B. die Emission von CO2) und wir die richtigen Maßnahmen ergreifen, diese Emissionen schnell zurückzufahren. Diese beiden Themenkreise werden in Teil 2 und 3 behandelt.

Teil 2:
Klimakiller CO2?

Ausblick: Ist die CO2-Emission die Ursache für die globale Erwärmung? Gibt es schlüssige Modelle? Was kann man beweisen, was nicht? Gibt es mögliche andere Erklärungen? Was ist plausibel?

Teil 3:
Rationaler Klimaschutz statt Panikmache

Ausblick: Unterstellt, die Emission von CO2 ist der Hauptfaktor der globalen Erwärmung, welches sind dann die geeigneten  Maßnahmen zur effektiven Reduzierung der CO2-Emission? Was müssen wir tun? Was ist effizient, was ist nur Aktionismus? – Um einen Aspekt herauszunehmen: Der moralisierende Sündenkult ist jedenfalls nicht Teil der Lösung.


Bildverzeichnis und -nachweise

Abb. Beschreibung und Referenz
1 Jahresmitteltemperaturen in Deutschland (1960 – 2019). ©Statista
https://de.statista.com/infografik/20501/jaehrliche-durchschnittstemperatur-in-deutschland/
2 Verteilung von Wetterstationen. Links: Europa, Grönland und Nordafrika. Rechts: Ostasien.
Quelle: Wetterdienst.de
3 Ungefährer Temperaturverlauf von 9000 v. Chr. bis 2000 n. Chr. (Bodennahe Mitteltemperaturen in der Nordhemisphäre, nach Dansgaard et. al. 1969 und Schönwiese 1995).
Von http://www.klimanotizen.de/html/temperaturen.html, mit erläuternden Zusatzinformationen angereichert.
Originalquelle: GFZPotsdam (Deutsches GeoForschungsZentrum)
4 Ungefährer Temperaturverlauf von 700 n. Chr. bis zum Jahr 2000. Rekonstruierte Temperaturänderungen auf der Nordhalbkugel der letzten 1300 Jahre nach Proxydaten (Baumringe, Eisbohrkerne, Sedimente, Korallen u.a.) sowie instrumentelle Temperaturkurven seit dem 18. Jahrhundert.
https://wiki.bildungsserver.de/klimawandel/index.php/Klima_der_letzten_1000_Jahre
5 Modellmäßig rekonstruierte Temperaturverläufe über den Zeitraum 1000 bis 2000 n. Chr.
(https://de.wikipedia.org/wiki/Hockeyschl%C3%A4ger-Diagramm#/media/Datei:1000_Jahr_Temperaturen-Vergleich.png) wurde von Robert A. Rohde mit Hilfe öffentlich zugänglicher Daten vorbereitet und ist in das Projekt Global Warming Art eingebaut.
Die Übersetzung stammt von User: Langexp. – http://www.ngdc.noaa.gov/paleo/recons.html, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=1169988
6 Globale Temperaturveränderungen in den letzten 2000 Jahren.
Von DeWikiMan, based upong fig. 1a) of Pages2K (2019), doi:10.1038/s41561-019-0400-0 – CC BY-SA 4.0,
https://commons.wikimedia.org/w/index.php?curid=82403624
7 Wachstum der Weltbevölkerung von 10000 v.Chr. bis zum Jahr 2100 (geschätzt).
Öffentlich zugängliche Quellen (Wikipedia)
8 Temperaturverlauf über die letzten 500 Millionen Jahre.
Von User:Glen Fergus, User:hg6996 – https://commons.wikimedia.org/wiki/File:All_palaeotemps.png, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=34611466
https://de.wikipedia.org/wiki/Klimageschichte#/media/Datei:All_palaeotemps_G2.svg
9 Sterbefälle in Deutschland nach Monaten.
© Statista / Statistisches Bundesamt
https://de.statista.com/infografik/20561/sterbefaelle-in-deutschland/

Quellenauszug

# Referenz
1 https://de.wikipedia.org/wiki/Klima
2 https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris
3 https://de.wikipedia.org/wiki/Zwei-Grad-Ziel
4 https://de.wikipedia.org/wiki/Sonderbericht_1,5_%C2%B0C_globale_Erw%C3%A4rmung
5 https://de.wikipedia.org/wiki/Intergovernmental_Panel_on_Climate_Change
6 https://de.wikipedia.org/wiki/Klimageschichte
7 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl/
8 https://www.klimafakten.de/behauptungen/behauptung-es-gibt-noch-keinen-wissenschaftlichen-konsens-zum-klimawandel
9 https://www.wetterdienst.de/Deutschlandwetter/Wetterstationen/Karte/
10 https://de.wikipedia.org/wiki/Hockeyschl%C3%A4ger-Diagramm
11 https://www.quarks.de/umwelt/klimawandel/warum-die-angabe-einer-globalen-durchschnittstemperatur-unsinnig-ist/
12 https://wiki.bildungsserver.de/klimawandel/index.php/Klima_der_letzten_1000_Jahre
13 https://www.welt.de/geschichte/article149773123/Erderwaermung-bescherte-Roemischem-Reich-fette-Jahre.html
14 http://www.klimanotizen.de/html/temperaturen.html
15 https://www.uni-muenster.de/FNZ-Online/wirtschaft/grundstrukturen/unterpunkte/bevoelkerung.htm
16 https://www.archaeologie-online.de/nachrichten/das-klima-der-letzten-2000-jahre-2250/
17 https://www.uni-giessen.de/ueber-uns/pressestelle/pm/pm156-12
18 https://www.zamg.ac.at/cms/de/klima/informationsportal-klimawandel/standpunkt/klimavergangenheit/palaeoklima/2.000-jahre
19 https://scilogs.spektrum.de/klimalounge/palaeoklima-die-letzten-2000-jahre-hockeyschlaeger/
20 https://lv-twk.oekosys.tu-berlin.de/project/lv-twk/002-holozaen-2000jahre.htm
21 https://www.klimafakten.de/behauptungen/behauptung-im-mittelalter-war-es-waermer-als-heute
22 https://de.wikipedia.org/wiki/Klimageschichte#/media/Datei:All_palaeotemps_G2.svg
23 https://www.eike-klima-energie.eu/2012/10/27/noch-eine-studie-zeigt-hoehere-temperaturen-vor-1000-und-sogar-2000-jahren/
24 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl
25https://www.zeit.de/wirtschaft/2019-07/wetter-hitze-sonnenlicht-folgen-krankheiten-hitzewelle-europa
26 https://www.klimafakten.de/behauptungen/behauptung-es-gibt-noch-keinen-wissenschaftlichen-konsens-zum-klimawandel
27 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl/
28 https://www.science-at-home.de/wiki/index.php/Bev%C3%B6lkerungsentwicklung_seit_10.000_v._Chr.
29 https://de.statista.com/infografik/20561/sterbefaelle-in-deutschland/

Klimasünder Verkehr – Klimakiller SUV?

In den Medien wird man spätestens seit der Beschleunigung in der Klimadiskussion immer wieder mit der Behauptung konfrontiert, insbesondere der Verkehrssektor trage zur hohen CO2-Emission Deutschlands bei. Nicht selten wird als einer der Hauptgründe dafür genannt, es sei die hohe Anzahl der SUVs – von manchen auch als „Stadtgeländewagen“ bezeichnet –  dafür verantwortlich. Ist das wirklich zutreffend? Ist der Verkehrssektor tatsächlich der Hauptklimasünder? Tragen SUVs wirklich so prominent zu unserem CO2-Ausstoß bei? Sind sie tatsächlich das große Problem und geradezu Klimakiller? Und was genau unterscheidet ein SUV von einem „normalen“ Auto?

Die Bedeutung des Verkehrssektors für die CO2-Emission.

Entscheidend ist zunächst einmal die gesamte CO2-Emission in Deutschland. Sie belief sich 2017 auf ca. 907 Mio. Tonnen. Absolut gesehen ist das nicht wenig, auch wenn es nicht einmal 2% des weltweiten CO2-Ausstoßes sind. Wie der Blick nach Frankreich zeigt, könnte der Wert aber deutlich geringer ausfallen.

Jährliche-Treibhausgase-in-Deutschland-seit-1990-nach-Treibhausgasen
Jährliche Treibhausgase in Deutschland seit 1990 nach Treibhausgasen

Frankreich emittiert nur etwa  400 Mio. Tonnen CO2, also 55% weniger als Deutschland. Vergleich man die Wirtschaftsleistung und die Einwohnerzahl, dann könnte Deutschland mittels eines ähnlich intensiven Atomkraftausbaus wie Frankreich mit einer Kohlendioxid-Emission von ungefähr 550 Mio. Tonnen auskommen. Das wären 350 Mio. t weniger als heute. Diese Menge entspricht der Summe der gesamten jährlichen CO2-Emission durch Transport und Verkehr von halb Europa (z.B. die Länder Deutschland, Östereich, Schweiz, Tschechien, Slowakei, Niederlande, Belgien, Norwegen, Schweden, Dänemark, Finnland, Portugal und Griechenland). Tatsache ist aber, dass wir, anders als Frankreich, noch zu einem erheblichen Teil auf Kohlekraft angewiesen sind. Dies gilt insbesondere für die Grundlast, denn Solarstrom und Windkraft sind nicht grundlastfähig und können daher Kohle- oder Atomstrom nur bedingt ersetzen.

Unabhängig davon, wie man zur Kernkraft steht, war die Entscheidung, aus der Atomstromproduktion auszusteigen ein klimapolitischer Super-GAU. Nun müssen wir die Folgen dieser Fehlentscheidung ausbaden – und dafür zahlen. Im aktuellen Klimapaket wird das schon deutlich und in Ansätzen sichtbar. Der Fokus liegt dabei auf dem Verkehrssektor, als könne die CO2-Gesamtemission durch ein Umsteuern in der Mobilitätspolitik wesentlich beeinflusst werden. Das ist ein Trugschluss. Es ist allenfalls ein kleiner Baustein (s. a. Individuelle Mobilität und globale Erwärmung).

Jährliche Treibhausgas-Emissionen in Deutschland nach Sektoren
Jährliche Treibhausgas-Emissionen in Deutschland nach Sektoren

Zunächst einmal muss man nüchtern erkennen, dass das CO2-Aufkommen in Deutschland nur zu einem Bruchteil von weniger als 20% überhaupt vom Verkehr abhängt. Die Gesamtemission an CO2 betrug 2017 ca. 907 Mio. Tonnen. Davon gehen auf den Verkehrssektor etwa 164 Mio. Tonnen. Das ist ein Anteil von 18%. Die Energiewirtschaft, das verarbeitende Gewerbe, die Industrie und die Beheizung von Wohnungen bringen es zusammen auf 657 Mio. t CO2 (2016) entsprechend  72% der deutschen Gesamtemission. Man muss dabei auch noch berücksichtigen, dass im oben angegebenen Wert für den Verkehrssektor die Emissionen des Transports (Güterverkehr, Lieferverkehr) mit enthalten sind – und die können vom Autofahrer kaum beeinflusst werden.

Man entnimmt dieser Gegenüberstellung schon von den Größenverhältnissen her, dass der Verkehrssektor allein kaum für die fragwürdige Auszeichnung als Hauptklimasünder in Frage kommt, wie dies von Klimaagitatoren gerne in den Raum gestellt wird. 

Dies wird gestützt durch einen zweiten Blickwinkel: Der deutsche Tourismus verursacht nach Berechnungen der University of Sydney 329  Millionen Tonnen CO2-Äquivalente, also doppelt so viel wie der inländische Verkehrssektor in Deutschland. Basis für diese Schätzung sind umfassende Daten zum Tourismus in 189 Ländern, unter anderem von der Weltorganisation für Tourismus (UNWTO). Hier geht es also um den CO2-Fußabdruck, den der Tourismus von Deutschen global hinterlässt. Darin sind also nicht nur die eigentlichen Reisen per Auto, Flugzeug, Schiff oder Bahn enthalten, sondern auch die Aktivitäten der Urlauber, Ihre Verpflegung und die Übernachtung im In-und Ausland. Es ist eine globale, nicht eine auf Deutschland fokussierte Betrachtung und spiegelt insofern eine andere Sichtweise wider. Teilweise gehen da natürlich auch Emissionen aus dem Autoverkehr im Inland mit ein.

Stark wachsender Güterverkehr, mehr CO2.

Immerhin 5% der inländischen CO2-Emission gehen auf den Transport von Gütern zurück. Angesichts der deutlich um 30% reduzierten spezifischen Emissionen pro Tonnenkilometer bezogen auf 1995 ist dies verwunderlich. Der Grund dafür: Der Verkehrsaufwand der Lkw ist zwischen 1995 und 2017 von 279,7 Mio. Tonnenkilometer auf 475,7 Mio. Tonnenkilometer gestiegen – ein Plus von 70%. Bei den Kohlendioxid-Emissionen wurde daher der markante technische Fortschritt in der Motoreneffizienz durch die Mehrkilometer wieder aufgezehrt und sogar überkompensiert. Deswegen erhöhten sich die absoluten Kohlendioxid-Emissionen im Straßengüterverkehr zwischen 1995 und 2017 von 34,2 auf 41,0 Millionen Tonnen. Das ist ein relativer Anstieg um 20%.

Spezifische Emissionen LKW
Spezifische Emissionen LKW

Nicht zuletzt darauf sind die gestiegenen CO2-Emissionen im Verkehr zurückzuführen. Letztlich ist dieser Aufwuchs im Warenverkehr ein Ergebnis der intensiven wirtschaftlichen Verflechtung innerhalb der EU: Das ist politisch gewollt. Hier zeigt sich eben die Kehrseite der Medaille. Wenn das EU-Parlament nun den „Klimanotstand“ ausruft, dann sollten die Parlamentarier einmal in sich gehen und sich fragen, was sie selber zur gegenwärtigen Situation beigetragen haben. Der einzelne EU-Bürger kann diesen Aspekt jedenfalls kaum beeinflussen.

Der Autoverkehr taugt nicht als Sündenbock.

Auf PKWs entfallen gut 120 Mio. Tonnen der Kohlendioxid-Emissionen. Im Ergebnis sind das 13% des gesamten CO2-Aufkommens in Deutschland.  Wie bei den LKWs kann man auch hier konstatieren, dass moderne Autos Umwelt und Klima weniger belasten als in der Vergangenheit. Die spezifischen Emissionen von CO2 sind dabei seit 1995 um 15% gesunken. Wohlgemerkt, nicht die Testwerte, sondern die tatsächlichen Emissionen. Ebenfalls erwähnenswert: Die spezifischen Emissionen von Stickoxiden und von Feinstaub konnten im selben Zeitraum um 55% bzw. um 79% reduziert werden.

Gleichzeitig hat aber auch der PKW-Verkehr stark zugenommen, was den Fortschritt in der Technik zum Teil leider wieder aufgezehrt hat (2017 in Bezug auf 1990, mit einem zwischenzeitlichen Maximum um 1999). Besonders eklatant ist dies bei Dieselfahrzeugen zu sehen: Die erbrachte Fahrleistung ist seit 1995 um 322% gestiegen. Immerhin sind die gesamten Stickstoffoxid-Emissionen aus Pkw von 1995 bis 2017 um 48% gesunken. Sogar stärker noch die Feinstaub-Emissionen, die, trotz des höheren Verkehrsaufkommens um nahezu 76% zurückgegangen sind.

Spezifische Emissionen PKW
Spezifische Emissionen PKW

Kurzes  Resümee dazu.

  1. Die CO2-Emissionen aus dem PKW-Verkehr tragen nur zu etwa 13% zur Kohlendioxidbelastung in Deutschland bei. Dieser Wert ist aufgrund der höheren Mobilität im Vergleichszeitraum seit 1990  zwar nicht signifikant gesunken, es ist aber mitnichten so, dass der Verkehrssektor bzw. speziell der Autoverkehr als Klimasünder apostrophiert werden kann.
  2. Die CO2-Emissionen aus dem LKW-Verkehr sind um 20% gestiegen, vor allem wegen des dramatisch angewachsenen Warenverkehrs. Hier sollte die Politik endlich die Hausaufgaben machen und die nötigen Infrastrukturmaßnahmen ergreifen, die es erlauben, größere Anteile des Ferngütertransports auf die Schiene zu verlagern – was politisch seit 30 Jahren versprochen wird aber noch nicht einmal ansatzweise umgesetzt wurde.

Was eigentlich sind SUVs?

Kommen wir nun zu den vielgeschmähten SUVs. Wie verhält es sich mit ihrem Beitrag zur CO2-Emission? Zunächst einmal die Frage, was ist überhaupt ein SUV? Na ja, intuitiv scheint das jeder zu wissen: hoch, breit, die Sicht versperrend, stark motorisiert, in der Stadt Parkplätze blockierend und immer im Wege stehend. „Stadtgeländewagen“ werden sie von manchen genannt. Fahrzeuge also, die technisch fürs Gelände entwickelt wurden, aber nur in der Stadt bewegt werden und dort deplatziert wirken, um noch das harmloseste Attribut zu nehmen. Wie man den Medien entnehmen kann, sind mittlerweile 30% aller Neuzulassungen solche „Monster“. In 2019 waren das bereits mehr als eine Million Fahrzeuge. So jedenfalls die Statistik des Kraftfahrtbundesamts (KBA).

Zur Klassifizierung von SUVs erklärt KBA-Pressesprecher Stephan Immen gegenüber auto motor und sport: „Als SUV bezeichnen wir Fahrzeuge mit Offroad-Charakter. Das bedeutet, sie lehnen sich in ihrer Form an Geländewagen an, sind etwas höhergelegt und verfügen über einen höheren Einstieg. Verbindliche Größen zur Definition gibt es nicht, das Segment “SUV„ dient uns aber auch nur zur statistischen Betrachtung.“

Was hier als SUV gezählt wird, sind in den meisten Fällen harmlose, eher der Bequemlichkeit dienende und völlig durchschnittlich motorisierte „Hochlimousinen“. In Wahrheit keine SUVs, also Sports-Utility-Vehicles, sondern lediglich UVs: praktische und bequeme Autos für jedermann.

Schauen wir uns Beispiele an: In der Statistik des KBA werden z.B. die folgenden Autos unter der Fahrzeugklasse „SUV“ subsumiert:

  Leergewicht in kg Länge
in m
Höhe
in m
Verbrauch in l/100 km Bemerkung
Fiat Sedici 1400 4,11 1,62 4,9 Diesel (135 PS)
Citroen Cactus 1040 4,16 1,49 3,4 Diesel (99 PS)
Suzuki Vitara 1150 4,17 1,60 5,3Super (112 PS)
Suzuki Vitara D 1300 4,17 1,60 4,2 Diesel (120 PS), Allrad
Opel Mokka 1200 4,28 1,65 4,3 Diesel (136 PS)
BMW X1 1600 4,45 1,60 4,1 Diesel (150 PS)

Die Liste solcher vergleichsweise unauffälliger PKWs ließe sich noch lange fortsetzen. Die Abmessungen, Gewichte und Verbrauchswerte (und damit auch die CO2-Emissionen) dieser SUVs liegen im üblichen Rahmen dessen, was auch andere Kompaktfahrzeuge  (VW Golf, Opel Astra, Ford Focus, Renault Megane) oder die ebenfalls weit verbreiteten Mittelklassefahrzeuge (3er BMW, Mercedes C-Klasse, Audi A4, VW Passat, Opel Insignia, Ford Mondeo) aufweisen – bis auf die Fahrzeughöhe natürlich.

Was in diesem Zusammenhang ebenfalls beachtet werden sollte: Der Anstieg bei den Neuzulassungen von SUVs geht einher mit einem Rückgang bei den Mini-Vans (-23% im Vergleich 2018 gegenüber 2017) und Großraum-Vans (-15% im Vergleich 2018 gegenüber 2017). Teilweise ersetzen also SUVs die etwas aus der Mode gekommenen Vans. Schon aufgrund von Größe und Gewicht vermutet man zu Recht, dass letztere mit Sicherheit nicht umweltfreundlicher waren als die heutigen SUVs.

Abgrenzung SUVs und Geländewagen.

Das KBA ist also unscharf, was die Klassifikation von SUVs angeht. Immerhin werden in der Statistik aber SUVs und Geländewagen klar  voneinander getrennt. Geländewagen, das sind die richtig dicken Brummer: Audi Q7, BMW X5, Mercedes ML, Porsche Cayenne und andere. Viele mit Gewichten um 2 Tonnen und mehr.  – Bloß, die wirklich umweltschädlichen starken Motorisierungen kann sich kaum jemand leisten. Keines der genannten Modelle kommt über 10.000 Neuzulassungen im Jahr hinaus. Einen prominenten Ausreißer gibt es: Der VW Tiguan schafft es auf 75.000 Neuzulassungen (2018). Allerdings taugt der, trotz seiner 1,65 m Höhe, auch nicht wirklich als Klimakiller: Gewicht 1500 kg, 4,48 m lang, 1,65 m hoch, Allrad, Verbrauch 5,8 l/100 km (133 g CO2 pro km, als Benziner) – das ist in etwa der aktuelle Verbrauchsschnitt aller Fahrzeuge.

VW Tiguan
VW Tiguan – wird in der Statistik des KBA nicht als SUV, sondern als Geländeawagen geführt

Richtigerweise muss man also SUVs und Geländewagen in der Berichterstattung voneinander trennen, wie das vom KBA auch gemacht wird. In der Öffentlichkeit kommt die Unterscheidung aber nicht wirklich an. Seien wir ehrlich, diese Differenzierung überfordert offenbar die Kommunikation. Z.B. stellt Porsche gar keinen SUV her: die üblicherweise  solchermaßen bezeichneten Modelle (Cayenne, Macan) laufen in der Statistik des KBA als Geländewagen, werden aber in der öffentlichen Wahrnehmung als SUVs gesehen.

Das negative Image von SUVs wird von Modellen geprägt, die nach Lesart des KBA gar keine SUVs sind. In den Medien kommt  dieser Unterschied ebenfalls kaum an. Schlagzeilen wie „Immer mehr SUVs“ oder „Bereits 1 Million Neuzulassungen von SUVs in 2019“ müssen niemand beunruhigen, weil  damit zum größten Teil relativ harmlose Fahrzeuge mit vernünftigen Verbrauchswerten erfasst werden. Das Augenmerk muss eher auf den Geländewagen liegen, die indes, wie oben schon erwähnt, zahlenmäßig deutlich weniger zu Buche schlagen.

Wie hoch ist der Beitrag von Geländewagen zur CO2-Bilanz?

Alle Geländewagen zusammen kommen großzügig gerechnet auf etwa 300.000 Fahrzeuge p. a., nicht auf eine Million, wie die Meldungen in den Medien suggerieren. Die wenigsten davon sind echte Dreckschleudern, dafür fehlt ihnen einfach die motorische Power. Darunter sind Fahrzeuge wie der VW Tiguan (s.o.) oder der Volvo XC40 mit Verbrauchswerten im Durchschnitt des Fahrzeugbestands, aber auch welche wie der Hummer H2 mit 23 l / 100 km (zum Glück nur mit einem Gesamtbestand von 1431 Fahrzeugen per Ende 2018).

Tun wir mal so, als seien diese 300.000 Fahrzeuge sämtlich hochmotorisiert und würden im Schnitt 50% mehr CO2 emittieren (200 g/km), als dies bei Wahl eines „normalen“ Autos (133 g/km) möglich wäre. Unterstellen wir ferner eine Fahrleistung von 15.000 km p.a. Dann haben wir dadurch also einen um 0,3 Mio. Tonnen höheren CO2-Ausstoß. Das war‘s denn eigentlich schon an negativer Auswirkung  auf das Klima, denn die anderen ca. 1 Mio. der sogenannten SUVs sind in Wahrheit ganz normale PKWs, tragen also nicht erwähnenswert zu einer zusätzlichen Verschlechterung der CO2-Emission bei.

Tatsächlich erhöhen die echten „Stadtgeländewagen“ den verkehrsbedingen Anteil an den CO2-Emissionen gerade einmal um etwas mehr als 0,03%. Das ist in der Gesamtschau also der Unterschied zwischen „Alle fahren sozialverträgliche normale Autos“ und „Einige fahren richtig dicke SUVs“ (genaugenommen Geländewagen).

Der Mythos vom Klimakiller SUV.

Nun ja, mag man einwenden, 300.000 Tonnen CO2, das ist doch eine ganze Menge. Zweifellos! Es rechtfertigt aber in keiner Weise, mit dem Finger auf SUV- oder Geländewagen-Besitzer zu zeigen. Das ist ein völlig irrationaler Empörungsimpuls. Wie wahr dies ist, mag man an den folgenden Beispielen erkennen: 

  1. Schon 0,3 g Fleisch pro Person und Tag sind mit der gleichen Menge CO2 von 300.000 t pro Jahr belastet. Das entspricht einer kleinen Fleischportion von 110 g pro Person und Jahr. Wenn also alle 80 Mio. Einwohner Deutschlands einmal im Jahr auf eine Essensportion mit zwei Frikadellen verzichten, ist damit der CO2-Effekt der SUVs bereits kompensiert.
  2. Die im Schnitt pro Auto und Tag zurückgelegte Strecke beträgt ca. 40 km. Bei einem durchschnittlichen CO2-Ausstoß von 133 g pro km entspricht dies einer Menge von 240.000 Tonnen CO2. Damit sind wir bereits wieder in der Größenordnung des SUV-Effekts. Was heißt das? Sofern alle PKWs an einem Tag im Jahr in der Garage bleiben ODER wahlweise an 365 Tagen im Jahr einfach um 140 m weniger bewegt werden, dann ist damit die Mehrbelastung durch SUVs bereits ausgeglichen.

Angesichts dessen erscheint das Attribut „Klimakiller“ schon reichlich übertrieben. Bei Lichte betrachtet, ist das Ganze noch nicht einmal eine Meldung wert.

Natürlich soll es hier nicht darum gehen, die Mehremission durch SUVs, so gering sie auch seien, durch entsprechendes Verhalten aller anderen zu kompensieren. Die beiden Beispiele sollen nur zeigen, dass die Empörung über SUVs bzw. Geländewagen nicht rational begründbar ist. Mit der gleichen Verve könnte man alle an den Pranger stellen und ihnen zurufen: „Verzichtet auf 0,3 g Fleisch pro Tag“ oder „Legt an jedem Tag 140 m weniger mit dem Auto zurück“. – Es wird damit offenkundig, wie grotesk der mediale Krawall gegen SUVs bzw. Geländewagen tatsächlich ist. Nun ja, wir leben in Zeiten der irrationalen Empörung über nahezu alles.

Blick auf den gesamten Fahrzeugbestand und Resümee.

Das war die Betrachtung bezogen auf die Neuzulassungen eines Jahres. Um ein ganzheitliches Bild zu bekommen, müssen wir uns den Gesamtbestand anschauen, auch wenn es dabei eigentlich nur um den Blick in die Vergangenheit geht. Unter den 40 meistverbreiteten PKWs sind wie viele SUVs? – Genau eines, der Nissan Qashqai auf Platz 38. Das zeigt schon, dass wohl doch viel weniger SUVs gefahren werden, als man gemeinhin denkt. Tatsächlich liegt ihr Anteil derzeit bei 6,7% aller Fahrzeuge. Wobei hier wieder alles Mögliche als SUV gezählt wird (s. o.).

Richten wir daher den Blick wieder auf die Geländewagen, genauer, auf die „bösen Stadtgeländewagen“. Ihr Anteil im Bestand liegt bei 5% bzw. 2,4 Mio. Fahrzeugen. Unterstellen wir, dass diese Fahrzeuge mit ordentlich Power ausgestattet und mit einem deutlich erhöhten CO2-Ausstoß (+ 50%) unterwegs sind. Insgesamt tragen diese Fahrzeuge sodann zu einer CO2-Mehrbelastung von ca. 2,4 Mio. t bei. Das ist jetzt schon eine andere Hausnummer. Oder doch nicht? – Die CO2-Gesamtemission wird dadurch um gut 0,26% erhöht. Das ist zweifellos unnötig und wäre bei einem Verzicht auf diese vermeintlichen „Monster“ vermeidbar. Es ändert aber nichts daran, dass 2,5 g Fleisch pro Person und Tag in etwa den gleichen Effekt haben. Oder einen Kilometer zu Fuß gehen statt Autofahren für alle.

Übrigens, die ca. 4,5 Mio. Mallorca-Urlauber aus Deutschland belasten durch ihre Flugreise nach Palma und zurück die CO2-Bilanz um mehr als 3 Mio. Tonnen pro Jahr entsprechend 0,35% der CO2-Gesamtemission. Das ist bereits mehr als der ganze Effekt der “bösen Geländewagen“. Die SUVs in der Definition des KBA fallen hier gänzlich unter den Tisch, weil ihr Einfluss kaum merklich ist.

Schlussbemerkung.

Der Autor fährt keinen Stadtgeländewagen, noch nicht einmal ein SUV. Er ärgert sich gelegentlich ebenfalls über die Existenz dieser Fahrzeuge, sieht aber unter rationalen Gesichtspunkten keinen Grund, gegen SUVs etc. Stimmung zu machen. Wer dies tut, sollte nicht versäumen, mit der gleichen Verve gegen Menschen zu polemisieren, die einmal im Jahr ein Steak essen oder nach Mallorca fliegen, mit dem Auto eine Urlaubsreise machen, ihre Wohnung auf 22 Grad heizen, jeden Tag warm duschen, einen 55 Zoll Flachbildfernseher besitzen, regelmäßig im Internet surfen oder sich jedes Jahr neue Klamotten kaufen.

Anmerkung: Die Zahlen stammen teilweise aus 2016, 2017, 2018 oder 2019, je nachdem, was als neueste Zahl verfügbar war. Durch die Bezugnahme auf Zahlen aus unterschiedlichen Jahren (z.B. CO2-Emission, Zulassungszahlen, Bestandszahlen) entstehen kleinere systematische Fehler, die indes in der Gesamtschau vernachlässigbar sind. Die Fehler wirken sich allenfalls an der zweiten oder dritten Stelle hinterm Komma aus. Unabhängig davon muss man sehen, dass auch die CO2-Erhebung an sich fehlerbehaftet ist (Mittlere Abweichung aus unterschiedlichen Erhebungen: 0,7% bis 2,7% [6 – 24 Mio. Tonnen CO2], s. Link Berichterstattung unter der Klimarahmenkonvention der Vereinten Nationen und dem Kyoto-Protokoll 2019, Abschnitt 3.2.1, S. 147 ff.).

Quellenauszug:

  1. https://www.auto-motor-und-sport.de/neuheiten/segment-suv-definition-diskussion-gelaendewagen/
  2. https://www.tagesschau.de/wirtschaft/suv-millionen-marke-101.html
  3. https://www.tagesschau.de/multimedia/video/video-632301.html
  4. https://www.tagesschau.de/wirtschaft/autos-suv-105.html
  5. https://www.quarks.de/technik/mobilitaet/darum-sollten-wir-ueber-suv-diskutieren-statt-ueber-diesel/
  6. https://www.swr.de/home/So-verbreitet-sind-SUVs-Ranking-der-beliebtesten-Automodelle,beliebteste-automodellreihen-deutschland-100.html
  7. https://www.n-tv.de/wirtschaft/SUV-Zulassungen-erreichen-Rekordhoch-article21102967.html
  8. https://www.autozeitung.de/zulassungsstatistik-140455.html
  9. https://www.auto-motor-und-sport.de/verkehr/suv-neuzulassungen-deutschland-oktober-2019-daten-zahlen/
  10. https://www.swr.de/swraktuell/Klimafreundliche-Mobilitaet-Pro-und-Contra-Extra-Kfz-Steuer-fuer-SUVs,suv-steuer-pro-contra-100.html
  11. https://www.tagesspiegel.de/gesellschaft/immer-mehr-suv-neuzulassungen-das-autokaufverhalten-ist-in-einer-albernen-trotzphase/25324442.html
  12. https://www.umweltbundesamt.de/daten/verkehr/emissionen-des-verkehrs#textpart-3
  13. https://www.stern.de/reise/fernreisen/klimakiller-tourismus–reisen-ist-noch-viel-schaedlicher-als-angenommen-7973902.html
  14. https://www.kba.de/DE/Statistik/Fahrzeuge/Neuzulassungen/Segmente/2018/2018_segmente_node.html
  15. https://www.kba.de/DE/Statistik/Fahrzeuge/Bestand/Segmente/segmente_node.html
  16. https://de.statista.com/statistik/daten/studie/153249/umfrage/gelaendewagen-neuzulassungen-in-deutschland-nach-modellreihen/

Grün, inkompetent, radikal!

Ende von Verbrennern, weniger Fleisch: Das sind die radikalen Klimapläne der Grünen (nachzulesen z.B. in Focus Online).

Es war ja zu erwarten, dass die Grünen früher oder später wieder mit der Forderung nach einem Tempolimit auf den Plan kommen würden. Die Fakten sind relativ klar: Nach Berechnungen des Umweltbundesamtes könnte der jährliche CO2-Ausstoß durch ein Tempolimit um etwa 0,3% (2 – 3 Mio. Tonnen CO2) reduziert werden. Das ist fast nichts, was man daran ersehen mag, dass die Reduzierung des Fleischkonsums um nur 2 – 3 g pro Person und Tag (1 kg pro Person und Jahr) in etwa den gleichen Effekt hat. Auch das Argument der Verkehrssicherheit steht am Ende eher auf dünnem Eis. Natürlich ist langsameres Fahren bei sonst gleichen Bedingungen sicherer. Das ist banal! Indessen sind die Landstraßen bekanntermaßen deutlich gefährlicher als die Autobahnen (fast 60% der Toten). Sogar innerorts gibt es fast dreimal mehr Getötete als auf Autobahnen (ca. 30%). Konsequenterweise müsste man generell eine Geschwindigkeit von 30 km/h vorschreiben. Besser noch 0 und das Auto abschaffen. Und muss man nicht auch Zucker, Alkohol, Fleisch, Süßgetränke, … verbieten? – Hunderttausende jährlich sterben daran.

Den Grünen geht es um den grundsätzlichen Kampf gegen das Auto, nicht um vernünftige Lösungen zum Umwelt- oder Klimaschutz. Konsequent ignorieren sie die Fakten und gerieren sich als mittelalterliche Weltuntergangssekte: Wer ihnen nicht folgt, wählt vermeintlich den Weg in die ewige Verdammnis.

Global liegt die Hauptursache für die Umweltbelastung in der Überbevölkerung der Erde. Man darf sich dabei nichts vormachen: Die Erhöhung des Lebensstandards für 6 Milliarden Menschen in den Entwicklungs- und Schwellenländern wird Unmengen an zusätzlicher Energie verschlingen. Energie, die auf absehbare Zeit nur mittels fossiler Energieträger oder Atomkraft bereitgestellt werden kann. Die Grünen streuen uns Sand in die Augen, indem sie argumentieren, die Menschen in der Dritten Welt würden die Umwelt sehr viel weniger belasten. Das ist zwar faktisch zutreffend, ignoriert aber die Randbedingungen. Ja wollen wir denn die in Entwicklungsländern herrschenden Lebensbedingungen nun auch in Deutschland einführen? Ist das der Plan der Grünen zur Steuerung der Migration und zur Reduktion der deutschen CO2-Emission?

Mit Verlaub, es ist grober Unfug, den CO2-Fußabdruck Deutschlands als Industrie- und Exportnation mit Ländern in Afrika zu vergleichen. Umgekehrt wird ein Schuh daraus: Deutschland und andere Industrieländer (auch China) produzieren Waren und Maschinen für den Rest der Welt und belasten damit nominal ihre jeweils eigene CO2-Bilanz. Nicht produzierende Länder machen sich die Finger nicht schmutzig. Ihr CO2-Konto wird künstlich geschönt, weil sie die Waren nicht selbst herstellen müssen.

Die einseitige Fokussierung der Grünen auf die Reduktion der CO2-Emission ist ebenso kleingeistig wie phantasielos und wird das Problem nicht lösen. Die globale CO2-Bilanz wird bestimmt von zwei Hauptfaktoren: (A) Emission von CO2 (natürlichen Ursprungs und menschengemacht). (B) Absorption von CO2 (fast ausschließlich auf natürliche Weise, vor allem in den Wäldern). Man kann A reduzieren, mit allen negativen Folgen auf die Wirtschaft und den Lebensstandard der ganzen Menschheit. Denn es gilt: Den Menschen in der Dritten Welt geht es nicht besser, wenn es uns schlechter geht. Alternativ dazu kann man auch B, also die CO2-Absorption, durch weltweite Aufforstung erhöhen. Das hat bezüglich der CO2-Bilanz unterm Strich den gleichen Effekt. Damit es nachhaltig funktioniert, muss dem ungebremsten Wachstum der Weltbevölkerung endlich ein wirksamer Riegel vorgeschoben wird. Das ist das Kernproblem an dem alles hängt, denn der Flächenverbrauch für die Ernährung von 7,5 und mehr Milliarden Menschen steht in Konkurrenz zu der nötigen weltweiten Aufforstung.

Autonomous driving – How to achieve functional safety in highly complex traffic scenarios?

(switch to german)

To anticipate the answer: The decisive advantage in functional safety results from the constructive cooperation of on-board systems and IT back ends.

Emission-free mobility and highly automated driving are the determinant future topics for automotive OEMs and suppliers. Embedded systems (ES) in the vehicle (on-board) together with high-performance back end IT systems (off-board) are the enablers in order to achieve these ambitious goals. The key lies in the intelligent connection of both worlds.

On the way to accomplish highly automated and autonomous driving functions, established OEMs, suppliers and engineering service providers are faced with the task of implementing innovative and highly complex customer functions economically. At the same time, the market is rapidly changing. New and unconventional acting market players such as Google, Apple, Tesla, Faraday, Uber, and others, are radically breaking new ground, both technologically and in terms of business models. This competition comes mainly from the IT world, not from the engineering world. These companies understand the vehicle mainly as a sort of „software on the road„.

The well proven technology access, which has been tried and tested by premium OEMs and their suppliers, is based on a more or less self-sufficient functional representation using on-board sensors and on-board embedded systems in the vehicle. Remember, a little bit more than 20 years ago, vehicles have been largely mechanical, mechatronic and electronic systems with a marginal share of software. Meanwhile, vehicle systems have been technologically expanded by more and more electronics and a rapidly growing share of software. This technological change has been extremely successful: many vehicle functions have been gradually realized completely as embedded systems with integrated software. Today, the functionalities at the cutting edge are complex driver assistance systems up to highly automated driving (level 3 automation / conditional automation). As mentioned before, all on-board and essentially without active communication with the outside world!

Even more challenging is the implementation of functions with the required higher levels of automation (Level 4 and higher / High and Full Automation or Autonomous Driving). Particularly, in the urban environment, e.g. safe passage of a multi-lane urban intersection, there are extremely difficult tasks that cannot be handled safely by state-of-the-art closed on-board solutions.

Provided, we must rely on the exclusive basis of a self-sufficient on-board system solution. Would we gain the confidence to entrust our preschool children (without accompany of adults) to an autonomous vehicle, which should them take to the grandparents living at the other end of the city? That’s hard to imagine!

To implement such highly complex and highly critical applications in a functionally reliable manner, new solutions are needed. One promising approach is to remove definite sub functions of the overall task from the vehicle and outsource them to an IT back end, or implement them at the IT back end, redundantly. This may comprise, for example, the computationally intensive parts of the representation and interpretation of the digital world view, the processing of large amounts of data, the determination of alternative courses of action in the driving strategy using AI methods (AI = Artificial Intelligence), the continuous expansion of the scenario knowledge base (Continuous Learning), the anticipation of the behavior of other road users, the analysis and verification of the ego vehicle’s driving trajectory in view of the traffic rules and quite simply the monitoring of the vehicle and the route from a distant location.

Certainly, it is no coincidence that the new market players mentioned above have recognized the benefits of IT solutions in automotive scenarios right from the start. They take advantage of the resulting flexibility in the technical development and especially they apply IT proven procedures for the validation of driving functions. Also, they adopt the perspectives for potential disruptive changes in mobility concepts.

Enormous pressure on established OEMs, suppliers and engineering service providers results from this situation. Both technological approaches, the classical automotive one and the merely IT based one have their strengths and weaknesses. With respect to future mobility solutions, the benefits of the IT world (including the capability to process large amounts of data, rapid updates, usage of AI methods, deep learning) must be combined with the benefits of the ES world (including the close union of HW and SW, high efficiency, compact algorithms, real-time capability).

The decisive technological requirement arising from this is the connectivity capability of the different subsystems inside the car and the interconnection of the vehicle system with the overall network. The core requirement is the availability of highly secure and operationally reliable data connections with a high-bandwidth. Provided this is ensured, functionally safe applications (Safety) distributed over a heterogeneous system environment of IT and ES systems can be established. At the same time, of course, the highest standards must be applied on data security (IT security). Finally, functional safety is ruled by the simple precept „without security, there is no safety„.

The technological cornerstones for maintaining the functional safety of IT back ends are:

    • Function-dependent end-to-end latency < 20 ms … < 1sec
      (transit time measured from on-board to IT back end, and backwards)
    • 24/7 availability and third-level technical support
    • Protection of data integrity from cyber attacks
    • Anonymization of the data
    • Continuous updating of protective measures
    • Scalability of services

With the advent of the cellular standard 5G, the foundations have been laid for high-security data links with low latencies („signal propagation time„, delay between triggering and the effective execution of an action or response). The highly secure networking between the embedded systems in the vehicles on the one hand and the corresponding IT back ends on the other will thus provide a significant contribution to the further evolutionary steps in driver assistance towards reliable higher automation functions and autonomous driving.

Nevertheless, there can be no doubt that even with this holistic approach the way to the driverless car that rules the full variety of traffic scenarios („autonomous drivingin the truest sense of the word) is still far away. There may be people who are saying, what’s the matter, that’s possible, Google has done it already. Others have also shown that cars can maneuver in real world traffic scenarios without driver intervention. Yes and no! Here we have to put into perspective, that all of these examples are far away from the required technological maturity and readiness for mass use under arbitrary real traffic conditions. – Let’s do the litmus test and remind ourselves again of the scenario mentioned above: Would we gain the confidence to entrust our preschool children to an autonomous vehicle (without accompany of adults) which should them take to the grandparents living at the other end of the city? – Provided, we can answer in the affirmative without hesitation we have reached the goal, not earlier.

In the medium to long term there will be an extensive technological convergence of the IT world and the ES world. We already see the beginnings of this process. For example, there are more and more dedicated AI chips used in both environments, ES and IT. Among other things this is the progression that is driving and pioneering the convergence. This process has the power to bring together the still separated worlds of ES and IT. An additional transformation pressure comes from those highly complex new automation functions with multiple cross system dependencies. Paradoxically, precisely the use cases that are easy to describe (for example, the car should drive from address A to address B, completely independent from any driver interaction) are calling for a holistic view, thus driving the convergence process.

Autonomes Fahren – Wie kann die nötige Funktionssicherheit in hochkomplexen Szenarien hergestellt werden?

(switch to english)

Um die Antwort vorwegzunehmen: Das entscheidende Plus an funktionaler Sicherheit entsteht durch das konstruktive Zusammenwirken von On-Board-Systemen und IT-Backends.

Emissionsfreie Mobilität und hochautomatisiertes Fahren sind die bestimmenden Zukunftsthemen für Automotive-OEM und Zulieferer. Eingebettete Systeme (ES) im Fahrzeug (On-Board) sind dabei zusammen mit hochleistungsfähigen Backend-IT-Systemen (Off-Board) die Wegbereiter zur Realisierung dieser ambitionierten Ziele. Der Schlüssel liegt in der intelligenten Verbindung beider Welten.

Auf dem Weg zur Realisierung hochautomatisierter und autonomer Fahrfunktionen sehen sich etablierte OEM, Zulieferer und Engineering-Dienstleister der Aufgabe gegenüber, neuartige und hochkomplexe Kundenfunktionen wirtschaftlich zu realisieren. Zugleich verändert sich der Markt rapide durch das Auftreten von neuen und unkonventionellen Mitspielern wie Google, Apple, Tesla, Faraday, Uber und anderen, die sowohl technologisch wie auch bezüglich der verfolgten Geschäftsmodelle teilweise radikal neue Wege gehen. Dieser Wettbewerb kommt überwiegend aus der Welt der IT und versteht das Auto vor allem als „fahrende Software“.

Der bewährte, von den Premium-OEMs und ihren Zulieferern vielfach erprobte Technologiezugang basiert auf der mehr oder weniger autarken Funktionsdarstellung mittels On-Board-Sensorik und eingebetteten Systemen im Fahrzeug. Das ist das Erfolgsrezept mit dem das vormals noch weitgehend mechanische oder mechatronische System Automobil seit mehr als 20 Jahren um immer mehr Elektronik und Software technologisch erweitert wird. Und dies überaus erfolgreich: Viele Fahrzeugfunktionen wurden nach und nach komplett als eingebettete Systeme mit integrierter Software realisiert. An der Spitze der Entwicklung stehen heute komplexe Fahrerassistenzsysteme bis hin zum hochautomatisierten Fahren (Automatisierungsgrad Level 3 / Conditional Automation). Wie gesagt, das alles On-Board und im Wesentlichen ohne aktive Kommunikation mit der Außenwelt!

Noch vielfach komplexer ist die Verwirklichung von Funktionen mit den geforderten höheren Automatisierungsgraden (Level 4 und höher / High und Full Automation bzw. Autonomes Fahren). Insbesondere im urbanen Umfeld, z.B. sicheres Passieren einer mehrspurigen städtischen Kreuzung, stellen sich hier extrem schwierigere Aufgaben die heute noch nicht sicher bewältigt werden können.

Würden wir auf der ausschließlichen Basis einer – autark arbeitenden – On-Board Systemlösung das Vertrauen entwickeln, Kinder im Vorschulalter von einem autonomen Fahrzeug und ohne Begleitung Erwachsener zu den am anderen Ende der Großstadt wohnenden Großeltern bringen zu lassen? Das ist kaum vorstellbar!

Um solche hochkomplexen und hochkritischen Anwendungsfälle funktional sicher umsetzen zu können, braucht man neue Lösungen: Ein erfolgversprechender Ansatz besteht darin, bestimmte Teilfunktionen der Gesamtaufgabe aus dem Fahrzeug herauszunehmen und in ein IT-Backend auszulagern oder dort redundant zu realisieren. Dabei geht es beispielsweise um rechenintensive Anteile der Darstellung und Interpretation des digitalen Weltbilds, die Verarbeitung großer Datenmengen, die Bestimmung von Handlungsalternativen in der Fahrstrategie mittels KI-Methoden (KI = Künstliche Intelligenz), die kontinuierliche Erweiterung der Szenario-Wissensbasis (Continuous Learning), das Voraussehen des Verhaltens anderer Verkehrsteilnehmer, die Plausibilisierung der eigenen Fahrtrajektorie sowie ganz schlicht das Monitoring des Fahrzeugs und der Fahrstrecke von einem anderen Ort aus.

Es ist gewiss kein Zufall, dass die oben genannten neuen Marktplayer von Anfang an den Nutzen von IT-Lösungen erkannt und die damit verbundene Flexibilität in der Entwicklung, der Validierung und der revolutionären Veränderung des Gesamtsystems Automobil oder allgemeiner von Mobilitätskonzepten insgesamt für sich nutzbar zu machen suchen.

Aus diesem Spannungsfeld erwächst ein enormer Druck auf die etablierten OEM, Zulieferer und Engineering-Dienstleister. Beide technologischen Ansätze haben ihre Stärken und Schwächen, es kommt darauf an, bezüglich künftiger Mobilitätslösungen die Vorteile der IT-Welt (u.a. Verarbeitung großer Datenmengen, schnelle Updates, Einsatz KI-Methoden, Deep Learning) mit den Vorteilen der ES-Welt (u.a. enge Verzahnung von HW und SW, hohe Effizienz, kompakte Algorithmen, Echtzeitfähigkeit) zu verknüpfen.

Die entscheidende daraus erwachsende technologische Anforderung ist die Vernetzungsfähigkeit der Teilsysteme und Systeme im Gesamtverbund. Es geht dabei um sichere, nein, um hochsichere und absolut verlässliche Datenverbindungen in hoher Bandbreite. Nur dann, wenn dies gewährleistet ist, lassen sich funktional sichere Anwendungen (Safety) in einem heterogenen Systemumfeld aus IT- und ES-Systemen darstellen. Gleichzeitig müssen natürlich höchste Maßstäbe an die Datensicherheit (Security) gelegt werden, denn es gilt, „Ohne Security gibt es keine Safety“.

Die technologischen Eckpunkte für die Einhaltung der funktionalen Sicherheit von IT-Backends sind:

  • Funktionsabhängig definierte End-to-End-Latenz < 20 ms … < 1 sec (Laufzeit von On-Board zu IT-Backend und zurück)
  • 7×24-Verfügbarkeit und technischer Third-Level Support
  • Schutz der Daten-Integrität vor Cyber-Angriffen
  • Anonymisierung der Daten
  • Kontinuierliche Aktualisierung der Schutzmaßnahmen
  • Skalierungsfähigkeit der Services

Mit dem Aufkommen des Mobilfunkstandards 5G sind die Grundlagen für hochsichere Datenverbindungen mit geringen Latenzen (“Signallaufzeit“, Verzögerung zwischen dem Auslösen und dem tatsächlichen Durchführen einer Aktion oder Reaktion) gelegt. Die hochsichere Vernetzung zwischen den eingebetteten Systemen in den Fahrzeugen mit den geeigneten IT-Backends wird so einen maßgeblichen Beitrag für die weiteren Evolutionsschritte in der Fahrerassistenz hin zu verlässlichen höheren Automatisierungsfunktionen und zum autonomen Fahren leisten.

Dennoch kann kein Zweifel daran bestehen, dass auch mittels dieses holistischen Lösungsansatzes der Weg zum alle Verkehrsszenarien beherrschenden fahrerlosen Auto („autonomes Fahren“ im eigentlichen Wortsinne) noch weit ist. Da mag jetzt der eine oder andere einwenden, wieso denn, das geht doch, Google macht das doch schon. Auch andere haben schon gezeigt, dass sich Autos ohne Fahrereingriff im Verkehr bewegen können. Ja und nein! Hier muss man relativieren, das ist noch lange nicht die erforderliche technologische Reife für den Masseneinsatz unter beliebigen realen Verkehrsbedingungen. – Machen wir doch den Lackmustest und rufen uns noch einmal das obige Szenario in Erinnerung: Würden wir die eigenen Kinder im Vorschulalter von einem solchen autonomen Fahrzeug und ohne Begleitung Erwachsener zu den am anderen Ende der Großstadt wohnenden Großeltern bringen zu lassen? – Dann, wenn wir diese Frage ohne Zögern mit JA beantworten können, erst dann haben wir das Ziel erreicht, nicht eher.

Mittel- bis langfristig wird es zu einer weitgehenden technologischen Konvergenz der IT-Welt und der ES-Welt kommen. Die Ansätze dazu sehen wir schon heute. Z. B. gibt es immer mehr dedizierte KI-Chips, die sowohl im ES- als auch im IT-Umfeld Verwendung finden. U. a. ist es diese Entwicklung, die als Treiber und Wegbereiter die einst völlig getrennten Welten ES und IT einander näherbringt. Ein weiterer Transformationsdruck entsteht durch die hochkomplexen und vielfachen Abhängigkeiten unterliegenden neuen Automatisierungsfunktionen. Paradoxerweise sind es dabei gerade die aus der menschlichen Perspektive heraus eher einfach zu beschreibenden Use Cases (z.B., das Auto soll völlig selbständig von Adresse A zu Adresse B fahren), die nach einer ganzheitlichen Betrachtung rufen und so den Konvergenzprozess vorantreiben.

Individuelle Mobilität und globale Erwärmung

Welchen Anteil tragen die CO2-Emissionen von Kraftfahrzeugen an der globalen Erwärmung?

Tun wir `mal so, als seien von heute auf morgen 1 Mio. Verbrenner-Autos weniger auf der Straße. Welche Auswirkungen hätte das auf den Umfang der CO2-Emissionen?

In Deutschland sind etwa 45 Mio. Pkw angemeldet. Zusammen fahren sie ca. 650 Mrd. km im Jahr. Dabei emittieren sie ca. 160 Mio. t. CO2, das sind knapp 18% der gesamten CO2-Emissionen von 902 Mio. t (s. Grafik).

(Zur vergrößerten Darstellung auf die Grafik klicken)

Wenn nun 1 Mio. Autos mit Otto- oder Dieselmotor weniger unterwegs wären, z. B. weil ihre Besitzer Car-Sharing betreiben, ganz aufs Fahrrad umsteigen oder zu Fuß gehen, wie wirkt sich das auf die CO2-Bilanz aus?

Der CO2 Ausstoß sinkt auf 160*44/45 = 156,4 Mio. t, das ist eine Reduktion der gesamten CO2 Emissionen um (160-156,4)/902 = 0,4%. Wohlgemerkt, das gilt dann, wenn diese Autos sozusagen stillgelegt werden.

Und wie sieht es aus, wenn stattdessen eine Million Fahrzeuge auf Elektromobilität umgestellt werden?

Nehmen wir an, Ihre Besitzer fahren wie bisher etwa 40 km pro Tag bzw. ca. 15000 km p. a. Bei einem durchschnittlichen Stromverbrauch von 18 kWh/100 km werden dafür somit insgesamt 150*18*10^6 = 2,7 TWh = 2,7*10^9 kWh benötigt. Im deutschen Strommix verursacht 1 kWh Strom mehr als 500 g CO2, demnach emittiert die genannte Energiemenge ca. 2,7*10^9*0,5 = 1,35 *10^6 t CO2.

Gegenüber dem Status quo reduziert sich somit der CO2-Ausstoß um (160-156,4+1,35)/902 = 0,25%. In dieser Rechnung ist die CO2-Bilanzierung der Akku-Produktion natürlich noch nicht berücksichtigt.

Was sagt uns das? – Elektromobilität ist eine gute Sache, sie ist aber nicht so umwerfend gut, dass man deswegen seinen Verstand verlieren muss. Und vor allem muss man endlich einmal nüchtern erkennen, dass das CO2-Aufkommen nur zu einen Bruchteil von weniger als 20 % überhaupt vom Verkehr abhängt.

Natürlich ist CO2 nicht das einzige relevante Verbrennungsprodukt – im Hinblick auf die klimaschädliche Wirkung ist es aber das wichtigste. Nicht umsonst ist die globale CO2-Emission das Thema Nr. 1 bei politischen Parteien und internationalen Organisationen (s. Klimakonferenzen und -abkommen). Und das geht hin bis zu “Vorschlägen” von sich sachkundig gebenden bekannten Parteien und Interessenverbänden, wie denn nun CO2 eingespart werden kann. Dabei wird regelmäßig der Eindruck erweckt, der Individualverkehr, sei der Hauptfaktor der “Klimakatastrophe“, obwohl doch mehr als 80% der Emissionen aus anderen Quellen kommen. Desgleichen wird den Menschen eingeredet, die Umstellung auf Elektromobilität werde das Klima schon retten. Das Rechenbeispiel zeigt, dass das nicht hat der Fall sein wird, denn Elektrofahrzeuge sind so emissionsfrei, wie der Strom mit dem sie betrieben werden. Dabei darf man aber auch die Umweltbelastung für die Akkuproduktion nicht vergessen (s. hier).

Nun mag man einwenden, immerhin würde damit doch ein Beitrag zur Luftreinhaltung geleistet, z.B. betreffend niedrigerer Emissionen bezüglich Stickoxiden und Feinstaub. Das ist grundsätzlich richtig, aber auch dieser Effekt ist nicht so durchgreifend, wie das oftmals dargestellt wird. Tatsächlich stellen auch in diesem Falle die verkehrsbedingten Emissionen nur einen Bruchteil der Gesamtemissionen dar.  Auf die entsprechenden Zahlen des Umweltbundesamtes und deren Interpretation wird in den folgenden Links Bezug genommen.

  1. Stickoxide im Verkehr
  2. Feinstaub PM 20
  3. Feinstaub PM 2,5

(2 und 3 mit Bezug auf vorzeitige Sterbefälle durch Feinstaub)