Archiv der Kategorie: Wissenschaft

Ist ein Elektroauto „umweltfreundlich“ oder nur weniger „umweltschädlich“?

Es soll in diesem Beitrag nicht um die Frage des besten Antriebskonzepts gehen. Nicht darum, ob Elektroautos weniger umweltschädlich und Verbrenner weniger umweltfreundlich sind. Ebenso wenig soll erörtert werden, ob das Attribut umweltfreundlich eher zum Elektroauto passt, beim Verbrenner indes die Assoziation umweltschädlich näher liegt. Das Thema ist vielmehr der Sinnzusammenhang der beiden Adjektive. Kann man überhaupt, von trivialen Fällen abgesehen, sicher sagen, etwas sei umweltfreundlich oder umweltschädlich? Und was genau, sollte das jeweils bedeuten?

Semantik

Die Fragestellung hat zwei Hauptaspekte, eine philosophische und eine logisch-semantische. Wir beginnen mit dem Letzteren. „Wahre“ und „falsche“ Aussagen kann man im strengen Sinne nur innerhalb eines axiomatischen Systems treffen. Im realen Leben bewegt sich alles irgendwo dazwischen, vor allem auch deshalb, weil die Wortbedeutungen unscharf sind.

Konkret ist hier „umweltfreundlich“ ein genauso unscharfes Adjektiv wie „umweltschädlich“.  In beiden Attributen klingt ein gewisser Absolutheitsanspruch durch, den zu verifizieren kaum gelingen kann. Mit Sicherheit wird man auch keinen allgemeinen Konsens darüber erzielen können, wo genau die Grenze liegt. Treffender ist es, stattdessen von „umweltschonend“ zu sprechen. Darin steckt viel weniger Wertung, obwohl immer noch offenbleibt, was genau damit gemeint sein mag. Sinnvoll erscheint zunächst einmal eine relative Definition. Die eine technische Lösung oder Handlungsweise ist umweltschonender als die andere, wenn sie in der Umwelt räumlich und zeitlich eine weniger starke Wirkung hinterlässt.

Logik

Darüber hinaus gibt es ein im eigentlichen Sinne logisches Problem. Es ist eine banale Erkenntnis, dass technische Systeme (und ihre Nutzung durch uns) die Umwelt immer in mehrerlei Hinsicht tangieren. Sie sind von ihr abhängig sind und beeinflussen sie. In der Regel reden wir hier von einer komplexen multifaktoriellen Beeinflussung bzw. Wechselbeziehung. Die Begründung für das Logikproblem ist einfach. Systeme, die durch mehr als nur einen Parameter charakterisiert werden (nur solche gibt es in der Realität), lassen sich nicht eindeutig in eine Ordnung bringen. Man kann nicht zwingend darlegen, dass das System mit der Charakteristik (2 5) besser oder schlechter ist als das System mit der Charakteristik (3 4). Das ist logisch unmöglich.

Ist ein Elektrofahrzeug mit einem Energieverbrauch von 20 kWh pro 100 km bei einer Zuladung von 500 kg und einer Akkukapazität von 80 kWh dem Konkurrenzprodukt mit 16 kWh pro 100 km, 400 kg Zuladung und 60 kWh Akkukapazität überlegen? Es kommt darauf an, wie man das Zusammenspiel der Eigenschaften im Hinblick auf den im Grundsatz willkürlich gesetzten Nutzwert beurteilt.

„Besser“ oder „umweltfreundlicher“ wird ein System erst durch die nicht im absoluten Sinne objektivierbare Bewertung, die wir ihm beimessen. Völlig gleich, wie viele vermeintlich gute Gründe wir dafür finden: Das Resultat wird durch die mehr oder weniger bewusste Entscheidung zur Zielsetzung determiniert und spiegelt daher zwangsläufig unser – unvollständiges – Bild von den Zusammenhängen.

Philosophische Sicht

Umwelt, das ist – im engeren Sinne – die Menge aller natürlichen (und im weiteren Sinne auch der künstlichen) Entitäten und ihrer Wechselbeziehungen. Wir sind Teil der Umwelt und alles was wir tun und lassen, hat Folgen auf das System Umwelt. Schon durch unsere bloße Existenz beeinflussen wir die Umwelt. Mindestens nehmen wir Raum ein, und selbst bei größter Bescheidenheit benötigen wir Ressourcen für unser Überleben.

In unserer zwangsläufig anthropozentrischen und zuweilen auch romantisierenden Perspektive neigen wir dazu, unseren Einfluss auf die Umwelt, sofern er in Richtung einer Veränderung zurück zur Situation vor Auftreten des Menschen geht, als positiv und „umweltfreundlich“ zu begreifen. Den Einfluss in Richtung einer erzwungenen Anpassung der Umwelt auf die Existenz des Menschen und seiner Bedürfnisse verstehen wir oft pauschal als negativ. Aber auch hier gibt es kein simples Richtig oder Falsch. Gut oder schlecht, positiv oder negativ wird unser Wirken erst durch unser eigenes und letztlich willkürlich gesetztes Maß. Die Natur selbst kennt weder Gut noch Böse.

War der Einschlag des Meteoriten, dem vor 65 Mio. Jahren die Dinosaurier zum Opfer gefallen sind, eine Katastrophe? Oder war es doch ein segensreiches Ereignis, weil im Ökosystem mutmaßlich erst dadurch der Freiraum für die Entwicklung der Säugetiere und damit letztlich des Menschen entstanden ist?

Massive Eingriffe auf die Umwelt tragen das Risiko von Instabilität und disruptiver Veränderung in sich. Was danach folgt, muss nicht zwangsläufig „negativ“ sein, es ist aber jedenfalls ungewiss.

Ziel: Eingriffe klein halten

Wir kommen jetzt noch einmal auf den obigen Begriff zurück. Mit dem Attribut „umweltschonend“ messen wir uns am Ziel, den Einfluss auf die Umwelt möglichst klein zu halten. Das ist nicht unvernünftig, weil wir die Folgen unseres Handelns aufgrund der Komplexität des Gesamtsystems Umwelt zumindest in der Langfristperspektive nicht sicher vorhersagen können.  Mehr noch, es fällt sogar schwer, die Auswirkung unseres Tuns auf die Umwelt überhaupt objektiv zu bestimmen. Was wir wahrnehmen, ist immer nur ein Ausschnitt der Wirklichkeit. Die Vielgestaltigkeit der tatsächlichen, offenen und versteckten, direkten und indirekten Wechselbeziehungen erlaubt uns allenfalls eine Annäherung an die komplexe Realität mit begrenzter Aussagekraft.

Ausgehend vom vorgefundenen stabilen Umweltsystem, liegt es in unserem unmittelbaren Interesse, die Stabilität des Systems zu erhalten. Denn eingedenk der immensen Komplexität wissen wir nicht, wohin es sich entwickeln wird, wenn es den Status quo verlässt und in der Konsequenz möglicherweise in einen Zustand der Instabilität gerät. Besser als das stark wertende Begriffspaar „umweltfreundlich“ vs. „umweltschädlich“ trifft daher die Fragestellung, inwiefern und in welchem Grade technische Lösungen und Handlungen als „umweltschonend“ bezeichnet werden können, den Kern der Diskussion.

Wie muss die Frage formuliert werden?

Die sinnvollere Fragestellung lautet daher: Ist ein Elektroauto „umweltschonender“ als ein Fahrzeug mit konventioneller Motorisierung? Entfaltet also ein Elektroauto im Hinblick auf seine Produktion und den Betrieb sowie der Energiebereitstellung im gesamten Lebenszyklus räumlich und zeitlich eine weniger starke Wirkung auf die Umwelt als ein sonst vergleichbares fossil betriebenes Fahrzeug? – Diese Frage zu beantworten soll indes einem anderen Beitrag vorbehalten bleiben.

Die ominöse Herdenimmunität

Ist die Pandemie nach der Impfkampagne beendet?

Mit zunehmender Dauer der Corona-Pandemie kommt immer mehr die Frage nach der sogenannten Herdenimmunität auf. Wann endlich sind so viele geimpft bzw. von der Infektion genesen, dass eine weitere Ausbreitung des Virus ausgeschlossen werden kann? Oft werden für die Herdenimmunität Zahlen von 60 %, 67 % oder 70 % genannt. Doch gibt es eine Grenze bezüglich der Anzahl der Genesenen bzw. Geimpften, ab welcher keine Infektionsgefahr mehr besteht? Ist die Herdenimmunität eine scharfe epidemiologische Grenze? Kommt es zu keinen weiteren Neuinfektionen mehr, wenn 70 % oder 80 % geimpft sind?

Dazu später. Zunächst wollen wir die Zusammenhänge beleuchten und die Größe der Herdenimmunität ableiten.

Wie breitet sich das Virus aus?

Sei \(N\) die Größe der Population. Der Wert \(q\) steht für die Wahrscheinlichkeit, dass beim Kontakt mit einem Virusträger eine Übertragung stattfindet (was nur innerhalb der begrenzten Infektionszeit von ca. 7 bis 14 Tagen möglich ist). Ferner sei \(k\) die durchschnittliche Anzahl der Kontaktpersonen und \(k_{n}\) die durchschnittliche Anzahl der nicht infizierten Kontaktpersonen eines Erkrankten. Die Anzahl der Neuinfizierten im Intervall  bezeichnen wir mit \(a_{n}\). Die Gesamtanzahl aller bis zum Intervall \(n\) bereits Erkrankten in der Population nennen wir \(s_{n} \). Es gilt \(s_{n} = \sum_{i=0}^{n} a_{i} \).

Für die Anzahl der Neuinfizierten im Intervall \(n+1\)  erhalten wir nun:

\begin{equation} a_{n+1} = q \cdot k_{n} \cdot a_{n} \end{equation}

Wie kommen wir hierin zum Wert von \(k_{n}\)? Ganz einfach: Die Wahrscheinlich dafür, dass eine zufällig aus der Gesamtpopulation gewählte Kontaktperson noch nicht infiziert ist, können wir leicht bestimmen. Es ist der Quotient \(\frac{N-s_{n}}{N} \). Demnach gilt

\begin{equation} k_{n} = \frac{N-s_{n}}{N} \cdot k \end{equation}

Zusammengefasst erhalten wir also

\begin{equation} a_{n+1} = q \cdot k \cdot \left (1 – \frac{s_{n}}{N} \right ) \cdot a_{n} \end{equation}

Das Produkt aus Kontaktanzahl und Infektionswahrscheinlichkeit wird oft auch als Reproduktionsfaktor oder R-Wert bezeichnet. Damit erhalten wir die Entwicklungsformel

\begin{equation} a_{n+1} = R \cdot \left (1 – \frac{s_{n}}{N} \right ) \cdot a_{n} \end{equation}

Bestimmung der Herdenimmunität

Mittels des Modells kann man leicht bestimmen, welche Bedingung erfüllt sein muss, damit die Anzahl der Neuinfektionen ab einem bestimmten Zeitintervall nicht weiter ansteigt. Dies ist dann der Fall, wenn \(\frac {a_{n+1}}{a_{n}}  \le 1\) ist, wenn also gilt, \( R \left (1 – \frac{s_{n}}{N} \right ) \le 1\). Daher lautet die Bedingung

\begin{equation} \frac{s_{n}} {N} \ge 1 – \frac{1}{R} \end{equation}

Wenn also der relative Anteil \(\frac{s_{n}} {N}\) der Genesenen (bzw. Geimpften, also der Immunisierten) an der Gesamtpopulation erstmals den Wert \(1-\frac{1}{R}\) übersteigt, gehen die Neuinfektionen zurück. Diese Grenze markiert den Wert der sogenannten Herdenimmunität \(H\) und es gilt demnach

\begin{equation} H = 1 – \frac{1}{R} \end{equation}

In Abb. 1 ist der Zusammenhang zwischen \(H\) und \(R\) grafisch dargestellt.

Theoretische Herdenimmunität in Abhängigkeit vom Reproduktionsfaktor (R-Wert).

Abbildung 1: Theoretische Herdenimmunität in Abhängigkeit vom Reproduktionsfaktor (R-Wert).

Mathematisch gesehen bestimmt \(H\) das Maximum im Kurvenverlauf der Neuinfektionen. Wenn der Anteil der Infizierten unterhalb der Grenze \(H\) liegt, dann steigen die Neuinfektionszahlen exponentiell, liegt sie oberhalb, dann fallen sie exponentiell. \(H\) ist damit zugleich der Wendepunkt im Kurvenverlauf der Gesamtanzahl der Infizierten: Wenn der Anteil der Infizierten \(\le H\) ist, wachsen die Infektionszahlen immer schneller an. Sobald die Grenze \(H\) überschritten wird, steigen die Infektionszahlen zwar immer noch, aber der Verlauf wird immer flacher: Es gibt kein exponentielles Wachstum mehr. Der Wert von \(H\) definiert also die Grenze, ab welcher die exponentielle Ausbreitung des Virus bei einem gegebenem Reproduktionsfaktor \(R\) eingedämmt ist.

Exemplarische Entwicklung der Infektionszahlen

Die prinzipiellen Zusammenhänge für einen Reproduktionsfaktor \(R = 1.5\) (entsprechend einer Herdenimmunität von 33 % bzw. 27,5 Mio. Menschen) sind in Abb. 2 visualisiert.

Verlauf der Neuinfektionen und der Gesamtanzahl der Immunisierten (hier: Genesene) auf Basis eines Reproduktionsfaktors R = 1,5 unter der Annahme von 1000 Neuinfektionen in der ersten Woche des Betrachtungszeitraums.

Abbildung 2: Verlauf der Neuinfektionen und der Gesamtanzahl der Immunisierten (hier: Genesene) auf Basis eines Reproduktionsfaktors R = 1,5 unter der Annahme von 1000 Neuinfektionen in der ersten Woche des Betrachtungszeitraums. Dieser R-Wert entspricht einem Wert für die Grenze der Herdenimmunität von 33 % bzw. 27,5 Mio. Menschen (grün gestrichelte horizontale Linie). Der Anteil der Genesenen überschreitet in der 25. Woche die Grenze der Herdenimmunität (grün gestrichelte vertikale Linie). Ab diesem Zeitpunkt geht die Anzahl der Neuinfektionen exponentiell zurück. Die Infektionszahlen steigen aber weiter an und erreichen über 51 Mio. Menschen.

Wie man der vorstehenden Ableitung entnimmt, handelt es sich bei der Herdenimmunität nicht um eine feste Grenze, sondern um einen von der Kontakthäufigkeit und der Infektionswahrscheinlichkeit bzw. vom Reproduktionsfaktor R abhängigen theoretischen Schwellwert.

Wenn der entsprechende Anteil der Population infiziert ist, kommt es zu keinem weiteren exponentiellen Wachstum mehr, vorausgesetzt, die Kontakthäufigkeit und die Infektionswahrscheinlichkeit erhöhen sich nicht. Bei einem Reproduktionsfaktor von 3 (also z.B. durchschnittlich 3 Kontakte mit einer Infektionswahrscheinlichkeit von q=100 %, oder 30 Kontakte mit q=10 %, liegt der Schwellwert für die Herdenimmunität bei exakt 2/3 bzw. 67 %. Erhöht sich aber der R-Wert auf 3,5, so ändert sich der Schwellwert des exponentiellen Wachstums auf 71 %. Bei R-Werten von 4 oder 5 liegt die Grenze entsprechend bei 75 % bzw. 80 %.

Was passiert mit den Infektionszahlen bei einer Erhöhung des R-Wertes?

Wir beleuchten die Fragestellung anhand eines Beispiels. In Abbildung 3 sind die Kurvenverläufe für die Neuinfektionen und die Gesamtanzahl der Infizierten für den exemplarischen Fall der Änderung des R-Wertes von 3 auf 4 aufgetragen. Ausgangsbasis für die Rechnung ist die bereits erreichte Herdenimmunität von 67 % bei einem Reproduktionsfaktor von 3. Es wird angenommen, dass sich der R-Wert in der ersten Woche des Betrachtungszeitraums auf 4 erhöht und zugleich 1000 Neuinfektionen stattfinden. Höhere R-Werte können temporär durchaus entstehen, z.B. aufgrund von Massenveranstaltungen.

Wenn der R-Wert (theoretisch) für 1 Jahr konstant bei 4 bleibt, steigen die Neuinfektionen in der Folge bis zur 30. Woche exponentiell an und erreichen dort ihr Maximum mit fast 1 Mio. Neuinfizierten. Danach nimmt die Anzahl der Neuinfektionen rapide ab und liegt nach einem Jahr wieder auf dem Niveau des Ausgangswertes. Die Gesamtanzahl der Immunisierten (Infizierte bzw. Geimpfte) steigt im gleichen Zeitraum aufgrund der Neuinfektionen von 67 % (ca. 55,6 Mio.) um 12,6 Mio. auf 82 % (68,2 Mio.).

Zwar liegt die Herdenimmunität bei einem R-Wert von 4 nur bei 75 % (62,5 Mio.), dennoch steigt die Gesamtanzahl der Infizierten weit über diese Summe hinaus, weil beim Erreichen der Immunitätsgrenze in der 30. Woche noch Hundertausende Neuinfektionen vorliegen, die über weitere 20 Wochen die Anzahl der Infizierten noch zusätzlich um fast 6 Mio. steigen lassen. In Abb. 3 sind die Zusammenhänge detailliert dargestellt.

Verlauf der Neuinfektionen und der Gesamtanzahl der Immunisierten (Genesene bzw. Geimpfte) ausgehend von einem Immunisierungsgrad von 67 % (entsprechend knapp 56 Mio. Immunisierten).

Abbildung 3: Verlauf der Neuinfektionen und der Gesamtanzahl der Immunisierten (Genesene bzw. Geimpfte) ausgehend von einem Immunisierungsgrad von 67 % (entsprechend knapp 56 Mio. Immunisierten). Grundlage für die Modellrechnung sind 1000 Neuinfektionen in der ersten Woche des Betrachtungszeitraums bei einem von 3 auf 4 erhöhten Reproduktionsfaktor. Der Anteil der Genesenen überschreitet in der 30. Woche die Grenze der aus dem R-Wert von 4 resultierenden theoretischen Herdenimmunität von 75 %. Ab diesem Zeitpunkt geht die Anzahl der Neuinfektionen exponentiell zurück. Die Infektionszahlen steigen aber weiter an und erreichen über 68 Mio. Menschen, das sind etwa 12,6 Mio. mehr als zu Beginn des Ausbruchs.

Abschätzung zur Anzahl der Neuinfektionen bei einer Erhöhung des R-Wertes

Wir haben gesehen, dass es bei einer Erhöhung des R-Werts einen Überschwingeffekt gibt. Die Gesamtanzahl der der Immunisierten (Genesene bzw. Geimpfte) klettert bei einem erneuten Ausbruch mit größerem R-Wert aus dem stabilen Zustand mit dem Immunisierungsgrad \(p_{i}\) nicht nur auf den entsprechenden höheren Wert der Herdenimmunität, sondern geht weit darüber hinaus. Die Anzahl der Neuinfizierten \(Infektionen_{neu}\) bei ungebremster Infektion mit dem erhöhten R-Wert kann man näherungsweise zu

\begin{equation} Infektionen_{neu} \approx 2N \cdot \left(1 – \frac{1}{R}-p_{i}\right) \end{equation}

bestimmen. Im vorangegangenen Beispiel (s. Abb. 3) kommt man so auf die Abschätzung \(Infektionen_{neu} \approx 2\cdot 83000000 \cdot \left(1–\frac{1}{4}–0.67\right) = 13.28 \cdot 10^{6}\).

Bestimmung des effektiven R-Wertes

Ausgehend von einer stabilen Situation mit einem Immunisierungsgrad in Höhe der Herdenimmunität verlaufen die Infektionszahlen bei einer Erhöhung des R-Wertes dem Augenschein nach in etwa so, wie man es in einer Population ohne Immunisierte erwarten würde. Das kann man Abb. 3 unmittelbar entnehmen. Bei genauer Betrachtung erkennt man indes, dass die Geschwindigkeit der Ausbreitung deutlich reduziert ist. Im Ergebnis beobachten wir unmittelbar nach dem Ausbruch ein Wachstum bei der Anzahl der Neuinfektionen mit einem effektiven Reproduktionsfaktor von

\begin{equation}R_{eff} = R \cdot \left(1 -p_{i}\right) \end{equation}

Wenn wir die Fälle mit \(p_{i} \lt 1 -\frac{1}{R}\) betrachten (also \(p_{i} \lt Herdenimmunität\)), ergibt sich dabei stets ein effektiver R-Wert \(\gt 1\), also exponentielles Wachstum. Daher müssen wir immer mit einer exponentiellen Ausbreitung von Neuinfektionen rechnen, sofern der aktuelle Immunisierungsgrad kleiner als die aus dem vorliegenden R-Wert resultierende theoretische Herdenimmunität ist.

In der Situation von Abb. 3 haben wir initial stabile Verhältnisse, da der erreichte Immunisierungsgrad von 67 % dem unterstellten R-Wert von etwa 3 entspricht. Aufgrund der Erhöhung des R-Werts auf 4 führt die induzierte Infektion von 1000 Personen zu einem exponentiellen Anstieg der Neuinfektionen. Der anfängliche effektive Reproduktionsfaktor (R-Wert) beläuft sich hierbei nach obiger Formel auf \(R_{eff} = 4 \cdot \left(1-0.67\right) = 1.32\).

Analyse des Infektionsgeschehens in Abhängigkeit vom Immunisierungsgrad

Nun haben wir oben ein Extrembeispiel betrachtet. In der Realität wird man einen solchen Ausbruch nicht dauerhaft geschehen lassen und Gegenmaßnahmen zur Eindämmung der Ausbreitung ergreifen (Kontaktreduzierung, Impfung). Die Anzahl der Neuinfizierten ist abhängig vom R-Wert, dem jeweils erreichten Immunisierungsgrad (Anteil der Immunisierten in der Population, entweder durch Impfung oder durch Genesung), von der initialen Inzidenz beim erneuten Ausbruch und von der Dauer der Ausbreitung mit dem erhöhten R-Wert.

Zunächst betrachten wir die Abhängigkeit des Infektionsgeschehens vom Immunisierungsgrad (s. Abb. 4).

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Blau: Anteil der Immunisierten (Immunisierungsgrad); Rot: Anteil der Neuinfizierten nach einem Ausbruch mit einer initialen 7-Tage-Inzidenz von 50 im Verlauf von 12 Wochen; Grün: Verbleibender Anteil der Nicht-Infizierten.

Abbildung 4: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Blau: Anteil der Immunisierten (Immunisierungsgrad); Rot: Anteil der Neuinfizierten nach einem Ausbruch mit einer initialen 7-Tage-Inzidenz von 50 im Verlauf von 12 Wochen; Grün: Verbleibender Anteil der Nicht-Infizierten. Beispiel: Balken bei x = 0,55: Immunisierungsgrad = 55 % (blaue Säule); Anteil der sich neu Infizierenden im Verlauf der nächsten 12 Wochen = 5 % (rote Säule bei x = 0,55); Anteil der nicht Infizierten im Verlauf der nächsten 12 Wochen = 40 % (grüne Säule bei x = 0,55);

Man entnimmt der Darstellung unmittelbar, dass der Anteil der Neuinfizierten (rote Säulen) bei höheren Immunisierungsgraden sehr schnell geringer wird. Im Beispiel von Abb. 4 ist die rote Säule für Immunisierungsgrade über 70 % im Diagramm nicht mehr erkennbar. Diese 70 % entsprechen in diesem Fall (R = 3) in etwa der theoretischen Herdenimmunität von 67 %.

Der Einfluss des Reproduktionsfaktors

Wie ändert sich nun die Situation bei Variation des R-Werts? Dazu betrachten wir die nachfolgende Abb. 5. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen und der Nicht-Infizierten in Abhängigkeit vom Immunisierungsgrad. Exemplarisch wurde eine anfängliche Inzidenz vom 50 Infektionen pro 100.000 Personen zugrunde gelegt und ein Zeitraum von 12 Wochen betrachtet. Man sieht, wie stark der R-Wert in das Verhältnis der Anteile von Immunisierten, Neuinfizierten und Nicht-Infizierten eingeht.

Beispiele: R-Wert = 2,5 (orangefarbene Kurve): Immunisierungsgrad = 0,3 (30 %), Neuinfizierte = 40 % (= 70 % – 30 %), Nicht-Infizierte = 30 % (= 100 % – 70 %); R-Wert = 3 (braune Kurve): Immunisierungsgrad = 0,3 (30 %), Neuinfizierte = 62 % (= 92 % – 30 %), Nicht-Infizierte = 8 % (= 100 % – 92 %); R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 10 % (= 80 % – 70 %), Nicht-Infizierte = 20% (= 100 % – 80 %). Der oben bestimmte Wert für die Herdenimmunität ist näherungsweise der Immunisierungsgrad, bei welchem die entsprechende Kurve der Diagonale (grün) nahekommt und sie scheinbar berührt.

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen und der Nicht-Infizierten in Abhängigkeit vom Immunisierungsgrad.

Abbildung 5: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen und der Nicht-Infizierten in Abhängigkeit vom Immunisierungsgrad. Näherungsweise ist die Herdenimmunität der Immunisierungsgrad, bei welchem die entsprechende Kurve der Diagonale (grün) nahekommt und sie scheinbar berührt. Beispiel: R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 10 % (= 80 % – 70 %), Nicht-Infizierte = 20 % (= 100 % – 80 %).

Im vorstehenden Diagramm sind die 3 relevanten Informationen: Immunisierungsgrad, Anteile der Neuinfektionen und Anteil der Nicht-Infizierten in ihrer relativen Größe zueinander dargestellt. Interessiert sind wir indes vor allem am Anteil der resultierenden Neuinfektionen nach einem Ausbruch bei gegebenem Immunisierungsgrad. Diese Info findet sich für dieselbe Parameterkonfiguration unmittelbar in Abb. 6.

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen.

Abbildung 6: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen in Abhängigkeit vom Immunisierungsgrad. Beispiel: R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 10 % der Gesamtbevölkerung.

Infektionsgeschehens bei Immunisierungsgraden in der Nähe der Herdenimmunität

Grundsätzlich erkennt man anhand der Kurvenverläufe in Abb. 6, dass die relativen Neuinfektionszahlen mit wachsendem Immunisierungsgrade sehr schnell kleiner werden. Allerdings verflachen sich die Kurven bei höheren Immunisierungsgraden in der Nähe der theoretischen Herdenimmunität (z.B. 80 % bei R = 5, hellrote Kurve). Um die Verläufe in diesem Bereich sichtbar zu machen, sind die relativen Anteile der Neuinfektionszahlen im Folgenden in logarithmischer Skalierung aufgetragen. Die Reduzierung der Anzahl der Neuinfektionen durch Erhöhung des Immunisierungsgrades ist nun direkt ablesbar.

Beispiel: Bei einem R-Wert von 1,5 und einem Immunisierungsgrad von 0,55 (55 %) entnehmen wir der Grafik einen Wert von 0,1% Neuinfektionen binnen 12 Wochen nach einem Ausbruch mit der anfänglichen Inzidenz von 50 pro 100. 000 Einwohner (s. Abb. 7). Dagegen sind es bei einem R-Wert von 3 im selben Zeitraum bereits 6 % Neuinfektionen bezogen auf die Gesamtbevölkerung.

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad in logarithmischer Skalierung. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen.

Abbildung 7: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad in logarithmischer Skalierung. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen in Abhängigkeit vom Immunisierungsgrad. Beispiel: R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 10 % der Gesamtbevölkerung.

Sensitivitätsanalyse

Bei höheren Inzidenzen verschieben sich die Kurven nach rechts, so dass die die Anzahl der Neuinfektionen nach einem neuerlichen Ausbruch steigt. Bei der gegenüber dem Beispiel oben verdoppelten Inzidenz von 100 pro 100. 000 Einwohnern sind es nun für den R-Wert 1,5 und einem Immunisierungsgrad von 0,55 (55 %) 0,2 % Neuinfektionen binnen 12 Wochen, und bei einem R-Wert von 3 im selben Zeitraum bereits 10 % Neuinfektionen bezogen auf die Gesamtbevölkerung (s. Abb. 8).

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad in logarithmischer Skalierung. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen.

Abbildung 8: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad in logarithmischer Skalierung. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen in Abhängigkeit vom Immunisierungsgrad. Beispiel: R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 16 % der Gesamtbevölkerung; Immunisierungsgrad = 0,8 (80 %), Neuinfizierte = 1 % der Gesamtbevölkerung.

Der einem Neuinfektionsanteil von 1 % entsprechende Immunisierungsgrad stimmt bei einer angenommenen Inzidenz von 100 und einem Betrachtungszeitraum von 12 Wochen in guter Näherung mit dem Wert der theoretischen Herdenimmunität überein (vgl. Abb. 1 und Abb. 8). D. h., sofern der Immunisierungsgrad der Population in etwa dem Wert für die Herdenimmunität entspricht, infizieren sich bei einem Ausbruch mit der Inzidenz 100 binnen 12 Wochen ca. 1 % der Bevölkerung.

Erweitern wir nun die summarische Sensitivitätsanalyse in Richtung der Verlängerung des Betrachtungszeitraums. In erster Näherung nimmt man ähnliche Veränderungen wahr, wie bei einer entsprechenden Vergrößerung der Inzidenz. In Abb. A-1 (s. Anhang) ist die Kurvenschar auf Basis einer initialen 7-Tage-Inzidenz von 50 und einer Dauer von 24 Wochen dargestellt. Im Vergleich zur Situation bei der halben Dauer von 12 Wochen, sind die Infektionszahlen bei niedrigen Immunisierungsgraden deutlich erhöht. Dagegen steigen bei die Infektionszahlen bei hohen Immunisierungsgraden merklich geringer.

Beispiel: R-Wert = 2 (rote Kurve): Immunisierungsgrad = 0,4 (40 %), Neuinfizierte = 2 % der Gesamtbevölkerung bei einer Dauer von 12 Wochen (s. Abb. 7), aber Neuinfizierte = 10 % bei einer Dauer von 24 Wochen. R-Wert = 2,5 (orange Kurve): Immunisierungsgrad = 0,6 (60 %), Neuinfizierte = 0,6 % der Gesamtbevölkerung bei einer Dauer von 12 Wochen (s. Abb. 7), aber Neuinfizierte = 1 % bei einer Dauer von 24 Wochen.

Absolute Infektionszahlen in Abhängigkeit vom Immunisierungsgrad

Im Folgenden bestimmen wir die Höhe der absoluten Infektionszahlen bei gegebenen Immunisierungsgraden und den initialen 7-Tage-Inzidenzen von 50 und 100 sowie den Betrachtungszeiträumen 12 und 24 Wochen.

„Normales“ Leben führt zu R-Werten zwischen 2 und 3 für Personen mit eher geringer Kontakthäufigkeit und R-Werten zwischen 3 und 4 für Personen mit höherer Kontakthäufigkeit und -intensität. Betreffend Massenveranstaltungen muss man teilweise mit Reproduktionsfaktoren deutlich darüber rechnen (bis zu 5, evtl. auch mehr).  

Wir beschränken uns daher auf Reproduktionsfaktoren R = 2 bis 5 und Immunisierungsgrade 50 % bis 80 %. Bei niedrigeren Immunisierungsgraden gehen die Neuinfektionszahlen unter den gegebenen Randbedingungen schnell in die Millionen. Umgekehrt erscheinen Immunisierungsgrade über 80 % in absehbarer Zeit kaum erreichbar.

Die Ergebnisse sind in den Abbildungen 9 und 10 zusammengetragen. Die weitere Sensitivitätsanalyse findet sich im Anhang (s. Abb. A-2 und A-3 sowie Abb. A-4 und A-5).

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen.

Abbildung 9: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 2,5 (blaue Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 480.000 innerhalb von 12 Wochen.

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen.

Abbildung 10: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 3,5 (grüne Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 6 Mio. innerhalb von 12 Wochen.

Die vorstehenden Abbildungen zeigen, dass es nicht ausreicht, einfach nur einen Immunisierungsgrad in Höhe der formalen Herdenimmunität anzustreben. Auch dann, wenn z.B. 70 % der Menschen immun sind, führt ein neuerlicher Ausbruch mit einem R-Wert von 3,5, aus einer anfänglichen 7-Tage-Inzidenz von 50 Infektionen pro 100.000 Einwohnern (das wären bundesweit 41.500 Infizierte in 7 Tagen) bereits in 12 Wochen zu 650.000 Neuinfektionen, bei einem R-Wert von 4 gar zu 1,7 Millionen (s. Abb. 10).

Zusammenspiel von R-Wert und Immunisierungsgrad

Es stellt sich die Frage, welche Immunisierungsgrade für die Wiedererlangung unserer gewohnten wirtschaftlichen und gesellschaftlich-kulturellen Freiheiten tatsächlich erreicht werden müssen. Werfen wir dazu einen Blick auf Abb. 11. Diese Darstellung dient uns im Folgenden zur Orientierung. Für jedes Wertepaar von R-Wert (0 – 10) und Immunisierungsgrad finden wir hier die grundlegende Information zur Kritikalität der Wertekombination.

Bei den Wertepaaren innerhalb der rot eingefärbten Fläche breitet sich das Virus nach einer anfänglichen Infektion stets mit exponentieller Geschwindigkeit aus. Der grüne Bereich steht für die Kontrolle über das Infektionsgeschehen, da hier umgekehrt jede Infektion rasch verebbt (exponentielle Reduzierung der Neuinfektionszahlen). Dazwischen liegt ein gelber Bereich mit einem näherungsweise linearen Infektionsgeschehen, d.h., die Anzahl der Neuinfektion bleibt ungefähr konstant. Exakt linear ist das Verhalten auf der blauen Grenzkurve. Im gelben Bereich oberhalb und links davon sinken die Neuinfektionszahlen langsam. Unterhalb und rechts davon steigen sie langsam, aber immer mit der Gefahr des Abrutschens in den roten Bereich.

Pandemie-Orientierungskarte (1). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100).

Abbildung 11: Pandemie-Orientierungskarte (1). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100).

Realistische Zielsetzung

Nach Abb. 12 verbleibt als realistischer Zielbereich das grün-gelbe Ecksegment zwischen den beiden Verbotszonen und der blauen Grenzkurve. Dabei stellt sich aber die Frage, mit welchem Restrisiko wir rechnen müssen.

Pandemie-Orientierungskarte (2). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100). Zusätzlich eingetragen sind die „verbotenen Zonen“

Abbildung 12: Pandemie-Orientierungskarte (2). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100). Zusätzlich eingetragen sind die „verbotenen Zonen“: Immunisierungsgrade, die sehr hohe Impfquoten erfordern (blaue Zone im oberen Bereich) sowie R-Werte unter 1,5, die zwar im Lockdown realisierbar sind, aber mit gravierenden gesellschaftlichen und wirtschaftlichen Kollateralschäden einhergehen und ein „normales“ Leben nicht erlauben (blaue Zone im linken Bereich).

Restrisiko

Für einige exemplarische Wertekombinationen von Immunisierungsgrad und R-Wert sind in Abb. 13 die resultierenden Neuinfektionszahlen auf Basis einer initialen 7-Tage-Inzidenz von 50 Neuinfektionen pro 100.000 Einwohner und einer Ausbreitung über 12 Wochen in die Orientierungskarte eingetragen. Man sieht, dass Kombinationen rechts der blauen Grenzkurve zu Neuinfektionszahlen in 7-stelliger Höhe führen. Im grünen Bereich links davon bleibt man im beherrschbaren 5 bis 6-stelligen Bereich. Auf der Grenzkurve selbst ergeben sich binnen 12 Wochen bereits ca. eine halbe Million Neuinfektionen.

Pandemie-Orientierungskarte (3). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100). Bezugsgrößen für die Zahlenangaben: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen.

Abbildung 13: Pandemie-Orientierungskarte (3). Kritikalität der Wertekombination von R-Wert (0 – 10) und Immunisierungsgrad (0 – 100). Bezugsgrößen für die Zahlenangaben: initiale 7-Tage-Inzidenz = 50, Zeitraum = 12 Wochen. Rechts der blauen Grenzkurve (exponentielles Wachstum) ergeben sich Neuinfektionszahlen in Millionenhöhe. Links davon bleiben die Neuinfektionszahlen im Bereich von einigen Zehntausend bis einigen Hunderttausend.

Die Zahlenwerte folgen aus den Säulendiagrammen in Abb. 9 und 10. Bei Betrachtung niedriger oder höherer Inzidenzen bzw. von kürzeren oder längeren Ausbreitungszeiten ergeben sich andere Neuinfektionszahlen (s. Abb. A-2 bis A-5 im Anhang), teilweise geringere (niedrigere Inzidenz oder kürzere Ausbreitungsdauer), teilweise aber auch höhere (höhere Inzidenz oder längere Ausbreitungsdauer). Nach der obigen Sensitivitätsanalyse (Abb. 5 – 10 und Anhang) bleibt die Grundaussage indessen dieselbe.

Erhöhtes Risiko, sofern die Impfstoffe nicht zu 100 % wirken

Bei den obigen Rechnungen sind wir von einer 100-prozentigen Wirksamkeit der Impfstoffe ausgegangen und haben unterstellt, dass Geimpfte, 1. immun, und 2. nicht infektiös sind. In welchen Umfang und wie lange das für die einzelnen Impfstoffe und gegen eventuell kursierende Virusmutationen zutrifft, ist gegenwärtig noch weitgehend offen. Wenn z.B. die Immunität effektiv nur bei 90% der Geimpften vorliegt, dann hieße das, dass die Impfquote im Hinblick auf dieselbe Schutzwirkung in der Bevölkerung entsprechend höher sein muss. Um einen effektiven Immunisierungsgrad von 70 % zu erreichen, müssten daher in diesem Falle knapp 78 % der Menschen geimpft werden.

Umgekehrt wären bei einer Impfquote von 70 % effektiv nur 63 % immunisiert. Wie man Abb. 9 entnehmen kann, würde man dann in der Beispielrechnung bei einem R-Wert von 3 statt der 261.000 Infizierten (bezogen auf einen Immunisierungsgrad von 70 %) etwa 1 Mio. Infizierte (bezogen auf einen Immunisierungsgrad von 63 %) bekommen.

Die Sensitivität der Fallzahlen bei Variation des Immunisierungsgrads in Bezug auf den theoretischen Bezugswert der Herdenimmunität ist in Abbildung 14 dargestellt.

Sensitivität der Fallzahlen bei Variation des Immunisierungsgrads. Für unterschiedliche R-Werte ist dargestellt, um welchen Faktor (y-Achse) sich die Neuinfektionszahlen bei einer Änderung des Immunisierungsgrads (x-Achse) im Intervall Herdenimmunität – 20 % bis Herdenimmunität + 20 % verändern.

Abbildung 14: Sensitivität der Fallzahlen bei Variation des Immunisierungsgrads. Für unterschiedliche R-Werte ist dargestellt, um welchen Faktor (y-Achse) sich die Neuinfektionszahlen bei einer Änderung des Immunisierungsgrads (x-Achse) im Intervall Herdenimmunität – 20 % bis Herdenimmunität + 20 % verändern. Man beachte die logarithmische Skalierung auf der y-Achse. Bezugswert ist die jeweilige Neuinfektionszahl, die sich bei Übereinstimmung zwischen dem Immunisierungsgrad und der Herdenimmunität ergibt. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 6 Wochen. Beispiel: R-Wert = 4 (blaue Kurve), Immunisierungsgrad = Herdenimmunität – 10 %; dem Diagramm entnimmt man, dass die Anzahl der Neuinfektionen fast 4-mal höher ist als im Falle „Immunisierungsgrad = Herdenimmunität“.

Dem Diagramm kann man unschwer entnehmen, wie sensibel die Fallzahlen auf Abweichungen des effektiven Immunisierungsgrads von der theoretischen Herdenimmunität reagieren. Der Referenzwert im Nullpunkt (also Abweichung = x-Wert = 0 %) ist in Bezug auf den jeweiligen R-Wert auf 1 gesetzt. Die initiale Kurvensteigung im Nullpunkt ist proportional zum R-Wert (genauer: -R).

In der linken Hälfte des Diagramms sieht man, wie stark die Fallzahlen steigen, wenn der Immunisierungsgrad die theoretische Herdenimmunität pro R-Wert um einige Prozentpunkte unterschreitet. Auf der rechten Seite des Diagramms erkennt man umgekehrt, dass die Fallzahlen sehr schnell kleiner werden, sofern der (effektive) Immunisierungsgrad den Wert für die Herdenimmunität nennenswert übersteigt.

Die Kurven in Abb. 14 belegen klar die Kritikalität des Immunisierungsgrads in Bezug auf die aus dem R-Wert bestimmte theoretische Herdenimmunität. Ein effektiver Immunisierungsgrad unterhalb der Herdenimmunität bringt noch keine durchgreifende Entlastung bei den Neuinfektionszahlen. Im Hinblick auf die möglicherweise (bzw. wahrscheinlich) nicht 100%-ige Wirksamkeit von Impfungen muss daher die Impfquote signifikant über der jeweiligen Herdenimmunitätsgrenze liegen.

Folgerungen

Als Resümee aus dem Vorhergehenden ergibt sich die folgende Darstellung (s. Abb. 14): Die Immunisierungsgrade müssen Werte in der oberen Hälfte des eingezeichneten grünen Bereichs annehmen. Je weiter entfernt von der blauen Grenzkurve, desto besser. Bei Immunisierungsgraden unter 70 % sind R-Werte über 3 tabu, da die Infektionszahlen ansonsten binnen weniger Wochen 6-stellig werden können (s. Abb. 13). Umgekehrt erfordern R-Werte um 4 Immunisierungsgrade von 80%.

Pandemie-Orientierungskarte (4). Ausgangssituation, gegenwärtiger Status und Zielbereich.

Abbildung 15: Pandemie-Orientierungskarte (4). Ausgangssituation, gegenwärtiger Status und Zielbereich.

In Abbildung 16 sind für die Reproduktionsfaktoren R = 2,5, 3, 4 und 5 jeweils die Werte für die theoretischen Herdenimmunitäten eingetragen. Die grünen Pfeile darüber zeigen die sinnvollen Wertebereiche der dazu passenden Immunisierungsgrade. Nach den vorstehenden Analysen erscheint es zweckmäßig, den Immunisierungsgrad mindestens etwa 5 % über der sich aus dem R-Wert ergebenden theoretischen Herdenimmunität zu wählen. Der entsprechende Bereich ist unten durch die punktierte grüne Line begrenzt. Dies unterstellt, bleiben die Neuinfektionsraten bei der angenommenen initialen Inzidenz von 50 pro 100.000 über einen Zeitraum von 12 Wochen im niedrigen 6-stelligen Bereich (s. Abb. 13), sofern nahezu 100 % der Geimpften tatsächlich immun sind und das Virus nicht weitergeben. Schon wenn die Impfung nur in 1 von 10 Fällen nicht wie erwartet zur Immunisierung führt, was ja immer noch eine hohe Impfwirksamkeit von 90 % wäre, könnten die Neuinfektionen im Betrachtungszeitraum von 12 Wochen die Millionengrenze erreichen und überschreiten.

Nur drei Beispiele dazu: R-Wert = 2,5, Impfquote 60 %, effektive Immunisierung 55 %. Statt der bei einer Immunisierung von 60 % erwarteten Anzahl von 480.000 Neuinfektionen (initiale Inzidenz 50 pro 100.000, 12 Wochen) muss man mit mehr als doppelt so viel rechnen (= 1,09 Mio., vgl. Abb. 9). R-Wert = 3,5, Impfquote 70 %, effektive Immunisierung 65 %. Die bei einer Immunisierung von 70 % erwarteten 650.000 Neuinfektionen (initiale Inzidenz 50 pro 100.000, 12 Wochen) steigen auf die dreifache Anzahl (= 2,05 Mio., vgl. Abb. 10). R-Wert = 4, Impfquote 80 %, effektive Immunisierung 70 %. Gegenüber den bei einer Immunisierung von 80 % zu erwartenden 151.000 Neuinfektionen (initiale Inzidenz 50 pro 100.000, 12 Wochen) könnte sich die Anzahl auf 1,71 Mio. erhöhen (vgl. Abb. 10).

Pandemie-Orientierungskarte (5). Ausgangssituation, gegenwärtiger Status und Zielbereich mit den eingezeichneten minimalen Immunisierungsgraden (punktierte Linie / Startpunkte der grünen Pfeile) bezogen auf die Reproduktionsfaktoren R = 2,5, 3, 3,5 und 4 sowie den entsprechenden Herdenimmunitäten H.

Abbildung 16: Pandemie-Orientierungskarte (5). Ausgangssituation, gegenwärtiger Status und Zielbereich mit den eingezeichneten minimalen Immunisierungsgraden (punktierte Linie / Startpunkte der grünen Pfeile) bezogen auf die Reproduktionsfaktoren R = 2,5, 3, 3,5 und 4 sowie den entsprechenden Herdenimmunitäten H.

Resümee

Nach dem Vorstehenden kann man sich der Erkenntnis nicht verweigern, dass auch bei einer vergleichsweise hohen Impfquote von über 70 % die Pandemie nicht als beendet angesehen werden kann. Unter „normalen“ Bedingungen können die Neuinfektionszahlen selbst bei einem moderaten Ausbruch mit einer 7-Tage-Inzidenz von 50 pro 100.000 Personen in wenigen Wochen Werte von einigen hunderttausend erreichen. Zum Vergleich: In der ersten Corona-Welle waren von Anfang März bis Ende Mai 2020 trotz der Lockdown-Beschränkungen etwa 180.000 Corona-Infektionen zu verzeichnen, und das hat man damals als extrem bedrohlich empfunden. Großveranstaltungen (Sportereignisse, Volksfeste, Karneval, Weihnachtsmärkte) können unter den vor der Pandemie üblichen Bedingungen eine solche Inzidenz fraglos auslösen. Gleichfalls können auch Urlaubsrückkehrer die Quelle für Neuinfektionen sein.

Welchen Schluss kann man daraus ziehen? Impfen bringt nichts? – Keineswegs! Natürlich ist eine hohe Impfquote wichtig, vor allem gilt dies für die vulnerablen Gruppen (insbes. Menschen über 70 oder 80 und Menschen mit Vorerkrankungen). Impfen allein genügt aber nicht. Wir müssen vielmehr lernen, mit dem Corona-Virus zu leben, genau wie wir auch gelernt haben, mit anderen viralen Bedrohungen zurechtzukommen. Diese Aufforderung richtet sich an uns alle, sie geht aber zuvorderst an die politisch Verantwortlichen.

Die Politiker müssen sich der Realität stellen und zu einem wissenschaftlich fundierten, aber eben nicht einseitig am Gesundheitssystem ausgerichteten Krisenmanagement finden. Dazu gehört vor allem die Abkehr von der Inzidenzzahl als dem nahezu einzigen Indikator für die Situationsbeurteilung. Diese Steuergröße ist für die Auslösung von Schutzmaßnahmen denkbar ungeeignet. Ausgehend von der Erwartung, dass die Impfquote in absehbarer Zeit kaum über 70 % steigen wird, legt die vorstehende Analyse nahe, dass die Pandemie noch lange dauern könnte, wenn man ausschließlich auf Inzidenzen schaut.

Es ist nicht die Aufgabe der Politik, jedes Risiko von den Menschen zu nehmen. Und es ist absolut unverhältnismäßig, dem Vorsorgeprinzip alles andere unterzuordnen: Kultur, gesellschaftliche Aktivitäten, Freizeit, ja die gesamt Wirtschaft. Niemand führt Buch über die dergestalt verursachten Kollateralschäden. Freiheitsbeschränkungen sind in der Demokratie höchstens ausnahmsweise und befristet hinnehmbar. Wer das als Politiker anders sieht, sollte sein Amt niederlegen bzw. sich gar nicht erst zur Wahl stellen.

Mündige Staatsbürger brauchen keinen Vormund. Die Eigenverantwortung ist die stärkste Waffe gegen das Corona-Virus. Freiheit und Eigenverantwortung sind die zwei Seiten ein und derselben Medaille. Der Staat trägt Verantwortung nur für diejenigen, die sich nicht selbst schützen können. Darauf muss er sich konzentrieren und soll alles andere der Vernunft, dem Ideenreichtum und dem Gestaltungswillen seiner Staatsbürger überlassen.


Quellen:

[1] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) – 23.03.2021 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. RKI

https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Mar_2021/2021-03-23-de.pdf?__blob=publicationFile

[2] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) – 26.01.2021 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. RKI

https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Jan_2021/2021-01-26-de.pdf?__blob=publicationFile

[3] Corona-Infektionen (COVID-19) in Deutschland nach Altersgruppe und Geschlecht (Stand: 23. März 2021). Statista

https://de.statista.com/statistik/daten/studie/1103904/umfrage/corona-infektionen-covid-19-in-deutschland-nach-altersgruppe/#professional

[4] Todesfälle mit Coronavirus (COVID-19) in Deutschland nach Alter und Geschlecht (Stand: 23. März 2021). Statista

https://de.statista.com/statistik/daten/studie/1104173/umfrage/todesfaelle-aufgrund-des-coronavirus-in-deutschland-nach-geschlecht/

[5] Nach Krisengipfel: Virologe mit scharfer Corona-Kritik an Merkel und Söder – „Weit weg von Realität“

https://www.merkur.de/lokales/muenchen/lockdown-corona-bayern-virologe-corona-strategie-merkel-soeder-krise-gipfel-zr-90175293.html

[6] Corona-Lockdown bis Sommer? Just der Wirtschaftsminister schließt nichts aus

https://www.merkur.de/politik/coronavirus-lockdown-verlaengerung-peter-altmaier-deutschland-mutation-cdu-variante-sommer-90186104.html

[7] Scharfe Kritik an Corona-Politik und Experten – „Andere Sichtweisen offenbar unerwünscht“

https://www.merkur.de/politik/corona-deutschland-gipfel-merkel-laender-massnahmen-pandemie-kritik-experten-wissenschaftler-auswahl-90174423.html

[8] Das „Vorsorgeprinzip“ der Kanzlerin in der Pandemie ist einseitig

https://www.handelsblatt.com/meinung/kommentare/kommentar-das-vorsorgeprinzip-der-kanzlerin-in-der-pandemie-ist-einseitig-/26833548.html

[9] Angela Merkel: Unerwarteter Corona-Angriff! Leopoldina attestiert „politischen Missbrauch von Wissenschaft“ | Politik (merkur.de)

https://www.merkur.de/politik/coronavirus-merkel-soeder-wissenschaft-leopoldina-experte-lockdown-missbrauch-politik-90204364.html

[10] NACH DER AUSNAHME KOMMT DIE NORMALITÄT

[11] Das Coronavirus – So schnell breitet es sich aus. Aber wir können etwas tun!

[12] Das Coronavirus: Harmlos? Bedrohlich? Tödlich?

[13] Aktuelles zu Corona

[14] Die Corona-Pandemie: Alter ist der dominierende Risikofaktor

[15] CORONA-KRITIKER AUS DEM ETHIKRAT ENTLASSEN


Anhang:

Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen.

Abbildung A-1: Infektionsgeschehen in Abhängigkeit vom Immunisierungsgrad. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen. Die Kurvenverläufe zeigen für verschiedene R-Werte die Anteile der Neuinfektionen in Abhängigkeit vom Immunisierungsgrad. Beispiel: R-Wert = 5 (hellrote Kurve): Immunisierungsgrad = 0,7 (70 %), Neuinfizierte = 18 % der Gesamtbevölkerung; Immunisierungsgrad = 0,8 (80 %), Neuinfizierte = 1 % der Gesamtbevölkerung.

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen.

Abbildung A-2: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 2,5 (blaue Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 925.000 innerhalb von 12 Wochen.

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen.

Abbildung A-3: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 100, Zeitraum = 12 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 3,5 (grüne Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 9,5 Mio. innerhalb von 12 Wochen.

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen.

Abbildung A-4: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 2, 2,5 und 3. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 2,5 (blaue Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 878.000 innerhalb von 24 Wochen.

Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen.

Abbildung A-5: Neuinfizierte in Abhängigkeit vom Immunisierungsgrad für R-Werte 3,5, 4 und 5. Bezugsgrößen: initiale 7-Tage-Inzidenz = 50, Zeitraum = 24 Wochen. Die Säulen zeigen jeweils die Anzahl der Neuinfektionen für die entsprechenden Wertekombinationen von Immunisierungsgrad und R-Wert. Beispiel: R-Wert = 3,5 (grüne Säulen), Immunisierungsgrad = 60 %, Neuinfizierte = 17,6 Mio. innerhalb von 24 Wochen.

Wie verlässlich sind Corona-Tests?

Der Fall des vor einigen Monaten fälschlicherweise positiv auf Corona getesteten Serge Gnabry vom FC Bayern hat auch einer breiteren Öffentlichkeit deutlich gemacht, dass die (PCR-) Corona-Tests mitnichten so zuverlässig sind, wie das vielfach angenommen und auch von Politikern und Medizinern gerne verbreitet wird. Selbst bei einer formal zunächst hochverlässlich klingenden Testsensitivität und -spezifität von 98% oder 99% sind die resultierenden Testergebnisse alles andere als sicher. Das hat vor allem mathematische Gründe.

Die resultierende Ungenauigkeit ist keine spezifische Schwäche des PCR-Tests an sich, wobei hier in der Anwendung durchaus noch einige zusätzliche Fallstricke warten, die die Testungenauigkeit noch weiter steigern können. Durch die Aussagen von Medizinern und Sprechern von Laboren, die Tests hätten nur eine Fehlerrate von 1%, wird ein falscher Eindruck erweckt. Wie gesagt, das hat wenig mit Medizin oder gar Virologie zu tun. Die Problematik besteht grundsätzlich bei jedem Test gegebener Sensitivität und Spezifität, z.B. auch dann, wenn Schrauben auf Passgenauigkeit überprüft werden.

Nehmen wir ein Beispiel: Testsensitivität 99%, Testspezifität 99%. Das klingt nach fast absoluter Sicherheit. Der Laie meint, damit seien 99% aller positiven Testergebnisse verlässlich und nur 1% falsch. Dem ist leider nicht so. Tatsächlich könnten hier bis zu 50% aller Positiv-Fälle in Wahrheit negativ sein.

Bevor wir dies aufklären, sollen noch die beiden Fachbegriffe kurz erläutert werden.

Sensitivität und Spezifität

Testsensitivität 100% bedeutet Folgendes: Wenn eine Person Virusträger ist, dann zeigt dies der Test mit Sicherheit an. Jeder Infizierte wird demnach als solcher erkannt. Bei einer Testsensitivität von p wird das Virus durch den Test entsprechend mit der Wahrscheinlichkeit p gefunden.

Testspezifität 100% bedeutet Folgendes: Wenn eine Person kein Virusträger ist, dann wird dies vom Test mit Sicherheit erkannt. Jeder Nicht-Infizierte wird demnach eindeutig als gesund identifiziert. Bei einer Testspezifität von q wird die Abwesenheit des Virus vom Test entsprechend mit der Wahrscheinlichkeit q erkannt.

Ein simples Beispiel

Um zu verstehen, wie es trotz der hohen Verlässlichkeit des Testverfahrens zu dieser relativ großen Ungenauigkeit bezüglich der positiven Testergebnisse kommt, betrachten wir ein konkret nachvollziehbares Beispielszenario, in dem die betreffenden Wahrscheinlichkeiten unmittelbar auf der Hand liegen.

Nehmen wir einige Blätter kariertes Papier und schneiden davon 101 quadratische Zettel mit je 5 cm Seitenlänge heraus. Auf jedem der kleinen Papierbögen haben wir nun 10×10 = 100 kleine Quadrate á 5 mm Seitenlänge. Nun nehmen wir die Zettel und färben jeweils genau eines der kleinen Quadrate schwarz ein. Auf dem ersten Zettel das erste Quadrat oben links, auf dem zweiten Zettel das zweite Quadrat in der Reihe, usw., so dass am Ende auf jedem Zettel ein anderes Quadrat eingefärbt ist. Nachdem wir 100 Zettel derart bearbeitet haben, färben wir den letzten (101-ten) Zettel komplett schwarz. Nun überkleben wir die Zettel mit einer abziehbaren intransparenten Folie, die gleichfalls mit einem 5×5 mm Karomuster bedruckt ist.

Abbildung 1: Das Beispielszenario (s. Text)

Wenn wir nun einen der Zettel 1 – 100 zur Hand nehmen, zufällig eines der 100 darauf bedruckten kleinen Quadrate auswählen und es abziehen, befindet sich darunter entweder ein weißes oder ein schwarzes Quadrat. Nachdem jeder der Zettel genau ein schwarzes Quadrat trägt, ist die Wahrscheinlichkeit, auf ein solches Quadrat zu stoßen 1:100. In 99 von 100 Fällen ist das freigelegte Quadrat weiß. Beim 101-ten Zettel sind alle Quadrate schwarz, demzufolge finden wir dort mit 100%-iger Wahrscheinlichkeit ein schwarzes Quadrat.

Die Analogie zum Corona-Testszenario

Worin besteht nun der Querbezug zum Testszenario bei einem Corona-Test? Ganz einfach: Der eine durchgehend schwarz eingefärbte Zettel entspricht einem mit Corona infizierten Probanden. Ihn zu finden ist die Aufgabe des Tests. Der Test ist so konstruiert, dass wir diesen Zettel mit 100%-iger Sicherheit finden. Demzufolge haben wir hier eine Testsensitivität von 100%.

Die übrigen 100 weißen Zettel mit nur einem schwarz eingefärbten Quadrat stehen für die große Mehrheit der nicht infizierten Probanden. Wenn wir einen solchen Zettel nehmen und ein beliebiges Quadrat freilegen, sehen wir dort mit 99%-iger Wahrscheinlichkeit ein weißes Quadrat. In diesem Wert spiegelt sich die Testspezifität wider: Das ist die Wahrscheinlichkeit dafür, dass der entsprechende Zettel nicht gänzlich schwarz ist bzw., dass ein Proband nicht infiziert ist.

Nun stellen wir uns der Aufgabe, unter den 101 Zetteln den komplett schwarz eingefärbten zu finden. Dazu dürfen wir ein beliebiges quadratisches Feld aussuchen, die Zettel nacheinander zur Hand nehmen und das betreffende Feld freilegen. Was passiert?

Die Ungenauigkeit solcher Tests ist kein spezifisches Corona-Problem

Genau einer der 100 weißen Zettel hat an der freigelegten Stelle ein schwarzes Quadrat, die 99 anderen zeigen ein weißes Quadrat. Der eine schwarze Zettel (den wir aber nicht als solchen erkennen) zeigt natürlich ebenfalls ein schwarzes Quadrat. Wir haben also 2 Zettel mit schwarzen Quadraten und können nicht entscheiden, welches davon der gänzlich schwarze Zettel ist. Die Falsch-Positiv-Rate beträgt somit 50%. Genau die gleiche Situation haben wir bei einem Corona-Test mit einer 100%-igen Testsensitivität und einer 99%-igen Testspezifität unter der Annahme von 1% tatsächlich positiven Probanden.

Nun skalieren wir das beschriebene Szenario auf die Situation mit einer Million weißen und schwarzen Zetteln. Dazu multiplizieren wir einfach mit dem Faktor 10.000. Wir finden sodann 20.000 Zettel mit einem schwarzen Quadrat. Da tatsächlich nur 10.000 Zettel wirklich schwarz sind, haben wir somit weitere 10.000 die fälschlicherweise als schwarz angesehen werden.

Übertragen auf das Testszenario beim Corona-Test mit 100%-iger Testsensitivität und 99%-iger Testspezifität entspricht dies 20.000 positiv Getesteten bei nur 10.000 tatsächlichen Virenträgern und damit einer Falsch-Positiv-Rate von 50%. Die realen Verhältnisse dürften nicht allzu weit davon entfernt liegen.

Konkrete Zahlenwerte

Wenn wir davon ausgehen, dass 2% der Bevölkerung Träger des Coronavirus sind, dann liegt ein solcher Test (mit Testsensitivität = 99% und Testspezifität = 99%) im Hinblick auf die Gesamtbevölkerung in 33% aller Positivfälle falsch. D.h., jeder dritte positiv Getestete ist in Wahrheit nicht infiziert. Und wenn die Testspezifität „nur“ 98% beträgt, was ja immer noch sehr vertrauenswürdig klingt, dann ist sogar nur jeder zweite Positivfall tatsächlich ein Virusträger.

Der Fall Gnabry ist also keineswegs die große Ausnahme. Er zeigt auch, ein singulärer Positivtest ist allenfalls ein Indikator für eine mögliche Infektion und ruft förmlich nach einem Zweittest.

Was bringen Antigen (Schnell-) Tests?

Für sehr gute Antigentests werden eine Testsensitivität von 95% und eine Testspezifität von 97% angegeben. Unter den gleichen Bedingungen wie oben (also die Annahme, tatsächlich seien 2% der Getesteten Virenträger) resultiert ein solcher Antigentest in einer Falsch-Positivrate von 60% (s. Abb. 2). Weniger gute Antigentests mit einer Testsensitivität von 90% und einer Testspezifität von 90% führen gar zu einer Falsch-Positivrate von 85% und sind damit bezüglich der Positivaussage fast wertlos.

In Abb. 2 sind die Zusammenhänge bei Variation der Testspezifität von 90% bis 100% und Prävalenzen von 1% bis 10% grafisch dargestellt.

Abbildung 2: Resultierende Falsch-Positiv-Rate in Abhängigkeit von der Testspezifität für Prävalenzen von 1%, 2%, 5% und 10%. Die Testsensitivität wurde hier zu 100% angenommen. Bei einer niedrigeren Sensitivität verschieben sich die Kurven für die Falsch-Positiv-Rate noch etwas nach oben, allerdings ist dieser Effekt bei Sensitivitäten über 90% noch relativ klein.

Was die Beispiele ebenfalls enthüllen: Wahllose Tests sind wenig sinnvoll und richten wahrscheinlich mehr Schaden an, als sie Nutzen stiften. Tests mit einer Spezifität von 97% und darunter sind allenfalls in Bezug auf Risikogruppen mit einer hohen Prävalenz (höhere Wahrscheinlichkeit, tatsächlich infiziert zu sein, z.B. > 10% bis 30%) von Nutzen, denn nur in diesem Fall sinkt die Wahrscheinlichkeit für ein Falsch-Positives Testergebnis unter 20%.

Immerhin ist die Negativaussage (Proband ist nicht infiziert) in all diesen Beispielen mit hoher Wahrscheinlichkeit (95% bis über 99%) zutreffend. Wer also ein negatives Testergebnis bekommt, der darf darauf vertrauen. Natürlich vorausgesetzt, der Test wurde medizinisch und labortechnisch adäquat durchgeführt.

Faustregel

Man kann sich den prinzipiellen Zusammenhang leicht merken.

  • Wenn die relative Häufigkeit für das Auftreten eines bestimmten gesuchten Merkmals (also die Prävalenz) in einer vorgegebenen Gesamtheit p Prozent beträgt, dann hat ein Testverfahren, für das gilt Sensitivität = Spezifität = 100 – p Prozent eine Falsch-Positiv-Rate von exakt 50%.

Beispiel 1: Prävalenz 1%, Sensitivität = Spezifität = 99%, Falsch-Positiv-Rate = 50%.

Beispiel 2: Prävalenz 5%, Sensitivität = Spezifität = 95%, Falsch-Positiv-Rate = 50%.

Oft ist die Sensitivität nahe 100%. In diesem Falle kann man die Falsch-Positiv-Rate leicht anhand der folgenden Faustregel abschätzen.

  • Wenn die relative Häufigkeit für das Auftreten eines bestimmten gesuchten Merkmals (also die Prävalenz) in einer vorgegebenen Gesamtheit p Prozent beträgt, dann hat ein Testverfahren der Genauigkeit 100 – p Prozent (das ist die Testspezifität) eine Falsch-Positiv-Rate von ca. 50%. Für Prävalenzen bis zu 10% ist das eine sehr gute Näherung. Die Sensitivität hat nur einen geringen Einfluss.

Beispiel 3: Prävalenz 2%, Spezifität = 98%, Falsch-Positiv-Rate = 49,5%, Näherungsfehler 0,5%.

Beispiel 4: Prävalenz 10%, Sensitivität = 100%, Spezifität = 90%, Falsch-Positiv-Rate = 47,4%, Näherungsfehler 2,6%.

Das objektiv bewertete Corona Risiko

Evaluierung des Risikos auf Basis der altersspezifischen Sterbewahrscheinlichkeiten ohne und mit Corona bei unterschiedlicher Kontakthäufigkeit

Steigende Fallzahlen sind keine Messlatte, denn Risiken sind immer relativ

Im Artikel „Gefahr Corona Virus – Wie groß ist das Risiko wirklich?“ wurde das pauschale Risiko, an COVID-19 zu erkranken und daran zu sterben anhand von 3 unterschiedlichen Kontaktprofilen näherungsweise bestimmt. Dabei wurde auch die Frage erörtert, wie sich das Sterberisiko mit dem Lebensalter und der Kontakthäufigkeit verändert und in welcher Relation das resultierende Gesamtrisiko zur allgemeinen Sterbewahrscheinlichkeit steht. Diese Aspekte wollen wir im Folgenden vertiefen und mittels Grafiken transparent darstellen.

Hinweis: Der eilige Leser kann sich mittels des Diagramms „Sterberisiko ohne und mit Corona in Abhängigkeit vom Lebensalter“ (s. Abb. 6., unten) und den Blick ins Resümee (am Endes des Textes, vor dem Quellenverzeichnis) einen schnellen Überblick verschaffen.

In der öffentlichen Diskussion und insbesondere auch in der Kommunikation des Robert-Koch-Instituts (RKI) stehen nach wie vor die absoluten Corona-Fallzahlen im Vordergrund. Es wurde schon von verschiedener Seite angemerkt, dass dies nicht hinreichend ist. Wenn jemand erzählt, er habe 10-mal die 6 gewürfelt, dann klingt das zunächst einmal nach viel. Das wird stark relativiert, sofern man erfährt, dazu seien 100 oder mehr Würfe nötig gewesen.

Da heute sehr viel häufiger getestet wird als zu Beginn der Pandemie, liegt es auf der Hand, dass auch mehr positive Befunde gezählt werden. Unabhängig von der Problematik der Falsch-Positiven Tests (also fälschlich als positiv erhaltende Testergebnisse, obwohl tatsächlich gar keine Infektion vorliegt, s. a. Gefahr Corona Virus – Wie groß ist das Risiko wirklich? ist daher die absolute Anzahl der positiven Tests kein vernünftiges Maß für die finale Beurteilung der Situation. Tatsächlich gibt auch das RKI die relativen Fallzahlen bekannt (s. Tabelle 1). In den Medien bleibt dieser relativierende und entschärfte Blick aber meist unerwähnt.

Tabelle 1: COVID-19 Positiv-Tests (Stand 2020-08-18). Quelle: RKI

Das Corona-Virus ist nur eines von vielen Lebensrisiken – es macht aber die beste Pressearbeit

Neben der relativen Positivenrate, die aktuell unter 1% liegt, ist der entscheidende Punkt die Ableitung des resultierenden Infektionsrisikos und die Beurteilung des daraus folgenden tatsächlichen Risikos für Infizierte in der Relation zu den allgemeinen Lebensrisiken. Fraglos ist das Leben grundsätzlich nicht risikofrei, wie auch immer man sich vor Gefahren schützen mag. Es ist daher eine unzulässig verkürzte Sicht, die vom Corona-Virus ausgehende und zweifellos tatsächlich bestehende Gefahr völlig isoliert zu betrachten und im Ergebnis dann fast schon als das einzige Krankheits- und Lebensrisiko wahrzunehmen.

Die Berichterstattung in den Medien zeichnet vielfach genau dieses Bild. Bei den Menschen bleibt dies nicht ohne Wirkung. Im Ergebnis wird die tatsächliche Gefahr durch das Corona-Virus in teilweise grotesker Weise überschätzt. Eine weitaus größere Gefahr geht z.B. Krankenhauskeimen aus. Jahr für Jahr sterben etwa 40.000 Menschen daran, ohne dass dies eine allgemeine Aufregung auslösen würde.

Offenbar unterliegen nicht wenige Politiker ebenfalls dieser Fehleinschätzung, anders lässt sich die fortdauernde Diskussion um neuerliche Einschränkungen und vielleicht sogar einen zweiten wirtschaftlichen Lockdown mit möglicherweise verheerenden Folgen kaum erklären.

Die rationale Beurteilung des durch Corona entstehenden Risikos kann daher nur in der Bezugnahme auf die allgemeinen oder individuellen Risiken für Krankheit und Tod erfolgen. Im Folgenden wollen wir dafür insbesondere das altersspezifische Sterberisiko als Vergleichsmaßstab wählen. Die Frage ist also, wird das ohnehin für jedermann und jederzeit bestehende Sterberisiko durch die Corona-Gefahren signifikant erhöht? Und wenn, in welchem Maße und mit welchem Effekt? Oder ist dieser Einfluss fallweise vielleicht sogar vernachlässigbar?

Grundlegender Ansatz zur Risikoeinschätzung

Wir betrachten dazu Personen unterschiedlichen Alters und gegebener Kontakthäufigkeit und vergleichen die neu entstehenden Sterberisiken durch die Corona-Gefahren sowohl untereinander wie auch mit den bestehenden Grundrisiken.

Die relevanten Zahlen kommen vom RKI mit dem Stand 17.08.2020:

COVID-19-Fälle insgesamt = 224014

COVID-19-Todesfälle insgesamt= 9232

COVID-19-Genesene insgesamt = 202100

Daraus leiten wir die Anzahl der aktuell Infektiösen (COVID-19-Infektiöse) zu 12682 ab. Nur wer akut infektiös ist, kann andere Personen anstecken. Es sind zunächst also diese knapp 13000 Personen, von denen eine Gefahr für die weitere Verbreitung von COVID-19 ausgeht.

In diesem Zusammenhang drängt sich die berechtigte Frage auf, was ist, wenn es tatsächlich doch viel mehr Infizierte gibt? Das ist das Problem der Dunkelziffer. Da nicht alle über 80 Mio. Menschen in Deutschland kurzfristig getestet werden können, besteht immer die Gefahr, dass viele Positiv-Fälle unentdeckt bleiben. Es könnte also 20000, 40000 oder noch viel mehr akut Infektiöse geben, ohne dass dies in den Zahlen des RKI ausgewiesen wird. Entsprechend wäre selbstredend auch das Infektionsrisiko möglicherweise um mehrere 100% größer. Die vom RKI diesbezüglich dokumentierten Zahlen würden damit die Realität nur unvollständig, vielleicht sogar unfreiwillig geschönt wiedergeben.

Das Problem der unerkannt Infizierten: Die Dunkelziffer

Was für einen Sinn macht denn bei dieser Ausgangslage überhaupt die Bestimmung des Infektionsrisikos oder des Sterberisikos? Ist das nicht ein Stochern im Nebel? Erfreulicherweise nicht. Im Anhang wird gezeigt, dass zumindest die tatsächlichen COVID-19-Erkrankungs- und Sterberisiken in erster Näherung weitgehend unabhängig von der unzweifelhaft bestehenden Unsicherheit bezüglich der Anzahl der Infizierten sind. Dies gilt jedenfalls dann, wenn wir unterstellen, dass sowohl die validen COVID-19-Erkrankungsfälle als insbesondere auch die Anzahl der vom RKI genannten COVID-19 Sterbefälle als vertrauenswürdig angesehen werden können (s. Tabelle 2).

In der Kurzform kann man sich die Begründung folgendermaßen plausibel machen: Nehmen wir an, wir hätten ad hoc einen hochsicheren Corona-Schnelltest zur Verfügung und könnten binnen eines Tages alle 83 Mio. Menschen in Deutschland testen, mit dem Ergebnis, dass 2,5 Millionen Menschen positiv getestet würden. Was änderte sich dadurch? – Die Anzahl der Infizierten verzehnfachte sich. Das wäre bereits alles! Sowohl die Anzahl der COVID-19-Erkrankungen (die Hospitalisierten) als auch die COVID-19-Todesfälle blieben gleich. Wir hätten zwar die 10-fache Anzahl an Infizierten, effektiv aber auch nur ein Zehntel des Risikos für einen ernsten Verlauf oder Todesfolge. Im Ergebnis bliebe sich das gleich, ja man könnte sogar konstatieren, dass das effektive Risiko offenbar viel kleiner ist, als gedacht.

Nur als Randbemerkung: Gegenwärtig durchspielen wir im Grundsatz genau dieses Szenario. Die absoluten Infektionszahlen steigen, gleichzeitig gehen der Hospitalisierungsgrad und das Sterberisiko zurück (s. Tabelle 2).

Tabelle 2: COVID-19 Fallanalysen (Stand 2020-08-18). Quelle: RKI

Der Anteil der positiv Getesteten liegt derzeit unter 1% mit weiter sinkender Tendenz. Die Zahl der COVID-19-Todesfälle stagniert. Die effektive Todesrate sinkt seit dem Höhepunkt im April mit 7% auf jetzt weniger als 1%, teilweise gar 0,5%.

Kommen wir nun zu der angekündigten Analyse bezüglich der effektiven Erkrankungs- und Sterberisiken aufgrund von Corona.

Vorgehen zur Ableitung einer sinnvollen Risikobeurteilung

Was ist überhaupt ein Risiko? Es kann quantifiziert werden als die Wahrscheinlichkeit für das Eintreten eines definierten ungünstigen Ereignisses. Das maximal ungünstigste Ereignis ist fraglos der Tod. Durch das Sterberisiko wird die Wahrscheinlichkeit quantifiziert, in einem bestimmten Zeitabschnitt abzuleben. Für das allgemeine Sterberisiko gibt es valide Zahlen für alle Altersgruppen. Im Hinblick auf COVID-19 werden je nach Quelle unterschiedliche Angaben zum Sterberisiko gemacht, die zum Teil um mehr als 50% voneinander abweichen. Indessen kommt es bei unserer Betrachtung nicht darauf an, das durch Corona erhöhte altersgruppenspezifische Sterberisiko exakt zu bestimmen (das müssen medizinische Studien leisten), das Ziel ist vielmehr, den Vergleich mit dem bestehenden Grundrisiko vorzunehmen. Wir werden sehen, dass in Abhängigkeit von der Kontakthäufigkeit in fast allen Altersgruppen das von Corona ausgehende Sterberisiko deutlich kleiner ist, als das allgemeine Sterberisiko, teilweise sogar erheblich kleiner (bis zu einem Faktor 100).

Es macht Sinn, drei Aspekte separat zu analysieren und zueinander in Bezug zu setzen.

A. Das allgemeine Sterberisiko einer Altersgruppe bei Abwesenheit von Corona.

B. Das spezifische Sterberisiko einer Altersgruppe bei bestehendem Infektionsrisiko (aber noch nicht erfolgter Infektion).

C. Das spezifische Sterberisiko einer Altersgruppe bei einer vorliegenden COVID-19-Infektion.

Durch A wird die Risikoreferenz gesetzt: Weniger Sterberisiko geht im statistischen Mittel nicht. Fraglos wird durch Corona das Sterberisiko grundsätzlich erhöht. Es ist interessant, zu sehen, wie hoch der Effekt einer COVID-19-Erkrankung (also das Sterberisiko nach C) im Vergleich zu den Grundrisiken hier tatsächlich ist. Unter B betrachten wir das resultierende Sterberisiko als Verkettung der Teilrisiken

B1: Kontakt mit akut ansteckenden Infizierten – B2: Infektion – B3: Ernsthafte Erkrankung (Hospitalisierung) – B4: Todesfolge

COVID-19-Letalität und allgemeines Sterberisiko

Die Teilrisiken B3 und B4 ergeben zusammen das Sterberisiko bei einer vorliegenden COVID-19-Infektion, also die Letalität. In [5] sind diese Werte aus einer chinesischen Studie über mehr als 44.000 Infizierten direkt dokumentiert. Aus den Daten des RKI nach [1] und [2] lässt sich gleichfalls eine Letalität ableiten, die sich indes moderat von den Zahlenwerten nach [1] unterscheidet. In Abb. 1 (COVID-19-Letalität und allgemeines Sterberisiko) sind die erhaltenen altersgruppenspezifischen Letalitätswerte aufgetragen. Für mittlere und hohe Lebensalter ergeben sich vernachlässigbare Unterschiede zwischen den beiden Letalitätskurven. Bei den jüngeren Infizierten (25 Jahre) liegt die aus den Daten des RKI erhaltene Letalität nur bei 0,00045 (orangefarbene Kurve) im Vergleich zu 0,002 (rote Kurve). Das klingt nach einem großen Unterschied, indessen steht aber auch der höhere Letalitätswert für ein letzten Endes sehr geringes COVID-10-Sterberisiko von 1:500 bzw. 0,2% (bei dieser Altersgruppe).

Im Folgenden beziehen wir uns für Jüngere auf die pessimistischeren Werte nach [5] (gelbe Kurve mit gelben Kreisen) und passen die Letalitätswerte für Ältere in Richtung der ungünstigeren Werte des RKI an (grüne Kurve mit grünen Quadraten). Im Ergebnis erhalten wir den roten Graphen in Abb. 1. Angemerkt sei, dass durch die aktuellen Zahlen des RKI (s. Tab. 2) eine weiterhin stark zurückgehende Letalität dokumentiert wird. Im Sinne einer Negativabgrenzung bleiben wir dennoch bei den höheren Werten. Damit können wir sicherstellen, dass das tatsächlich bestehende Risiko eher noch kleiner ist, als das in der nachfolgenden Risikobetrachtung abgeleitete.

Abbildung 1: COVID-19-Letalität und allgemeines Sterberisiko. Dargestellt sind die altersgruppenspezifischen COVID-10-Sterberisiken bei nachgewiesener Infektion mit dem Corona-Virus, einmal abgeleitet aus den Daten des RKI ([1] und [2]), zum anderen übernommen aus einer chinesischen Studie [5]. Die rote Kurve steht für die im Text herangezogene COVID-19-Letalität. Das allgemeine Sterberisiko (ohne Corona) ist zum Vergleich aufgetragen.. Man beachte die logarithmische Skalierung.

Der besseren Übersichtlichkeit halber sind in Abb. 2 die beiden relevanten Kurven nochmals dargestellt.

Abbildung 2: COVID-19-Letalität und allgemeines Sterberisiko. Dargestellt sind das allgemeine Sterberisiko (ohne Corona) und das Sterberisiko bei einer bereits vorliegenden COVID-19-Infektion (Letalität). Man beachte die logarithmische Skalierung.

Vergleicht man nun die rote Kurve mit der blauen der grundsätzlich bestehenden allgemeinen Sterberisiken, so erkennt man, dass, wie nicht anders zu erwarten, das Sterberisiko durch eine vorliegende COVID-10-Infektion erhöht wird. Die Erhöhung ist nicht dramatisch, aber signifikant. Doch ist dieser direkte Vergleich überhaupt aussagefähig? Es wird hier ja unterstellt, man sei bereits mit dem Corona-Virus infiziert, was ja derzeit tatsächlich nur für etwa 0,3% der Bevölkerung zutrifft, akut sogar nur für ca. 0,015%. Für 99,7% besteht das Risiko in der Form nicht bzw. nur sehr indirekt über die Gefahr einer möglichen aber dennoch relativ unwahrscheinlichen Infektion.

Formale Risikobestimmung

Sehr viel sinnvoller ist die Betrachtung der gesamten Risikokette nach B1-B2-B3-B4, wie oben skizziert. Das Risiko B1 für den Kontakt mit einer akut ansteckenden Person hängt unmittelbar ab von der Kontakthäufigkeit. Wir variieren hierzu die Anzahl der Kontaktpersonen von 5 Personen pro Tag über 10, 20 und 50 Personen pro Tag und betrachten ein differenziertes Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90. Aus den Kontakthäufigkeiten können wir nun leicht die statistischen Wahrscheinlichkeiten für die Begegnung mit einer infektiösen Person errechnen und in der Folge die Infektionswahrscheinlichkeit B2 sowie das daraus abgeleitete Erkrankungsrisiko B3 (Hospitalisierung) und letztlich das Sterberisiko B4 bestimmen. Da wir insbesondere an Letzterem interessiert sind, berechnen wir das Sterberisiko mittels der Letalität direkt aus B2.

Der formelmäßige Zusammenhang ist wie folgt:

Sterberisiko B4 = Anzahl Kontakte pro Tag * Infektionsrisiko * Letalität

Nicht jeder Kontakt führt zu einer Infektion. Eine Ansteckung im Vorbeigehen ist sehr unwahrscheinlich. Wenn wir hier von Kontakten sprechen, dann meinen wir schon ein Minimum an Innehalten und beieinanderstehen. Zur Erinnerung: auch die Corona Warn-App dokumentiert nur Kontakte mit einer Verweildauer von mindestens 15 Minuten in weniger als 2 m Abstand. Das tatsächliche Ansteckungsrisiko bei einer normal-distanzierten Begegnung mit Fremden oder Bekannten pro individuellem Kontakt ohne Maske kann auf etwa p_K = 10% abgeschätzt werden, bei einem längeren oder sorgloserem Kontakt vielleicht p_K = 20%. Das Infektionsrisiko bestimmt sich daher zu

Infektionsrisiko = p_K * COVID-19-Infektiöse / Einwohnerzahl

Damit können wir nun die Sterberisiken für die unterschiedlichen Kontaktprofile leicht bestimmen.

Risikoanalyse in Abhängigkeit von der Kontakthäufigkeit

Für die genannten unterschiedlichen Kontaktprofile ist in Abb. 3 das resultierende spezifische Sterberisiko durch Corona dargestellt. Man erkennt, dass bei weniger als 20 Kontakten pro Tag das durch Corona zusätzlich entstehende Sterberisiko über alle betrachteten Altersgruppen hinweg kleiner ist, als das das allgemeine Grundrisiko bei Abwesenheit von Corona. Sogar bei 50 Kontakten pro Tag bleibt das Risiko für die Mehrheit der Altersgruppen unter dem allgemeinen Sterberisiko. Bei 5 Kontakten pro Tag liegt das Corona-Sterberisiko teilweise um eine Zehnerpotenz unter dem bestehenden allgemeinen Sterberisiko. Im Falle des als realitätsnah angesehenen Kontaktprofils (gepunktete orangefarbene Kurve) bleiben wir insbesondere für die Älteren teilweise um mehr als den Faktor 10 unter dem altersspezifischen Grundrisiko. Bei den 25-Jährigen liegen wir auf dem Niveau des allgemeinen Sterberisikos, dies ist indes von geringerer Bedeutung, da diese Altersgruppe ein sehr niedriges Grundrisiko aufweist. Dazu weiter unten mehr.

Anzumerken bleibt, dass wir bei den Gruppen der 25- und 40-Jährigen das Ansteckungsrisiko pro Kontakt auf p_K = 20% taxiert haben, bei allen anderen auf p_K = 10%. Für die von der Anzahl der Kontakte abhängige Bestimmung des Infektionsrisikos haben wir ferner die o.g. Eckdaten des RKI zugrunde gelegt, also aktuell 12682 COVID-19-Infektiöse bei 83. Mio. Einwohnern. Das entspricht einem pauschalen Infektionsrisiko von etwa 0,015% (= 1:6500) pro Kontakt mit sicherer Virusübertragung, bzw. 0,0015% (= 1:65000) pro Kontakt mit 10%-iger Übertragungswahrscheinlichkeit.

Abbildung 3: Spezifisches Sterberisiko durch Corona in Abhängigkeit vom Lebensalter. Man beachte die logarithmische Skalierung. Aufgetragen ist das spezifisch auf Corona zurückzuführende Sterberisiko bei unterschiedlichen Kontaktprofilen.

In Abb. 4 sind dieselben Risikoverläufe dargestellt, nun aber mit linearer statt logarithmischer Skalierung. Bis zum Alter von 50 liegen die Kurven alle so nah an der Nulllinie, dass die Unterschiede kaum erkennbar sind. Bei den Altersgruppen 70, 80 und 90 erkennt man aber unmittelbar, wie klein das durch Corona induzierte zusätzliche Sterberisiko im Vergleich zum altersbedingt bestehenden hohen Sterberisiko ohne Corona ist.

Abbildung 4: Spezifisches Sterberisiko durch Corona in Abhängigkeit vom Lebensalter. Aufgetragen ist das spezifisch auf Corona zurückzuführende Sterberisiko bei unterschiedlichen Kontaktprofilen. Im Unterschied zu Abb. 3 hier in linearer Skalierung.

Effektives Sterberisiko in der „Corona-Pandemie“

Wir haben hier nur das spezifisch durch Corona hinzu gekommene Risiko betrachtet. Natürlich will man auch wissen, wie sich das kumulierte Sterberisiko nun darstellt: Grundrisiko ohne Corona + zusätzliches Sterberisiko durch Corona. Die betreffenden Kurven für die unterschiedlichen Kontaktprofile sind in Abb. 5 dargestellt. Als Referenz ist die Kurve für die Sterbewahrscheinlichkeit ohne Corona ebenfalls mit aufgeführt (gestrichelte blaue Kurve). Wie kaum anders zu erwarten, führt das zusätzliche Risiko durch Corona im Wesentlichen zu einer Vertikalverschiebung der Sterberisikoverläufe nach Lebensalter, eine etwas größere Verschiebung bei der jüngeren Altersgruppe, eine etwas kleinere Verschiebung bei den höheren Lebensaltern.

Abbildung 5: Sterberisiko mit Corona in Abhängigkeit vom Lebensalter. Aufgetragen ist das resultierende Gesamt-Sterberisiko (Grundrisiko plus Zusatzeinfluss durch Corona) bei unterschiedlichen Kontaktprofilen. Man beachte die logarithmische Skalierung.

Man muss hier gar nicht ins Detail gehen, um zu erkennen, dass die resultierenden Sterberisiken unter Einbeziehung der Corona-Gefahr bei maximal 20 Kontakten pro Tag (grüne, gelbe, orangefarbene Kurven und die punktierte Linie) sich nur geringfügig vom bestehenden allgemeinen Sterberisiko abheben. Sogar bei 50 Kontakten pro Tag liegt die resultierende Kurve fast deckungsgleich auf dem Niveau der allgemeinen altersspezifischen Sterbewahrscheinlichkeiten, wie sie in [3] für Männer mit der Jahresreferenz 1986/88 ausgewiesen wird. Etwas flapsig könnte man also sagen, 50 sorglose Kontakte pro Tag sind im Hinblick auf das kumulierte Sterberisiko wie eine Zeitreise zurück in die 1980er Jahre. Das ist weitab von einem Katastrophenszenario.

Bei einem Minimum an vernünftigen Verhalten dürften für die meisten Menschen die Kontaktprofile mit 20 und weniger effektiv zu zählenden Kontakten machbar sein. Damit liegen wir beim resultierenden Sterberisiko durch Corona so nahe an der altersspezifischen Basissterbewahrscheinlichkeit (blaue Kurve), dass man schon in den Bereich der statistischen Unschärfe gerät. Linear interpoliert entspräche etwa die orangefarbene Kurve mit 20 Kontakten pro Tag der allgemeinen Sterbewahrscheinlichkeit für Männer (ohne Corona) um das Jahr 2000 (s. [3]).

Sterberisiko ohne und mit Corona im Vergleich

Im nachfolgenden Balkendiagramm (s. Abb. 6) sind die Sterbewahrscheinlichkeiten ohne und mit Corona nochmals sehr prägnant dargestellt.

Abbildung 6: Sterberisiko ohne und mit Corona in Abhängigkeit vom Lebensalter. Dargestellt sind das Grundrisiko ohne Corona (blau) und das Zusatzrisiko durch Corona (rot). Zugrunde gelegt ist das differenzierte Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90. Die Säulenhöhe markiert das resultierende Gesamtrisiko. Man beachte die logarithmische Skalierung.

Die blauen Balken zeigen das allgemeine Sterberisiko ohne Corona, die roten Balken darüber offenbaren den zusätzlichen Einfluss durch die Corona Gefahr. Die Bezugsgröße ist hier das differenzierte Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90. Die Grafik spricht für sich!

Es fällt auf, dass die Corona-bedingten Zusatzrisiken bei den Jüngeren höher ausfallen als bei den Älteren. Ein deutlich gesteigertes zusätzliches Risiko bei der ersteren Altersgruppe, im Gegensatz dazu ein kaum sichtbares Corona-Zusatzrisiko bei den ganz Alten. Das scheint der beobachteten auffallend hohen COVID-19-Letalität bei Menschen über 60 zu widersprechen.

Wird das Sterberisiko durch Corona nennenswert erhöht?

Auf den ersten Blick vermeintlich noch unklarer wird die Situation, wenn wir direkt die altersgruppenspezifischen Erhöhungen im Sterberisiko miteinander vergleichen.

Wir werfen dazu einen Blick auf Abb. 7. Auf der linken Achse ist die prozentuale Erhöhung des Sterberisikos durch Corona aufgetragen. Sie gilt für die farbigen Kurven mit 5 bis 50 Kontakten pro Tag und das differenzierte Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90 (punktiert). Auf der rechten Achse kann man das Sterberisiko ohne Corona ablesen (blau gestrichelte Linie).

Ein Beispiel: Für die Altersgruppe 40 Jahre weist die grüne Kurve auf der linken Achse einen Wert von 16% auf. Demnach erhöht sich für 40-Jährige das allgemeine Sterberisiko mit durchschnittlich 5 Kontakten pro Tag durch Corona um 16% (also um den Faktor 1,16). Für 80-Jährige erhöht sich das Risiko indessen nur um etwa 6% (also um den Faktor 1,06), für 90-Jährige mit 2 Kontakten pro Tag gar nur um etwa 1% (orangefarbene, punktierte Linie) – das ist kaum messbar. Nochmals extremer wird der Unterschied, wenn man die Erhöhung des Sterberisikos durch Corona bei 25-Jährigen im differenzierten Kontaktprofil mit den Werten bei den 90-Jährigen vergleicht: Es sind 91% mehr im ersten Fall, aber nur 1,3% bei den ganz Alten. Wie kann es angesichts dessen zu der vielfach höheren Anzahl an COVID-19-Sterbefällen bei den Alten im Vergleich zu den Jüngeren kommen?

Bevor wir diese Frage beantworten, wollen wir die Prozentangaben im Hinblick auf das Sterberisiko kurz einordnen. Es ist mittlerweile Allgemeinwissen, dass Bewegung der Gesundheit zuträglich ist, das ist durch zahlreiche Studien belegt. Teilweise werden bereits für moderat intensive Alltagsbewegung eine Reduzierung des Sterberisikos von 19 % und bei höher intensivem Ausdauertraining und Sport von 39 % genannt (s. [12]). Schon damit wird klar: Die abgeleiteten höheren Sterberisiken durch Corona bewegen sich im Bereich von Individualentscheidungen der eigenen Lebensführung. Ähnliches kann man natürlich auch von gesunder Ernährung und dem Verzicht auf potentiell krankmachende Genussmittel (Tabak, Alkohol, Zucker) oder eben deren bewusstem Genuss sagen.

Abbildung 7: Erhöhung des Sterberisikos durch Corona in Abhängigkeit vom Lebensalter. Die farbigen Kurven mit 5 bis 50 Kontakten pro Tag und das differenzierte Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90 (punktiert) zeigen auf der linken Achse die prozentuale Erhöhung des Sterberisikos im entsprechenden Lebensalter an. Das bestehende Grundrisiko ohne Corona wird mittels der blau-gestrichelten Kurve dargestellt (rechte Achse). Man beachte die logarithmische Skalierung in beiden Achsen.

Größere relative Risikosteigerung durch Corona bei den Jungen als bei den Alten

Es besteht nur scheinbar ein Widerspruch, den wir im Folgenden aufklären.

Wie man Abb. 6 entnehmen kann, hat die Altersgruppe der25-Jährigen statistisch gesehen auch inklusive des Corona-bedingten zusätzlichen Sterberisikos immer noch eine vielfach höhere Überlebenswahrscheinlichkeit (ca. 65-fach) im Vergleich zur Gruppe der 80-Jährigen (man beachte die logarithmische Skalierung). Verglichen mit den 90-Jährigen ist dieser Wert gar um den Faktor 210 höher. Das bleibt bezüglich der tatsächlichen Sterbezahlen natürlich nicht ohne Folge und erklärt die vermeintliche Unstimmigkeit.

In [6] sind u.a. die Todesraten für die Gruppe der 20-29-Jährigen und die Gruppe der 80-89-Jährigen dokumentiert. Den 8 COVID-19-Toten im Alter zwischen 20 und 30 stehen 3704 COVID-19-Sterbefälle im Alter zwischen 80 und 90 gegenüber, das sind 463-mal so viele.

Um die Auflösung des Widerspruchs an einem Beispiel plausibel zu machen: Nehmen wir zwei Trinkbecher. Den ersten machen wir halbvoll mit Wasser, den zweiten füllen wir bis knapp unter den Rand. In beiden Bechern markieren wir den Füllstand. Nun lassen wir aus geringer Höhe einen Kieselstein in den ersten Becher fallen. Was beobachten wir? Das Wasser gerät in Wallung und schwappt hoch, bleibt aber unterhalb des Becherrands. Nur einige weniger Spritzer gehen darüber hinaus. Wir nehmen den Kieselstein heraus und betrachten den Füllstand im ersten Becher: keine merkliche Veränderung.

Kommen wir zum zweiten Becher. Aus der gleichen Höhe wie zuvor lassen wir den Kieselstein in den Becher fallen. Was passiert? Wieder kommt das Wasser in Wallung. Weil aber der Füllstand sehr hoch ist, schwappt nun einiges vom Inhalt über den Rand hinaus. Wenn wir den Stein herausnehmen, sehen wir, dass die Füllmenge im zweiten Becher deutlich sichtbar unterhalb der Füllstandmarkierung liegt.

In beiden Fällen war die äußere Anregung dieselbe, in Relation zum Inhalt war die Einwirkung beim ersten Becher sogar doppelt so stark. Trotzdem konstatieren wir im Ergebnis einen signifikanten Unterschied zu Ungunsten der Situation beim zweiten Becher mit der in Relation nur halb so starken äußeren Einwirkung.

Die wenigen Wasserspritzer aus dem ersten Becher stehen für die sehr niedrigen COVID-19-Todesraten bei den 20-29-Jährigen. Der viel höhere Verlust an Füllmenge im zweiten Becher entspricht der im Vergleich so überaus beträchtlicheren relativen und absoluten COVID-19-Sterblichkeit bei den über 80-Jährigen.

Was man der oben zitierten Sterbegrafik in [6] übrigens auch entnehmen kann: Nur etwa 0,2% aller Todesfälle bei den 20-29-Jährigen und etwa 1% bei den 80-89-Jährigen gehen tatsächlich auf COVID-19 zurück. Nach wie vor sind also die „allgemeinen Sterberisiken“ in einer angesichts der vorherrschenden Pandemie-Stimmung fast surreal anmutenden Weise dominant gegenüber der von COVID-19 ausgehenden Gefahr. Sogar in der Altersgruppe der besonders gefährdeten über 80-Jährigen sterben unglaubliche 99% aufgrund von anderen Todesursachen.

Resümee

Aus den vorliegenden Daten zu den Fallzahlen der mit dem Corona-Virus Infizierten, der Genesenen und den COVID-19-Todesfällen haben wir durch Vergleich mit den altersspezifischen Sterbewahrscheinlichkeiten aus der Vor-Corona-Zeit das vom Virus ausgehende tatsächliche Risiko bestimmt. Es zeigt sich, dass dieses Zusatzrisiko relativ gering ist und sich einordnet in die Höhe der individuellen Lebensrisiken aufgrund persönlicher Entscheidungen zur Lebensführung (z.B. betreffend Gesundheitsvorsorge, Ernährung und Sport).

Tatsächlich sind Herz-Kreislaufversagen mit 36% aller Fälle und Krebs mit 25% die häufigsten Todesursachen, mehr als eine halbe Million sterben jedes Jahr daran. Sogar Stürze (16.201 in 2018) liegen mit einem Anteil von 1,7% aller Todesursachen noch klar über der Anzahl der COVID-19-Todesfälle. Hat man deswegen schon erwägt, Haushaltsleitern zu verbieten? Die Anzahl der Suizide ist in etwa auf dem Niveau der durch Corona bedingten Todesfälle.

Fakt ist: Nur etwa 0,2% aller Todesfälle bei den 20-29-Jährigen und etwa 1% bei den 80-89-Jährigen gehen tatsächlich auf COVID-19 zurück. Das steht im Einklang mit dem abgeschätzten COVID-19-Sterberisiko als Endprodukt der Kette „Kontakt mit akut ansteckenden Infizierten“ – „Infektion“ – „Ernsthafte Erkrankung (Hospitalisierung)“ – „Tod“. Unter Zugrundelegung eines differenzierten Kontaktprofil mit 20, 10, 10, 10, 5, 3 bzw. 2 Kontakten pro Tag bei den unterschiedlichen Lebensaltern 25, 40, 50, 60, 70, 80 bzw. 90 hatten wir für die Gruppe der Jüngeren (25 Jahre) ein Zusatzrisiko von 20 % erhalten, was hier allerdings nicht durchschlägt, weil das Sterberisiko von 25-Jährigen per se vernachlässigbar ist (s. o.). Bei den sehr Alten (über 80) liegt das Zusatzrisiko nur bei 1 – 4 %. Das tagesbezogene Sterberisiko vergrößert sich hier für die 80-Jährigen von 1:6083 auf 1:5871 und für die 90-Jährigen von 1:1825 auf 1:1802 – das sind kaum wirklich nennenswerte Unterschiede.

Der Anteil der positiv Getesteten liegt derzeit unter 1% mit weiter sinkender Tendenz. Die Zahl der COVID-19-Todesfälle stagniert. Die effektive Todesrate ist seit dem Höhepunkt im April mit 7% auf weniger als 1% gefallen, und sie sinkt weiter, teilweise auf 0,5%.

Es erscheint völlig klar, dass diese Zahlen eine weitere Beeinträchtigung des öffentlichen Lebens und der Wirtschaft in der bisherigen Form in keiner Weise rechtfertigen. Man muss vielmehr genau hinschauen, welche Verbote überhaupt noch ihren Sinn erfüllen. Das gilt sicher für Massenveranstaltungen mit wahllosen und engen Kontakten. Nahezu alles andere muss aber auf den Prüfstand. Das heißt nicht, die Corona-Gefahr zu leugnen, es heißt vielmehr, der tatsächlichen bestehenden Gefahr mit Vernunft und Augenmaß zu begegnen. Gutmeinend erlassene Verbote helfen da nicht weiter, schon gar nicht Denkverbote.

Das Gerede von der Corona-Pandemie „als der größten Herausforderung seit dem zweiten Weltkrieg“ ist grob fahrlässig und hat im Ergebnis einen beträchtlichen Schaden in nahezu allen Lebensbereichen angerichtet. Diese Aussage ist ein politischer Kakophemismus, der durch die Fakten nicht ansatzweise gedeckt wird. Sogar auf dem Höhepunkt der sogenannten ersten Welle waren die Intensivbettkapazitäten in Deutschland nur zu etwa 6% ausgelastet. Vermutlich sind viele an anderen Krankheiten gestorben, weil die Bettenkapazitäten für potentielle COVID-19-Patienten reserviert worden waren (mussten). Von den wirtschaftlichen Auswirkungen und mittelbaren Kollateralschäden ganz zu schweigen.

Quellen

[1] Corona-Infektionen (COVID-19) in Deutschland nach Altersgruppe und Geschlecht (Stand: 24. August 2020). Statista

[2] Todesfälle mit Coronavirus (COVID-19) in Deutschland nach Alter und Geschlecht (Stand: 24. August 2020). Statista

[3] Altersspezifische Sterbewahrscheinlichkeiten der Männer in Deutschland. Bundesinstitut für Bevölkerungsforschung (BIB)

[4] Altersspezifische Sterbewahrscheinlichkeiten der Frauen in Deutschland. Bundesinstitut für Bevölkerungsforschung (BIB)

[5] Sterblichkeitsrate nach Risikogruppen – Für wen ist das Coronavirus besonders gefährlich? RTL.de, 08. Juni 2020

[6] Altersabhängigkeit der Todesraten im Zusammenhang mit COVID-19 in Deutschland. Dtsch Arztebl Int 2020; 117: 432-3; DOI: 10.3238/arztebl.2020.0432

(Grafik 1: https://www.aerzteblatt.de/callback/image.asp?id=107167, Grafik 2: https://www.aerzteblatt.de/callback/image.asp?id=107168)

[7] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) – 17.08.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. RKI

[8] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 18.08.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. RKI

[9] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 19.08.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. RKI

[10] Todesursachen – Zahl der Todesfälle. Statistisches Bundesamt

[11] Verteilung der häufigsten Todesursachen in Deutschland im Jahr 2018. Statista

[12] Bewegung senkt Sterberisiko um bis zu 40 Prozent. Universität Wien, 2011

Anhang

Begründung für die Annahme der Unabhängigkeit des effektiven COVID-19-Erkrankungs- und Sterberisikos von der Dunkelziffer bezüglich der Anzahl der Infizierten

Das Infektionsrisiko wird direkt durch der Anzahl der akut Infizierten determiniert. Die Dunkelziffer bezüglich der Anzahl der Infizierten führt daher unmittelbar zu einem entsprechenden Fehler bei der Bestimmung des Risikos. Das pauschale Infektionsrisiko wird nach der Formel

Infektionsrisiko = COVID-19-Infektiöse / Einwohnerzahl

berechnet. Doppelte Anzahl an Infizierten, heißt also auch doppeltes Infektionsrisiko.

Infektionsrisiko_RKI sei das Infektionsrisiko ohne Dunkelziffer, Infektionsrisiko_eff das effektive Infektionsrisiko inklusive der als bekannt gedachten Dunkelziffer.

Bekanntlich hat nicht jeder Infizierte wirklich ernsthafte Symptome. Nach den letzten Zahlen des RKI sind derzeit (KW 30 in 2020 und später), quer über alle Altersklassen maximal 10% der dokumentierten Infizierten hospitalisiert, also so krank, dass sie stationär behandelt werden müssen. Noch im April waren es 20% (s. Tabelle 2). Wir dürfen davon ausgehen, dass nahezu alle ernsthaft an COVID-19 Erkrankten in der Statistik erfasst werden. Demnach ist also die (absolute) Anzahl der COVID-19-Erkrankten vertrauenswürdig, nicht aber der (relative) Hospitalisierungsgrad, wie er vom RKI ausgewiesen wird.

Dazu folgende Überlegung:

COVID-19-Hospitalisierungsgrad_RKI = COVID-19-Erkrankte / COVID-19-Infizierte

Der Zähler ist verlässlich und fix, der Nenner stark mit Unsicherheit behaftet. Doppelt so viele Infizierte (Dunkelziffer), heißt daher halber Hospitalisierungsgrad.

Für Gesunde bleibt demnach das tatsächliche COVID-19-Erkrankungsrisiko unabhängig von der Unschärfe bezüglich der Anzahl der Infizierten. Bei der doppelten Anzahl an Infizierten aufgrund einer möglichen Dunkelziffer, verdoppelt sich zwar das effektive Infektionsrisiko, das wird aber kompensiert durch den in entsprechendem Maße halbierten effektiven Hospitalisierungsgrad, denn die absolute Anzahl der Hospitalisierten liegt fest:

Infektionsrisiko_eff * COVID-19-Hospitalisierungsgrad_eff = Infektionsrisiko_RKI * COVID-19-Hospitalisierungsgrad_RKI

Ähnlich verhält es sich mit dem COVID-19-Sterberisiko. Das vom RKI ausgewiesene spezifische COVID-19-Sterberisiko (Letalität) liegt seit Mitte des Jahres bei unter 1% mit weiter sinkender Tendenz (s. Tabelle 2). Es ist wie folgt definiert:

COVID-19-Sterberisiko = COVID-19-Todesfälle / COVID-19-Infizierte

(jeweils bezogen auf gleiche Zeitabschnitte).

Auch hier dürfen wir wieder davon ausgehen, dass die validen COVID-19 Todesfälle nahezu vollständig in der Statistik des RKI dokumentiert sind. Für Gesunde bleibt daher das effektive COVID-19-Sterberisiko unbeeinflusst von der Unsicherheit bezüglich der Dunkelziffer betreffend der Infizierten. Bei der im Beispiel doppelten Anzahl an Infizierten, verdoppelt sich das Infektionsrisiko. Das wird kompensiert durch das dann in gleichem Maße halbierte effektive COVID-19-Sterberisiko, denn die absolute Anzahl der Sterbefälle liegt fest:

Infektionsrisiko_eff * COVID-19-Sterberisiko_eff = Infektionsrisiko_RKI * COVID-19-Sterberisiko_RKI

Insgesamt dürfen wir daher sowohl beim Erkrankungsrisiko (Hospitalisierungsgrad) als auch beim Sterberisiko (Letalität) die absoluten Zahlen des RKI unmittelbar verwenden. Gleichviel, wie hoch die Anzahl der COVID-19-Infizierten tatsächlich ist (Dunkelziffer) und wie viele Falsch-Positive darunter auch sein mögen: bezogen auf das Erkrankungs- und Sterberisiko für die Gesamtpopulation ändert sich dadurch nichts. Entscheidend für das effektiv bestehende Risiko sind ausschließlich die absoluten Zahlen betreffend der Hospitalisierung und der spezifischen COVID-19-Todesfälle.

Gefahr Corona Virus – Wie groß ist das Risiko wirklich?

Nackte Zahlen sagen nicht alles

Täglich werden vom Robert-Koch-Institut (RKI) die neuen Corona-Fallzahlen verkündet und auf die vom Corona Virus ausgehende Gefahr hingewiesen. Drei Zahlenwerte werden dabei vor allem genannt: 1. Die Anzahl der COVID-19 Fälle insgesamt. 2. Die kumulierten COVID-19 Todesfälle. 3. Die Anzahl der von COVID-19 Genesenen. Per 17.08.2020 sind das die folgenden Fallzahlen:

  • COVID-19-Fälle insgesamt = 224014
  • COVID-19-Todesfälle insgesamt= 9232
  • COVID-19-Genesene insgesamt = 202100

Die ganz wichtige weitere Zahl wird – aus welchen Gründen auch immer – nicht genannt. Es ist die Anzahl der aktuell Infektiösen, also die der tatsächlich ansteckenden Personen. Man kann diese Zahl leicht aus den obigen Werten berechnen.

  • COVID-19-Infektiöse = COVID-19-Fälle – COVID-19-Genesene – COVID-19-Todesfälle

Aktuell (per 17.08.2020) beläuft sich die Anzahl der akut ansteckenden Personen (COVID-19-Infektiöse) auf 12682.

Bei Lichte betrachtet ist es nur die letztgenannte Zahl, von der eine Gefahr für die weitere Verbreitung des Corona-Virus ausgeht, denn anstecken kann man sich nur bei akut infizierten Personen. Was heißt dabei „akut infiziert“? Nach mehrfach bestätigten Studien besteht nur innerhalb der ersten 7 – 14 Tage nach der Infektion eine Ansteckungsgefahr. Wenn Sie also jemand treffen, der vor 3 Wochen positiv getestet wurde und keine Symptome zeigt, brauchen Sie sich keine Gedanken um Ihre Gesundheit zu machen.

Die Zahlen richtig interpretieren und kühlen Kopf bewahren

In Presse Funk und Fernsehen wird teilweise in unverantwortlicher Weise Panik geschürt. Im Ergebnis überschätzen die Menschen das Risiko für eine ernsthafte Erkrankung an COVID-19 um Größenordnungen. Einer der Gründe dafür ist die wenig differenzierte Berichterstattung des RKI. Die absoluten Zahlen von sogenanntem Neuinfizierten zu nennen, ist zweifellos eine wichtige Information, sie sagt aber nicht alles aus. Vor allem muss diese Zahl auch in Bezug gesetzt werden zu den insgesamt vorgenommenen Tests. Aktuell werden pro Woche mehr als 500000 Tests durchgeführt. Positiv sind weniger als 1% (KW 29: 0,6%, KW 30: 0,8%) davon. Zum Vergleich: Im April waren teilweise 9% der Tests positiv. Man sieht schon daran: Es ist fahrlässig, angesichts dieser Zahlen von einer zweiten Welle zu reden.

Dabei muss man auch sehen, dass die Falsch-Positiv-Rate bei den Tests nicht vernachlässigbar ist. Man kann abschätzen, dass bei Anwendung des RT-PCR-Tests auf eine Gruppe mit niedriger Infektionswahrscheinlichkeit (was für die Allgemeinheit nach wie vor zutreffen dürfte) teilweise bis zu 60% der positiv Getesteten tatsächlich gar keine Virenträger sind (Basis: Testsensitivität 70%, Testspezifität 95%, Prävalenz 5%). Immerhin kann man einem negativen Testat vertrauen: 98% der negativ Getesteten sind tatsächlich negativ.

Das Bild dreht sich um, wenn Risikogruppen mit einer hohen Prävalenz (Prätest-Infektionswahrscheinlichkeit) getestet werden. In diesem Fall sind nur 7% der positiv Getesteten in Wahrheit negativ. Umgekehrt tragen dann allerdings 24% der negativ Getesteten das Virus in sich, sind also positiv (Basis: Testsensitivität 70%, Testspezifität 95%, Prävalenz 50%).

Nach dem Vorstehenden kann man festhalten, dass die Aufregung um gegebenenfalls steigende Infektionszahlen verfrüht ist, solange die Testergebnisse nicht durch mindestens einen weiteren Test bestätigt werden. Denn die Unsicherheit singulärer RT-PCR-Tests bei Anwendung auf Niedrigrisikogruppen ist hoch. – Könnte denn eine Blitzampel mit einer Fehlerquote von 60% rechtssichere Bußgeldbescheide begründen?

Wir haben oben gesehen, dass derzeit weniger als 1% der Testergebnisse positiv ausfallen. Bei aller Unsicherheit bezüglich der Testaussagen sieht man schon daran: Das Risiko, sich mit dem Corona-Virus zu infizieren ist bei Weitem nicht so hoch, wie dies die teilweise alarmistische Berichterstattung nahelegt.

Auch wenn man sich infiziert hat: Leichte Befunde und Krankheitsverläufe sind die Regel. In 80% der Fälle haben die Infizierten keine oder nur milde Symptome. Damit soll die Gefahr nicht verharmlost werden, denn natürlich gibt es auch die schweren Verläufe, die insbesondere Menschen mit Vorerkrankungen treffen. Immerhin jeder 6. bis 7. Betroffene muss stationär behandelt werden.

Unterstellt, die Anzahl der insgesamt Infizierten (COVID-19-Fälle insgesamt) spiegele die Realität vollständig wider, es gebe also keine Dunkelziffer, liegt die dokumentierte Letalität (Sterblichkeit) deutschlandweit bei etwa 4 bis 5%. Der Vollständigkeit halber sei hier angemerkt, dass in einer räumlich begrenzten Studie auf der Basis eines vollständigen Screenings eine deutlich niedrigere Letalität von unter 0,4% bestimmt wurde. Der Grund dafür ist die potentiell hohe Dunkelziffer unerkannt Infizierter. Inwiefern dieser niedrigere Wert auf die größere Population in Deutschland übertragbar ist, kann derzeit nicht gesagt werden. In Unkenntnis der Dunkelziffer an Infizierten muss man sich seriöser Weise am höheren Wert orientieren.

Wie groß ist das Risiko für das Individuum wirklich?

Angesichts der sich teilweise überschlagenden und dabei auch widersprüchlichen Medienberichterstattung, fällt es dem Einzelnen schwer, die tatsächlich vom Corona-Virus ausgehende Gefahr realistisch einzuschätzen und sein eigenes Risiko zu veranschlagen. Dabei kann dieses Risiko relativ einfach aus den vom RKI übermittelten Zahlen bestimmt werden.

Wir haben oben gesehen, dass es derzeit 12682 akut ansteckende Personen (COVID-19-Infektiöse) gibt. Deutschland hat etwa 83 Mio. Einwohner. Demnach beläuft sich der Anteil der infektiösen Mitbürger auf 0,0153%, d.h., etwa 1 von 6544 Menschen ist akut ansteckend.

Was heißt das?

Jemand der täglich mit 65 unterschiedlichen Personen Kontakt hat, wird im Mittel alle 100 Tage auf einen an COVID-19 erkrankten und akut infektiösen Menschen treffen. Wer nur mit max. 18 Personen pro Tag Kontakt hat, wird statistisch nur einmal im Jahr in die Nähe eines akut Infizierten kommen.

Natürlich geht es hier um Mittelwerte. Wer in einem Landkreis oder einer Stadt mit höherer Dichte an akut Infizierten lebt, wird mit höherer Wahrscheinlichkeit bzw. häufiger mit ansteckenden Personen in Kontakt kommen. Nehmen wir Hamburg: Der Anteil der akut Infektiösen liegt dort bei 0,022%. Wer täglich mit 18 unterschiedlichen Personen in Kontakt kommt, wird also im Mittel etwa alle 8 Monate einem konkreten Infektionsrisiko ausgesetzt sein.

Das gleiche gilt natürlich auch umgekehrt. In Mecklenburg-Vorpommern (das Bundesland mit den niedrigsten Infektionszahlen) ist der Anteil der akut Infektiösen mit einem Wert von 0,0033% fast 5-mal geringer als im deutschlandweiten Schnitt. Wer dort 18 Personen pro Tag nahe kommt, wird im Mittel nur alle 4 bis 5 Jahre auf einen Infizierten treffen.

Auch wenn man mit einem Infektiösen Kontakt hat, heißt dies noch nicht, dass man sich auch selbst infiziert. Das konkrete Risiko hängt von vielen Faktoren ab. Relevant sind auf jeden Fall die Nähe, die Intensität und die Dauer des Kontakts. Schon einfache Vorsichtsmaßnahmen sind geeignet, das Ansteckungsrisiko deutlich zu reduzieren. Bei einem normal-distanzierten Kontakt unter Fremden oder entfernt Bekannten (kurzes Gespräch) liegt das Risiko vermutlich auch ohne Maske unter 10%. Mit Maske vielleicht bei 1%. Enger und langanhaltender Kontakt unter Freunden („Party mit Saufgelage“) hebt das Risiko mit einiger Sicherheit in Richtung 100%. Nach diesen Vorüberlegungen wollen wir nun das individuelle tägliche COVID-19-Krankheitsrisiko für drei Musterpersonen auf Grundlage der mittleren deutschlandweiten Infektionsgeschehens abschätzen. Wir verwenden dabei die folgenden Eckwerte:

  • Tatsächliches Ansteckungsrisiko bei einer normal-distanzierten Begegnung mit Fremden oder Bekannten pro individuellem Kontakt ohne Maske 10%.
  • Tatsächliches Ansteckungsrisiko bei einer sehr sorglosen oder länger andauernden Begegnung mit Fremden oder Bekannten pro individuellem Kontakt ohne Maske 50%.
  • Tatsächliches Risiko für einen ernsteren Verlauf bei nachgewiesener Infektion (Ausbruch der Krankheit und stationäre Behandlung) 20%.
  • Tatsächliches Sterberisiko bei stationärer Behandlung 25%, (entsprechend einer Letalität von 5% bei nachgewiesener Infektion).

Person A: 1x pro Woche im Supermarkt (20 Personen), 1x pro Woche im Restaurant (5 Personen), 1x Treffen mit Bekannten oder Familienangehörigen (10 Personen). A hat im Mittel Kontakt mit 5 Personen pro Tag.

A ist vernünftig und bleibt im Kontakt ohne Maske lieber etwas reservierter (Ansteckungsrisiko pro Kontakt 10%). Das individuelle tägliche Infektionsrisiko von A liegt demnach bei ca. 1:1300 (= 5*0,000153), sein Erkrankungsrisiko (A infiziert sich tatsächlich) bei 1:13000 (= 0,1*5*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei A kommt damit auf 1:65000 (= 0,2*0,1*5*0,000153), sein tägliches Corona-Sterberisiko beläuft sich demnach auf 1:260000 (= 0,00038% = 0,25*0,2*0,1*5*0,000153).

Um das richtig einzuschätzen: Werfen Sie 18-mal hintereinander eine Münze. Wiederholen Sie diesen Prozess jeden Tag aufs Neue, immer wieder. An dem Tag, an welchem 18-mal hintereinander Zahl fällt, ist Person A tot und an COVID-19 verstorben.

Übrigens, das statistische tägliche Sterberisiko für einen 80-jährigen Mann liegt auch ohne Corona schon bei 1:5200 (= 0,019%), mithin also etwa 50-mal höher als das spezifische Risiko durch Corona. Wobei dieser Vergleich insofern schief ist, als dass das individuelle COVID-19-Risiko für einen schweren Krankheitsverlauf bei einem 80-Jährigen gegenüber Personen mittleren Alters per se deutlich erhöht ist. Vergleichen wir also das berechnete COVID-19-Sterberisiko für Person A mit dem allgemeinen Sterberisiko für einen Menschen mittleren Alters.

Für 50-Jährige liegt das tägliche Sterberisiko bei etwa 1:120000 (= 0,00082%). Das für Person A zusätzlich entstehende Risiko durch Corona liegt demnach etwa halb so hoch. D.h., Corona erhöht das tägliche Sterberisiko für Person A von 0,00082% auf 0,0012%. Etwas Bewegung an frischer Luft oder die Reduktion des Fleischkonsums um wenige Prozent dürfte diese Risikoerhöhung locker kompensieren, denn nach wie vor sind Herz-Kreislauferkrankungen aufgrund mangelnder Bewegung und falscher Ernährung die Haupttodesursachen.

Person B: 1x pro Woche im Supermarkt (20 Personen), 3 Tage Heimarbeit (0 Personen), 2 Tage in der Firma (10 Personen) 2x Essen in der Kantine (20 Personen), 1x Treffen mit Bekannten oder Familienangehörigen (20 Personen). B hat im Mittel Kontakt mit 10 Personen pro Tag.

B ist vernünftig und bleibt im Kontakt ohne Maske lieber etwas reservierter (Ansteckungsrisiko pro Kontakt 10%). Das individuelle tägliche Infektionsrisiko von B liegt demnach bei ca. 1:650 (= 10*0,000153), sein Erkrankungsrisiko (B infiziert sich tatsächlich) beträgt also 1:6500 (= 0,1*10*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei B errechnet sich damit zu 1:32500 (= 0,2*0,1*10*0,000153), sein tägliches Corona-Sterberisiko beläuft sich demzufolge auf 1:130000 (= 0,00077% = 0,25*0,2*0,1*10*0,000153).

Unterstellt, B habe mittleres Alter, erhöht sich sein allgemeines tägliches Sterberisiko pauschal von 0,00082% auf knapp 0,0016%. Auch das ist leicht auszugleichen durch ein Minimum an gesünderer Ernährung und Sport. Übrigens, das Risiko im Straßenverkehr ums Leben zu kommen liegt für Personen mit einer durchschnittlichen jährlichen Fahrleistung von 15000 km bei etwa 0,0075% pro Jahr.

Person C: 2x pro Woche im Supermarkt (20 Personen), 5 Tage in der Firma (50 Personen), am Wochenende Party oder Disco (50 Personen). C hat im Mittel Kontakt mit 20 Personen pro Tag.

C ist unvernünftig und schert sich um nichts (Ansteckungsrisiko pro Kontakt 50%). Das individuelle tägliche Infektionsrisiko von C liegt demnach bei ca. 1:325 (= 20*0,000153), sein Erkrankungsrisiko (C infiziert sich tatsächlich) bei 1:653 (= 0,5*20*0,000153). Das individuelle tägliche Risiko für einen ernsteren Verlauf eines potentiellen Krankheitsgeschehens bei C kann somit auf 1:3267 (= 0,2*0,5*20*0,000153) abgeschätzt werden. Sein pauschales tägliches Corona-Sterberisiko errechnet sich daraus zu 1:13000 (= 0,0077% = 0,25*0,2*0,5*20*0,000153).

Unterstellt, C gehöre der jüngeren Generation an (20-30 Jahre), erhöht sich sein allgemeines tägliches Sterberisiko pauschal von 0,000137% auf knapp 0,0078%. Das ist nun schon eine signifikante Steigerung, eine fast 60-fach erhöhte Sterbewahrscheinlichkeit! Allerdings: Hier bleibt unberücksichtigt, dass Jüngere ein deutlich reduziertes Risiko für einen schweren COVID-19-Krankheitsverlauf mit stationärer Behandlung und Todesfolge haben. Stellt man dies mit einer Hospitalität von 10% statt 20% und einem Sterberisiko bei stationärer Behandlung von 5% (entsprechend einer Letalität von 0,5%) statt 25% in Rechnung, so kommt man beim individuellen täglichen Corona-Sterberisiko für C auf 1:130000 (= 0,00077% = 0,05*0,1*0,5*20*0,000153). Das ist derselbe Wert, wie bei Person B.

Resümee

Natürlich muss jeder für sich selbst bewerten, inwiefern die hier exemplarisch bestimmten Corona-Risiken individuell als bedrohlich oder als eher niedrig angesehen werden. Nach meiner persönlichen Einschätzung sind die Risiken für Gesunde in der Gesamtschau und verglichen mit anderen Lebensrisiken nicht ungewöhnlich hoch. Anders mag es aussehen für Menschen mit Vorerkrankungen und insbesondere für Ältere mit Vorerkrankungen. Diese Gruppe hat grundsätzlich ein höheres Sterberisiko, das nun durch Corona noch weiter erhöht wird.

Gewiss ist das Verbot von Massenveranstaltungen nach wie vor sinnvoll. Wahllose und fahrlässig enge Kontakte mit Fremden sollte man fraglos vermeiden. Umgekehrt muss man gefährdete Personen aktiv schützen, dabei ist auch das Tragen einer Maske in Situationen mit einem unvermeidlichen engeren Kontakt grundsätzlich sinnvoll. Ansonsten darf man die Kirche im Dorf lassen und zu einer vernünftigen Normalität zurückkehren.

Quellen:

[1] Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) – 17.08.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND. Robert-Koch-Institut

[2] Altersspezifische Sterbewahrscheinlichkeiten der Männer in Deutschland. Bundesinstitut für Bevölkerungsforschung (BIB)

[3] Sterblichkeitsrate nach Risikogruppen – Für wen ist das Coronavirus besonders gefährlich? RTL.de, 08. Juni 2020

[4] Altersabhängigkeit der Todesraten im Zusammenhang mit COVID-19 in Deutschland. Dtsch Arztebl Int 2020; 117: 432-3; DOI: 10.3238/arztebl.2020.0432

Gutes Klima – Globale Erwärmung, CO2 und der ganze Rest (1)

Teil 1: Von der Eiszeit in die Heißzeit?

Was ist Klima? Gibt es die globale Erwärmung und den Klimawandel? Steuern wir auf die „Heißzeit“ zu? War es früher kalt und damit besser?

Zu den Inhalten der Teile 2 und 3 siehe Ende des Textes.

Klima und Wetter

Was ist Klima? Klima ist das über einen längeren Zeitraum von mindestens 30 Jahren statistisch gemittelte Wettergeschehen für einen Ort oder ein geographisch definiertes Gebiet. Bezüglich der beobachteten Phänomene sind dabei insbesondere die Mittelwerte aber auch die Schwankungsbreiten von vorrangigem Interesse. Unter anderem sind das z.B. die mittlere Temperatur sowie die typischen Maxima und Minima im jahreszeitlichen Temperaturverlauf. Aber natürlich auch andere Phänomene wie durchschnittliche Niederschlagsmenge, Sonneneinstrahlung und Wolkenbildung, Häufigkeit von Stürmen usw. (s. a. https://de.wikipedia.org/wiki/Klima).

Klima und Wetter sind zwei verschiedene Dinge. Im Grundsatz weiß das jeder. Nichtsdestotrotz wird es aber auch in der medialen Diskussion immer wieder durcheinandergebracht. Erleben wir einen heißen Sommer, so wird das als ein Effekt des Klimawandels gesehen und am Ende kurzerhand damit gleichgesetzt. In Wahrheit ist es aber Wettergeschehen, auch wenn es im Einzelfall perfekt in das Narrativ vom Klimawandel passt. Damit soll nicht gesagt werden, den Klimawandel gebe es nicht. Die Unterscheidung muss man aber dennoch treffen.

Der wichtigste Klimaindikator

In der öffentlichen Diskussion zum Klimawandel steht insbesondere die Durchschnittstemperatur eines Jahres im Fokus: in Deutschland, in Europa, in der Arktis oder gar global. Die globale Durchschnittstemperatur und deren Veränderung im Vergleich zur vorindustriellen Zeit gelten dabei als zentrale Indikatoren für den beobachteten Klimawandel. So wird z.B. im UN-Klimaabkommen von Paris ganz klar das Ziel benannt, die globale Erwärmung auf deutlich unter 2 Grad verglichen mit der vorindustriellen Zeit zu begrenzen. Oft wird das als „2 Grad Ziel“ oder schärfer auch als „1,5 Grad Ziel“ zitiert.

Klärung der Begriffe

Im Sinne einer Klärung der Begriffe sollte man sich dabei durchaus nochmal vor Augen führen, dass es „das Klima“ nicht gibt; auch nicht „den Klimawandel“. Die Begriffe beziehen sich ihrem Wesen nach immer auf ein geographisches Gebiet (oder einen Ort) mit einem im weitesten Sinne einheitlichen oder zumindest vergleichbaren mittleren Wettergeschehen. Es existiert kein globales Klima im strengen Sinne. Gleichwohl kann man die Gesamtheit der unterscheidbaren Klimate rund um den Globus in gewisser Weise als „das globale Klima“ auffassen, obwohl damit der meteorologische Klimabegriff arg strapaziert wird. Veränderungen dieses solchermaßen unscharf definierten „globalen Klimas“ darf man sodann als „globalen Klimawandel“ verstehen. Man sieht, dass man sich damit aufs Glatteis begibt, denn Veränderungen irgendwo auf der Welt gibt es immer.

Einfacher wird’s, wenn man einzelne Aspekte herausgreift, am besten solche, die man – vermeintlich –  relativ leicht messen kann, womit wir wieder bei der globalen Durchschnittstemperatur  gelandet sind. Es ist ein denkbar einfacher Begriff, den jedermann versteht und den man deswegen auch gut transportieren kann. Tatsächlich  ist es indes gar nicht so trivial, die globale Durchschnittstemperatur  verlässlich zu bestimmen.

Was ist relevant?

Im Hinblick auf die einleitenden Bemerkungen muss man sich dabei auch klarmachen, dass die globale Durchschnittstemperatur eines bestimmten Jahres zunächst nur ein Messwert in einer Datenreihe darstellt. Das ist keine unmittelbar klimarelevante Größe. Erst durch die Mittelwertbildung über eine Vielzahl von aufeinanderfolgenden Jahren entsteht ein Vergleichswert für die Beurteilung des Klimas. Deswegen ist eine Aussage wie „2019 war es im Mittel 0,9 Grad wärmer als 1850“ zwar interessant, sie sagt aber für sich genommen noch wenig über eine Klimaveränderung aus.

Wenn aber die Durchschnittstemperatur in größeren Zeiträumen (wie oben also etwa 30 Jahre) höher ist als in entsprechenden klimarelevanten Vergleichszeiträumen, dann müssen wir das ernsthaft als Indiz für eine Klimaveränderung registrieren. Das verlinkte Beispiel (s. Abb. 1, Statista Infografik: In Deutschland wird es immer heißer), gehört indessen eher zur oben genannten Kategorie: interessant, aber nicht relevant; allenfalls ein Indiz.

Abb. 1: Jahresmitteltemperaturen in Deutschland (1960 – 2019). ©Statista

In diesem Zusammenhang soll nun zunächst auf zwei wichtige Punkte eingegangen werden. 1. Gibt es so etwas wie eine globale Durchschnittstemperatur und wie misst man sie? 2. Welches ist der angemessene Vergleichszeitraum für die Bestimmung einer globalen Veränderung des Klimas, konkret also die mittlere globale Erwärmung.

Die globale Durchschnittstemperatur

Die Angabe einer globalen Durchschnittstemperatur wurde schon verschiedentlich kritisiert (populär z. B. vom Magazin Quarks). Es ist in der Tat schwierig, wenn nicht unmöglich, dafür einen seriösen Wert zu bestimmen. Eigentlich bräuchte man ein dichtes Netz von gleichmäßig verteilten Messstellen rund um den Globus. Das gibt es nicht. In den meist dicht besiedelten entwickelten Ländern haben wir sehr viele Wetterstationen. In vielen anderen Weltgegenden wird die jeweilige Temperatur aber nur von sporadisch verteilten Messstellen erfasst oder nur indirekt mittels Satellitenbeobachtung bestimmt (s. Abb. 2 [exemplarisch]). Dadurch entstehen Ungenauigkeiten, die geeignet sind, das Gesamtbild zu verzerren.

Abb. 2: Verteilung von Wetterstationen. Links: Europa, Grönland und Nordafrika. Rechts: Ostasien. Quelle: Wetterdienst.de.

Nun könnte man sagen, gleichviel, ob nun die aktuell in 2019 bestimmte absolute globale Jahresmitteltemperatur bei 14,7, 15,1 oder 15,5 Grad lag. Wichtig ist doch allein die Beobachtung der Veränderung zum Vorjahr bzw. zum Vergleichszeitraum. Das ist nur zum Teil richtig, denn es unterstellt, dass die beobachtete Veränderung an den Messstationen sich in gleicher Weise auch dort manifestiert, wo nicht gemessen wird. Das gilt umso mehr, wenn die heutigen Werte mit weiter zurückliegenden historischen Zeiträumen ohne direkte instrumentenbasierte Temperaturmessung verglichen werden.

Instrumentell bestimmte Temperaturdaten gibt es seit dem 18. Jahrhundert und auch das im Wesentlichen beschränkt auf Europa. Der Vergleich der heute mit hoher Genauigkeit gemessenen Werte mit den meist nur indirekt bestimmten historischen Temperaturen ist daher schwierig und mit bemerkenswerten Unsicherheiten behaftet. Die auf Basis von diversen Modellen bestimmten völlig unterschiedlichen historischen Temperaturverläufe machen dies offenkundig (s. Abb. 4 weiter unten).

Vergleichen … aber womit?

Hier ist das Stichwort Vergleichszeitraum  gefallen. Womit vergleicht man? Welches ist denn überhaupt der vernünftige klimarelevante Vergleichszeitraum. Ist es das Klima um 1850 (also das „mittlere Wetter“ bzw. der Durchschnittswert der globalen Jahresmitteltemperatur zwischen 1820 und 1850, oftmals als „vorindustrieller Vergleichszeitraum“ zitiert? Ja, das ist eine Möglichkeit. So wird es ja auch vom IPCC (Intergovernmental Panel on Climate Change) und auf den diversen UN-Klimakonferenzen gemacht. Man kann natürlich auch einen anderen Vergleichszeitraum zugrunde legen. Dieser sollte sinnvollerweise vor dem Beginn des Industriezeitalters liegen, weil man ja den eventuellen anthropogenen Effekt bestimmen möchte.

Die Mitte des 19. Jahrhunderts ist eine zulässige und nicht unvernünftige Wahl, sie ist aber nicht die einzig mögliche. Wenn man weiter zurückblickt, dann sieht man, dass im 19. Jahrhundert die mittleren Temperaturen eher etwas niedriger waren als in etlichen anderen Vergleichszeiträumen. Es gibt daher durchaus gute Gründe dafür, andere historische Zeiträume als Referenz für das „normale“ Klima zu nehmen. Wobei es ein „normales“ Klima im engeren Sinne überhaupt nicht gibt. Dazu später mehr.

Der historische Temperaturverlauf …

Klimaforscher haben mittlerweile ein passables Bild von der Temperaturentwicklung der letzten 1000 bis 2000 Jahre erarbeitet. Noch weiter zurück bis zur letzten Eiszeitperiode, die ca. um 10000 bis 8000 v. Chr. endete, ergibt sich etwa der in Abb. 3 dargestellte Verlauf der mittleren bodennahen Temperaturen auf der Nordhemisphäre.

Abb. 3: Ungefährer Temperaturverlauf von 9000 v. Chr. bis 2000 n. Chr.

… oder „die“ historischen Temperaturverläufe

Aufgrund der oben skizzierten Schwierigkeiten ist die Darstellung mit Unsicherheiten behaftet. Die von verschiedenen Forschern rekonstruierten Temperaturverläufe sind nicht deckungsgleich und widersprechen sich teilweise, wie wir bald sehen werden.

Auf die in Abb. 4 exemplarisch dargestellte Unschärfe wurde schon oben hingewiesen. Es sind die Verläufe der Durchschnittstemperaturen  zwischen den Jahren 700 und 2000 nach verschiedenen Rechenmodellen aufgetragen. Man sieht die relativ großen Abweichungen zwischen den diversen Modellen (s. Legende) und die daraus resultierenden Ungenauigkeiten. Die Streubreite liegt teilweise bei bis zu ±0,5 Grad.

Es fällt auch auf, dass die Temperaturkurven häufig relativ steile Gradienten aufweisen, also schnelle Änderungen der Temperaturen in relativ kurzen Zeiträumen. Ob dies Fakt ist oder auf möglicherweise falsche Modellannahmen zurückzuführen ist, kann nicht entschieden werden. In diesem Sinne ist daher auch Abb. 3 eher als eine Annäherung an die tatsächlichen historischen Bedingungen zu verstehen. Insbesondere dürfen weder der genaue Kurvenverlauf noch die absoluten Abweichungen von der mittleren Temperatur als exakte Werte genommen werden. Es sind aber immerhin plausibel begründete Abschätzungen.

Abb. 4: Ungefährer Temperaturverlauf von 700 bis zum Jahr 2000 n. Chr.

Andere Rechenmodelle kommen teilweise wieder zu völlig unterschiedlichen Verläufen (s. Abb. 5 und 6).

Abb. 5: Modellmäßig rekonstruierte Temperaturverläufe über den Zeitraum 1000 bis 2000 n. Chr.

Abb. 6: Globale Temperaturveränderungen in den letzten 2000 Jahren.

Aktuelle Messdaten vs. Historie

Zwischen den diversen Rechenmodellen gibt es immerhin einige bemerkenswerte Gemeinsamkeiten: (a) Vom Spätmittelalter (1400) bis zum Beginn der Industrialisierung (1850) waren die Durchschnittstemperaturen eher geringer als im langfristigen Mittel; dies kann man allen vier Abbildungen entnehmen („kleine Eiszeit“). (b) Im Hochmittelalter (850 – 1150) und um die Zeitenwende (Zeitalter des Römisches Reichs) lagen die mittleren Temperaturen eher höher als im langfristigen Mittel und in etwa knapp unter dem heutigen Niveau.

Bezüglich des Mittelalters kann man diesen Effekt in zwei der Abbildungen (Abb. 4 und 5) erkennen. Dazu nochmals der Hinweis: Es handelt sich um modellierte Temperaturwerte auf der Basis von indirekt bestimmten Messdaten, i. W. aus der Analyse von Baumringen oder Bohrkernen. Sie sind daher mit höheren Unsicherheiten behaftet. Man darf diese Befunde nicht überinterpretieren. Deswegen werden die Resultate hier nur qualitativ in der Weise verwendet, wie sie sich in der Farbgebung (warm: rot, kalt: blau) von Abb. 3 und der oben vorgenommenen Unterteilung in die Kalt- und Warmphasen (a) und (b) widerspiegeln.

Man sieht, dass der üblicherweise vorgenommene Vergleich der heutigen Durchschnitts­temperaturen mit den Werten um 1850 die derzeit beobachtete globale Erwärmung in gewisser Weise verzerrt und im Ergebnis überhöht darstellt. Damit ist nicht gesagt, dass es diese globale Erwärmung nicht gibt. Es kann ihr aber bei vernünftigem Ermessen in der längerfristigen Betrachtung nicht dieser singuläre und bei manchen Zeitgenossen Alarmismus auslösende Charakter beigemessen werden. Verglichen mit der mittelalterlichen und der römischen Warmzeit liegen wir heute bei aller Unsicherheit nur knapp darüber. Weiter zurück muss man auch die bemerkenswerten längeren Wärmeperioden um 5000 v. Chr. und um 2300 v. Chr. ins Auge fassen (s. Abb. 3).

Rascher Anstieg der globalen Durchschnittstemperatur

In den Abb. 4, 5 und 6 sticht der instrumentell gemessene Anstieg seit etwa 1900 ins Auge.  Verglichen mit den historischen Kurvenverläufen fällt dabei die schwarze Linie bezüglich ihres steilen Gradienten aus dem Rahmen. Der Verlauf spiegelt das rechte Ende der berühmten Hockeystick-Kurve wider, die in ihrem suggestiv vereinfachten Gesamtverlauf indessen mittlerweile allgemein als nicht länger haltbar erkannt wurde. Der dargestellte Kurvenanteil ab 1850 ist nichtsdestotrotz als unverändert gültig zu betrachten. – Wird damit die globale Erwärmung in hinreichender Weise bereits schlüssig untermauert und ihre Einzigartigkeit belegt?

Ist das der Beweis für den Klimawandel?

Völlig unzweifelhaft belegt dieser gemessene Anstieg – wichtig: gemessen, nicht modelliert – trotz der oben bezüglich der Messmethoden vorgebrachten Kritik die globale Erwärmung in hinreichender Weise. Die Erwärmung an sich (verglichen mit 1850) ist daher eine unbestreitbare Tatsache. Bezüglich der genauen Höhe des globalen Anstiegs bleiben indes Fragezeichen und ernstzunehmende Unsicherheiten. Wie schon oben erwähnt, ist es dabei durchaus fragwürdig, inwiefern die Angabe einer globalen Durchschnittstemperatur überhaupt zielführend ist.

Sicher ist: In den gut untersuchten Regionen zeigen sich überwiegend ähnliche Tendenzen in Richtung eines Anstiegs der mittleren Temperaturen. Die klimatische Veränderung ist also nicht auf einzelne geographische Bereiche (z. B. Europa) beschränkt, wie das in der Vergangenheit öfters der Fall war. – Dies ist ein valides, ein starkes Indiz für den globalen Klimawandel. Indessen kann das derzeit erreichte globale Temperaturniveau im längerfristigen historischen Vergleich erkennbar nicht als Extremabweichung nach oben angesehen werden (dazu mehr weiter unten). Dies ist erst dann der Fall, wenn es zu einem weiteren signifikanten Anstieg kommt.

Nach dem Vorstehenden verbleibt als das wichtigste Indiz für eine menschengemachte globale Erwärmung der durch konkrete Messwerte belegte rapide Anstieg der Durchschnittstemperaturen seit 1850 oder 1900 im Gleichschritt mit der Industrialisierung und der damit einhergegangenen Emission von CO2. Oder ist das doch ein Kurzschluss?

Zumindest muss man auch dies relativieren, weil wir eben über keine weiter zurückliegenden konkreten Messwerte in der erforderlichen hohen zeitlichen Dichte und Qualität und damit valide Vergleichskurven für gleiche geographische Gebiete verfügen. Wir können daher nicht ausschließen, dass z.B. 850 n. Chr., 200 v. Chr. oder 2900 v. Chr. in den relevanten Gebieten der Temperaturanstieg in Richtung der darauffolgenden Wärmeperioden ähnlich schnell verlaufen ist.

Das ist keine Haarspalterei! Darauf hinzuweisen ist vielmehr ein Gebot der kritischen Vernunft. Der Sache nach wird durch den beobachteten Temperaturanstieg im näherungsweisen Gleichklang mit der CO2-Emission seit 1850/1900 zunächst eben nur eine Korrelation nachgewiesen, keine Kausalität. Wobei Letzteres hier nicht ausgeschlossen werden soll, weil es auch dafür gute Gründe gibt. Mehr dazu in Teil 2.

Belegen die Schäden durch extreme Wetterereignisse den Klimawandel?

Natürlich gibt es neben dem Anstieg der globalen Durchschnittstemperatur noch weitere Indikatoren für den Klimawandel. Zuvorderst zu nennen sind hier die immer höheren Schäden durch extreme Wetterphänomene. – Definitiv, die Schadensummen aufgrund von extremen Wetterereignissen (Stürme, Hurrikane, Trockenheit, Niederschläge und Überschwemmungen) sind in den letzten Jahrzehnten stark angewachsen. Doch ist dies wirklich auf eine entsprechende Zunahme solcher Extremereignisse zurückzuführen?

Die Wetterstatistik lässt daran zweifeln. Der Grund dafür liegt eher im enormen Anstieg der Besiedelungsdichte aufgrund des extremen Wachstums der Weltbevölkerung in den letzten Jahrhunderten (s. Abb. 7). Im Zuge des damit einher gegangenen zivilisatorischen Aufbaus wurden enorme Werte geschaffen, deren fallweiser Verlust nun gleichfalls auch die potentiellen Schäden in die Höhe schnellen lässt.

Abb. 7: Wachstum der Weltbevölkerung von 10000 v.Chr. bis zum Jahr 2100 (geschätzt).

Um ein drastisches Beispiel dafür zu nennen: Durch den Hurrikan Katrina kamen im Jahr 2005 in New Orleans (damals knapp 500.000 Einwohner) und im Südosten der USA mehr als 1800 Menschen ums Leben. Die Schadensumme wird auf über 100 Milliarden Dollar geschätzt. Noch 100 Jahre zuvor hatte New Orleans nur halb so viel Einwohner. Wie hoch wären die Zahl der Opfer und die Schadenshöhe durch einen Hurrikan ähnlicher Stärke wie Katrina wohl gewesen? – Die Vermutung liegt nahe, dass es ungefähr die Hälfte der Toten und eine halb so hohe Schadensumme gewesen wären (auf Kaufwertbasis). Vor 200 Jahren hatte New Orleans gar nur etwa 10.000 Einwohner. Die gleiche Frage nach der Zahl der Opfer und der Schadenshöhe: Vielleicht 30, 50 oder 60 Tote und allenfalls ein Schaden in sehr niedriger einstelliger Milliardenhöhe (ebenfalls auf Kaufwertbasis gerechnet). Das kann man fortsetzen bis zu wahrscheinlich null Toten und verschwindendem Schaden 10.000 v. Chr. – Wohlgemerkt, ein Extrembeispiel!

Das vorstehende Exempel belegt: Solche Vergleiche und Statistiken müssen in den größeren Kontext gestellt werden und zeigen für sich genommen keine objektive Wahrheit. Das gilt generell: Fakten werden zu Botschaften erst durch den Kontext. Deswegen sind im Zweifel auch vermeintlich wahre Klimafakten wertlos, wenn sie aus dem Zusammenhang gerissen werden und am Ende nur als Vehikel für die Kommunikation einer vorgefassten Meinung dienen.

Immer dasselbe Klima?

In der öffentlichen Diskussion wird vielfach der Eindruck erweckt, es gebe so etwas wie ein Normklima, von dem wir gegenwärtig nach oben abzuweichen beginnen. Wie wir bisher in Auszügen gesehen haben, ist das so natürlich nicht richtig. Klimawandel ist erdgeschichtlich nicht die Ausnahme, sondern die Regel. Blicken wir dazu auf Abb. 8 mit der Darstellung des Temperaturverlaufs über die letzten 500 Millionen Jahre. Man muss dabei beachten, dass die Zeitskala logarithmisch aufgetragen ist. Die beiden Felder im rechten Teil des Diagramms erstrecken sich daher nur über den (für die Menschheit enorm wichtigen) Zeitraum der letzten 1 Million Jahre. Sie würden bei linearer Skalierung also nur 0,2 % der Diagrammbreite einnehmen, kaum mehr als Strichstärke. Wie man der Darstellung unschwer entnehmen kann, lagen die durchschnittlichen Temperaturen in den letzten 500 Mio. Jahren nahezu immer – mindestens über 90% des Zeitraums – signifikant über dem heutigen Niveau.

Bemerkenswert ist der Temperaturverlauf im Pleistozän mit Temperaturen deutlich unter den heutigen Vergleichswerten. Die langen Kaltphasen wurden mehrfach und jeweils mit steilen Anstiegen von kurzen Warmzeitphasen (über maximal einige 1000 Jahre) unterbrochen. Über den Zeitraum der letzten 1 Million Jahre war es auf der Erde daher fast immer kälter als heute. Besonders markant ist die letzte große Kaltzeit am Ende des Pleistozäns. Übrigens: Nüchtern betrachtet und frei von aller Romantik sind Gletscher lediglich Relikte aus der letzten großen Eiszeit. Und auch wenn es herzlos klingt: Eisbären werden aussterben, wenn sie sich nicht an die veränderten klimatischen Bedingungen anpassen können. Genauso, wie zahllose andere Arten von der Erde verschwunden sind, weil es im Eozän und Pliozän deutlich kälter geworden war.

Das Klima soll so bleiben, wie es jetzt ist!

All diese Klimaveränderungen fanden ohne jede Einflussnahme durch Menschen statt. Selbstredend beweist dies nicht, dass die heute beobachtete globale Erwärmung in gleicher Weise ausschließlich natürliche Ursachen hat. Es belegt aber, dass es natürliche Einflussfaktoren gibt, die zu massiven Klimaveränderungen führen können. In der Gesamtschau ist die Menschheit vor allem Profiteur der globalen Erwärmung zu Beginn des Holozäns. Umgekehrt gilt daher auch: Vermutlich mindestens genauso dramatisch wie eine Erhöhung der globalen Durchschnittstemperatur um 2 Grad wäre ein Absinken um den gleichen Betrag. Wir haben ein Interesse daran, dass die klimatischen Bedingungen ungefähr so bleiben, wie wir sie im Zuge des Aufbaus der Zivilisation vorgefunden haben. Dafür gibt es aber – völlig unabhängig von unserem Tun und Lassen  – letztlich keine Garantie.

Abb. 8: Temperaturverlauf über die letzten 500 Millionen Jahre

Hätte es nach dem Beginn der letzten großen Kaltzeit vor 100.000 Jahren keinen Klimawandel mehr gegeben, würde die Erde heute nicht von 7,7 Mrd. Menschen bevölkert sein, allenfalls wären es einige wenige Millionen. Sehr wahrscheinlich würde sich die kulturelle Entwicklung nicht in der beschleunigten Weise abgespielt haben. Die meisten von uns würden gar nicht existieren.

Mögen wir’s nicht lieber etwas wärmer?

Tatsächlich waren das Ende der Kaltzeit (9500 v. Chr.:  Beginn der Jungsteinzeit, Ackerbau) und die namhaften Warmzeiten des Holozän (ab ca. 6000 v. Chr.­­ für fast 2000 Jahre,  ab 3000 v. Chr. für fast 1500 Jahre) jeweils Zeiten kulturellen Fortschritts und Bevölkerungswachstums (Sesshaftigkeit, Ackerbau und Viehzucht, erste Städte, Metallverarbeitung) und insofern Glücksfälle für die Menschheit. Die Römer konnten in der neu eroberten Provinz Britannien im 2. Jahrhundert nach Christus Wein anbauen. Aufgrund der später dann kälteren klimatischen Bedingungen war das nach der Römerzeit ab dem 5. Jahrhundert n. Chr. nicht mehr möglich. Heute wieder kann man daran denken, im Süden Englands Weingärten anzulegen.

Gegenwärtig haben wir also im historischen Vergleich ziemlich günstige klimatische Bedingungen. Ein angenehmes Temperaturniveau, um das uns Generationen unserer Ahnen beneidet haben würden. Für Untergangsszenarien ist es jedenfalls noch zu früh. Einstweilen dürfen wir uns auf den nächsten richtigen Sommer freuen.

Panik ist ein ganz schlechter Ratgeber, verkauft sich aber gut. Wie z.B. diese Meldung in der Zeit zeigt: 50.000 Fehltage wegen Hitze. Eine Nachricht, die wunderbar ins Klima-Narrativ passt. Wirklich? Oder zeigen sich hier bei den Redakteuren erste Beeinträchtigungen der Urteilsfähigkeit aufgrund des heißen Sommerwetters im Juli 2019?

Die genannten 50.000 Fehltage muss man in Bezug setzen zu den insgesamt 500 Mio. Fehltagen p.a. in der deutschen Wirtschaft. Es sind genau 0,01%. Dem stehen immerhin 50 Mio. Fehltage aufgrund von Kälte, Glätte und Nebel im Winter entgegen. Man sieht, es ist eher noch zu kalt. Dazu passt auch die nachfolgende Statistik (s. Abb. 9) , die vom Urheber mit der bemerkenswerten Überschrift „Im Winter wird mehr gestorben“ versehen wurde .

Abb. 9: Sterbefälle in Deutschland nach Monaten. © Statista / Statistisches Bundesamt.

Allen Unkenrufen von Panikmachern zum Trotz , scheinen die „heißen“ Sommermonate für die Menschen im Jahreszyklus offenbar eher zu den weniger „gefährlichen“ Zeiten zu gehören. Kein Wunder, sonnig und warm empfinden die meisten als angenehm. Wer mag es schon dunkel und kalt?

Unser größtes Problem

Nun soll aber der obige Befund nicht einseitig mit der rosa Brille betrachtet werden. Selbstverständlich würde ein signifikanter Anstieg der globalen Durchschnittstemperatur um 2 Grad und mehr angesichts einer Weltbevölkerung von bald 10 Milliarden Menschen (s. Abb. 7, oben) dramatische Auswirkungen haben. Daran kann es keinen Zweifel geben. Im Hinblick auf den benötigten Ressourcenbedarf (Energie, Ernährung, Flächenbedarf) und die daraus resultierende Belastung der Umwelt (Müll, Schadstoffe, Abholzung), liegt darin das eigentliche Problem. Es ist die schiere Größe der Weltbevölkerung und ihr immer noch anhaltendes rasantes Wachstum. Zumal zu befürchten ist, dass diese Progression die Biosphäre weiter aus dem Gleichgewicht bringen und in der Folge auch Auswirkungen auf das Klima nach sich ziehen wird. Wer Umwelt und Klima wirklich und wirksam schützen will, muss vor allem und möglichst schnell das weitere Bevölkerungswachstum stoppen.

Nichtsdestotrotz ist es fraglich, inwieweit wir es wirklich in der Hand haben, eine weitere globale Erwärmung zu verhindern. Das wird nur dann gehen, wenn der beobachtete Klimawandel tatsächlich fast ausschließlich oder zumindest überwiegend anthropogene Ursachen hat (z.B. die Emission von CO2) und wir die richtigen Maßnahmen ergreifen, diese Emissionen schnell zurückzufahren. Diese beiden Themenkreise werden in Teil 2 und 3 behandelt.

Teil 2:
Klimakiller CO2?

Ausblick: Ist die CO2-Emission die Ursache für die globale Erwärmung? Gibt es schlüssige Modelle? Was kann man beweisen, was nicht? Gibt es mögliche andere Erklärungen? Was ist plausibel?

Teil 3:
Rationaler Klimaschutz statt Panikmache

Ausblick: Unterstellt, die Emission von CO2 ist der Hauptfaktor der globalen Erwärmung, welches sind dann die geeigneten  Maßnahmen zur effektiven Reduzierung der CO2-Emission? Was müssen wir tun? Was ist effizient, was ist nur Aktionismus? – Um einen Aspekt herauszunehmen: Der moralisierende Sündenkult ist jedenfalls nicht Teil der Lösung.


Bildverzeichnis und -nachweise

Abb. Beschreibung und Referenz
1 Jahresmitteltemperaturen in Deutschland (1960 – 2019). ©Statista
https://de.statista.com/infografik/20501/jaehrliche-durchschnittstemperatur-in-deutschland/
2 Verteilung von Wetterstationen. Links: Europa, Grönland und Nordafrika. Rechts: Ostasien.
Quelle: Wetterdienst.de
3 Ungefährer Temperaturverlauf von 9000 v. Chr. bis 2000 n. Chr. (Bodennahe Mitteltemperaturen in der Nordhemisphäre, nach Dansgaard et. al. 1969 und Schönwiese 1995).
Von http://www.klimanotizen.de/html/temperaturen.html, mit erläuternden Zusatzinformationen angereichert.
Originalquelle: GFZPotsdam (Deutsches GeoForschungsZentrum)
4 Ungefährer Temperaturverlauf von 700 n. Chr. bis zum Jahr 2000. Rekonstruierte Temperaturänderungen auf der Nordhalbkugel der letzten 1300 Jahre nach Proxydaten (Baumringe, Eisbohrkerne, Sedimente, Korallen u.a.) sowie instrumentelle Temperaturkurven seit dem 18. Jahrhundert.
https://wiki.bildungsserver.de/klimawandel/index.php/Klima_der_letzten_1000_Jahre
5 Modellmäßig rekonstruierte Temperaturverläufe über den Zeitraum 1000 bis 2000 n. Chr.
(https://de.wikipedia.org/wiki/Hockeyschl%C3%A4ger-Diagramm#/media/Datei:1000_Jahr_Temperaturen-Vergleich.png) wurde von Robert A. Rohde mit Hilfe öffentlich zugänglicher Daten vorbereitet und ist in das Projekt Global Warming Art eingebaut.
Die Übersetzung stammt von User: Langexp. – http://www.ngdc.noaa.gov/paleo/recons.html, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=1169988
6 Globale Temperaturveränderungen in den letzten 2000 Jahren.
Von DeWikiMan, based upong fig. 1a) of Pages2K (2019), doi:10.1038/s41561-019-0400-0 – CC BY-SA 4.0,
https://commons.wikimedia.org/w/index.php?curid=82403624
7 Wachstum der Weltbevölkerung von 10000 v.Chr. bis zum Jahr 2100 (geschätzt).
Öffentlich zugängliche Quellen (Wikipedia)
8 Temperaturverlauf über die letzten 500 Millionen Jahre.
Von User:Glen Fergus, User:hg6996 – https://commons.wikimedia.org/wiki/File:All_palaeotemps.png, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=34611466
https://de.wikipedia.org/wiki/Klimageschichte#/media/Datei:All_palaeotemps_G2.svg
9 Sterbefälle in Deutschland nach Monaten.
© Statista / Statistisches Bundesamt
https://de.statista.com/infografik/20561/sterbefaelle-in-deutschland/

Quellenauszug

# Referenz
1 https://de.wikipedia.org/wiki/Klima
2 https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris
3 https://de.wikipedia.org/wiki/Zwei-Grad-Ziel
4 https://de.wikipedia.org/wiki/Sonderbericht_1,5_%C2%B0C_globale_Erw%C3%A4rmung
5 https://de.wikipedia.org/wiki/Intergovernmental_Panel_on_Climate_Change
6 https://de.wikipedia.org/wiki/Klimageschichte
7 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl/
8 https://www.klimafakten.de/behauptungen/behauptung-es-gibt-noch-keinen-wissenschaftlichen-konsens-zum-klimawandel
9 https://www.wetterdienst.de/Deutschlandwetter/Wetterstationen/Karte/
10 https://de.wikipedia.org/wiki/Hockeyschl%C3%A4ger-Diagramm
11 https://www.quarks.de/umwelt/klimawandel/warum-die-angabe-einer-globalen-durchschnittstemperatur-unsinnig-ist/
12 https://wiki.bildungsserver.de/klimawandel/index.php/Klima_der_letzten_1000_Jahre
13 https://www.welt.de/geschichte/article149773123/Erderwaermung-bescherte-Roemischem-Reich-fette-Jahre.html
14 http://www.klimanotizen.de/html/temperaturen.html
15 https://www.uni-muenster.de/FNZ-Online/wirtschaft/grundstrukturen/unterpunkte/bevoelkerung.htm
16 https://www.archaeologie-online.de/nachrichten/das-klima-der-letzten-2000-jahre-2250/
17 https://www.uni-giessen.de/ueber-uns/pressestelle/pm/pm156-12
18 https://www.zamg.ac.at/cms/de/klima/informationsportal-klimawandel/standpunkt/klimavergangenheit/palaeoklima/2.000-jahre
19 https://scilogs.spektrum.de/klimalounge/palaeoklima-die-letzten-2000-jahre-hockeyschlaeger/
20 https://lv-twk.oekosys.tu-berlin.de/project/lv-twk/002-holozaen-2000jahre.htm
21 https://www.klimafakten.de/behauptungen/behauptung-im-mittelalter-war-es-waermer-als-heute
22 https://de.wikipedia.org/wiki/Klimageschichte#/media/Datei:All_palaeotemps_G2.svg
23 https://www.eike-klima-energie.eu/2012/10/27/noch-eine-studie-zeigt-hoehere-temperaturen-vor-1000-und-sogar-2000-jahren/
24 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl
25https://www.zeit.de/wirtschaft/2019-07/wetter-hitze-sonnenlicht-folgen-krankheiten-hitzewelle-europa
26 https://www.klimafakten.de/behauptungen/behauptung-es-gibt-noch-keinen-wissenschaftlichen-konsens-zum-klimawandel
27 https://de.statista.com/statistik/daten/studie/1694/umfrage/entwicklung-der-weltbevoelkerungszahl/
28 https://www.science-at-home.de/wiki/index.php/Bev%C3%B6lkerungsentwicklung_seit_10.000_v._Chr.
29 https://de.statista.com/infografik/20561/sterbefaelle-in-deutschland/

Algorithmen und andere Missverständnisse

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) fordert in einem Namensartikel von Heiko Maas in der Zeit eine Charta der digitalen Grundrechte. Unter Artikel 4 steht da „Kein Mensch darf zum Objekt eines Algorithmus werden.“

Der Terminus Algorithmus soll hier großzügig als Metapher für eine maschinengestützte Faktenverarbeitung und Entscheidung verstanden werden. Eigentlich geht es hier im Kern um „Künstliche Intelligenz“, nicht banal um singuläre Algorithmen auf der Ebene von Kochrezepten. Die Formulierungen im zitierten Artikel 4 sind nicht gerade auf der Höhe der Zeit und spiegeln ein rückwärtsgewandtes Verständnis von künstlicher Intelligenz wider. Künstliche Intelligenz erschöpft sich nicht in der banalen Abbildung logisch folgerichtiger Schlüsse.

Künstliche Intelligenz erhebt den Anspruch, in komplexen Situationen und auf Basis unsicherer und unvollständiger Informationen zu nachvollziehbaren und im Einklang mit menschlichen Verhaltensweisen stehenden vertretbaren Entscheidungen zu kommen. Und dies mit größerer Sicherheit und schneller, als dies ein Mensch je könnte.

Ein Beispiel: Nehmen wir ein Auto kurz vor einem unvermeidlichen Crash. Der Fahrer kann sich nur noch entscheiden, ob er die Mutter mit Kind auf der rechten Straßenseite oder das ältere Ehepaar links davon überfährt. In beiden Fällen mit vermutlich tödlichen Konsequenzen. Was soll er tun? – Es gibt keine allgemeingültige Regel dafür, weil jeder Fall spezifische Besonderheiten aufweist: Beim Fahrer, seinem Lebenshintergrund, seinen konkreten Erfahrungen, aber auch bei den potentiellen Opfern, ihrem Verhalten, oder ganz banal ihrem Aussehen. Der Fahrer wird sich irgendwie entscheiden und sich danach dafür verantworten müssen. Dafür haben wir Regeln, die wir Gesetze nennen, ergänzt um manchmal ungeschriebene ethische Grundsätze.

Wie verhält es sich bei der „künstlichen Intelligenz“? Bezüglich der Entscheidungsgrundsätze nicht wesentlich anders. Der Unterschied liegt vor allem darin, dass bei der maschinellen Entscheidung u. U. keine natürliche Person für die eventuellen Folgen verantwortlich gemacht werden kann. Das ist aber im Kern kein Problem eines Algorithmus oder der künstlichen Intelligenz, sondern unseres Rechtssystems. Die „künstliche Intelligenz“ selbst könnte dabei sehr viel besser als der durchschnittliche Mensch im Hinblick auf die tatsächliche Unfallfolgenminimierung auf Basis der geltenden juristischen und allgemein akzeptierten ethischen Grundsätze entscheiden.

Der menschliche Fahrer mit eigenem Kleinkind wird das Lenkrad erschreckt in Richtung auf das ältere Paar herumreißen, auch dann, wenn Mutter und Kind in 9 von 10 Fällen bei genauerer Evaluierung wahrscheinlich nur leicht verletzt werden würden. Umgekehrt wird der Fahrer, der in der älteren Frau seine Mutter zu erkennen glaubt impulsiv in die andere Richtung lenken und damit möglicherweise einen folgenschweren Fehler begehen. Ist das besser, als sich im Vorfeld genaue Gedanken zu machen und intelligente Regeln zu formulieren? Ist das gerecht?

Eine echte „künstliche Intelligenz“ wird innerhalb von Bruchteilen von Sekunden genau die Entscheidung treffen, die bei Abwägung aller Optionen und potentiellen Folgen im Hinblick auf Schäden für Leib und Leben, Sachschäden, Rechtsfolgen und Kosten unter Abwägung der Risiken und Eintrittswahrscheinlichkeiten insgesamt das Optimum darstellt. Dazu muss man neben den rein physikalischen Risikoeinschätzungen „nur“ noch die juristischen und metaphysisch-ethischen Grundsätze in gleicher Weise abbilden – Das ist es, was den Kern eines solchen „Algorithmus“ ausmacht. Es sind nicht die Lerndaten. Letzten Endes haben diese nur den Charakter von situativ unscharfen Konfigurationsparametern, mehr nicht. Entscheidend sind die immanenten Metadaten und die das Verhalten beschreibenden Zusammenhänge (Metaregeln). Und natürlich kann man diese Metadaten, Regeln und Verhaltensbeschreibungen – im engeren Sinne wäre dies der Algorithmus – einer kritischen Prüfung unterziehen und bewerten. Wenn man so will, ist das der Algorithmus-TÜV.

Nehmen wir ein einfaches Modell: Es gibt einen Input \(x\) und es gibt einen Konfigurationsparameter \(p\). Der Algorithmus \(A\) bestimmt nach Maßgabe des Konfigurationsparameters \(p\) aus dem Input \(x\) den Output \(y\), formal \(A_{p}(x)  \rightarrow {y}\). Bei einem lernenden Algorithmus ist das nicht anders, nur dass eben hier der Parameter \(p\) nicht oder nur ungefähr bekannt ist. Das ändert doch aber nichts an der grundsätzlichen algorithmischen Formulierung. Der Algorithmus beschreibt den Satz von Regeln, wie bei gegebenen \(p\) aus dem Input \(x\) der Output  \(y\) bestimmt wird. Das kann geprüft und bewertet werden. Und es kann auch geprüft und bewertet werden, wie sich die Regeln bei Variation von \(p\) verändern, Variationen und stochastische Unschärfen eingeschlossen.

Bei lernender Software geht es i. d. R. nicht darum, aus dem Nichts heraus algorithmische Lösungen zu entwickeln. Der Ansatz ist vielmehr, bestehende Lösungen systematisch zu verbessern verbunden mit der Fähigkeit zur situativen Adaption und Optimierung. Vernünftige lernende Software basiert zunächst auf Problemverständnis und Erfahrungswissen. Genau so arbeiten auch wir Menschen.

Am Beispiel der Linsensuppe wird deutlich, dass auch Venkatasubramanian (zitiert in „Es genügt nicht, Algorithmen zu analysieren„) das so sieht: Da ist die Rede von einem Koch (das ist jemand, der kochen kann, der also das nötige Problemverständnis hat). Der Koch fragt die Gäste nach ihren Rezepten (da steckt das Erfahrungswissen). Erst jetzt beginnt die Zubereitung. Was den Algorithmus ausmacht ist am Ende nicht das banale Rezept für die Linsensuppe, sondern die Einhaltung der grundlegenden Regeln und die Berücksichtigung der Zusammenhänge (Metadaten-/regeln). Im konkreten Beispiel: Gewürze sind Zutaten und keine Hauptbestandteile, Zyankali als Gewürz ist verboten, …, die Reihenfolge der Zubereitungsschritte orientiert sich an biochemischen Gesetzmäßigkeiten, …, die Suppe wird nicht kochend serviert, eine Gabel als Essbesteck wird gar nicht erst probiert, … Diese Metadaten und Regeln machen den Algorithmus aus und können evaluiert werden. Der Algorithmus bildet die Fähigkeiten eines Kochs ab. Das kann bewertet und überprüft werden. Ob die Suppe am Ende schmeckt ist genauso unbestimmt, wie auch im Falle des menschliches Kochs. Das wäre aber auch nicht Gegenstand des TüV-Zertifikats (im Sinne der Forderung des BMJV).

Deswegen: Ja, man kann Algorithmen prüfen, man muss sie sogar prüfen. Indessen ist dieser Prozess nicht trivial und erfordert die Kenntnis des Kontexts. Das ist gewiss nicht neu, es ist aber insofern komplexer, als die Algorithmen über die wir hier reden den Anspruch erheben, intelligentes Verhalten abzubilden. Im engeren Sinne sind daher nicht die Lerndaten relevant, sondern die Regeln für die Verarbeitung derselben. Das ist der Algorithmus!

Die Forderung des BMJV nach einem Algorithmen-TÜV ist daher nicht ganz falsch, sie muss aber weiter gefasst werden. Es ist absolut nicht trivial, das Verhalten eines komplexen, intelligentes Handeln widerspiegelnden Algorithmus zu analysieren. Wir reden hier von einem Testat über eine „künstliche Intelligenz“. Das ist ähnlich schwierig, wie die Beurteilung eines Menschen. Dafür brauchen wir letzten Endes so etwas wie Computerpsychologie, auch wenn das zum jetzigen Zeitpunkt noch wie Science Fiction klingt.