Die grundsätzliche Wirkungsweise von Wärmepumpen wird erläutert. Dazu wird der COP-Wert als der wichtigste Effizienzfaktor von Wärmepumpen eingeführt und es werden die theoretisch möglichen und die in der Praxis erreichbaren Effizienzwerte abgeleitet und mit aktuellen Studien verglichen.
Heizen mit Wärmepumpe – der Carnot-Prozess
Das Prinzip der Wärmekraftmaschine ist bekannt: Die in einem Trägermedium mit hoher Temperatur enthaltene thermische Energie wird aufgenommen und zum Teil in Bewegung (mechanische Energie) umgewandelt. Dabei kühlt sich das Medium ab. Die verbleibende Restwärme wird an die Umwelt abgegeben. Ausgeführt als Kreislaufprozess kann so kontinuierlich aus Wärme Bewegung erzeugt werden. Diesem Vorgang liegt der Carnot-Prozess zugrunde. In einer Wärmepumpe wird dieses physikalische Prinzip umgekehrt: Die eingesetzte mechanische Energie wird dazu verwendet, Wärmeenergie aus der Umgebung an ein Trägermedium zu übertragen. Die aufgenommene thermische Energie wird anschließend zielgerichtet abgeleitet (also z.B. für die Erwärmung von Wasser benutzt), dabei kühlt sich das Trägermedium wieder ab. Danach kann der Prozess unter erneutem Einsatz von mechanischer Energie wiederholt werden. Es ist auch hier ein Kreislaufprozess.
Abbildung 2-1: Prinzip der Wärmepumpe als Umkehrung der Wärmekraftmaschine (Carnot-Kreisprozess)
Abhängig vom dafür eingesetzten Trägermedium ist es mit der Wärmepumpe im Grundsatz möglich, bei nahezu jeder Temperatur der Umwelt thermische Energie zu entziehen und diese zur Aufheizung eines zu verwenden. Dazu muss man sich vergegenwärtigen, dass z.B. auch Außenluft mit einer Temperatur von unter Null Grad Celsius noch Wärmeenergie enthält. Der Bezugspunkt dafür ist der absolute Nullpunkt von -273 °C = Null Grad Kelvin. Bei 250 Grad Kelvin (= -23 °C) enthält ein Stoff erheblich mehr thermische Energie als bei 200 °K (= -73 °C). Wenn ihm diese entzogen wird, so kann sie prinzipiell an anderer Stelle zum Aufheizen verwendet werden. Erst beim absoluten Nullpunkt ist die thermische Energie null.
Es ist daher auch ohne Weiteres durchführbar, der kalten Außenluft, die z.B. im Winter deutlich unter 0 ° Celsius liegen kann, Wärmeenergie zu entziehen und diese als Heizquelle zu verwenden.
Grundsätzliches zur Effizienz von Wärmepumpen
Die Effizienz der Wärmeerzeugung hängt ab vom verwendeten Trägermedium (typischerweise ein Gas mit einer niedrigen Verdampfungstemperatur, z.B. Propan), der Umwelttemperatur und der Zieltemperatur der Heizwärme. Je höher die Temperatur der Umwelt und je niedriger die gewünschte Heiztemperatur, desto größer der Effizienzfaktor der Wärmepumpe, meist Coefficient of Performance (COP) genannt. Theoretisch sind COP-Werte von bis zu 10 möglich. Aufgrund von unvermeidlichen Verlusten werden in der Praxis Werte von etwa 2 (niedrige Außentemperatur, hohe Heiztemperatur, z.B. bei der Brauchwassererwärmung) bis 5 (hohe Außentemperatur, niedrige Heiztemperatur, z.B. Fußbodenheizung) erreicht.
Grundsätzlich kann der Effizienzfaktor (COP) im zugrundeliegenden Carnot-Prozess wie folgt bestimmt werden:
Dabei ist z.B. \(T_H\) die Temperatur im Heizkreis (Vorlauftemperatur) und \(T_U\) die Umwelttemperatur. Man sieht hier unmittelbar: Je kleiner die Temperaturdifferenz zwischen Heizkreis und Umwelt, desto größer der Effizienzfaktor. Die Temperaturen sind hierbei in Kelvin anzugeben.
Abbildung 2-2: Prinzip der Wärmepumpe: Aus Umweltwärme wird unter Einsatz von mechanischer Arbeit (elektrische Antriebsenergie) Heizwärme. Die Effizienz der Wärmeerzeugung hängt ab vom verwendeten Trägermedium (typischerweise ein Gas mit einer niedrigen Verdampfungstemperatur, z.B. Propan), der Umwelttemperatur und der Zieltemperatur der Heizwärme. Je höher die Temperatur der Umwelt und je niedriger die gewünschte Heiztemperatur, desto größer der Effizienzfaktor COP.
Es ist daher auch ohne Weiteres durchführbar, der kalten Außenluft, die z.B. im Winter deutlich unter 0° Celsius liegen kann, Wärmeenergie zu entziehen und diese als Heizquelle zu verwenden.
Haben Wärmepumpen einen Wirkungsgrad von mehr als 100 %?
Da man aus dem Einsatz von 1 kWh Strom teilweise 3 oder 4 kWh Wärmeenergie erhält, scheint der Wirkungsgrad der Wärmepumpe größer als 1 zu sein, sogar deutlich größer als 1. Manchmal liest man daher, der Wirkungsgrad einer Wärmepumpe liege bei 300 oder 400 Prozent. Das ist Unsinn. Rein physikalisch ist auch der Wirkungsgrad einer Wärmepumpe, wie der eines jeden technisch-physikalischen Systems, auf jeden Fall kleiner als 1 (also <100 %), weil in die Energiebilanz auch die der Umwelt entnommene Wärmeenergie einbezogen werden muss. Der COP-Wert darf nicht mit dem Wirkungsgrad verwechselt werden. Er beschreibt lediglich das Verhältnis zwischen der erhaltenen Heizwärme und der investierten elektrischen Energie.
Realistische COP-Faktoren
Mit der oben angegebenen Formel wird indes nur eine theoretische Effizienz bestimmt. In der Praxis gibt es eine Reihe von Verlusten, so dass der tatsächliche COP-Faktor sogar unter Laborbedingungen den Wert
Unter günstigen Bedingungen, also bei vergleichsweise hohen Umwelttemperaturen und niedrigen Vorlauftemperaturen im Heizkreis, werden COP-Werte über 4 erzielt. Um vier Kilowattstunden Heizwärme zu erzeugen, muss dann nur eine Kilowattstunde elektrische Energie eingesetzt werden. Anders sieht es aus, wenn die Umwelttemperaturen niedrig (unter null Grad Celsius) und die erforderlichen Heizkreis-Vorlauftemperaturen hoch sind. Letzteres ist dann der Fall, wenn mit klassischen Radiatoren geheizt wird und der Wärmebedarf (z.B. bei vielen Gebäuden im Bestand) eher höher anzusetzen ist. Dann muss man mit COP-Werten zwischen 2 und 3 rechnen.
In Abb. 2-3 ist der prinzipielle Zusammenhang zwischen Außentemperatur und COP-Wert dargestellt.
Abbildung 2-3: Theoretisch möglicher und praktisch erzielbarer Effizienzfaktor COP in Abhängigkeit von der Umwelttemperatur. Dabei wurde eine Heizkreisvorlauftemperatur von 40 °C bei 0 °C und 45 °C bei -10 °C Außentemperatur zugrunde gelegt. Der blau verschwommene Bereich um die durchgezogene Kurve soll die Schwankungsbreite der real erzielbaren COP-Werte symbolisieren.
Der Einfluss der Heizkreistemperatur
Neben der Außentemperatur hat insbesondere auch die Zieltemperatur – im Falle der Heizung also die Vorlauftemperatur – einen maßgeblichen Einfluss auf die resultierenden COP-Werte. In Abb. 2-4 wird das exemplarisch für drei unterschiedliche Vorlauftemperaturen aufgezeigt.
Abbildung 2-4: Praktisch erzielbare Effizienzfaktoren COP in Abhängigkeit von der Umwelttemperatur und unterschiedlichen konstanten Vorlauftemperaturen im Heizkreis. Der farblich verschwommenen Bereiche um die durchgezogenen Kurven sollen die Schwankungsbreite der real erzielbaren COP-Werte symbolisieren. Man erkennt dennoch unschwer, dass eine Vorlauftemperatur von 65 °C höchst ineffizient ist. Dabei tritt dieser Fall bei der Warmwasseraufbereitung durchaus auf. Aber auch eine Vorlauftemperatur von 50 °C ist bei den üblicherweise zu erwartenden Wintertemperaturen von unter 0 °C kaum wirklich günstig zu nennen, da der resultierende COP-Faktor unter 3 fällt.
Effizienz von Wärmepumpen in der Praxis
Nachfolgend werden die typischerweise erreichten COP-Werte für die drei diskutierten Vorlauftemperaturen übersichtlich in einem Säulendiagramm dargestellt. Im konkreten Falle können die tatsächlichen COP-Werte davon abweichen. Das hängt von der jeweiligen Wärmepumpe und vom Aufstellungsort ab. Als Orientierung können die Werte dennoch dienen.
Abbildung 2-5: Praktisch erzielbare Effizienzfaktoren in Abhängigkeit von der Umwelttemperatur und unterschiedlichen konstanten Vorlauftemperaturen im Heizkreis. Man erkennt unschwer, dass die hohe Vorlauftemperatur T_V von 65 °C ein Effizienzkiller ist. Aber auch bei einer Heizkreistemperatur von 50 °C und Außentemperaturen von unter 0 °C erreicht man bei niedrigen Außentemperaturen kaum COP-Werte über 3. Auf der anderen Seite erweist sich die niedrige Vorlauftemperatur von T_V = 35 °C, wie man sie in Verbindung mit einer Fußbodenheizung regelmäßig antrifft, noch bis hinunter zu einstelligen Minustemperaturen als sehr effizient.
Vergleich mit Ergebnissen aus Studien
Dazu sei an dieser Stelle auf die aktuelle Studienlage zu den in der Praxis erzielbaren Effizienzfaktoren von Luft-Wasser-Wärmepumpen hingewiesen. Vom Fraunhofer-Institut für Bauphysik (IBP) nennt eine Studie aus 2017 COP-Werte von 1,9 – 3,3 mit einem Mittelwert von 2,6 (s. Zukunft Bau: Effizienz von Wärmepumpen). Davon nicht gänzlich verschieden berichtet eine Studie von Agora Energiewende 2022 (s. A-EW_273_Waermepumpen_WEB.pdf (agora-energiewende.de) Werte von 2,5 – 3,8 mit einem Mittelwert von 3,1. Durchgeführt wurde diese Studie von Fraunhofer ISE und dem Öko-Institut e.V. In älteren Studien (s. WP-Bericht-2006-07 (pro-dx.de)) wurden eher geringere Werte gemessen, z.B. COP 2,1 – 3,3 mit einem Mittelwert von 2,8 beim Betrieb mit Fußbodenheizung (also niedriger Vorlauftemperatur) und 1,4 – 2,8 mit einem Mittelwert von 2,3 beim Betrieb mit Radiatoren, also klassischen Heizkörpern (und damit höherer Vorlauftemperatur).
Anmerkung: Da diese Studien vornehmlich eher von Lobbyverbänden und ihnen nahestehenden Instituten durchgeführt wurden, stehen die Ergebnisse nach Ansicht des Autors nicht im Verdacht einer ausgesprochen negativen Berichterstattung. Jedenfalls darf bzw. muss man wohl davon ausgehen, dass die tatsächlichen COP-Faktoren in Bestandsgebäuden im Mittel kaum über den in den Studien genannten Werten liegen werden.
Diskussion zu den COP-Faktoren
Wie man Abb. 2-5 entnehmen kann, ist die Wärmepumpe bei hohen Außentemperaturen sehr effizient. Mit einem geringen Einsatz an elektrischer Energie erzielt man hohe Wärmeleistungen. Aber natürlich benötigt man eine Heizung vor allem dann, wenn es kalt ist. Sofern der Heizkreis auf niedrige Vorlauftemperaturen ausgelegt ist (z.B. Fußbodenheizung), sind für das Heizen mit Wärmepumpe auch Frosttage mit Temperaturen bis -10 °C und darunter kein ernsthaftes Problem. Anders sieht es aus bei hohen Vorlauftemperaturen, wie das bei Gebäuden im Bestand und klassischen Radiator-Heizungen zu erwarten ist. Bei Temperaturen unter -10 °C und Vorlauftemperaturen von 50 °C und mehr sinkt die Wärmepumpen-Effizienz schnell unter die klimapolitisch sinnvolle Schwelle von COP = 3, entsprechend steigen die Betriebskosten. Glücklicherweise sind solche niedrigen Temperaturen nur selten zu erwarten (in Deutschland regional unterschiedlich mit etwa 1 % Wahrscheinlichkeit [2 – 5 Tage pro Jahr]).
Bei der Bewertung der Effizienzfaktoren aus Abb. 2-5 muss man noch berücksichtigen, dass der größte Wärmebedarf eben bei niedrigen Außentemperaturen anfällt, so dass bei der gewichteten Mittelwertbildung übers Jahr gerade die niedrigeren COP-Werte das Gesamtergebnis stark beeinflussen. Die bei den hohen Außentemperaturen sehr günstigen COP-Faktoren von 3,5, 4,5 oder 6 klingen gut, sind in der Gesamtbetrachtung aber eher von nachrangiger Bedeutung, weil bei höheren Temperaturen von 10 °C und mehr nur ein geringer Teil der erforderlichen Jahresheizwärme erzeugt werden muss. Allenfalls kann die ganzjährig nötige Warmwasseraufbereitung davon profitieren.
Wie steht’s mit der Wirtschaftlichkeit?
Verglichen mit einer reinen Elektroheizung ist gewiss jeder COP-Wert über 1 von Vorteil. Aber: Die absehbaren Betriebskosten liegen dann schnell in Bereichen über den Kosten für die klassischen fossilen Energieträger Öl, Gas und Holz (Pellets) – und dies bei nicht unerheblichen Investitionen für die Installation der Wärmepumpe. Dieser Themenkreis wird im Hinblick auf Erdgas als Energieträger in den Teilen 4 und 5 näher beleuchtet.
Bereits an dieser Stelle kann man aber Folgendes vorwegnehmen: Bei energetisch nicht sanierten Bestandsgebäuden mit klassischen Radiator-Heizungen und hohen Vorlauftemperaturen ist der Einsatz einer Wärmepumpe im Allgemeinen unwirtschaftlich, weil die Betriebskosten absehbar höher liegen als bei den alternativen Heizsystemen. Mittels einer durchgreifenden energetischen Sanierung kann man die Effizienz steigern und damit die Heizkosten deutlich senken, allerdings können die dafür erforderlichen hohe Zusatzinvestitionen leicht einige 10.000 € ausmachen und teilweise gar sechsstellig werden. Und wenn dabei die Strompreise im Vergleich zum heutigen Niveau nicht erheblich nachgeben, dann ist es fraglich, ob sich die Investitionen überhaupt je amortisieren werden. Mehr dazu in Teil 4.
Ausblick auf Teil 3
Wir betrachten die zu erwartenden CO2-Emissionen von Luft-Wasser-Wärmepumpen im Bestand anhand einer Modellrechnung auf Basis realer Verbrauchwerte mit und ohne Photovoltaik. Es wird die Frage beantwortet: Was bringt das Heizen mit Wärmepumpe gegenüber dem Heizen mit Gas an CO2-Einsparung? Neben der grundsätzlichen Analyse wird eine bespielhafte Modellrechnung für ein Bestandsgebäude (Baujahr 2000) durchgeführt.
Die Belastung der Stromproduktion mit CO2-Emissionen ist in Deutschland relativ hoch, weil noch ein erheblicher Teil der Stromerzeugung mittels fossiler Energieträger erfolgt. Es wird erläutert, wie der durchschnittliche CO2-Ausstoß pro kWh im Strommix zustande kommt. Ferner werden die Chancen und Risiken bezüglich des Ausbaus der Erneuerbaren – insbesondere von Windkraft und Solarstrom – diskutiert. Im Hinblick auf die Sicherstellung der Stromversorgung fragen wir exemplarisch nach der nötigen Speicherkapazität in Zeiten geringer Wind- und Solarstromerträge. Dabei beleuchten wir auch die mögliche Rolle von Elektroautos.
Stromproduktion nach Energieträgern
Betrachten wir zunächst einmal den deutschen Strommix.
Abbildung 1-1: Stromverbrauch nach Energieträgern 2021
Abbildung 1-2: Stromverbrauch nach Energieträgern 2022
Man kann den vorstehenden Abbildungen unschwer entnehmen, dass Kohle, Erdgas und Kernenergie mit über 50 % Anteil das Rückgrat der deutschen Stromproduktion bilden. Zwar liefern PV-Anlagen und Windkraft zusammen auch mehr als ein Drittel (35 % entsprechend 177 TWh), doch ist dieser Anteil aus den bekannten Gründen nur schwer planbar. Immerhin steigt die effektive Solar- und Windstromproduktion von Jahr zu Jahr. Noch 2010 waren es zusammen nur 50 TWh. Heute sind es also dreieinhalb Mal soviel.
Trotz des in 2022 um mehr als 10 TWh höheren Windstromertrags und der zugleich um 9 TWh größeren Ausbeute beim Solarstrom, stieg im Vergleich zu 2021 dennoch die Kohleverstromung um 13 TWh. Dabei war der Gesamtverbrauch sogar um etwa 10 TWh gesunken. Der Grund für das Plus bei der Kohle liegt in der Abschaltung von 3 Kernkraftwerken im Dezember 2021 und der daraus folgenden um 33 TWh geringeren Produktion von Atomstrom.
Aufgrund des hohen Anteil an Kohle ist zu erwarten, dass der CO2-Ausstoß nicht gerade klein ausfällt. Das beleuchten wir im folgenden Abschnitt.
CO2-Emissionen im deutschen Strommix
Abbildung 1-3: CO2-Emissionen des Stromverbrauchs nach Energieträgern 2021
Abbildung 1-4: CO2-Emissionen des Stromverbrauchs nach Energieträgern 2022
Wie man sieht, kommen die CO2-Emissionen überwiegend (75 %) aus der Kohleverstromung. Erdgas trägt nur knapp 14 % dazu bei. Die anderen Anteile kann man auf den ersten Blick demgegenüber vernachlässigen. Es ist dennoch aufschlussreich, genauer zu beleuchten, wie die diversen Energieträger (wobei wir auch die Erneuerbaren der Einfachheit halber als solche bezeichnen wollen) zu den Emissionen beitragen.
Beim Vergleich der beiden Jahre fällt auf, dass die Emissionen aus der Kohle in 2022 gegenüber 2021 um 12,4 Mio. t höher ausgefallen sind. Dies ist auf die bereits oben erwähnte höhere Kohleverstromung aufgrund der gezielten AKW-Abschaltung Ende 2021 zurückzuführen.
Verlauf der CO2-Emissionen im Verlauf der letzten 30 Jahre
Abbildung 1-5: Verlauf der CO2-Emission im deutschen Strommix (1990 – 2021). Die CO2-Emissionen gehen seit 1990 mit gelegentlichen Seitwärtsbewegungen zurück. Die Delle in 2020 ist eine Folge der Corona-Pandemie. In 2022 sind die Emissionen aufgrund der Abschaltung von 3 Atomkraftwerken und der Ersatzverstromung von Kohle gegenüber 2021 abermals gestiegen. Quelle: Umweltbundesamt (März 2022).
Spezifische CO2-Emissionen der Energieträger
Abbildung 1-6: Spezifische CO2-Emissionen verschiedener Energieträger bei der Stromproduktion und durchschnittliche Emissionen im Strommix (2022). Quelle: Umweltbundesamt (Strommix Deutschland); eigene Berechnung (Strommix Deutschland im Heizlastprofil).
Neben den spezifischen CO2-Emissionen pro kWh sind im Diagramm auch zwei Mittelwerte für die CO2-Belastung von 420 und 480 g pro kWh im Strommix angegeben. Der erste Wert ergibt sich, wenn man die Gesamtemissionen an CO2 (s. Abb. 1-3 und 1-4) durch den Wert für die Gesamtstromproduktion (s. Abb. 1-1 und 1-2) teilt. Beim zweiten Wert ist es etwas schwieriger. Hier wird auch der zeitliche Verlauf der Stromproduktion und der Anteil der Energieträger mit berücksichtigt und daraus das gewichtete Mittel nach Maßgabe eines vorgegebenen Lastprofils gebildet. Da Heizstrom vor allem in der kalten Jahreszeit benötigt wird, dabei aber kaum Solarstrom und oft auch nur wenig Windstrom produziert wird (und folglich der Anteil der konventionellen Energieträger, also vornehmlich Kohle, steigt), ergibt sich im Heizlastprofil ein etwas höherer Durchschnittswert für die CO2-Emissionen pro kWh.
CO2-Emissionen im Jahresverlauf der Stromproduktion
Der Beitrag der Erneuerbaren zum Strommix ist bekanntermaßen variabel. Im Sommer ist der Anteil der Photovoltaik hoch, im Winter gibt es dagegen kaum Solarstrom. Beim Wind ist es ähnlich: Es gibt Zeiten mit einer sehr hohen Produktion von Windstrom, zu anderen Zeiten ist der Beitrag aber nur sehr gering. Das hat unmittelbar Einfluss auf die entsprechenden CO2-Emissionen. In den beiden folgenden Grafiken ist das exemplarisch für den Jahresverlauf 2021 und 2022 dargestellt.
Abbildung 1-7: Stromproduktion und Stromverbrauch im Jahresverlauf 2021. Zur Farbcodierung: Solarstrom ist gelb, Windstrom ist blau, konventionelle Energieträger sind in dunkelgrauer Farbe dargestellt. Der violette Kurvenverlauf (ohne Füllung) zeigt die CO2-Emissionen in Gramm pro kWh. Einige Maxima (rot) und Minima (weiß) sind exemplarisch hervorgehoben und mit den entsprechenden Zahlenwerten versehen. Im Durchschnitt stellt sich ein Wert von 390 g pro kWh ein. Quelle und Rohdaten: Agora Energiewende, Stand 29.03.2023.
Abbildung 1-8: Stromproduktion und Stromverbrauch im Jahresverlauf 2022. Zur Farbcodierung: Solarstrom ist gelb, Windstrom ist blau, konventionelle Energieträger sind in dunkelgrauer Farbe dargestellt. Der violette Kurvenverlauf (ohne Füllung) zeigt die CO2-Emissionen in Gramm pro kWh. Einige Maxima (rot) und Minima (weiß) sind exemplarisch hervorgehoben und mit den entsprechenden Zahlenwerten versehen. Im Durchschnitt stellt sich der bereits oben genannte Wert von 420 g pro kWh ein. Quelle und Rohdaten: Agora Energiewende, Stand 29.03.2023.
Können Wind- und Solarstrom die Energieversorgung sicherstellen?
Wie wir gesehen haben, werden über Wind und Sonne maximal etwa 30 – 40 Prozent der benötigten Strommenge abgedeckt. Auf den ersten Blick könnte man daher vermuten, dass ein Ausbau dieser beiden Erneuerbaren um den Faktor zwei bis drei alle unsere Energieprobleme lösen würden. Tatsächlich kann man solche Aussagen im Netz finden und auch nicht wenige Politiker sind dieser Auffassung.
So wurde im Koalitionsvertrag der Ampel festgelegt, dass die Erneuerbaren bis 2030 auf eine Produktionskapazität von 80 % des Jahresstrombedarfs ausgebaut werden sollen. Dabei wurde auch gesagt, man sei damit sehr nahe an der Vollversorgung mit Erneuerbaren. Das ist natürlich Unsinn. Auch ein Ausbau auf 150 % oder gar 200 % würde keineswegs ohne Weiteres zu einer echten Autarkie führen. Das liegt daran, weil die summarische Betrachtung – also die Energiebilanz übers ganze Jahr – keine Aussage darüber macht, ob zu allen Zeiten Stromproduktion und Stromverbrauch im Gleichgewicht waren. Genau das ist aber – abgesehen von Speichermöglichkeiten – jederzeit nötig.
Zeitweise Defizite in der Wind- und Solarstromproduktion
Wenn im Oktober aufgrund von viel Wind und Sonne 15 Milliarden Kilowattstunden (= 15 TWh) mehr Wind- und Solarstrom produziert werden als benötigt, dann hilft das eben im November, ohne Sonne und ohne Wind und einer daraus resultierenden Deckungslücke von 10 TWh, nicht weiter. Letztlich muss in diesem Fall die unabweisbare Stromlücke konventionell geschlossen werden. In der Bilanzierung für Oktober und November würde dennoch ein Plus von 5 Milliarden Kilowattstunden (= 5 TWh) ausgewiesen werden, was beim nicht sachkundigen Beobachter leicht den Eindruck erwecken könnte, Windkraft und Solarstrom seien ausreichend vorhanden gewesen. Das ist ein Trugschluss, dem nichtsdestotrotz immer noch viele aufsitzen. Tatsächlich fehlten eben 10 TWh, und das war auch die Strom-Versorgungslücke.
Grobanalyse zu Windflauten 2021
Abbildung 1-9: Stromproduktion und Stromverbrauch im Jahresverlauf 2021 mit exemplarisch markierten Wind- und Solarstromdefiziten. Zur Farbcodierung: Solarstrom ist gelb, Windstrom ist blau, konventionelle Energieträger sind in dunkelgrauer Farbe dargestellt. Die größten Wind- und Solarstromlücken sind mit weißen Pfeilen gekennzeichnet. Dazu ist jeweils die Größe der Lücke angegeben. Vornehmlich im Spätherbst und Winter können die Defizite 40 bis 60 GW betragen. Zu diesen Zeiten werden teilweise nur 10 GW Leistung oder etwa 15 % des Bedarfs über Erneuerbare beigesteuert. Auch im Sommer treten mitunter große Produktionslücken mit bis zu 45 GW auf. Quelle und Rohdaten: Agora Energiewende, Stand 29.03.2023.
Grobanalyse zu Windflauten 2022
Abbildung 1-10: Stromproduktion und Stromverbrauch im Jahresverlauf 2022 mit exemplarisch markierten Wind- und Solarstromdefiziten. Zur Farbcodierung: Solarstrom ist gelb, Windstrom ist blau, konventionelle Energieträger sind in dunkelgrauer Farbe dargestellt. Die größten Wind- und Solarstromlücken sind mit weißen Pfeilen gekennzeichnet. Dazu ist jeweils die Größe der Lücke angegeben. Vornehmlich im Spätherbst und Winter können die Defizite 40 bis 60 GW betragen. Aber sogar im Sommer sind Leistungsfehlbeträge von 30 – 40 GW trotz hoher solarer Anteile keine Seltenheit (dabei war 2022 bezüglich der Solarstromerzeugung ein besonders gutes Jahr). Im Spätherbst und Winter werden teilweise nur 10 GW Leistung oder etwa 15 % des Bedarfs über Erneuerbare gedeckt. Quelle und Rohdaten: Agora Energiewende, Stand 29.03.2023.
Wie gravierend sind denn die potentiellen Stromlücken?
Zur richtigen Einordnung der angegebenen Stromlücken ist Folgendes zu sagen: Für eine Leistung von 10 GW benötigt man mindestens 2.000 Windräder der 5-Megawatt-Klasse (also Groß-Windkraftanlagen). Das gilt aber nur dann, wenn der Wind tatsächlich mit der Nennwindgeschwindigkeit bläst (meist 10 m/s). Bezogen auf die mittlere Leistungsabgabe benötigt man ein Vielfaches davon, nämlich etwa 9.000 solche Groß-Windräder (an Land), da der Effizienzfaktor (manchmal auch Leistungsausbeute oder Leistungsfaktor genannt) im Mittel nur bei etwa 22 % liegt. Im Falle der vorliegenden Lücken würde begreiflicherweise auch das wenig nützen, weil die geringen Erträge ja gerade aufgrund des sehr schwachen Windes entstehen.
Die Eingangsfrage, ob Wind- und Solarstrom die Energieversorgung sicherstellen können, kann man vorläufig so beantworten: Im Prinzip ja, aber nur dann, wenn das Wetter mitspielt.
Ein Extrembeispiel zum Windkraftdefizit
Um die Problematik an einem konkreten Beispiel festzumachen, betrachten wir den zweiten vertikalen Pfeil von rechts in Abb. 1-10. Die tatsächliche Windstromleistung (Onshore und Offshore) liegt in diesem Falle bei etwa 4 GW, der Leistungsbedarf ist aber 68 GW. Abzüglich anderer erneuerbarer Anteile entsteht so eine Lücke von 54 – 60 GW. Wollte man sie allein mit Windstrom schließen, so bräuchte man dafür offensichtlich mindestens die 13-fache Windstromkapazität (54/4 =13,5). Anstelle der heute (Ende 2022) installierten Windkraftleistung von ca. 65 GW müssten wir also über mehr als 800 GW verfügen.
Das wären 160.000 Windräder der 5-Megawatt-Klasse. Nur nebenbei bemerkt: Den Platzbedarf dafür können wir bei einem Abstand von 500 m (also 4 Windräder pro Quadratkilometer) auf 40.000 Quadratkilometer taxieren. Stellt man sie deutlich enger zusammen, sagen wir in einem Abstand von 333 m (also 9 Windräder pro Quadratkilometer; allerdings wird das die Leistungsabgabe substanziell beeinträchtigen), dann reichen 18.000 Quadratkilometer, was am Ende auf ca. 5 % der Landesfläche Deutschlands hinauslaufen würde: Das entspricht etwa der Größe von Sachsen oder den aufsummierten Flächen von Bremen, Hamburg, Berlin und Schleswig-Holstein zusammen. Im Mittel ist diese Vergleichsfläche in Deutschland von über 4 Millionen Menschen bewohnt.
Ist Solarstrom die Rettung?
Nach dem vorstehenden Rechenexempel sollte klar geworden sein, dass man fehlenden Windstrom nicht ohne Weiteres durch den beliebigen Ausbau der Windkraft kompensieren kann.
Die völlig analoge Aussage gilt selbstredend für Solarstrom. Diesbezüglich ist das natürlich unmittelbar einleuchtend, weil jeder weiß, dass nachts die Sonne nicht scheint und sich die Sonne im Herbst und Winter oft auch tagsüber rar macht. Hinsichtlich der Solarerträge können wir uns daher das Rechenbeispiel fast schenken. Nur so viel: In diesem Falle sind die Verhältnisse noch viel dramatischer und damit völlig aussichtslos. Daran ändert auch die Tatsache nichts, dass die gesamte im Mittel auf Deutschland einstrahlende solare Leistung ein Vielfaches unseres Strombedarfs abdecken würde. Die Rechnung geht so: mittlere solare Globalstrahlung in Deutschland ≈ 134 W/qm, Fläche ≈ 357.000 km^2, gesamte mittlere Leistung ≈ 134 W/qm * 357 Mrd. qm ≈ 48.000 GW. Das ist etwa das Siebenhundert- bis Achthundertfache des mittleren Stromleistungsbedarfs von 60 – 70 GW.
Der spezifische Solarstromertrag mit den heute verfügbaren Solarzellen liegt in Deutschland bei etwa 200 kWh pro Quadratmeter und Jahr. Auf dem Papier könnten wir daher mit Photovoltaik auf 1 % der Landesfläche (≈ 3.570 Quadratkilometer = 3,57 Mrd. Quadratmeter) leicht den kompletten Jahresstrombedarf von ca. 500 Mrd. kWh decken – aber leider nur in der Jahresbilanz und eben in der Theorie.
Modellrechnung basierend auf realen Wetterdaten
Werfen wir noch einen genaueren Blick auf die vorstehend aufgezeigte Problemstellung.
Das oben skizzierte Beispiel bezog sich lediglich auf eine Momentaufnahme. Für eine genauere Analyse muss man Zeitabschnitte betrachten. Da die Wind- und Solarstromproduktion in der Regel nicht für längere Zeit extrem niedrig ist und zeitweise auch Überkapazitäten bestehen, könnte man die Überstromproduktion speichern, um damit das wetterbedingt auftretende Manko kompensieren. Im Folgenden wollen wir dafür eine exemplarische Modellrechnung durchführen.
In der Modellbetrachtung verlangen wir, dass die Energie ausschließlich aus erneuerbaren Quellen kommen soll (also keine fossilen Kraftwerke und auch keine Kernenergie). Ferner lassen wir den möglichen Import von Strom außer Acht.
Der Analyse legen wir die konkreten Wetterdaten sowie den Stromverbrauch für die Monate November und Dezember 2022 zugrunde und gehen von einem 3-fachen Ausbau der Wind- und Solarenergie gegenüber dem Stand von 2022 aus. Zusammen mit den sonstigen Erneuerbaren ergibt der dreifache Ausbau von Windkraft und Photovoltaik eine installierte Gesamtleistung mit Regenerativen von ca. 400 GW. Das sind immerhin 600 % des typischen deutschen Leistungsbedarfs von etwa 60 – 70 GW. Auf dem Papier sieht das alles sehr gut aus und sollte, so mag man auf den ersten Blick denken, ohne Weiteres den Strombedarf decken..
Realitätsnahe Analyse zum Speicherbedarf
Die sich nun aufdrängende Frage ist:
Reicht dieser dreifache Ausbau von Windkraft und Photovoltaik bereits aus? Und wenn nicht, welche Speicherkapazität wäre nötig gewesen, um im Beispielzeitraum jederzeit die Versorgungssicherheit gewährleisten zu können?
In Abb. 1-11 sind die Ergebnisse zusammenfassend dargestellt.
Abbildung 1-11: Modellrechnung zur Strombilanz mit Erneuerbaren basierend auf den realen Wetterdaten vom November und Dezember 2022. Unterhalb des Diagramms sind die resultierenden Werte für die Speicherkapazität sowie die minimale und die maximale Speicherladung angegeben. – Rohdaten zu Produktion und Verbrauch: Energy-Charts.info, Fraunhofer ISE. Stand 08.05.2023; Aufbereitung, Darstellung und Speicheranalyse vom Autor.
Die Antwort ist ernüchternd: Tatsächlich entsteht in der Simulation eine Versorgungslücke von über 16.000 Gigawattstunden. Und dies trotz einer formal bestehenden 6-fachen Überkapazität. Der errechnete Verlauf der hypothetisch erforderlichen Speicherladung (rechte Achse, Einheit Gigawattstunden) ist in Abb. 1-11 als rote Kurve dargestellt. Sie erreicht am 18.11.2022, 13:45 Uhr, mit einer Ladung von 16,05 TWh ihr Maximum und entlädt sich binnen eines Monats bis zum 18.12.2022, nachmittags um 15:15 Uhr. Danach befüllt sich der Speicher wieder in etwa auf das Ausgangsniveau. Die anderen Kurven beziehen sich sämtlich auf die linke Achse und geben die jeweiligen Leistungswerte in Gigawatt an.
Erläuterung zur Analyse und Modellierung
Die in Abb. 1-11 dargestellten Kurven zur Stromproduktion (grün), zum Verbrauch (violett) und den sonstigen Erneuerbaren, darunter Biogas, Wasserkraft, Müllverbrennung, Pumpspeicher, Wind Offshore, …, (dunkelgrün) geben die tatsächlich gemessenen bzw. geleisteten Werte an. Bezüglich Wind OnShore (blau) und Solar (gelb) wurden die produzierten Leistungen mit dem Faktor 3 multipliziert, um so einen hypothetisch verdreifachten Ausbau zu simulieren (s. Hinweis unterhalb des Diagrammtitels). Die graue Kurve zeigt zeitgenau den Überschuss bzw. das Defizit der Stromproduktion. Die zeitliche Auflösung für alle Kurven beträgt 15 Minuten, also 96 Datenpunkte pro Tag. Der Analyse liegen folglich 5.856 Datensätze mit jeweils 16 Einzelwerten zugrunde, in Summe also über 90.000 Zahlenwerte.
Wie im Diagramm vermerkt, wurde jeweils eine Verdreifachung der installierten Leistung von Windkraft (Onshore) und Photovoltaik im Vergleich zum tatsächlichen Ausbau Ende 2022 angenommen. Das sind demnach hypothetische Leistungswerte von 183 GW Windstrom (Onshore und Offshore) und 201 GW Solarstrom. Diese Verdreifachung entspricht in etwa den (hochgesteckten) Zielen der Bundesregierung für 2030 und danach.
In der hervorgehobenen Infobox im Diagramm sind einige interessierende Kennzahlen gelistet. Im Minimum werden nur 13 GW produziert – und dies trotz des genannten verdreifachten Ausbaus. Auf der anderen Seite sind es im Maximum 151 GW, etwa doppelt soviel wie heute im gleichen Zeitraum. Der Leistungsüberschuss (also die Überstromproduktion) beläuft sich im Extremfall auf 84 GW. Dem steht ein maximales Leistungsdefizit von 52 GW gegenüber. Alles Daten die zeigen, dass das Management der Energieversorgung auf dieser volatilen Grundlage sehr anspruchsvoll werden wird.
Ergebnis der Analyse
Unter den genannten Modellannahmen ergibt sich eine minimal erforderliche Speicherkapazität von 16,05 TWh. Dabei wurde eine anfängliche Speicherladung per 1.11.2022 von 8,425 TWh unterstellt. Die Erhöhung der Anfangsladung ändert nichts am Speicherbedarf, führt aber dazu, dass Überkapazitäten teilweise ungenutzt bleiben. Sofern man indes den Speicher initial nur mit z.B. 5 TWh befüllt, ergibt sich per 18.12. eine Versorgungslücke von 3,425 TWh. Ein anfänglich leerer Speicher vergrößert das Versorgungsmanko per 18.12. auf über 8 TWh.
Wenn man nur eine Speicherkapazität von 1 TWh zur Verfügung hat, so zeigt die Modellrechnung unter den ansonsten gleichen Annahmen, dass Windkraft und Photovoltaik im Vergleich zu 2022 um den Faktor 14 auf über 800 GW Windstrom und über 900 GW Solarstrom ausgebaut werden müssten. Das ist kaum vorstellbar.
Der errechnete Speicherbedarf von 16 TWh entspricht ungefähr 11 durchschnittlichen Tagesverbräuchen oder etwa 3 % des deutschen Jahresstromverbrauchs. Das ist enorm. Gleichfalls gewaltig sind die potentiellen Kosten. Für Batteriespeicher rechnet man typischerweise mit 1.000 € pro kWh. Auf dieser Basis kommt man für den erforderlichen Speicher auf die gigantische Summe von 16.000 Mrd. Euro (= 16 Mrd. kWh * 1000 € / kWh), das ist in etwa das Vierfache des deutschen Bruttoinlandsprodukts.
Nun darf man sicherlich annehmen, dass aufgrund des technischen Fortschritts Batteriespeicher nach und nach günstiger werden. Auch Skalierungseffekte spielen eine Rolle: Jedenfalls sind Lithium-Ionen-Speicher für Elektroautos mit 100 € bis 200 € bereits heute deutlich billiger. Nehmen wir den niedrigeren Wert, so könnten sich die Speicherkosten auf 1.600 Mrd. Euro reduzieren. Das ist angesichts der nur begrenzten Lebensdauer immer noch gewaltig. Unter der Annahme einer 20-jährigen Nutzungsdauer belastet das den Energiehaushalt um Zusatzkosten von 80 Mrd. Euro pro Jahr. Auf den Strompreis würde das mit zusätzlichen 16 ct pro kWh (≈ 80 Mrd. € / 510 Mrd. kWh) durchschlagen.
Wie belastbar ist die Speicheranalyse?
Ohne Frage sprengen die Kosten für einen solchen Speicher unterm Strich den Rahmen des Machbaren. Dabei haben wir den immensen Ressourcenbedarf und die technisch-wirtschaftlichen Fragen betreffend der Herstellung noch völlig ausgeklammert. Zudem muss man sehen, dass die errechnete Speichergröße noch nicht als final angesehen werden kann, da wir ja nur die Monate November und Dezember, und dies auch nur für das Jahr 2022 zugrunde gelegt hatten. Es gibt zwar Gründe für die Annahme, dass insbesondere die Wintermonate potentiell einen hohen Speicherbedarf erfordern und dass dabei gerade November und Dezember hervorstechen, dennoch erfordert die Analyse eine komplette Jahresbetrachtung und auch die Einbeziehung weiterer Vergleichsjahre. Eine daraus folgende eventuelle Erhöhung der erforderlichen Speichergröße kann man jedenfalls nicht definitiv ausschließen.
Anmerkung: Die Analyse über das komplette Jahr 2022 zeigt, dass die o.g. Speicherkapazität ausreichen würde. Für die Wetterbedingungen in 2021 könnte der Speicher mit 15 TWh sogar etwas kleiner ausfallen.
Welche ergänzenden Maßnahmen und Alternativen bieten sich an?
Aus dem Vorstehenden ergibt sich, dass es mit dem Ausbau von Wind- und Solarleistung alleine nicht getan ist. Natürlich kann – und muss – man Windkraft und Photovoltaik weiter voranbringen. Es gibt aber Grenzen dafür, weil mit dem Ausbau natürlich auch die Phasen der Überstromproduktion immer stärker zunehmen, Zeiten also, in denen viel mehr Windstrom und Solarstrom produziert wird als wir benötigen und sinnvollerweise verwenden können. Wir hatten ja oben gesehen (s. Abb. 1-11), wie sogar im Winter ein Leistungsüberschuss von 84 GW entstehen kann. Im Sommer könnte der Überschuss leicht bei über 250 GW liegen. Ein kritisches Problem dabei ist die jederzeit sicherzustellende Netzstabilität. Vielfach würde man dann die Überstromproduktion vom Netz nehmen müssen. Auch unter dem Blickwinkel der Wirtschaftlichkeit wird man das so gut es geht vermeiden wollen.
Drei naheliegende Auswege drängen sich auf:
Backup-Kraftwerke
Aufbau von Kraftwerkskapazitäten (sogenannte Backup-Kraftwerke), die bei geringer Wind- und Solarstromerzeugung jederzeit die Lücke füllen können. Dazu bieten sich z.B. GuD-Kraftwerke an (Gas-und-Dampf-Turbine). Backup-Kraftwerke könnten Speicher in einem gewissen Umfang ersetzen. Allerdings benötigen sie einen fossilen Energieträger, nämlich Erdgas oder Flüssiggas, und sorgen damit für CO2-Emissionen. Später ist natürlich auch selbst hergestellter (s.u.) oder importierter grüner Wasserstoff als Energieträger denkbar.
Batterie-Stromspeicher
Als weitere Ergänzung werden wir kaum umhin kommen, zusätzlich nennenswerte Batterie-Speicherkapazitäten aufzubauen. Aus Kostengründen wird das kaum in Höhe des oben bestimmten Umfangs von über 10 TWh erfolgen können. Eine Speicherreserve von mindestens 1 – 2 Tagen (also etwa 1,5 – 3 TWh) wäre indessen technisch machbar und bliebe auch bezüglich der Kosten noch einigermaßen im Rahmen. Aber wie gesagt, diese Speichergröße würde nur einen kleinen Teil der potentiellen wetterbedingten Versorgungslücke abdecken.
Oft werden in diesem Zusammenhang die in Elektroautos verbauten Batterien als optionale Speicher genannt. Das ist tatsächlich ein erwähnenswerter Faktor, allerdings ist die so potentiell entstehende Speicherkapazität sowohl zum Aufnehmen einer größeren Überproduktion als auch hinsichtlich der Schließung der oben diskutieren Wind- und Solarstromlücken bei weitem nicht ausreichend. Diese Fragestellung wird im nachfolgenden Abschnitt über E-Autos näher beleuchtet.
Wasserstoff als Energiespeicher
Die zeitweise anfallende Überstromproduktion von bis zu weit über 200 GW kann man dazu nutzen, mittels Elektrolyse grünen Wasserstoff zu erzeugen und zu bevorraten. In Zeiten des Strommangels aufgrund schwachen Windes und wenig Sonne würde man den erzeugten Wasserstoff in einer Brennstoffzelle wieder in Strom zurück wandeln. Im Ergebnis ist auch dies ein Stromspeicher, der dabei hilft, Versorgungslücken zu schließen.
Bei der Elektrolyse erreicht man einen Wirkungsgrad von 60 – 80 %, in der Rückverstromung von Wasserstoff sind es ebenfalls etwa 60 – 80 %. In der Gesamtkette Strom-Wasserstoff-Strom erhält man daher Gesamtwirkungsgrade von ca. 40 – 50 %. I. d. R. gehen daher mehr als 50 Prozent der eingesetzten Energie verloren. Das ist indessen belanglos, wenn der eingesetzte Strom aus einer Überschussproduktion kommt.
Selbstverständlich ist die Frage nach dem Wirkungsgrad des technischen Prozesses isoliert betrachtet absolut legitim. Im größeren Kontext macht diese Betrachtung indessen überhaupt keinen Sinn mehr. Sie ist nachgerade absurd. Entscheidend ist die CO2-Effizienz, also das Potential zur CO2-Einsparung.
Das Sprichwort sagt: Einem geschenkten Gaul, schaut man nicht ins Maul.
Entscheidend ist, dass die ansonsten nicht verwendbare Überstromproduktion derart gespeichert werden kann. Das ist ein enorm wichtiger Aspekt im Hinblick auf die Sicherstellung der Energieversorgung in Zeiten geringer Stromproduktion mit Erneuerbaren. Dass dabei graduelle Verluste entstehen ist irrelevant, denn wenn man die Überstromproduktion nicht nutzt, liegen die Verluste bei 100 %.
Synthetische Kraftstoffe als Energiespeicher
Desgleichen bietet es sich an, die zeitweisen Überkapazitäten zur Herstellung von synthetischen Kraftstoffen (sogenannte E-Fuels) heranzuziehen. Die immer wieder dagegen vorgebrachten Argumente (wie z.B. die von Harald Lesch:Harald Lesch zerlegt E-Fuels!) sind nicht stichhaltig und gehen am sachlichen Kern der Thematik völlig vorbei.
Als Effizienz des Herstellungsverfahrens kann man auch in diesem Fall das Verhältnis zwischen dem resultierenden Energieertrag im synthetischen Kraftstoff und der aufgewendeten Energie (i. W. Strom für die Herstellung) heranziehen. Es sind ca. 50 %. Nimmt man nun noch die motorischen Verluste im Verbrenner dazu, so bleiben am Ende nur 15 % der aufgewendeten Energie für die eigentliche Mobilität (also Bewegungsenergie). Bei fossilen Kraftstoffen (die ja nicht mittels Strom erzeugt werden müssen) werden 30 % der eingesetzten Energie genutzt, bei Elektrofahrzeugen sind es über 70 % (bezogen auf die Stromnutzung).
Ist damit das Urteil über E-Fuels gesprochen? – Das wäre ein Kurzschluss. Denn man muss ja sehen, dass der für die Herstellung erforderliche Strom auch in diesem Falle sozusagen „Abfallenergie“ ist, die man sonst überhaupt nicht verwenden kann (es sei denn zur Herstellung von Wasserstoff). Diese Abfallenergie entsteht durch die Überstromproduktion in Zeiten starken Windes und hoher Solarerträge. Sie entsteht unvermeidlicherweise, weil die installierten Wind- und PV-Stromleistungen ein Vielfaches des eigentlichen Bedarfs betragen müssen, wie wir oben gesehen haben.
Die Herstellung von E-Fuels ist daher klimapolitisch von Vorteil, weil so CO2-freie Energie bereitgestellt werden kann. Niemand denkt dabei daran, die bestehende Mobilität mit Verbrennern komplett mit Hilfe von E-Fuels zu „retten“. Dies ausschließlich mit erneuerbaren (Überschuss-) Strom aus Deutschland zu machen wäre jedenfalls nicht möglich.
Resümee zu Wasserstoff und E-Fuels
Auch wenn beide Verfahren (Herstellung von Wasserstoff und synthetischen Kraftstoffen) für sich genommen eine geringe energetische Effizienz aufweisen, machen diese Ansätze dennoch auch wirtschaftlich absolut Sinn, insofern man ausschließlich die ansonsten nutzlose und sogar netz-destabilisierende Überstromproduktion dafür verwendet. Letztlich verblasst die Frage nach der Effizienz vor diesem Hintergrund. Denn wie gesagt: Einem geschenkten Gaul, schaut man nicht ins Maul.
Der vielfach vorgebrachte Vergleich mit E-Fahrzeugen, die aufgrund des formal höheren Wirkungsgrads mit dem Strom doch eine viel längere Wegstrecke zurücklegen könnten (ADAC: E-Fuels: Sind synthetische Kraftstoffe die Zukunft? | ADAC), führt in die Irre. Mit dem gleichen Argument könnte man auch das Radfahren verteufeln. Ein Radfahrer hat nur einen Wirkungsgrad von 18 – 23 %. Man verschwendet also gewissermaßen Energie, wenn man mit dem Fahrrad statt mit dem Elektroauto unterwegs ist.
Noch pointierter: Der durchschnittliche Wirkungsgrad bei körperlicher Arbeit beträgt beim Menschen etwa 25 %. Roboter dagegen können ihre Leistung – ähnlich wie Elektroautos – ohne Weiteres mit einem Wirkungsgrad von über 70 % erbringen ? Müsste man demnach nicht Menschen schleunigst durch Roboter ersetzen? – Natürlich ist das absurd.
Und noch ein letzter Punkt: Aus einem Kilogramm Bioabfall kann man 0,2 bis 0,3 kWh Strom erzeugen. Erschreckend wenig, angesichts der Tatsache, dass aus 1 kg Braunkohle immerhin 1,6 kWh, aus 1 kg Steinkohle 3,5 kWh und aus 1 kg Flüssiggas sogar 6 kWh Strom werden können. Sollte man deswegen auf die Verstromung des Bioabfalls verzichten? – Keineswegs, selbstverständlich ist das dennoch sinnvoll.
Diese Beispiele sollten nur noch einmal zeigen, dass die Fokussierung auf den Wirkungsgrad ein Irrweg ist. Dasselbe gilt für die u. U. geringe nominelle Ausbeute. Es bleibt ein Rätsel, aus welchem Grunde gerade die eifrigsten Befürworter der Energiewende, Interessenverbände und teilweise auch Wissenschaftsjournalisten und Wissenschaftler diesem Irrtum aufsitzen.
E-Autos als Stromspeicher – was bringt das?
Nehmen wir an, es gebe 10 Mio. Elektroautos (derzeit sind nur etwa 1 Million E-Autos zugelassen) mit einer durchschnittlichen Speichergröße von 50 kWh und einer abrufbaren Leistung von 20 kW. Die Leistung wurde deswegen auf diesen niedrigen Wert gesetzt, weil der Hausanschluss typischerweise nur mit 11 bis 22 kW belastet werden kann. Für höhere Einspeisungsleistungen müssen zusätzliche technische Vorkehrungen getroffen werden (höhere Absicherung, Verlegung von Leitungen mit größerem Querschnitt).
Unterstellen wir, die Fahrzeuge stehen in der Garage oder auf einem Stellplatz mit Ladesäule und sind bidirektional ans Stromnetz angeschlossen. Die Batterien können also jederzeit geladen und entladen werden.
Welche Leistung kann abgerufen werden?
Die Speicherkapazität und die Batterieleistung dürfen nicht miteinander vermengt werden. Das erstere ist die Energiemenge, das zweite ist quasi die Geschwindigkeit, mit der die gespeicherte Ladung abgerufen werden kann.
Die Rechnung bezüglich der Leistung ist einfach: 10 Mio. x 20 kW ergibt eine Leistung von 200 Mio. kW, also 200 GW. Das ist bereits deutlich mehr als die typischerweise im Netz angeforderte Leistung von 60 – 80 GW. Auf Seiten der Leistung würden die Batterien von 10 Mio. E-Autos also bereits vollauf und mit reichlichen Reserven genügen für die Sicherstellung der Netzstromversorgung. Im Minimum könnten sogar schon 3 – 4 Mio. Autos dafür reichen. Das ist aber auch nötig, weil natürlich nur ein Bruchteil der Autos tatsächlich mit geladenen Batterien in der Garage stehen. Viele andere sind entweder unterwegs oder müssen ihrerseits geladen werden, haben also Strombedarf.
Der kritische Punkt ist nicht die Leistung der Batteriespeicher, sondern ihre Ladekapazität, wie wir gleich sehen werden. Diese reicht nur für einen relativ kurzen Zeitraum von einigen Stunden.
Welche Speicherkapazität steht zur Verfügung?
Bei einer Entladung bis hinunter auf eine Restkapazität von 20 kWh (was einer Restreichweite von ca. 100 -150 km entsprechen würde) stehen unter den obigen Annahmen pro Fahrzeug 30 kWh zur Verfügung, die im Bedarfsfall in das Netz eingespeist werden können. Das summiert sich auf eine potentielle Netzspeicherreserve von 300 GWh oder 300 Mio. kWh.
Was bringt das für das Stromnetz?
Der durchschnittliche Tagesverbrauch an Strom beläuft sich auf etwa 1,4 TWh (≈ 510 TWh / 365), also 1.400 GWh, bzw. 1.400 Mio. kWh. Wenn wir nun noch die Stromproduktion aus anderen Quellen (Biogas, Wasserkraft, sonstige Quellen) mit etwa 200 GWh pro Tag (entsprechend einer Leistung von etwa 8 GW) berücksichtigen, so kommen wir auf eine potentielle Stromlücke von 1.200 GWh pro Tag. Folglich entspricht die in den 10 Mio. Elektroautos gespeicherte und für das Netz verfügbare Energie in etwa 25 % des durchschnittlichen Tagesbedarfs. Damit können also ca. 6 Stunden Dunkelflaute kompensiert werden. Tatsächlich sind derweil mehrere Tage währende Phasen mit einer extrem geringen Leistung von Solar- und Windkraftanlagen (z.B. weniger als 10 – 20 Prozent der durchschnittlichen Leistung) keine Seltenheit (s. z.B. Abb. 1-9 und 1-10).
Um eine Dunkelflaute von 1 Woche zu überbrücken, benötigt man nach dem Vorstehenden eine Speicherkapazität von bis zu 10 TWh = 10.000 Gigawattstunden. Das ist das 33-fache der hypothetisch vorrätigen Speicherladung von 10 Millionen Elektroautos. Dabei hatten wir in der Modellrechnung oben (s. Abb. 1-11) gesehen, dass die Versorgungslücke durchaus auch höher liegen kann.
Natürlich wird es keine 330 Millionen Elektroautos in Deutschland geben und auch die disponible Batteriespeicherkapazität der grundsätzlich verfügbaren Fahrzeuge wird kaum 50 kWh pro Auto übersteigen, daher ist die Erwartung, auf diesem Wege größere Stromlücken tatsächlich schließen zu können absolut unrealistisch. Allenfalls kann man derart kleinere Engpässe – vorzugsweise innerhalb eines Tages – überbrücken oder andere Mittel (stationäre Speicher, Pumpspeicher, Backup-Kraftwerke) sinnvoll ergänzen. Das ist fraglos ein sehr wertvoller Beitrag, er reicht aber eben zur Lösung der grundsätzlichen Problematik bei Weitem nicht aus.
Nach diesem Ausflug kommen wir zurück auf das Kernthema Energiewende und Wärmepumpe.
Spezifische CO2-Emissionen bezogen auf den Heizwert
Für den Betrieb einer Wärmepumpe braucht man bekanntlich Strom. Der Strombedarf ist abhängig von der benötigten Heizenergie, daher braucht man Im Winter viel Strom, im Sommer eher wenig (ggf. nur für die Warmwasseraufbereitung). Wie man den obigen Grafiken (s. Abb. 1-7 und 1-8) entnimmt, ist nun aber insbesondere im Winter der CO2-Ausstoß pro kWh relativ hoch (geringe Solarstromerträge, zeitweise kein Wind). Deshalb ergibt sich im gewichteten Mittel nach dem Heizenergie- bzw. dem Strombedarf einer Wärmepumpe ein höherer Durchschnittswert als der oben angegebene Strommix-Wert von 420 g/kWh. Im Heizlastprofil beläuft sich der Durchschnittswert der CO2-Emissionen auf ca. 480 g/kWh (s. Abb. 1-6).
Im Folgenden (s. Teil 3, CO2-Emissionen von Gasheizung und Wärmepumpe – Vergleich für ein Bestandsgebäude) wollen wir die Emissionen beim Heizen mit Wärmepumpe vergleichen mit der klassischen Gas-Brennwertheizung, also Heizen mit Gas. Deshalb müssen wir auch die spezifischen Emissionen bezogen auf den Heizwert kennen (s. Abb. 1-12).
Abbildung 1-12: Spezifische CO2-Emissionen verschiedener Energieträger bezogen auf den Heizwert (Verbrennung)
Von den vorstehend genannten Emissionswerten werden wir in der Vergleichsbetrachtung Gas-Brennwerttherme vs. Wärmepumpe (s. Teil 3, CO2-Emissionen von Gasheizung und Wärmepumpe – Vergleich für ein Bestandsgebäude) vor allem zwei brauchen: Den spezifischen Emissionswert von 480 g/kWh im Heizlastprofil aus dem deutschen Strommix und den entsprechenden Emissionswert von 182 g/kWh beim Heizen mit Gas (genauer, Erdgas).
Ausblick auf Teil 2
Die grundsätzliche Wirkungsweise von Wärmepumpen wird erläutert. Dazu wird der COP-Wert als der wichtigste Effizienzfaktor von Wärmepumpen eingeführt und es werden die theoretisch möglichen und die in der Praxis erreichbaren Effizienzwerte abgeleitet und mit aktuellen Studien verglichen.
Was bringt ein Verbot von Gasheizungen fürs Klima?
Das von der Ampel geplante Verbot von Gas- und Ölheizungen schlägt hohe Wellen. Dabei hat der Wirtschaftsminister dem Parlament noch nicht einmal einen entsprechenden Gesetzentwurf wirklich vorgelegt. Von Kritikern wird angemerkt, dass es rein technisch kaum möglich sein wird, binnen weniger Jahre Millionen von Gas- und Ölheizungen auszutauschen. Zunächst fehlen die Produktionskapazitäten für die Wärmepumpen. Darüber hinaus mangelt es sogar an den Handwerkern für die Durchführung der Arbeiten. Und für die betroffenen Hausbesitzer wird das absehbar immens teuer.
Zwei Fragen drängen sich unmittelbar auf:
1. Was bringen Wärmepumpen im Vergleich zu Gasheizungen hinsichtlich der Reduzierung der CO2-Emissionen?
2. Ist der Umstieg von der Gas- auf eine Wärmepumpen-Heizung aufgrund der Anschaffungs- und Betriebskosten eine ökonomisch vertretbare Maßnahme?
Und drittens kann man anschließen:
3. Wieso denkt man in diesem Falle überhaupt an Verbote? Ist es nicht zweckdienlicher, Anreize zu schaffen? Sollte die Regierung nicht lieber aufzeigen wie sich die Kosten für Gas und Strom in den nächsten Jahren entwickeln werden? Und sollte man es den Leuten nicht selbst überlassen, welche Schlüsse sie daraus ziehen?
Wie steht es mit der Wirtschaftlichkeit?
Die klimapolitische Sinnhaftigkeit des Verbots ist zumindest fragwürdig. Das Einsparungspotential betreffend der CO2-Emissionen bleibt aufgrund der Kohleverstromung vorerst eher klein. Daneben steht insbesondere die Frage im Raum, ob der Austausch überhaupt wirtschaftlich sinnvoll ist oder nur höhere Kosten produziert werden. Trotz Förderung sind die Investitionen in eine Wärmepumpe deutlich höher als bei dem bloßen Austausch einer Gasheizung. Der Grund: Neben den reinen Anschaffungskosten für die Wärmepumpe fällt bei vielen Bestandsgebäuden ein erheblicher zusätzlicher Installations- und ggf. auch Sanierungsaufwand an.
Bei hohen Stromkosten liegen die effektiven Betriebskosten für die Wärmepumpe kaum unter denen einer Gasbrennwertheizung. Und wenn die Kosten für den Bezug von Gas steigen, dann werden aufgrund der Marktmechanismen auch die Stromkosten höher. Denn Gaskraftwerke sind als Backup für die Stromerzeugung unverzichtbar. Bei wenig Wind und starker Bewölkung reicht die Stromproduktion durch Wind und Sonne nicht aus. Das gilt auch noch bei einem deutlich stärkeren Ausbau von Windkraft und Photovoltaik. Die Verzahnung der Preise gilt jedenfalls dann, sofern nicht politisch gegengesteuert wird.
Faustregel zur Wirtschaftlichkeit
Eine erste grobe Aussage zur Wirtschaftlichkeit sei an dieser Stelle vorweggenommen. Als Faustregel kann man sagen:
Wenn der Strompreis pro kWh weniger als zweieinhalb bis dreimal höher ist als der Gaspreis, dann sind die reinen Betriebskosten einer (Luft-Wasser-) Wärmepumpenheizung i. A. (also bei noch annehmbarer Energieeffizienz) signifikant geringer als die einer Gasheizung.
Bei einem ungünstigeren Verhältnis Strompreis zu Gaspreis von etwa 3:1 oder 3,5:1 und höher amortisieren sich die erheblichen Zusatzinvestitionen in die Wärmepumpe in vielen Fällen nicht. Abhängig von den individuellen Verhältnissen im Hinblick auf die Effizienz der Wärmepumpe und der Möglichkeit der Solarstromnutzung besteht daher nicht selten die Gefahr eines dauerhaften Draufzahlgeschäfts.
Ältere Bestandsgebäude sind potentiell problematisch
Die vorstehende Aussage gilt insbesondere für die vielen älteren Gebäude. Immerhin gibt es etwa 20 Millionen Wohngebäude im Bestand. In einer Studie des Forschungsinstituts für Wärmeschutz München (FIW München, s. [12]) wird dazu angemerkt, dass etwa die Hälfte davon (also 10 Mio. Gebäude) für den Betrieb mit Wärmepumpen überhaupt nicht geeignet sei, weil der energetische Sanierungsstand der Häuser einen halbwegs wirtschaftlichen Betrieb gar nicht zulasse.
Hinzu kommt der damit einhergehende höhere Strombedarf. Es gibt berechtigte Zweifel, inwiefern angesichts des schleppenden Ausbaus das Stromnetz an die Belastungsgrenze oder gar darüber hinaus kommt. Gerade auch, wenn gleichzeitig, wie von der Politik gewünscht, immer mehr Menschen auf Elektromobilität umsteigen sollten und auch der Stromverbrauch in der Industrie wächst.
Im letzten Teil 6 (Wärmepumpen für Deutschland – Klimapolitisch sinnvoll oder Fehlinvestition?) diskutieren wir die mit der Wärmewende zusammenhängenden Fragen im Hinblick auf den volkswirtschaftlichen und den globalen klimapolitischen Nutzen, insbesondere hinsichtlich der Effizienz und der Sinnhaftigkeit des Kapitaleinsatzes (auch von Fördermaßnahmen).
Beginnen wollen wir indes in Teil 1 (Energiewende, Stromproduktion und CO2-Emission) mit einem genaueren Blick auf die Stromproduktion: Welche Anteile haben die einzelnen Energieträger? Wie setzt sich der Strommix zusammen? Wie hoch ist der durchschnittliche CO2-Ausstoß pro kWh? Was können Windkraft- und Solarstrom leisten? Wo liegen die Grenzen? Welche ergänzenden Maßnahmen sind nötig, um die Versorgungssicherheit gewährleisten zu können?
Kurzer Überblick über die Einzelbeiträge
1. Energiewende, Stromproduktion und CO2-Emission
Die Belastung der Stromproduktion mit CO2-Emissionen ist in Deutschland relativ hoch, weil noch ein erheblicher Teil der Stromerzeugung mittels fossiler Energieträger erfolgt. Es wird erläutert, wie der durchschnittliche CO2-Ausstoß pro kWh im Strommix zustande kommt. Ferner werden die Chancen und Risiken bezüglich des Ausbaus der Erneuerbaren – insbesondere von Windkraft und Solarstrom – diskutiert. Im Hinblick auf die Sicherstellung der Stromversorgung fragen wir exemplarisch nach der nötigen Speicherkapazität in Zeiten geringer Wind- und Solarstromerträge. Dabei beleuchten wir auch die mögliche Rolle von Elektroautos.
2. Wärmepumpe. Prinzip, Funktionsweise und Grenzen
Die grundsätzliche Wirkungsweise von Wärmepumpen wird erläutert. Dazu wird der COP-Wert als der wichtigste Effizienzfaktor von Wärmepumpen eingeführt und es werden die theoretisch möglichen und die in der Praxis erreichbaren Effizienzwerte abgeleitet.
3. CO2-Emissionen von Gasheizung und Wärmepumpe – Vergleich für ein Bestandsgebäude
Es wird die Frage beantwortet: Was bringt das Heizen mit (Luft-Wasser-) Wärmepumpe gegenüber dem Heizen mit Gas an CO2-Einsparung? Neben der grundsätzlichen Betrachtung wird eine bespielhafte Modellrechnung für ein Bestandsgebäude (Baujahr 2000) mit einer Luft-Wasser-Wärmepumpe durchgeführt.
4. Gasheizung oder Wärmepumpe? Exemplarische Wirtschaftlichkeitsrechnung
Ist der Umstieg von der Gasheizung auf die ( Luft-Wasser-) Wärmepumpenheizung wirtschaftlich sinnvoll? Hierzu wird eine konkrete Beispielrechnung für ein Bestandsgebäude (Baujahr 2000) mit einem typischen Wärmebedarf und einem akzeptablen Energiestandard (Energieeffizienzklasse C) durchgeführt. In die Betrachtung werden die bekannten Fördermaßnahmen mit einbezogen und die Wirtschaftlichkeit hinsichtlich der Betriebskosten und der Investitionen im Vergleich zu einer modernen Gas-Brennwerttherme bewertet.
5. Grundsätzliche Analyse zur Wirtschaftlichkeit von Wärmepumpen
Über den konkret betrachteten Fall hinaus werden grundsätzliche Überlegungen zur Wirtschaftlichkeit von Wärmepumpen gegenüber Gas-Brennwertthermen angestellt. Ferner werden Wirtschaftlichkeitskriterien mit und ohne Investition sowie mit und ohne Einsatz von Photovoltaik formuliert.
6. Wärmepumpen für Deutschland – Klimapolitisch sinnvoll oder Fehlinvestition?
Die Analyse im Vergleich mit anderen Ländern zeigt, dass die Gegebenheiten in Deutschland aufgrund des ungünstigen Strommix‘ und der hohen Kosten unvorteilhaft sind. Ist daher die Wärmepumpe zum jetzigen Zeitpunkt das richtige Heizsystem für Deutschland? Macht ein Verbot bzw. ein Tauschzwang für Gasheizungen Sinn? Und ist der finanzielle Aufwand dafür unter allen Gesichtspunkten – wirtschaftlich und klimapolitisch – vernünftig?
Es wird gezeigt, dass der Einsatz von Luft-Wasser-Wärmepumpen unter den gegebenen Umständen in der großen Perspektive weder wirtschaftlich ist noch überhaupt eine nennenswerte klimapolitische Wirkung entfaltet. Darüber hinaus wird dargelegt, mit welchen Maßnahmen die CO2-Emissionen wirksam und effizient reduziert werden können. Das Kriterium dafür ist der finanzielle Aufwand pro eingesparter CO2-Menge.
Am 15. April 2023 wurden in Deutschland die letzten drei Kernkraftwerke abgeschaltet. Davor waren bereits Ende 2021 drei Atomkraftwerke vom Netz genommen worden. Damit ist das Kapitel Kernenergie in Deutschland auf absehbare Zeit beendet. In der Konsequenz muss die nun zwangsläufig entstehende Energielücke entweder durch Stromimporte – pikanterweise auch von Atomstrom aus den Nachbarländern – oder durch Ausbau eigener alternativer Erzeugungskapazitäten (z.B. mehr Windräder) geschlossen werden. So lange es die noch nicht gibt, wird man notgedrungen wohl auch auf fossile Energieträger zurückgreifen müssen. Das ist klimapolitisch fatal, weil Atomstrom immerhin als quasi CO2-frei gelten konnte.
Die ersatzweise Kohleverstromung sollte sich aufgrund der dadurch verursachten besonders hohen CO2-Emissionen eigentlich verbieten. Und dennoch haben wir im Vorjahr genau dies gesehen, nachdem bereits im Dezember 2021 drei Atomkraftwerke außer Dienst gestellt worden waren. Trotz günstiger Wetterbedingungen in 2022 und der daraus resultierenden gestiegenen Wind- und Solarstromproduktion, hat dies zu einer um 13 Mrd. kWh höheren Kohleverstromung mit der Konsequenz von 12,5 Mio. Tonnen CO2 zusätzlich geführt. Dabei war der Gesamtstromverbrauch sogar geringer als im Jahr zuvor, was den Ausstoß von CO2 hätte sinken lassen sollen. Es steht zu befürchten, dass der Ausfall des Atomstroms auch in den nächsten Jahren noch zu erhöhten CO2-Emissionen im Bereich von Zig-Millionen Tonnen führen wird.
Unabhängig davon sieht das politische Programm indessen vor, den nunmehr fehlenden Atomstrom – und natürlich auch die Kohlestromproduktion – in erster Linie durch Windstrom zu ersetzen und dafür die Windkraft zügig auszubauen. Im Folgenden wollen wir beleuchten, was zu diesem Zwecke auf Seiten der Produktionskapazitäten vonnöten ist und auch fragen, wie viele Windräder dafür erforderlich sind.
Die Ausgangssituation
Die sechs seit 2021 in Deutschland abgeschalteten Atomkraftwerke produzierten zuletzt noch eine Energiemenge von 65 TWh pro Jahr (2021) und trugen so etwa 13 % zu unserer Stromversorgung bei. Das ist mehr als halb soviel wie die jährliche Windstromproduktion (2021: 112 TWh / 22 %) und übersteigt die gesamte Solarstromerzeugung (2021: 45 TWh / 9 %) um den Strombedarf von mehr als fünf Millionen Haushalten.
Was leisten Windenergieanlagen?
Der Windstrom wird von etwa 30.000 Windrädern produziert. Eine durchschnittliche Windenergieanlage erzeugt daher eine Strommenge von knapp 3,8 GWh pro Jahr. Um die sechs vom Netz genommenen Kernkraftwerke zu ersetzen, benötigen wir daher ca. 65.000 GWh / 3,8 GWh ≈ 17.000 Windkraftanlagen, also knapp 3.000 Windräder pro Atomkraftwerk.
Siebzehntausend Windräder? Das ist für viele sicher eine unerwartet große Zahl. Sie ist deswegen so groß, weil der Wind natürlich nicht immer gleichmäßig stark weht und der Stromertrag in Zeiten geringen Windes erheblich unter die Nennleistung der Windenergieanlage fällt. Tatsächlich steigt die abgegebene Leistung proportional zur dritten Potenz der Windgeschwindigkeit. Mit \(P\) als elektrischer Leistung des Windrads und \(v\) als Windgeschwindigkeit gilt daher
\begin{equation} P \sim v^{3} \end{equation}
Doppelte Windgeschwindigkeit bedeutet also \(2^{3}=2 \cdot 2\cdot 2 = 8 \)-fache Leistung. Die Kehrseite der Medaille ist: halbe Windgeschwindigkeit, nur ein Achtel der Leistung. Ein Windrad, das für eine Nennleistung von 3,2 MW bei 10 m/s (= 36 km/h) konzipiert ist, leistet bei 5 m/s (= 18 km/h) nur 0,4 MW, also 12,5 % der Nennleistung. Bei 2,5 m/s (= 9 km/h) sind es gar nur noch 0,05 MW = 50 kW; das ist ein Vierundsechzigstel, also gerade einmal 1,6 % der Nennleistung.
Stromertrag von Windrädern in der Praxis
Aufgrund des vorgenannten Zusammenhangs und des vor allem an Land recht ungleichmäßig wehenden Windes mit häufigen Schwachwindphasen, erreicht der Stromertrag einer Windenergieanlage nur einen Bruchteil des aufgrund der gegebenen Nennleistung theoretisch möglichen Maximalwerts. Um es an einem konkreten Beispiel deutlich zu machen: Wenn der Wind jeden Monat 3 Tage durchgehend mit der vollen Stärke von 10 m/s bläst und in der restlichen Zeit kontinuierlich mit 5 m/s weht – das würden wir immer noch als ziemlich windig empfinden, dann gibt ein Windrad im Mittel nur 21 % seiner regulären Leistung ab.
Typischerweise beträgt der Effizienzfaktor (manchmal auch Leistungsfaktor oder Leistungsausbeute genannt) von Windkraftanlagen an Land etwa 22 %. Eine 3,2-MW-Anlage leistet daher im Mittel ca. 0,7 MW.
Die installierte Leistung
Normalerweise werden natürlich die Nennleistungen der Windräder in den Vordergrund gestellt. Man spricht dann von „installierter Leistung“. Schon in 2021 summierte sich diese auf 63,5 GW. Das ist fast soviel wie der durchschnittliche Bedarf an elektrischer Leistung in Deutschland von etwa 70 GW. Das klingt nach sehr viel, und es ist auch viel, aber eben nur dann, wenn der Wind überall in der erforderlichen Stärke bläst, was nur äußerst selten der Fall ist – eigentlich nie.
An guten Tagen leistet die Windkraft in Deutschland bis zu 40 GW, an schlechten aber nahezu nichts, oder nur 5 GW, also weniger als ein Zwölftel der Nennleistung. Im Mittel sind es tatsächlich nur die genannten ca. 22 % des technischen Leistungsmaximums, entsprechend etwa 14 GW. In windstarken Jahren kann der Wert auch höher liegen, 2019 waren es z.B. über 23 %. Es gibt aber auch Schwachwind-Jahre, in denen der Effizienzfaktor noch nicht einmal die 20%-Grenze erreicht. Z.B. waren es 2016 nur gut 18%.
Das ist der Grund, warum man die o.g. große Anzahl von Windrädern braucht, um nur sechs Kernkraftwerke zu ersetzen. Wobei „ersetzen“ im strengen Sinn so einfach nicht möglich ist, weil man natürlich auch dann Strom benötigt, wenn nur wenig Wind weht und die Sonne nicht scheint. Um diese Phasen zu überbrücken kommt man um zusätzliche Backup-Kraftwerke oder große Speicherkapazitäten – die derzeit aber noch kaum verfügbar und zudem enorm teuer sind – nicht herum.
Wieviel Windräder braucht man?
Nun baut man heute viel größere Windräder, eher Groß-Windkraftanlagen mit nicht selten 150 bis 170 m Turmhöhe und einem Propellerdurchmesser von bis zu 180 m. Solche Anlagen leisten grundsätzlich deutlich mehr als der Durchschnitt der Altanlagen, sie unterliegen aber den selben physikalischen Gesetzmäßigkeiten. Da sie aber höher sind, profitieren sie eher von den tendenziell besseren Windverhältnissen in den bodenfernen Luftschichten.
Die genannten neuen Groß-Windkraftanlagen sind oft für eine Nennleistung von 5 – 6 MW konzipiert. Legen wir für die Rechnung 5 MW zugrunde und unterstellen wir einen Effizienzfaktor von mindestens 21 %. Um auf dieser Basis die sechs abgeschalteten Atomkraftwerke (65 TWh Jahresertrag) zu ersetzen, benötigen wir daher 65.000.000 MWh / (5 MW * 8760 h * 0,21) ≈ 7.000 Windräder. Anmerkung: 1 Jahr hat 8760 Stunden. Pro AKW sind das also ca. 1.100 große Windräder. Im Folgenden rechnen wir mit diesen 7.000 Groß-Windkraftanlagen als Ersatz für die sechs Kernkraftwerke.
Wir bauen einen Mega-Windpark
Die größte Ausdehnung Deutschlands in der Nord-Süd-Richtung beläuft sich auf 876 km. Die Entfernung zwischen Flensburg und Oberstdorf (Luftlinie) beträgt 822 km.
Unterstellen wir, die Windräder würden im Abstand von 500 m nebeneinander aufgestellt. Das ist aus wissenschaftlicher Sicht ein empfehlenswerter Abstand orthogonal zur Hauptwindrichtung, um Interferenzen und Minderleistungen zu vermeiden. Demnach erstrecken sich die 7.000 Windräder über eine Gesamtlänge von 3.500 km. Wenn wir sie also zwischen Oberstdorf und Flensburg aufstellen wollen, dann können wir in einer Reihe nur 822 / 0,5 = 1.644 Windräder nebeneinander unterbringen.
Um alle 7.000 aufzureihen, müssen wir daher in einem gewissen Abstand hinter der ersten Reihe eine zweite, dritte und vierte aufbauen, und auch noch eine fünfte über mehr als 200 km. Nehmen wir auch diesbezüglich den nach wissenschaftlicher Beurteilung zu präferierenden Mindestabstand (in der Hauptwindrichtung) von 1 km. Anmerkung: In vielen existierenden Windparks stehen die Windräder zu eng aufeinander, was auf Kosten des Ertrags geht.
Der Mega-Windpark zieht sich also quer durch Deutschland: alle 500 m steht ein Windrad mit einer Höhe des Turms von 150 – 170 m (ungefähr die Nabenhöhe) und einer Scheitelhöhe inkl. des Propellers von bis zu 250 m. Und jeweils 1 km dahinter verläuft die zweite, dahinter die dritte, dann die vierte Reihe und schließlich auch noch eine dünner besetzte fünfte Reihe.
Ressourcen für den Mega-Windpark
Der Ressourcenbedarf für den Bau der 7.000 Windräder ist beachtlich: 1,4 Mio. Tonnen Stahl, 7 Mio. Kubikmeter Beton, dazu noch Unmengen an Kupfer, Aluminium und Glas. Aber wir wollen ja sauberen Strom. Und tatsächlich ist der erzeugte Windstrom, trotz des großen initialen Materialaufwands, mit 5 bis 10 g CO2 pro kWh unterm Strich ausgesprochen CO2-arm. Der zur Herstellung erforderliche Energieaufwand amortisiert sich innerhalb von 12 Monaten.
Gleichfalls hoch ist der Flächenbedarf für den Mega-Windpark. Inklusive einer Abstandszone von beidseitig 500 m kommen wir bei 822 km Länge und 4,5 km Breite auf 3.700 Quadratkilometer. Das sind etwa 1 % der Landesfläche von Deutschland. Immerhin kann man dieses Areal zum größeren Teil noch anderweitig nutzen, z.B. für Ackerbau und Viehzucht.
Die Kosten für den Bau der 7.000 Groß-Windkraftanlagen sind ebenfalls gewaltig. Mit etwa 35 Milliarden € muss man wohl rechnen, wobei die Ausgaben für den erforderlichen Netzausbau noch hinzukommen. Dennoch gilt: Bei einer Betriebszeit von 20 oder 30 Jahren bleibt der Kostenaufwand pro kWh produzierten Stroms insgesamt relativ niedrig. Erwartungsgemäß ist daher Windstrom in der Erzeugung mit 5 – 10 ct/kWh vergleichweise billig (jedenfalls dann, wenn man die versteckten Mehrkosten für Backup-Kraftwerke und Speicher außen vor lässt). Aufgrund der Belastung mit Steuern, Abgaben, Umlagen und Gebühren, kommt das allerdings beim Verbraucher – wie auch in anderen Fällen – absehbar nicht an.
Die Deutschlandkarte zeigt den Mega-Windpark anhand von 40 kleinen Quadraten auf einer geraden Linie zwischen Oberstdorf und Flensburg. Jedes der Quadrate steht für einen „kleinen“ Windpark mit 20 km Länge und 4 – 5 km Breite, bestehend aus jeweils 175 Windrädern.
Natürlich kann man die Windräder auch etwas näher zusammenrücken, damit man weniger Fläche benötigt. Das geht dann aber – wie bereits oben gesagt – auf Kosten der Effizienz.
Was gewinnen wir damit?
Mit diesem Windkraftpark quer durch Deutschland können wir die sechs seit 2021 außer Dienst gestellten Atomkraftwerke ersetzen. Jedenfalls einigermaßen, denn wenn der Wind nicht weht, nützen auch diese 7.000 Windräder nichts. Dann müssen wir Kohlestrom produzieren, ihn vielleicht aus Polen importieren, oder Atomstrom aus Frankreich, Belgien oder Tschechien beziehen. Alternativ können wir die Stromlücken mit Backup-Gaskraftwerken schließen – die wir allerdings in größerer Anzahl noch bauen müssen. Indessen ist auch die letztgenannte Option auf Basis modernster GuD-Kraftwerke mit 400 bis 500 g CO2 pro kWh Strom belastet (Anmerkung: GuD = Gas-und-Dampfturbine).
Verschärft wird die Problematik durch die angestrebte Wärmewende (Tausch von Gasheizungen gegen Wärmepumpen) und die Mobilitätswende, die beide sogar schon kurz- und mittelfristig einen erhöhten Strombedarf nach sich ziehen werden.
Wir brauchen also Strom, und dieser Strom muss sauber sein. Anderfalls macht weder die Wärmewende noch der Umstieg auf Elektromobilität überhaupt irgendeinen Sinn. Deswegen ist die Entscheidung zur Abschaltung der Atomkraftwerke grob gegen die Vernunft gerichtet.
Dreckiger Strom für die Wärmewende und für die Elektromobilität
Apropos Kohlestrom: Natürlich dauert es einige Jahre, bis die oben genannten 7.000 Windräder gebaut sind. Wenn wir die derzeitige Geschwindigkeit von etwa 0,8 – 1,5 Windenergieanlagen pro Tag zugrunde legen, dann brauchen wir dafür 13 – 24 Jahre. Aber auch wenn es schneller gehen sollte – jedenfalls ging es zwischen 2010 und 2019 mit 4 bis 5 (allerdings kleineren) Windrädern pro Tag deutlich flotter – werden wir in den nächsten Jahren noch auf Kohlestrom angewiesen sein. Zumindest im Umfang des ausgefallenen Atomstromanteils wäre das vermeidbar gewesen. Und dies völlig unabhängig von den zu bauenden Windrädern.
10 Jahre ohne eigenen Atomstrom könnte auf eine ersatzweise Kohleverstromung mit einem zusätzlichen Ausstoß von bis zu 600 Mio. Tonnen CO2 hinauslaufen.
Ideologische Sturheit statt „Klimaschutz“
Unter Umständen kann man ja noch verstehen, dass man im dichtbesiedelten Deutschland keine neuen Kernkraftwerke bauen will. Auch wenn es sich dabei um eine Hochsicherheitstechnologie handelt, etwa wie das Fliegen und wie die Hochleistungsmedizin. Aber sicher laufende Atomkraftwerke abzuschalten und dafür Kohlekraftwerke zu betreiben, ist an Torheit kaum zu überbieten. Es ist die Hybris der Irrationalen. Um es mit den Worten des Aufklärers Georg Christoph Lichtenberg auszudrücken:
«In der Dummheit liegt eine Zuversicht, darob man rasend werden möcht‘».
Kann man denn jemand ernst nehmen, der für Klimaschutz wirbt, dann aber aus nicht nachvollziehbaren Gründen bereit ist, Hunderte von Millionen Tonnen CO2 zusätzlich in die Atmosphäre zu pusten? Und im gleichen Atemzug wird das dennoch als Beitrag zur Energiewende und zum Klimaschutz ausgegeben.
Mit der Abschaltung der Atomkraftwerke verhält es sich etwa so, als wolle man vom alkoholfreien Bier auf Mineralwasser umsteigen, und weil das dann nicht verfügbar ist, trinkt man stattdessen Schnaps.
Resümee
War es vernünftig, aus der Kernenergie auszusteigen? War es vernünftig, sicher zu betreibende Atomkraftwerke abzuschalten? – Ja, in einer halbwegs idealen Welt ohne das ausgegebene Ziel einer CO2-Reduzierung wäre es rational gewesen. In einer Welt ohne Kriege und ohne die Notwendigkeit einer sicheren Energieversorgung. In einer solchen Welt leben wir allerdings nicht.
Ist es vernünftig, stattdessen auf Windkraft zu setzen? – Ja, aber nur auf Basis eines durchdachten und funktionierenden Plans, unter Berücksichtigung der Belange des Natur- und Umweltschutzes, unter Einbeziehung von Speichern und Backup-Kraftwerken, konkreter Realisierungsschritte und Zug um Zug.
Damit wir uns nicht missverstehen: Neben der Photovoltaik und den leider weitgehend fehlenden und extrem teuren Speichermöglichkeiten können Windenergieanlagen einen Beitrag zur Energiewende leisten, vorausgesetzt, sie werden dort aufgestellt, wo die Erträge hoch sind und die Beeinträchtigungen für Mensch und Umwelt klein bleiben. Effiziente, am richtigen Ort platzierten Windräder sind also potentiell ein echter Mehrwert. Aber auch um eine im Prinzip gute Sache Lösung umzusetzen, sollte man den Verstand bemühen und nicht den zweiten Schritt vor dem ersten tun.
Um es an einem simplen Beispiel zu persiflieren:
Wenn ich meinen Kühlschrank durch einen neuen ersetzen möchte, dann schmeiß ich den alten nicht weg, bevor der neue geliefert wurde.
Und wenn ich zwei Kühlschränke besitze? Einen ganz alten mit der grottenschlechten Energieeffizienzklasse G und einen relativ neuen der Effizienzklasse A++ mit Eisfach? Dann sortiere ich vernünftigerweise zuerst die alte G-Klasse-Kröte aus. Auch wenn mir am A++-Kühlschrank die Platzverschwendung für das nicht benötigte Eisfach missfällt.
Leistung war gestern, heute geht’s um Haltung und Werte
Schon heute sind in Deutschland immer weniger dazu imstande, an den technologischen Lösungen für die Gegenwart und die Zukunft zu arbeiten. Symposien von Geisteswissenschaftlern über den Klimawandel und quasi-religiöse Bewegungen zur Abwehr der vermeintlich drohenden Apokalypse gebären keine Lösungsansätze für die Gestaltung der Herausforderungen in ihrer realen Komplexität. Die von Tagträumern eifrig vorangetriebene, im Kern aber planlose Klima- und Energiepolitik leistet hier ebenso wenig einen werthaltigen Beitrag, wie die kürzlich voller Stolz verkündete „feministische Außenpolitik“. Und auch eine noch so vorbildliche demokratische Haltung und Werteorientierung kann den immer stärker zu Tage tretenden Mangel an mathematisch-naturwissenschaftlicher Kompetenz, Leistungswillen und Leistungsfähigkeit in den relevanten Technologien nicht kaschieren.
Die Tragik der deutschen Energiewende liegt darin, dass ihre eifrigsten Unterstützer die denkbar geringste Ahnung von der Materie und der Komplexität der Zusammenhänge haben. Die Vermutung drängt sich auf, dass ihnen schlichtweg das mathematisch-naturwissenschaftliche Rüstzeug dafür fehlt. Zu dieser naheliegenden Erklärung kommt man jedenfalls dann, wenn man die Videokritik von Prof. Krötz (s. [1]) zum gymnasialen Leistungsniveau in Nordrhein-Westfalen verarbeitet hat. NRW steht dabei stellvertretend für das schulische Niveau in Mathematik und den Naturwissenschaften in ganz Deutschland.
Werte sind kein Ersatz für Leistung
Die politischen Parteien, allen voran die Grünen, aber auch andere, verschließen die Augen vor den tatsächlichen Problemen und kümmern sich in ihren politischen Programmen vor allem um Nebenkriegsschauplätze und Vordergründiges mit hoher Publikumsresonanz. Tatsächlich sind sie die Hauptverursacher der wachsenden Inkompetenz, indem sie die Hand anlegen an die Grundlagen der Leistungsgesellschaft. Und diese Grundlage wird in Schule und Elternhaus gelegt.
Wie effektiv sie dabei sind, das erfahren wir nahezu täglich in den Nachrichten. Wir haben uns mittlerweile mit langen Planungszeiten, Fehlkalkulationen, jahrelangen Verzögerungen, Mängeln in der Ausführung und unvorhergesehenen Wartezeiten bis zur Fertigstellung von was auch immer abgefunden. Jedenfalls dann, wenn dauermoralisierende Politiker und ihre in den Jahren des Überflusses fett und träge gewordene Bürokratie dafür verantwortlich zeichnen.
Muss einen das wundern, wenn die Parteien Leute ins Parlament schicken, die teilweise ohne jegliche Berufsausbildung und Berufserfahrung sind? Nicht selten Studienabbrecher, die außerhalb der Politik keinen Fuß auf den Boden bekommen würden; mit anderen Worten: „Minderleister“. Diese Politiker haben vielfach jeglichen Realitätsbezug verloren. Das Ergebnis ist u.a. die schleichende Abkehr vom Leistungsprinzip. Absehbar mit fatalen Folgen.
Nur zur Erinnerung: Wohlstand kommt von Leistung
Das Erfolgsprinzip heißt Fleiß, Disziplin, Ausdauer, Innovation. Dazu gehören Leistungsbereitschaft (Willen) und Leistungsfähigkeit (Können) die in der Schule und im Elternhaus vermittelt werden müssen. Die Schule ist auf dem besten Wege, diesbezüglich zum Totalausfall zu werden. Zum Teil unverschuldet, wegen der weitgehend ungesteuerten hohen Zuwanderungsanteile in den Klassen – die aber wiederum das Ergebnis einer fehlgeleiteten Politik sind. Zum Teil aber auch als Resultat einer links-grünen Werteverschiebung und der damit verbundenen Abwendung von den klassischen Erfolgstugenden, wie sie bereits genannt wurden.
Sind wir noch in der Spur? – Vergleich NRW und Indien
Im sehenswerten Video von Prof. Krötz (s. [1]) wird ein Vergleich des erwarteten Leistungsstandes auf dem gymnasialen Abschlussniveau in Mathematik und den Naturwissenschaften (Physik, Chemie) zwischen Nordrhein-Westfalen und Indien gezogen. Die Ergebnisse sind verheerend. Das Niveau in NRW liegt etwa ein bis zwei Semester unter dem der indischen Studienanfänger.
Prof. Kroetz schätzt, dass allenfalls einige ppm der leistungsfähigsten Abiturienten den indischen JEE-Test (Joint Entrance Examination, eine Art universitärer Zulassungstest, insbesondere für technische Studiengänge, s. [2] JEE-2022) erfolgreich absolvieren könnten. Er glaubt auch nicht, dass deutsche Ingenieursstudenten nach dem zweiten Studiensemester bei diesem Test besonders gut abschneiden würden. – In Indien schaffen diesen Eingangstest jedes Jahr einige Zehntausend mit guten Ergebnissen.
Ein Blick auf China und die dortigen Anforderungen an den technisch-wissenschaftlichen Nachwuchs bestätigt den Eindruck aus Indien. Für deutsche Abiturienten ist das i.d.R. nicht machbar. Der Leistungsabstand ist zu groß.
Wird die Schule ihrem Auftrag gerecht?
Woher kommt dieser enorme Leistungsunterschied? Er hängt wohl auch mit den bereits oben angesprochenen Punkten zusammen. Tatsächlich findet sich in den Leitlinien des gymnasialen Mathematikunterrichts von NRW (Entwurf, Stand 23.01.2023) die folgende Passage:
Im Rahmen es allgemeinen Bildungs- und Erziehungsauftrags unterstützt der Unterricht im Fach Mathematik die Entwicklung einer mündigen und sozial verantwortlichen Persönlichkeit und leistet weitere Beiträge zu fachübergreifenden Querschnittsaufgaben in Schule und Unterricht, hierzu zählen u.a.
Menschenrechtsbildung,
Werteerziehung,
politische Bildung und Demokratieerziehung,
Bildung für die digitale Welt und Medienbildung,
Bildung für nachhaltige Entwicklung,
geschlechtersensible Bildung,
kulturelle und interkulturelle Bildung.
Kein Wort zu den Inhalten, keine Formulierung von Anforderungen, keine Zielvorgabe. Was wird hier eigentlich propagiert? Das Leistungsprinzip? – Wohl kaum. Es ist eher ein Sammelsurium von politisch korrekten Schlagworten, die mit Mathematik absolut nichts zu tun haben. Wer diesen Mathematikunterricht erfolgreich absolviert hat, kann vermutlich geschlechtersensibel formulieren und Rechte von Linken unterscheiden. Vielleicht weiß er sogar, nach welchen demokratischen Verfahren Stimmenanteile in Mandate umgerechnet werden – obwohl die dafür nötige Bruch- und Prozentrechnung manche bereits an ihre Grenzen führen wird – aber beherrscht er auch das Handwerkszeug für eine wertschöpfende Tätigkeit im technischen oder industriellen Umfeld? Bringt er die Grundlagen für ein technisch-naturwissenschaftliche Studium mit?
Muss man sich da noch wundern, wenn sich Schüler und junge Erwachsene auf der Straße festkleben und das für einen Beitrag zum Klimaschutz halten, statt mit Können, Fleiß, Disziplin und Ausdauer an innovativen Lösungen zu arbeiten?
Historischer Vergleich Realschule – Gymnasium
Der Verlust an konkretem Leistungsvermögen wird auch im historischen Vergleich sichtbar. Prof. Kroetz hat sich die Anforderungen an Realschüler der 1970-er Jahre in Baden-Württemberg angeschaut und kommt zum fast schon resignierenden Schluss, dass ein heutiger Standardabiturient die damaligen Realschulaufgaben kaum erfolgreich bearbeiten könnte. Das muss man sich deutlich vor Augen führen: Was man noch vor 50 Jahren auf der Realschule ohne Weiteres Sechzehnjährigen beibringen und in Prüfungen abverlangen konnte, das überfordert heute den durchschnittlichen 18-Jährigen Gymnasiasten.
Diese Erkenntnis ist fast noch alarmierender als der Vergleich mit dem indischen oder chinesischen Akademikernachwuchs.
Mathematik und Naturwissenschaften sind die Grundlagen des wirtschaftlichen Erfolgs
Im Jahre 1717, also vor nun 300 Jahren, hat König Friedrich Wilhelm I die allgemeine Schulpflicht in Preußen eingeführt. Als einer der ersten europäischen Monarchen seiner Zeit hatte er erkannt, dass gebildete Bürger für einen modernen Staat eine unverzichtbare wirtschaftliche Ressource darstellen. Davor war die allgemeine Schulpflicht u.a. schon im Herzogtum Pfalz-Zweibrücken (1592) in Sachsen-Gotha (1642) und Württemberg (1649) eingeführt worden (s. [3] Schulpflicht).
Im obigen Absatz liegt die Betonung auf „wirtschaftliche Ressource“. Davor war Bildung das Privileg des Klerus, des Adels und der reichen Bürger. Sie war bis dahin eher Selbstzweck und keinem bestimmten Nutzen untergeordnet. Das Verständnis von Bildung als potentiell wirtschaftlich nutzbringend entwickelte sich erst nach und nach im Zuge der Aufklärung. In der zunehmend komplexer werdenden Welt wuchs der Bedarf an Menschen, die lesen, schreiben und rechnen konnten von Generation zu Generation. Heute ist es ein Allgemeinplatz, dass ein hohes Bildungsniveau den wirtschaftlichen Erfolg eines Landes begründet.
Im technischen Zeitalter waren und sind dabei insbesondere die Kompetenzen in Mathematik und den Naturwissenschaften von großer Bedeutung. Die besondere Leistungsfähigkeit in diesem Bereich war die Grundlage für die Entfaltung Europas zur zivilisatorisch und technologisch dominierenden Macht. Und sie war auch die Basis für den Aufstieg Deutschlands zu einer der weltweit führenden Wissenschafts- und Wirtschaftsnationen. Die industrielle Entwicklung der letzten 150 Jahre wäre ohne diese herausragende Leistung nicht möglich gewesen. Dazu gehörten nicht nur das technisch-wissenschaftliche Fachwissen, das Talent, die Geschicklichkeit und der Fleiß der Menschen, auch ihre Leistungsfreude und ihr Leistungswillen waren es, die die Türen aufgestoßen haben zu neuen Entwicklungen, zu neuen technischen Lösungen, zu Innovationen und damit zum wirtschaftlichem Erfolg.
Wohlstand ist das Ergebnis von Arbeit, nicht von Schönreden
Der Wohlstand Deutschlands als eines Landes nahezu völlig ohne natürliche Ressourcen ist das Ergebnis von Arbeit, Fleiß, Wissen und Können. Es ist das Leistungsprinzip, was uns den Erfolg gebracht hat. Wenn wir uns von diesem Grundsatz abwenden, dann werden wir über kurz oder lang als Gesellschaft und als Land massive Wohlstandsverluste in Kauf nehmen müssen. Spätestens in 1 oder 2 Generationen, wenn die Dividende der vergangenen Prosperität aufgebraucht und der Glanz der Industrienation verblasst ist, werden wir uns in der zweiten oder dritten Reihe wiederfinden. Da ist auch die Diskussion um eine Fachkräftezuwanderung nur ein herumdoktern an Symptomen.
Durch die politischen Weichenstellungen der letzten Jahre wird die Abkehr vom Leistungsprinzip (s. a. Gleich, gleicher, Gleichmacherei – sumymus blog) quasi festgeschrieben. Daran haben alle politischen Parteien mitgearbeitet, allen voran die Grünen und die SPD. Das sieht man in der Schulpolitik (s.o.), man kann es aber auch am generellen gesellschaftlichen und politischen Klima festmachen.
Im Zentrum der politischen Diskussion stehen seit Jahren „Haltung und Werte“, politische Korrektheit, geschlechterneutrale Sprache, Rassismus, Feminismus, Antisemitismus, Faschismus. Interessen des Landes und seiner Bürger, aktuelle und zukünftige, die doch im Zentrum jeglicher Politik stehen müssten, sind kaum ein Thema. Und wie man das Geld für die vielen woken Projekte erwirtschaftet, das interessiert nur am Rande. Gesellschaft und Politik arbeiten sich ab an Randthemen, die man durchaus auch in den Blick nehmen kann, die aber nicht die lebenswichtigen zentralen Fragestellungen beiseite drängen dürfen, ohne deren Lösung – nebenbei bemerkt – die Luxusprojekte noch nicht einmal finanziert werden können.
Resümee
Wir brauchen die Rückbesinnung auf die Erfolgsfaktoren Fleiß, Disziplin, Ausdauer, Leistungsbereitschaft (Willen) und Leistungsfähigkeit (Können), nicht nur, aber vor allem in den vernachlässigten mathematisch-naturwissenschaftlichen Disziplinen. Sonst droht ein kaum mehr vermeidbarer Absturz und in dessen Gefolge ein massiver Verlust an Wohlstand.
Im Jahr 2023 wird der Equal Pay Day in Deutschland – wie auch schon im Jahr 2022 – am 7. März begangen. Was ist eigentlich der Equal Pay Day? Das Thema ist die – je nach Sichtweise tatsächlich bestehende oder auch nur konstruierte – Lohnlücke (Gender Pay Gap) zwischen den Geschlechtern. Konkret geht es um gleichen Lohn für gleiche Arbeit. Oder geht es nur um Gleichmacherei? – Der Equal Pay Day ist der Tag, an dem … da fängt es schon an, es sind mindestens zwei unterschiedliche Definitionen für die Bestimmung des Equal Pay Day im Umlauf … und beide sind falsch. Näheres findet man hier: (NOT) EQUAL PAY DAY.
Gleicher Lohn für gleiche Arbeit: Kampf dem Gender Pay Gap?
Gleicher Lohn für gleiche Arbeit: Das klingt vernünftig, das ist gerecht. Aber ist es in der Realität wirklich so simpel? Lässt sich der Kampf gegen die teilweise bestehende Lohnlücke zwischen den Geschlechtern (Gender Pay Gap) tatsächlich auf diese einfache Formel herunterbrechen Jedenfalls hat sich jetzt auch das Bundesarbeitsgericht mit der Thematik befasst.
Damit wir uns nicht missverstehen, natürlich sollen zwei, die unter den gleichen Bedingungen und mit denselben Voraussetzungen die gleiche Arbeit machen und in Summe die gleiche Leistung erbringen auch das gleiche Gehalt bekommen. Und zwar völlig unabhängig von Faktoren wie Geschlecht, Rasse, Religion, Aussehen etc. Das ist aber ersichtlich etwas anderes als die platte Parole gleicher Lohn für gleiche Arbeit.
Warum sollten individuelle Unterschiede, die potentiell oder tatsächlich Auswirkungen auf die Arbeit haben keine Rolle spielen dürfen? Wäre das so, dann müsste man von Gleichmacherei sprechen.
Entscheidung des Bundesarbeitsgerichts zum Gender Pay Gap
Das Urteil des Bundesarbeitsgerichts vom 16. Februar 2023 hat es in sich: Die höchsten deutschen Arbeitsrichter sprachen einer Arbeitnehmerin sowohl die Lohndifferenz der Vergangenheit, als auch immateriellen Schadensersatz zu. Ein männlicher Kollege mit der gleichen Tätigkeit und der gleichen Betriebszugehörigkeit hatte von Anfang an ein höheres Gehalt bezogen, da er – so der Arbeitgeber – „besser verhandelt“ hatte. Ebenso war ihm zu einem früheren Zeitpunkt eine Gehaltserhöhung gewährt worden.
Das Bundesarbeitsgericht ließ dieses Argument nicht gelten: „Eine Frau hat Anspruch auf gleiches Entgelt für gleiche oder gleichwertige Arbeit, wenn der Arbeitgeber männlichen Kollegen aufgrund des Geschlechts ein höheres Entgelt zahlt. Daran ändert nichts, wenn der männliche Kollege ein höheres Entgelt fordert und der Arbeitgeber dieser Forderung nachgibt.“ – so die Aussage der gerichtlichen Pressemitteilung.
Was kann der Sigismund dafür, dass er so schön ist?
Geht es hier wirklich um gleiche Bezahlung für gleiche Arbeit oder ist das ein Fall von Gleichmacherei? Hätte der Kollege nur deswegen mehr bekommen, weil er männlichen Geschlechts ist, so wäre das zweifellos ein Verstoß gegen die Gleichbehandlung und ganz klar zu beanstanden. Die in der Pressemitteilung wiedergegebene Begründung ist indessen nicht stichhaltig. Der Kollege hatte ja nicht mehr bekommen, weil er männlichen Geschlechts ist, sondern, weil er besser verhandelt hatte. Das ist ein Unterschied. Ein wesentlicher Unterschied! Niemand hatte die klagende Kollegin daran gehindert, Argumente ins Feld zu führen, die aus Sicht des Arbeitgebers ein höheres Gehalt hätten rechtfertigen können.
Wenn zwei sich unterschiedlich verhalten, dann ist das offensichtlich nicht dasselbe.
Vielleicht hat das Gericht noch andere Gründe in petto, vielleicht liegen die Details im konkreten Falle anders als es bisher kommuniziert wurde. Nach dem bisher veröffentlichten Kenntnisstand zu urteilen, halte ich die Entscheidung allerdings für fragwürdig.
Gleich, gleicher, Gleichmacherei: Egalitarismus
Vorausgesetzt, die schriftliche Urteilsbegründung bestätigt die Aussage, dass das individuelle Verhandlungsgeschick kein hinreichender Grund für die Gewährung eines höheren Gehalts ist, so wäre dieser Rechtsspruch ein weiterer Meilenstein auf dem Weg in den Sozialismus. Dass dieses Urteil inmitten der Hochphase des Karnevals gesprochen wurde ist wohl nur Zufall. Es sagt aber dennoch viel über die hierzulande das ganze Jahr über herrschende und von Jahr zu Jahr groteskere Possen reißende Narretei. Und nicht nur hier, die ganze EU ist vom Virus des Egalitarismus befallen. Der Gerechtigkeitswahn unter dem Deckmantel der Gleichbehandlung treibt immer skurrilere Blüten. Und dies auf Kosten der Freiheit des Individuums, indem der Gestaltungsspielraum des Einzelnen immer stärker eingeengt wird.
Die Lohnlücke (Gender Pay Gap) und die Wirklichkeit
Die Mär vom Gender Pay Gap in Höhe von 18 % oder gar 22 % wird zwar jedes Jahr aufs Neue wiederholt, wahrer wird sie damit aber nicht. Bereinigt um die wichtigsten gesellschaftlichen Unterschiede (Berufswahl, Erwerbsbiographie) bleibt am Ende eine Lücke von ca. 5 %. Das ist mehr oder weniger irrelevant, weil die Gehaltsunterschiede für dieselbe Tätigkeit auch in Gruppen mit gleichartigen Voraussetzungen und Erwerbsbiographien teilweise ein Mehrfaches davon betragen können. Und natürlich spielt Verhandlungsgeschick da ebenfalls mit hinein. Bei Männern jedenfalls. Und warum sollte es bei Frauen anders sein? Kann man ihnen nicht zumuten, dass sie klug verhandeln und auf ihren Vorteil bedacht sind? Dass sie Argumente ins Feld führen, die den Arbeitsgeber überzeugen? Dass sie etwas riskieren? – Doch, das kann man, aber offenbar ist das für einige von ihnen unter ihrer Würde, sie beschreiten lieber den Rechtsweg.
Vor allem differiert die Bezahlung in den unterschiedlichen Berufen
Wahr ist, dass Frauen sehr oft in Berufen tätig sind, die schlecht bezahlt werden. Wahr ist aber auch, dass ein weiblicher Ingenieur i. d. R. mehr verdient als eine männliche Erzieherin. Es ist daher Unsinn, diesen systemischen Unterschied in die Lohnlücke hineinzurechnen und als Ungleichbezahlung zwischen Männern und Frauen zu brandmarken. Das ist eine ganz andere Baustelle.
Wenn zwei bei sonst gleichartigen Voraussetzungen unterschiedlich verdienen, dann gehen sie in den meisten Fällen auch verschiedenen Tätigkeiten nach.
Es geht hier absolut nicht um Gleichstellung, es geht um Gleichmacherei. Die im Grundsatz freie Entscheidung des Individuums, diesen oder jenen Beruf zu ergreifen determiniert die Gehaltserwartungen zu einen großen Teil. Die Geschlechterthematik ist nur vorgeschoben.
Wie clever darf man sein?
Wenn jemand besser verhandelt und es schafft, so sein Gehalt zu erhöhen, dann ist er seinem Arbeitgeber offensichtlich dieses höhere Gehalt wert. Die Vermutung liegt nahe, dass die betreffende Person dieses Verhandlungsgeschick auch gegenüber Kunden und Auftraggebern unter Beweis stellt, also z.B. die besseren Argumente ins Feld führt und somit die Belange der Firma besser vertritt, als jemand, der noch nicht einmal für seine eigenen Interessen angemessen einzutreten in der Lage ist. Mit anderen Worten: Verhandlungsgeschick ist ein Indiz für eine höhere Leistung zu Gunsten der Firma. Das gilt völlig unabhängig vom Geschlecht des Arbeitnehmers.
Sicher gibt es egoistische Dampfplauderer und Blender, die vor allem ihr eigenes Wohl im Auge haben und für die Firma nur wenig leisten. Über kurz oder lang kommt das aber auf.
Ansonsten gilt: Smarte Mitarbeiter helfen der Firma, Paragraphenreiter schaden ihr.
Gleichmacherei und das Leistungsprinzip
Wohin soll solche Missachtung individueller Unterschiede führen? Am Ende führt es dazu, dass der Arbeitgeber seinem gut verhandelndem Arbeitnehmer kein höheres Gehalt anbietet, weil er ansonsten ja allen anderen das gleiche Angebot machen müsste. In der Konsequenz kündigen die besonders guten und leistungsfähigen Mitarbeiter oder sie resignieren und schalten um auf Durchschnittsleistung, weil ihr Engagement ohnehin nicht honoriert wird. In beiden Fällen hat die Firma ein Problem.
Welches Problem? – Das kann man erahnen, wenn man an den Zustand der öffentlichen Verwaltung denkt. In der Verwaltungsbürokratie ist der Grundsatz „gleicher Lohn für gleiche Arbeit“ verwirklicht (wobei es in der Wirtschaft nur selten „die gleiche Arbeit“ gibt und die Abläufe auch nicht so stark formalisiert sind). Führt das etwa dazu, dass sich die Angestellten und Beamten besonders ins Zeug legen, um ein höheres Gehalt zu bekommen? – Na ja, für diese Vermutung gibt es kein Indiz. Die Folge ist die sprichwörtliche Ineffizienz der Verwaltung. Der Staat kann sich das leisten, weil er vom Steuerzahler finanziert wird und die nötigen Einnahmen auf dem Wege der Steuererhöhung weitgehend frei nach seinem Bedarf bestimmt und erforderlichenfalls erhöht. In der freien Wirtschaft funktioniert dieses Modell nur ausnahmsweise und allenfalls für eine begrenzte Zeitspanne.
Natürlich gilt auch in der Verwaltung das Leistungsprinzip – und zwar das Prinzip der Durchschnittsleistung. Damit wären wir wieder beim Sozialismus.
Wo bleibt die Vertragsfreiheit?
Ohne Frage ist das vorliegende egalitaristische Urteil ein Eingriff in die Vertragsfreiheit des Arbeitgebers. Gewiss ist es die Aufgabe des Staates, für einen einheitlichen Rechtsrahmen zu sorgen und diesen durchzusetzen. Es ist aber nicht seine Aufgabe, in die Mechanismen des Marktes einzugreifen, Werturteile vorzugeben oder die freiwilligen Entscheidungen von Marktteilnehmern zu sanktionieren.
Wie kann man das fortspinnen? Immobilienmakler werden dazu verpflichtet, die Eigentumswohnungen im neu erstellten Wohnblock an alle Interessenten zum gleichen Preis zu verkaufen, unabhängig davon, wie gut der potentielle Käufer verhandelt. Autohändler müssen für gleich ausgestattete Autos allen Käufern das identische Angebot machen. Und wenn sie einem Käufer einen Rabatt einräumen, dann müssen sie denselben Nachlass allen anderen gewähren.
Und ist es denn überhaupt rechtens, dass eine Firma ein bestimmtes Produkt, das es baugleich auch von der Konkurrenz gibt, nur aufgrund des besseren Marketingkonzepts teurer anbieten und damit einen höheren Erlös erzielen kann? Darf überhaupt der Verkäufer Provision für seine höheren Verkaufserfolge bekommen, wo er doch das Produkt gar nicht selber herstellt und vielleicht nur deswegen mehr Produkte absetzt als seine Kollegen, weil er mit den Kunden besser verhandelt? – Absurd! Das ist Gleichmacherei auf Kosten des Individuums und gegen den Markt. Der Wettbewerb wird außer Kraft gesetzt. Und mit ihm a la longue auch das Leistungsprinzip.
Resümee
Urteile, wie das des Bundesarbeitsgerichts können nur dann entstehen, wenn das Denken der Protagonisten von planwirtschaftlichen Vorstellungen und behördenmäßigen Abläufen bestimmt wird. Offensichtlich ist das der Fall.
Im Ergebnis reden wir hier von Egalitarismus und damit von Sozialismus. Und der führt bekanntlich dazu, dass am Ende alle weniger haben. Und zwar alle gleich wenig! Vor Gericht gilt das dann sicherlich als gerecht.
In einer freien, vom Wettbewerb bestimmten Wirtschaft benötigt man solche juristische Gleichmacherei nicht. Der Wettbewerb selbst sorgt dafür, dass die gleiche Arbeit auch gleich entlohnt wird. Jedenfalls in der großen Perspektive.
Einmal im Monat präsentiert das ZDF die Ergebnisse von jeweils neuen repräsentativen Umfragen zur Einstellung der Deutschen hinsichtlich Parteien, Politikern und zur aktuellen politischen Lage: das sogenannte „Politbarometer“, mittlerweile ein stehender Begriff. In der Regel ist das Stimmungsbild laut Umfrage eine mehr oder weniger getreue Wiedergabe dessen, was man ohnehin Tag für Tag und Woche für Woche in der Fernsehberichterstattung an Themen und Meinungsbeiträgen vorgesetzt bekommt. Bei den Sachthemen gibt es daher nur selten Überraschungen.
Die Sympathischsten – sind sie auch die Besten?
Auf besonders Interesse stößt die Kategorie Politiker-Ranking. Das Politbarometer präsentiert diesbezüglich eine Rangfolge der 10 beliebtesten Politiker nach Sympathie und Leistung. Es ist nicht ganz klar, wie denn diese 10 Politiker von den vielen anderen ebenfalls prominenten und oft auch sehr wichtigen und einflussreichen politischen Akteuren unterschieden werden. Jedenfalls findet man auf der Internetseite des ZDF und des Partners „Forschungsgruppe Wahlen“ dazu wenig Aussagekräftiges. Abgesehen davon ist man immer wieder erstaunt, wer es hier auf die ersten Plätze schafft.
Über Jahre hinweg hatte Angela Merkel Platz 1 im Politbarometer gebucht. Auch da fragte man sich schon, wie das sein konnte, angesichts der zahllosen verbrieften Schwurbelsätze und der vernunftwidrigen Mischung aus Nichtstun und „Das Falsche tun“. Offenbar war es ihr gelungen, genau dieses Konzept zu ihrem Markenkern zu machen. Medial war sie damit ziemlich erfolgreich, wie das Politbarometer belegt. Vorne war stets die Marke „Angela Merkel“. Ihr Tun und Lassen konnten wenig an ihrer Beliebtheit ändern, auch wenn im Rückblick ihr politisches Wirken von den Medien sehr viel kritischer gesehen wird. So ist das: Gestern wurde sie hofiert und wider alle Vernunft mit einem Heiligenschein versehen, heute will’s keiner gewesen sein.
Wie dem auch sei, das ist nun alles Schnee von gestern. Nach dem Abtreten Merkels kämpft ein neues politisches Führungspersonal um die Spitzenplätze. Und es scheint so, dass die Rangfolge im Politbarometer eher noch weniger von Sachthemen und konkreten Leistungen und eher noch mehr von Sympathien und vorgefassten Meinungen bestimmt wird.
Wenn du geschwiegen hättest, Annalena
Es ist ein mittlerweile bekanntes Muster: Außenministerin Baerbock redet auf einer Veranstaltung und gibt irritierende Statements ab die alles Mögliche sind, nur nicht diplomatisch und schon gar nicht klug. Nur einige Beispiele: „Das wird Russland ruinieren“ (auf dem EU Außenministertreffen im Februar 2022); „Deutschland wird für immer auf russische Energie verzichten“ (Besuch in Kiew im Mai 2022); „Egal, was meine Wähler denken“ (EU Außenministertreffen im September 2022); „Waffenlieferungen helfen, Menschenleben zu retten“ (Interview in der FAZ im September 2022). Und nun also „Wir kämpfen einen Krieg gegen Russland und nicht gegeneinander“ (vor dem Europarat im Januar 2023).
Man wundert sich schon gar nicht mehr. Nicht über Baerbock, nicht über die Grünen, nicht über die Ampelregierung und auch nicht über Bundeskanzler Scholz, der das alles so laufen lässt. Das politische Personal ist seiner Aufgabe erkennbar nicht gewachsen. Baerbock, Habeck und die gottlob zurückgetretene Lambrecht sind nur die Spitze des Eisbergs. – Hat das Einfluss aufs Politbarometer?
Umfragen spiegeln nicht die Realität, sondern die Medienlandschaft
Wundern muss man sich allerdings schon über die Ergebnisse des ZDF-Politbarometers, die regelmäßig Baerbock, Habeck und Scholz auf den ersten Plätzen sehen. Sie sind nach Meinung des Publikums also besonders sympathisch und bringen die beste Leistung. Na ja, Sympathie kann man in Umfragen sicher leicht messen, es ist aber nicht wirklich eine relevante politische Kategorie für das Land. Aber die beste Leistung? – Da reibt man sich ungläubig die Augen.
Entweder die Umfrageergebnisse sind manipuliert – was ich dem ZDF nicht unterstellen möchte – oder den Befragten fehlt es an Urteilskraft. Vielleicht sind sie auch nur falsch informiert oder glauben der oberflächlichen Berichterstattung in den Medien und gehen den vielen regierungsfreundlichen bzw. den Grünen äußerst wohlgesonnenen medialen Meinungsbeiträgen auf den Leim. Jedenfalls zeugt die Rangfolge des ZDF-Politbarometers kaum von einer kritischen Haltung der Regierung und den führenden Politikern gegenüber.
Man könnte es auch so formulieren: Der Wähler bekommt das, was er gewählt hat und verspürt offenbar wenig Lust, sich darüber zu beklagen. Es bringt ihm ja auch nichts, weil er die Malaise selbst verursacht hat.
Schlechte Leistungen schützen nicht vor guten Umfragewerten
Was genau wäre denn angesichts der obigen Latte von Fehltritten der Außenministerin eine noch schlechtere Leistung, die sie aus dem Politbarometer kicken könnte? Von Wirtschaftsminister Habeck, der nicht weiß, was eine Insolvenz ist und den sein Amt sichtlich überfordert, ganz zu schweigen. Und der über allem thronende Nichtentscheider Scholz, was könnte er tun, um weniger hervorzutreten.
Da fällt einem nichts ein. Alle drei performen stabil auf einem Leistungsminimum. Wie kann man sie also von der Spitze verdrängen? Am einfachsten ist es wohl bei Scholz. Er ist ja schon beinahe unsichtbar, wenn man nun noch sein Namen konsequent nicht mehr nennt, ihn praktisch totschweigt, so wird er binnen 14 Tagen völlig in Vergessenheit geraten. Er ist dann raus aus dem Politbarometer.
Schwieriger ist es bei Habeck und Baerbock. Muss Habeck eventuell die Energie weiter verknappen, indem er einen Gasspeicher leerlaufen lässt oder einen Flüssiggastanker versenkt? Ach, das wird nicht helfen. Am Ende rechnet man ihm das noch als Maßnahme zum Klimaschutz an.
Und Baerbock? Was, wenn sie China den Krieg erklärt und das Land der Mitte zu ruinieren droht, das dann aber dazu führt, dass wir keine Smartphones mehr bekommen und die Exporte einbrechen? Oder, wenn sie erläutert, dass feministische Außenpolitik vor allem meint, immer eine Kosmetiktasche dabei zu haben. Aber nein, das wird nichts ändern. Die vorderen Plätze im Politbarometer stehen über derlei kleinlichen Urteilen. Man wird dann sagen, sie sei falsch verstanden worden. Natürlich sei Kosmetik nur Camouflage, darunter aber stecke der Feminismus den man von außen, also außenpolitisch betrachtet, nicht sehe. Und genau diese inneren Werte seien es, für die Baerbock als Außenministerin stehe.
Sympathie ist wichtiger als fachliches Können und rhetorische Brillanz
Es erscheint kaum möglich, Habeck und Baerbock in der Wählergunst abrutschen zu lassen, jedenfalls nicht auf der Basis objektiv messbarer Kriterien. Das Hinterfragen der Leistung geht offensichtlich ins Leere. Versuchen wir‘s also mit der Sympathie, also damit, die beiden weniger sympathisch erscheinen zu lassen. Baerbock könnte sich einen Oberlippenbart tätowieren lassen, die Haare kurz schneiden und sie grün färben. Dazu vielleicht noch einen Nasenring und ein Panzer-Tattoo auf der linken Wange. Auch Blackfacing könnte helfen. Oder sie geht im Karneval als Indianer-Squaw. Ansonsten ist Mode ganz wichtig, dann also her mit dem lottrig sitzenden Blaumann und den Springerstiefeln. Ergänzend müsste sie dann noch klar zum Ausdruck bringen, dass ihr die Gendersprache absolut auf den Keks geht und sie privat auf Machos steht. Das alles könnte sie bei gleichbleibender Nicht-Leistung zwei, drei oder gar vier Plätze im Politbarometer kosten. Vor Wagenknecht und Weidel bliebe sie aber immer noch mit deutlichem Abstand.
Und bei Habeck, wie kriegen wir ihn vom ersten Platz runter? Vielleicht so: glatt rasiert, Nickelbrille mit Goldrand, viel Gel in den Haaren, natürlich Seitenscheitel, weißes Hemd mit Krawatte, schwarzer Anzug und unterm Sakko ein Gilet. Die schwarze Aktentasche in der Hand nicht zu vergessen. Und dann müsste er natürlich noch sagen, dass die Energiewende sowieso nicht funktioniert, weil die atomaren Backup-Kraftwerke und die Speicher fehlen und dass er im Übrigen ein deutscher Patriot und heimlicher Fan von Franz-Josef Strauß sei.
Ja, das könnte wirken, Habeck fällt zurück auf Platz 4 (vor allem wegen seiner Sympathien für Strauß und weil man von einem perfekt gescheitelten Minister auch gescheite Sätze erwartet), knapp vor Baerbock auf Platz 5. Der Hauptgrund ist hier der schlechtsitzende Blaumann, denn auf das, was sie sagt, hört man ohnehin nicht. Es ist sozusagen „egal“, weil es ja regelmäßig nicht so gemeint war, wie es gesagt wurde.
Wer gehört auf die Spitzenplätze im Politbarometer?
Wer füllt nun aber die Lücken auf den Plätzen 1, 2 und 3 des Politbarometers. Karl Lauterbach oder Nancy Faeser. – Um Gottes willen, da wird’s mit der Leistung auch ganz schwierig. Und mit der Sympathie erst recht. Könnten denn wenigstens Christian Lindner, Markus Söder oder Friedrich Merz in die Bresche springen? Von der Papierform her eventuell schon, das nützt aber nichts, wenn in der Praxis die Leistung nicht rüber kommt.
Bleiben als Kandidaten tatsächlich nur noch Sahra Wagenknecht und Alice Weidel. Beide scharfsinnig, fachlich versiert und oft auch rhetorisch brillant (und das muss man konstatieren unabhängig davon, ob man ihrer jeweiligen politischen Verortung nahesteht oder nicht): Frauenpower, die sich auf die kritische Vernunft stützt und das in der Realität Erreichbare in den Blick nimmt. Das wäre ein rationaler Feminismus, der nicht ansatzweise in den Verdacht geriete, als Camouflage für nicht vorhandene Inhalte herhalten zu müssen. – Die können’s aber nicht werden, weil sie in den falschen Parteien sind. Und welches die richtigen Parteien sind, das entscheiden die Medien und die notorisch sich über jede Petitesse echauffierenden „woken“ Neosozialisten von der links-illiberalen Einheitsfront.
Das Ziel der Umfrage bestimmt ihr Ergebnis
Vielleicht sollte man generell die Frage des Politbarometers variieren oder sogar umdrehen. Also nicht, welcher Politiker ist besonders sympathisch und bringt die beste Leistung, sondern, welcher Politiker ist seinem Amt am wenigsten gewachsen und daher eine ärgerliche Fehlbesetzung? Es wäre den Versuch wert, die Frage des ZDF-Politbarometers entsprechend abzuwandeln und somit konkret nach dem unbeliebtesten und leistungsschwächsten Politiker zu fragen. In einer solchen Umfrage hätten Habeck und Baerbock sicher ebenfalls gute Chancen auf die vorderen Plätze. Und die hätten sie in diesem Falle auch verdient.
Warum kann man davon ausgehen, dass die „Spitzenplätze“ auch in diesem Fall an Habeck und Baerbock gehen würden? Ganz einfach, wenn man nach Politikern fragt, dann fallen einem natürlich die Bekanntesten und am stärksten für Polarisierung Sorgenden zu allererst ein. Es ist nicht so entscheidend, ob man dabei die Frage mit einem positiven oder einem negativen Attribut oder Werturteil verknüpft. Und wie wir oben gesehen haben, spielt die objektiv messbare Leistung – deren Bewertung eine tiefergehende Auseinandersetzung mit der Fragestellung erfordern würde – im Allgemeinen eher eine untergeordnete Rolle.
Der Wähler bekommt die Politiker, die er verdient
Wie oben schon erwähnt, wurden die zu beurteilenden Politiker demokratisch gewählt. Der Wähler hat sich also direkt oder indirekt – im Allgemeinen eher Letzteres – für sie entschieden. Sie sind gewissermaßen sein Produkt. Nun sind sie also da und liefern das, was die mediale Öffentlichkeit vor allen anderen Dingen erwartet: Moralismus, Symbole, Haltung und Werte. Umgekehrt sind die Wähler (bzw. das Denken der Wähler) das Produkt der Politik und der Medien. Es ist eine Beziehung auf Gegenseitigkeit. Wähler und heutiger Politikertypus bedingen einander. Bei keiner Partei ist das offensichtlicher als bei den Grünen (s. Es grünt so grün). Zugleich sind die Grünen die Haupttreiber dieser Entwicklung weg von der Sachpolitik und hin zur Haltungspolitik.
Die Politik und fast die komplette Medienlandschaft haben sich der Kraft der Emotionen verschrieben und betreiben solchermaßen eine Infantilisierung der Gesellschaft. Dazu gehört zu vor allem die Moralisierung jeglicher Sachfragen. Immer häufiger geht es darum, Zeichen zu setzen, Haltung zu zeigen, für Werte einzutreten. Die auf pragmatische Lösungen fokussierte, ziel- und vernunftorientierte Realpolitik steht nicht hoch im Kurs.
Die Medien, und damit untrennbar verbunden, die Wähler, goutieren richtiges, und das heißt fast immer moralisches, besser gesagt, moralisierendes Politikerverhalten, und sie ereifern sich über die bloß strikt am Primat der Vernunft orientierten Entscheidungen. Letztere werden gar nicht erst rational beurteilt, man zerrt sie vielmehr auf die Ebene der Moral, genauer, der Scheinmoral, und delegitimiert sie damit.
Die simple Regel ist: Alles, was sich gegen den moralisierenden Zeitgeist richtet, nennt man undemokratisch, auch wenn die zugrundeliegende Handlung im konkreten Fall mit Demokratie im engeren Sinne nichts zu tun hat. Wenn das als Verdikt noch nicht genügt, dann werden, je nach Sachbezug, auch stärkere Geschütze aufgefahren: rassistisch, rechts, faschistisch, neoliberal, frauenfeindlich, homophob,und was der Adjektive mehr sind.
Von extremen Ausnahmen absoluter Ungeeignetheit für das Amt einmal abgesehen (wie z.B. im Falle Lambrechts), spielt daher die objektive, an den Inhalten gemessene Leistung eines Politikers im Allgemeinen eher eine untergeordnete Rolle. Und deswegen ist die Rangliste der Politiker nach Leistung und Sympathie so, wie sie uns im Politbarometer monatlich vorgesetzt wird.
Wenn es nicht egal ist, was ist es dann? Töricht? Fahrlässig? Unbedacht? Hat sich Baerbock hier eine schlimme Entgleisung geleistet? Oder ist alles nur Desinformation?
Wir werden sehen.
Jedenfalls kann man an diesem Beispiel sehr gut nachvollziehen, wie professionelle Tatsachenverdrehung und Desinformation gepaart mit Meinungsmanipulation ganz subtil funktionieren.
Was ist geschehen? – Baerbocks entscheidende Sätze
Da äußert die deutsche Außenministerin Baerbock auf einem Treffen in Prag vor internationalem Publikum folgende Sätze (Übersetzung aus dem Englischen von Telepolis):
„Aber wenn ich den Menschen in der Ukraine zugleich das Versprechen gegeben habe: Wir stehen an eurer Seite, solange ihr uns braucht – dann möchte ich es einlösen, egal, was meine deutschen Wähler denken.„
„Wir werden an der Seite der Ukraine stehen, und das bedeutet, dass die Sanktionen auch im Winter bestehen bleiben, auch wenn es für die Politiker sehr hart wird.„
„Wir müssen in ganz Europa eine gute Lösung finden, um die sozialen Auswirkungen auszugleichen …„
„Wir müssen die Antworten geben: Wir sind mit jedem in unserem Land solidarisch, so wie wir mit jedem in der Ukraine solidarisch sind.„
Die Reaktion auf Baerbocks Aussagen
Hohe Wellen schlägt insbesondere der Halbsatz „egal, was meine deutschen Wähler denken„. Er lässt für viele nur die Interpretation zu, die Menschen in der Ukraine seien Baerbock wichtiger als die deutschen Bürger. Oder, sie pfeife auf die Meinung der Wähler.
Die erste Verfälschung und vermeintliche Desinformation
Über Twitter wurde die folgende Version verbreitet: I will put Ukraine first „no matter what my German voters think„ or how hard their life gets. Daneben wurde das Video vom Auftreten Bearbocks so geschnitten, dass die kompromittierenden Aussagen nacheinander zu hören waren.
Der wörtlich gefallene Halbsatz steht in Anführungszeichen. Der Vorspann dazu beschreibt den Kontext im Hinblick auf die Unterstützung der Ukraine. Dieses „Ukraine first“ hat Baerbock so zwar nicht wörtlich gesagt, es ist aber keinesfalls grob sinnentstellend wiedergegeben, wie man den obigen Zitaten entnehmen kann. Es ist eine rhetorische Zuspitzung.
Und was bedeutet das?
Durch die Wendung „egal, was meine deutschen Wähler denken“ wird zweierlei zum Ausdruck gebracht: Erstens wird damit betont, ich bleibe dabei (also bei der Unterstützungszusage für die Ukraine), auch wenn meine deutschen Wähler, und damit alle Wähler und somit letztlich die Menschen in Deutschland anderer Meinung sind. Die Unterstützungszusage ist offenbar dem Urteil des Wählers übergeordnet. Die Kaskade gilt deswegen, weil Baerbock als Amtsträgerin spricht, nicht als Parteipolitikerin. Das ist der gutartige Teil, weil er für die Festigkeit des politischen Urteils steht.
Zum Zweiten bedeutet dies aber auch, dass die Empfänger der Unterstützungsleistung in irgendeiner Weise einen höheren Stellenwert genießen. Wäre er gleich oder niedriger, so würde man die Wähler überhaupt nicht erwähnen oder z.B. formulieren: „bin mir sicher, meine deutschen Wähler sehen das auch so“ bzw. „vorausgesetzt, meine deutschen Wähler sehen das auch so„.
Die Priorität (Ukraine first) wird somit ganz klar zum Ausdruck gebracht. Da hilft es auch nicht, wenn Baerbock zum Schluss ihres Statements deutschen Mitbürgern die gleiche Solidarität wie Ukrainern zusichert. Auch diese Aussage verdreht in grotesker Weise die Prioritätenreihenfolge. Auf Basis ihres Ministereids hat sie von Amts wegen zu allererst für deutsche Bürger Sorge zu tragen. Da gibt es keinen Spielraum.
Worin liegt Baerbocks Fehler?
Selbstredend ist es Frau Baerbock unbenommen, der Ukraine Unterstützung zuzusichern. Das ist eine politische Entscheidung, die man zwar mit dem aus ihrer Aussage sprechenden Absolutheitsanspruch nicht teilen muss, aber darum geht es hier nicht. Der entscheidende Punkt ist die von Baerbock unnötigerweise hergestellte Beziehung zwischen dem Willen deutscher Wähler und den Interessen der Ukrainer in Verbindung mit dem von ihr ausgesprochenen Primat der Ukraine.
Wir haben eine repräsentative Demokratie und in einer solchen sind gewählte Politiker zwischen den Wahlen im strengen Sinne nur ihrem Gewissen verantwortlich. Jedenfalls sind Volksabstimmungen über derartige Fragestellungen nicht vorgesehen. Formal darf sich Baerbock daher sogar über das Befinden der Wähler hinwegsetzen, sofern sie das politisch für richtig hält. Das ist aber ersichtlich etwas anderes, als den Wählerwillen offen als irrelevant abzutun.
In dieser krassen Form ist das ist eine beispiellose Respektlosigkeit gegenüber dem demokratischen Souverän. Ein solches Denken ist im Kern undemokratisch. Sie schadet damit der Demokratie und im Übrigen auch der Akzeptanz der von ihr verfolgen Politik.
Die zweite Verfälschung
Der über soziale Medien verbreitete Zusatz „(no matter) how hard their life gets“ ist verfälscht und in dieser Form nicht gefallen. Wie oben zitiert, hat sie dabei darauf abgehoben, dass die Sanktionen bestehen bleiben, „auch wenn es für die Politiker sehr hart wird„. Das ist natürlich etwas anderes als die Aussage, „auch wenn es für die Menschen sehr hart wird„.
In diesem Fall kann man schon von einer Verfälschung sprechen. Man muss sich aber dennoch fragen: Wird dadurch die Kernbotschaft „egal, was meine deutschen Wähler denken“ signifikant verändert? Ich meine, nein. Sie wird unterstrichen und graduell schärfer, aber nicht in ihrer Grundaussage verändert.
Das ist also der Vorgang. Worin liegt nun die Desinformation?
Zunächst gibt der Tweet Baerbock im strengen Sinne fraglos verfälscht wieder, weil der Zusatz so nicht wörtlich gefallen ist. Das ist aber nicht der entscheidende Punkt, weil aus dem Kontext heraus die Rede eindeutig in diese Richtung geht. Das kulminiert in der unbestreitbar korrekt zitierten Kernaussage „(will die Ukraine unterstützen), egal, was meine deutschen Wähler denken“ und wird gestützt durch die weiteren Sätze:
1. Die „Sanktionen (bleiben) auch im Winter bestehen (…), auch wenn es für die Politiker sehr hart wird“ (was ja nichts anderes heißt als, auch wenn die Menschen dagegen aufbegehren).
2. „Wir sind mit jedem in unserem Land solidarisch, so wie wir mit jedem in der Ukraine solidarisch sind.“ (wozu schon oben angemerkt wurde, dass dies die Verpflichtung Baerbocks als einer deutschen Amtsträgerin auf den Kopf stellt).
Mein Resümee: Im Wesentlichen handelt es sich um keine Desinformation, sondern um pointierte Zuspitzungen, die aber den Sinn des Gesagten nicht grob verfälschen.
Dennoch gibt es bei diesem Vorgang auch eine Desinformation. Sie kommt fataler Weise vom Außenministerium selbst.
Die Stellungnahme des Auswärtigen Amtes
Vom Sprecher des Auswärtigen Amtes, Peter Ptassek, wurde folgende Stellungnahme verbreitet:
„Der Klassiker: Sinnenstellend zusammengeschnittenes Video, geboostert von prorussischen Accounts und schon ist das Cyber-Instant-Gericht fertig, Desinformation von der Stange. Ob wir uns so billig spalten lassen? Glaube ich nicht.“
Ein Ablenkungsmanöver
Das Auswärtige Amt macht aus dem Vorgang also kurzerhand eine prorussische Desinformation und will die Sache damit ad acta legen. Nach dem Motto, bloß keine Wellen schlagen, die Sache einfach als Falschmeldung oder eben als gezielte Desinformation darstellen. Angesichts der unbestreitbaren Fakten entlarvt sich dieser Ansatz indessen von selbst als billiges Ablenkungsmanöver.
Das verbreitete Video ist verändert, aber nicht grob sinnentstellend verfälscht. Frau Baerbock hat die Ursache gesetzt, das kann man nicht wegdiskutieren. Auch nicht mit dem Hinweis auf eine eventuelle oder vielleicht erwiesene Beteiligung der russischen Propaganda.
Desinformation kommt mitunter von der „falschen“ Seite
Der oder die Verbreiter der Botschaft haben ohne Zweifel dafür gesorgt, dass Baerbocks Aussagen schnell und wirksam über die sozialen Medien gestreut wurden. Ansonsten wären die Äußerungen vielleicht sogar untergegangen. Der resultierende „Flächenbrand“ an öffentlicher Erregung wäre ohne den propagandistischen Brandbeschleuniger vielleicht gar nicht entstanden. Das ändert aber nach wie vor nichts an den Fakten. Es wäre fatal, wenn wir dazu übergingen, Tatsachen gewissermaßen automatisch zu ignorieren, wenn wir über uns nicht genehme Quellen darüber erfahren.
Deswegen liegt die eigentliche und für die Demokratie gefährliche Desinformation in dieser Sache meiner Meinung nach auf Seiten des Außenministeriums. Richtig wäre es gewesen, dem Fehler mit einer Entschuldigung und Berichtigung betreffend der Wortwahl die Spitze zu nehmen.
Zusammenfassung
Man kann es drehen und wenden wie man will, der Halbsatz: „egal, was meine deutschen Wähler denken“ ist genau so gefallen und lässt nur die Interpretation zu, die Menschen in der Ukraine seien ihr wichtiger als die deutschen Bürger. Da hilft es auch nicht, wenn sie zum Schluss ihres Statements deutschen Mitbürgern die gleiche Solidarität wie Ukrainern zusichert. Auch diese Aussage verdreht in grotesker Weise die Prioritätenreihenfolge. Auf Basis ihres Ministereids hat sie von Amts wegen zu allererst für deutsche Bürger Sorge zu tragen.
Nein, das alles kann man nun nicht mehr lapidar als Flapsigkeit oder als unkluge Äußerung beiseite wischen. Unklug ist es gewiss (wie leider nicht wenige ihrer Statements zuvor), es damit geschwind abzutun und einfach zur Tagesordnung überzugehen wäre aber verfehlt. Der Hinweis des Auswärtigen Amtes auf eine angebliche prorussische Desinformation entlarvt sich dabei von selbst als billiges Ablenkungsmanöver. Frau Baerbock hat die Ursache gesetzt, das kann man nicht wegdiskutieren.
Bewertung
Es ist keine Petitesse, sich derart respektlos über das Denken und Befinden der Menschen hinwegzusetzen. Als Repräsentantin des Staates schuldet Baerbock zu allererst dem demokratischen Souverän, also dem deutschen Volke, Verantwortung und Respekt. Beides lässt sie hier vermissen. Das macht fassungslos! Unabhängig von ihren politischen Überzeugungen über Richtig und Falsch im Hinblick auf die Ukraine schadet sie damit der Demokratie.
Entweder hat Frau Baerbock ihre Worte nicht im Griff und redet einfach nur gedankenlos dahin, dann wäre ihre Wortwahl nur töricht zu nennen. – Was überhaupt könnte für einen Diplomaten disqualifizierender sein?
Oder sie meint tatsächlich, was sie sagt, dann stellt sie damit die Interessen der Ukraine über die Interessen deutscher Bürger.
Gleich wie es sich verhält, beides ist inakzeptabel. Baerbock erweist sich einmal mehr als für ihr Ministeramt ungeeignet.
Dieses Resümee müsste man im Übrigen auch dann ziehen, wenn es sich um einen Herrn Baerbock aus der FDP oder der CDU handelte.
Das hochkomplexe Verhalten von Tieren in großen Gruppen versetzt den aufmerksamen Beobachter immer wieder in Erstaunen. Im Spätsommer gewahrt der Blick in den Himmel Schwärme von Zugvögeln, die, scheinbar wie auf ein Kommando, in rascher Folge die Richtung wechseln und dabei auch schwierige Flugmanöver ganz ohne Kollisionen meistern. Gelegentlich lässt sich ein Schwarm, als hätten alle Vögel gemeinsam genau dieses Ziel lange schon untereinander „abgestimmt“, zum Zwischenstopp auf einer elektrischen Überlandleitung nieder, nur um nach einer geschwätzigen Ruhepause alle zugleich munter zum Flug anzuheben und ebenso gewandt wie verlässlich die ursprüngliche Schwarmformation wieder einzunehmen.
Auf äußere Einflüsse, z.B. die Anwesenheit von Fressfeinden, reagiert die Formation als Ganzes, scheinbar als koordinierte Einheit. Gerade so, als gäbe es einen Plan des Schwarms, wie mit derlei Störungen umzugehen sei. Aus Sicht des Beobachters gehen die Einzelindividuen im Schwarm auf und verleihen ihm so quasi wesenhafte Existenz.
„Intelligente“ Fischschwärme
Noch eindrucksvoller, ist das Verhalten von Fischschwärmen: Blitzartige Bewegungen von tausenden Fischen auf engstem Raum lassen den Eindruck entstehen, es handele sich um ein einziges riesiges Individuum. Beim Angriff von Räubern zeigen Fischschwärme vielfach sehr komplexes Verhalten. Manche Arten teilen den Schwarm und bieten dem Angreifer so zwei divergierende Ziele, zwischen denen er sich entscheiden muss. Andere strömen plötzlich mit hoher Geschwindigkeit auseinander und lassen den Schwarm quasi explodieren: Der Angreifer stößt ins Leere. Nochmals andere vollziehen augenblicklich rasche Ausweichmanöver und bringen sich, zur Desorientierung des Angreifers, hinter denselben.
So verschieden die Strategien auch sein mögen, allen Arten gemein ist ein dem Wohle der Gesamtheit der Individuen (des Schwarms) höchst zweckdienliches Verhalten. Der einzelne Schwarmfisch verhält sich offenbar so, dass nicht nur er selbst, sondern dass die Gemeinschaft aller Individuen möglichst wenig gefährdet wird.
Schwarmverhalten bei Säugetieren
Auch manche Säugetierarten zeigen Schwarmverhalten: Wölfe organisieren sich in Rudeln und steigern so ihre Erfolgschancen bei der Jagd. Ein gleiches beobachtet man bei Löwen, die ebenfalls in der Gruppe jagen. Ihre potenziellen Opfer wiederum, z.B. Antilopen oder Gazellen, leben zusammen in Herden und zeigen beim Angriff ihrer Feinde ein abgestimmtes Fluchtverhalten, das dem Löwenrudel die Trennung eines einzelnen Tiers von der Herde erschwert und damit die Überlebenswahrscheinlichkeit der Einzelindividuen erhöht.
Schwarmintelligenz bei Bienen
Die bemerkenswertesten Beispiele von Schwarmintelligenz finden sich bei einer Reihe von Insektenarten, z.B. bei Ameisen oder Bienen. Das vielgestaltige Sozialverhalten von Bienenvölkern mit einigen zehntausend Individuen ist ein Musterbeispiel für Schwarmintelligenz. Die Nahrungssuche, die Brutpflege, die Verteidigung des Bienenstocks werden zum Wohle des ganzen Volkes arbeitsteilig organisiert. Es verwundert, dass dies alles ganz ohne eine koordinierende Instanz möglich ist.
Mittels ausgefeilter Bewegungsmuster tauschen die Bienen untereinander Informationen aus: So dient der bekannte Schwänzeltanz zum Anzeigen von neuen Futterquellen. Andere Ausdrucksmöglichkeiten erlauben ihnen die Verständigung hinsichtlich der Erledigung einer Reihe von weiteren für den Stock wichtigen Aufgaben.
Die einzelne Biene kann man kaum als intelligent bezeichnen. Und doch entsteht durch das einigen wenigen einfachen Regeln gehorchende geordnete Zusammenwirken ein komplexes Gesamtgebilde hoher Effektivität. In dieser Hinsicht unübertroffen erscheinen Ameisenstaaten mit bis zu mehreren Millionen Individuen. Sie faszinieren in ihren perfekt durchorganisierten, hochkomplexen Abläufen.
Der Ameisenstaat als Ausdruck von Schwarmintelligenz
Im Ameisenstaat erledigen Gruppen von Individuen unterschiedliche Aufgaben: Die Nahrungssuche, der Transport von Nahrung oder Baumaterial, die Wegesicherung, der Nestbau oder die Brutpflege, und vieles andere mehr. Dabei ist jeweils eine gewisse Anzahl von Arbeiterinnen auf bestimmte Tätigkeiten spezialisiert. Ändern sich die Umgebungsbedingungen, dann passt sich der Staat darauf sehr schnell und zielgerichtet darauf an. Werden aufgrund von zerstörenden äußeren Einwirkungen z.B. mehr Individuen für die Nestpflege (den „Wiederaufbau“) benötigt, so stellt ein gewisser Anteil von Ameisen die bisherige Tätigkeit ein und widmet sich den vorrangig wichtigen Reparaturarbeiten am Bau. Auch dies ohne Zutun einer Managementinstanz.
Was ist Schwarmintelligenz?
Zusammenfassend betrachtet ist genau dies das hervorstechende Merkmal des Phänomens Schwarmintelligenz: Die Dinge geschehen ohne zentrale Koordination und dennoch zielgerichtet und wirkungsvoll. Das führt uns unmittelbar zur Frage, auf Basis welch anderer Mechanismen die durchaus vielschichtigen Aufgaben mit solch hoher Effizienz bewältigt werden können?
Wie entsteht Schwarmintelligenz?
Schwarmindividuen, wie wir sie in der Natur beobachten, sind meist recht einfach, wenig intelligent und alleine nicht in der Lage, komplexe Aufgaben zu bewältigen. Trotzdem gelingt es ihnen durch das Zusammenwirken im Schwarm, auch schwierige Herausforderungen zu meistern. Wir haben oben einige Beispiele dazu gesehen. Die Regeln zum Beschreiben von komplexem Schwarmverhalten sind überraschend einfach. Am Beispiel von Fischschwärmen sei dies kurz erläutert. Nach {Reynolds] sind hier im Wesentlichen nur drei Prinzipien bestimmend:
– Einhaltung eines bestimmten Abstands zum Nachbarn (Separation)
– Bewegung in die durchschnittliche Richtung der Nachbarn (Alignment)
– Anstreben der durchschnittlichen Position der Nachbarn (Cohesion)
Die zugrundeliegenden Regelmechanismen sind nach Struktur und Abhängigkeit für die unterschiedlichen Arten höchst verschieden. Fast immer aber lässt sich zeigen, dass das Gesamtverhalten des Schwarms letztlich auf die individuelle und lediglich lokalen Einflüssen unterliegende Befolgung von wenigen Grundsätzen zurückgeführt werden kann.
Die Wirkung der drei Grundprinzipien am Beispiel des Ameisenstaats
Ameisen z.B. hinterlassen bei der Suche nach Nahrungsquellen Duftspuren (sogenannte Pheromone). Natürlich verflüchtigen sich diese Spuren im Laufe der Zeit. „Je öfter aber eine oder mehrere Ameisen innerhalb eines kurzen Zeitraums auf demselben Weg gehen, umso intensiver ist diese Markierung. Dies führt dazu, dass immer mehr Ameisen diesen Weg benutzen, dabei erneut Pheromone hinterlassen und weitere Nahrung in den Bau transportieren, bis die Quelle erschöpft ist. Ein kurzer Weg zu einer guten Nahrungsquelle wird also bevorzugt, da die Pheromonspur hier besonders intensiv ist.
Für einen großen Ameisenstaat ist das eine sehr effiziente Methode, die ohne Intervention und Management einer einzelnen höheren Instanz auskommt und nur auf lokalen Informationen basiert. Eine einzelne Ameise muss keinen Überblick über alle Vorgänge im Staat haben, um zu entscheiden, an welchem Ort sie nach Nahrung suchen soll. Sie trifft diese Entscheidung allein auf Grundlage der Pheromonspur und dadurch mittels Kommunikation mit anderen Ameisen.“ (zitiert nach Pintscher 2008).
Menschenmengen als Schwärme
Auch große Menschenmengen zeigen unter bestimmten Bedingungen schwarmähnliches Verhalten. Das kann man z.B. beobachten bei Strömen von Fußgängern. In Paniksituationen verhalten sich Menschen weniger wie Einzelwesen, die individuell aufgrund genauer Situationsanalyse zu rationalen Entscheidungen kommen, als vielmehr wie Teile eines großen Ganzen, ähnlich eines gesamthaft agierenden Schwarms. Gegenwärtig sind viele Fragestellungen hierzu noch Gegenstand der Forschung.
Zusammenfassung der Beobachtungen
Das, was der Beobachter als komplexes Verhalten des Schwarms wahrnimmt, lässt sich in Summe verstehen als die Einhaltung von einigen grundlegenden, einfachen Prinzipien durch die Einzelwesen. Wobei eines hinzukommt: Der Schwarm als Ganzes zeigt auf der Makroebene Eigenschaften und Strukturen, die es rechtfertigen, ihn als emergentes System aufzufassen. Das aufgrund lokaler Informationen geregelte Verhalten der Gruppenmitglieder ermöglicht es so der Gesamtheit, Aufgaben zu lösen, die das Vermögen der einzelnen Individuen bei weitem übersteigen. Wir können also in aller Kürze resümieren: Schwarmintelligenz entsteht durch das komplexe und spezifischen Regeln unterliegende Zusammenwirken einer großen Anzahl von Individuen.
Gibt es Schwarmintelligenz beim Menschen?
Nach dem obigen können wir können wir die wesentliche Erkenntnis folgendermaßen formulieren:
Schwarmintelligenz entsteht dann, wenn wenig intelligente („dumme“) Individuen auf Basis simpler Regeln im Hinblick auf ein übergreifendes, die Einsichtsfähigkeit der Schwarmindividuen übersteigendes Ziel im Sinne der Gemeinschaft („Schwarm“) geeignet zusammenwirken.
Schwarmintelligenz beim Menschen – die gibt es nicht. Oder, etwas weniger apodiktisch formuliert, die gibt es nur äußerst selten. Sehr viel häufiger aber trifft man auf deren Gegenteil, die Schwarmdummheit. Noch etwas pointierter: Der einzelne Mensch ist intelligent, die Masse ist strohdoof – und dafür gibt es viele Beispiele. Man denke z.B. an irrationale Hamsterkäufe oder an das Verhalten großer Menschenmengen bei Panik.
Das ist also der springende Punkt: Schwarminteilligenz beim Menchen gibt es deswegen nicht, weil der Mensch schon als individuum intelligent ist.
Fraglos kann ein Team grundsätzlich mehr leisten als ein Individuum, das aber liegt vor allem am Skalierungseffekt und an der Koordination der Zusammenarbeit. Das ist keine Schwarmintelligenz, weil das entscheidende Plus an Arbeitsmenge und höherer Komplexität erst durch das Wirken einer koordinierenden Managementinstanz ermöglicht wird. Das konstruktive Zusammenwirken entsteht nicht quasi von selbst, sondern ist das Ergebnis von Steuerung und Kontrolle.
Schwarmdummheit
Wenn intelligente Wesen konstruktiv zusammenwirken, entsteht das, was intelligente Wesen bewirken können, nicht weniger, aber auch nicht mehr. Es entsteht eine neue Qualität im Hinblick auf die Komplexität und die Menge des Erreichbaren. Es gelingt so aber nicht, ein höheres Intelligenzniveau zu erklimmen.
Übertragen auf den Menschen würde das bedeuten, dass beim Zusammenwirken von Dummköpfen, oder dann, wenn jeder einzelne seine Urteilsfähigkeit hintanstellt, Schwarmintelligenz entstehen könnte. Sofern man den Intelligenzbegriff etwas weiter fasst, ist das tatsächlich der Fall. Manipulierte Massen können Dinge bewirken, die über das Vermögen intelligenter Individuen weit hinaus gehen.
Tausend Intelligente sind so intelligent wie der intelligenteste unter ihnen. Tausend Dummköpfe können die Welt zerstören.
Quellen:
[Bonabeau 1999]: Bonabeau, E./Dorigo, M./Theraulaz, G.: Swarm Intelligence: From Natural to Articial Systems. New York u. a.: Oxford University Press, 1999.
[Dorigo 1996]: Dorigo, M./Maniezzo, V./Colorni, A.: The ant system: Optimization by a colony of coo[1]perating agents. In: IEEE Transactions on Systems, Man, and Cybernetics Part B, Cyber[1]netics 26 (1996), S. 29-41.
[Partridge 1981]: Partridge, B.L.: Internal dynamics and the interrelations of fish in schools. In: Journal of Comparative Physiology 114 (1981), S. 313-325.
[Reynolds 1987]: Reynolds, C.W.: Flocks, herds, and schools: A distributed behavioral model. ACM. In: Computer Graphics 21 (1987), S. 25-34.
In 2021 wurden in Deutschland ca. 150 Millionen Impfungen mit einem Corona-Impfstoff verabreicht. Insgesamt haben sich über 61 Mio. Personen impfen lassen. Die genauen Zahlen zu den Erst-, Zweit- und Drittimpfungen können Abb. 1 entnommen werden.
Ohne diese Impfungen hätte es wohl eine höhere Zahl von Corona-Todesfällen gegeben, vor allem bei den Älteren (s. [14]). Wo Licht ist, da ist aber auch Schatten: Laut Sicherheitsbericht des Paul-Ehrlich-Instituts (PEI, s. [1]) wurden im Zuge der Impfungen seit Beginn der Impfkampagne Ende 2020 insgesamt 244.576 Verdachtsfälle von Nebenwirkungen und Impfkomplikationen gemeldet (s. Abb. 2).
Viele dieser Meldungen beziehen sich auf letzten Endes vorübergehende Beeinträchtigungen. Betreffend der Dunkelziffer zu den nicht gemeldeten unmittelbaren Nebenwirkungen der Impfung weiß man natürlich nichts. Man kann aber davon ausgehen, dass leichtere Fälle wohl kaum Eingang in die offizielle Statistik finden.
In Summe kann man das abtun als statistische Pflichtübung: Was ist schon dabei, wenn die Einstichstelle für 1 oder 2 Tage schmerzt? Oder wenn man vorübergehend Kopfschmerzen hat? Tatsächlich reden wir hier In den meisten Fällen von temporären Beeinträchtigungen. In etwa 50 % der Fälle waren die Patienten wiederhergestellt oder ihr Allgemeinzustand war verbessert. Ganz so banal ist das dennoch nicht. Bei einem weiteren Drittel der Verdachtsfälle waren die Beeinträchtigungen zum Zeitpunkt der Meldung noch nicht abgeklungen. Und in immerhin 3 % der Fälle geht man von bleibenden Schäden aus.
Abbildung 2: Ausgang der gemeldeten unerwünschten Reaktionen nach Impfung mit einem COVID-19-Impfstoff. Die Prozentangaben beziehen sich auf die Gesamtanzahl der gemeldeten Nebenwirkungen, d.h., 1 Prozentpunkt entspricht ca. 2.500 Fällen. Quelle: PEI, Corona-Sicherheitsbericht 2021, Datenstand: 07.02.2022.
Insgesamt gibt es eine erhebliche Zahl von 29.786 Verdachtsfällen bezüglich derer das PEI selbst von „schwerwiegenden“ unerwünschten Reaktionen spricht (s. Abb. 3). Darunter sind viele Geimpfte die eine ambulante oder stationäre Behandlung benötigen. Und auch 2255 Verdachtsfälle mit tödlichem Ausgang werden verzeichnet.
Abbildung 3: Anzahl der gemeldeten Nebenwirkungen, der schwerwiegenden Nebenwirkungen und der Verdachtsfälle mit tödlichem Ausgang. Man beachte die logarithmische Skalierung (kleine Werte erscheinen vergleichsweise groß). Rohdaten: PEI, Corona-Sicherheitsbericht 2021, Datenstand: 07.02.2022.
Natürlich muss man das alles in Relation zur Anzahl der Impfungen sehen. Dazu weiter unten.
Verdachtsfälle von Impftoten
Im Jahresbericht des PEI wird die Zahl von 2255 Meldungen mit einen tödlichen Ausgang „in unterschiedlichem zeitlichem Abstand zur Corona-Impfung“ genannt. Genaugenommen spricht das PEI hier von Verdachtsfällen. In 85 Einzelfällen, in denen Patienten an bekannten Impfrisiken wie Thrombose-mit-Thrombozytopenie-Syndrom (TTS), Blutungen aufgrund einer Immunthrombozytopenie oder Myokarditis im zeitlich plausiblen Abstand zur jeweiligen Impfung verstorben sind, hat das PEI den kausalen Zusammenhang mit der Impfung als möglich oder wahrscheinlich bewertet. Man fragt sich an dieser Stelle, was es mit den verbleibenden 2170 Verdachtsfällen auf sich hat. Dazu gibt es im Sicherheitsbericht lediglich einen statistischen Abgleich (s.u.). Es bleibt also offen, inwiefern hier eine ursächliche Beziehung zur Impfung bestehen könnte. Letztlich muss man daher auch in diesen Fällen die Kausalität der Impfung zumindest als „möglich“ erachten, es sei denn, dies kann im Einzelfall definitiv ausgeschlossen werden.
Meldungen über Impfkomplikationenan das PEI
Grundsätzlich werden Meldungen von Nebenwirkungen nach Impfung mit COVID-19-Impfstoffen über die Gesundheitsämter an das Paul-Ehrlich-Institut übermittelt. Ärzte sind gesetzlich verpflichtet, Impfkomplikationen, d. h. gesundheitliche Beschwerden, die über das übliche Ausmaß einer Impfreaktion hinausgehen und nicht evident auf andere Ursachen zurückzuführen sind, dem zuständigen Gesundheitsamt zu melden. Zusätzlich können auch Geimpfte bzw. deren Angehörige direkt dem Paul-Ehrlich-Institut melden.
Kann man also davon ausgehen, dass die Mehrzahl der aufgetretenen Nebenwirkungen tatsächlich gemeldet werden? Nicht unbedingt! Bei den leichteren Fällen wird wohl oft eine Meldung unterbleiben. Jedenfalls ist das die Erfahrung von anderen Impfprogrammen. Man schätzt, dass i. A. nur in etwa 5 % der Fälle von Nebenwirkungen eine Meldung an das PEI erfolgt. Sofern es hier um leichtere Beeinträchtigungen geht, ist das nicht weiter von Belang und allenfalls von Interesse für die Statistik. Indessen kann man nicht ausschließen, dass auch schwerwiegende Fälle übersehen werden, z.B. dann, wenn das Auftreten von Krankheitssymptomen bei einer geimpften Person aufgrund von Vorerkrankungen oder aktuellen gesundheitlichen Beeinträchtigungen auch ohne die Impfung nicht völlig unerwartet gewesen wäre.
Nach einer aktuellen Analyse kommt die BKK Pro Vita zu einen ebenso ernüchternden wie alarmierenden Ergebnis: Es gebe viel häufiger Nebenwirkungen der Corona-Impfung als gedacht. Man gehe von einer sehr erheblichen Untererfassung aus. Die BKK rechnet vor, dass Nebenwirkungen der Impfung laut (ihren) Patientendaten mindestens zehn Mal häufiger sind als vom Paul-Ehrlich-Institut gemeldet. Wenn man die 10 Mio. Versicherte umfassende Stichprobe der BKK auf das Gesamtjahr und auf die Bevölkerung in Deutschland hochrechnet, sindvermutlich 2,5 bis 3 Millionen Menschen in Deutschland wegen Impfnebenwirkungen nach Corona-Impfung in ärztlicher Behandlung gewesen (s. [16]). Vier bis fünf Prozent (der Geimpften) waren wegen Nebenwirkungen beim Arzt.
Betrachten wir konkret das Szenario im Hinblick auf die Verdachtsfälle mit tödlichem Ausgang. Hier denkt man noch am ehesten, kein Fall könne unentdeckt bleiben. In Deutschland gibt es etwa 25.000 Hausarztpraxen. Von ihren Patienten sind circa 5 Millionen über achtzig. Zugleich ist die Impfquote in dieser Gruppe mit über 90 % sehr hoch. Im statistischen Mittel entfallen demnach jeweils 200 Über-80-Jährige auf eine Hausarztpraxis, und nahezu alle wurden 2021 geimpft. Die statistische Sterbewahrscheinlichkeit (völlig ohne Impfung) in dieser Altersgruppe liegt bei etwa 11,5 % p.a. Damit sind in 2021 pro Hausarztpraxis 23 Patienten über 80 verstorben, pro Monat also etwa 2 Personen. Es ist also absolut nicht ungewöhnlich, wenn von den 200 hochbetagten Patienten einer Hausarztpraxis jeden Monat 2 versterben. Ebenfalls nicht sonderlich überraschend ist es, wenn diese Sterbefälle innerhalb von 30 Tagen nach der Impfung auftreten: Es liegt ja völlig im Rahmen des Üblichen. Wenn nicht ganz außergewöhnliche Umstände vorliegen, hat der Hausarzt kaum eine Chance, solche Todesfälle mit der Impfung in Zusammenhang zu bringen. Und was, wenn er davon gar nichts erfährt, weil sich der Patient im Impfzentrum hat impfen lassen?
Die Meldungsstatistik des PEI ist daher zunächst einmal nur eine Grundlage für die grobe Beurteilung von Risiken. Eine abschließende Bewertung ist auf dieser Basis kaum möglich (s. a. [16]).
Risikoeinschätzung auf Basis der Meldezahlen
Das PEI bezieht die gemeldeten Fälle auf die Anzahl der Impfdosen. Das erscheint naheliegend und zweckmäßig. In Relation zu den ca. 150 Mio. Impfungen ergibt sich auf dieser Basis eine Melderate von 1600 Fällen von Nebenwirkungen pro 1 Mio. Impfungen, und 200 Fällen von schwerwiegenden Nebenwirkungen pro 1 Mio. Impfungen. Der relative Anteil der Verdachtsfälle mit tödlichem Ausgang liegt bei 15 pro 1 Mio. Impfungen. Um zu einer ersten Einschätzung zu kommen, inwiefern das viel oder wenig ist, kann man diese Zahl den im gleichen Zeitraum „an oder mit“-Corona-Verstorbenen gegenüberstellen. Aufgrund der knapp 70.000 Coronatoten in 2021 sind das etwa 839 Tote pro 1 Mio. Einwohner, mithin etwa das 56-fache der Anzahl der Verdachtsfälle von Impftoten. Doch ist dieser Vergleich zulässig?
Für die Risikoeinschätzung sinnvoller erscheint die Bezugnahme auf die Anzahl der Geimpften. Letzten Endes muss doch die mögliche Gefährdung der Person interessieren, nicht das Risiko des impfenden Arztes. Wenn man sich, wie das PEI, auf die Anzahl der Impfungen bezieht, wird das Bild in unzulässiger Weise geschönt insofern das Risiko kleiner erscheint als es wirklich ist.
Die o.g. ca. 150 Mio. Impfdosen wurden lt. PEI an 61.593.423 Personen verabreicht. Im Mittel wurde demnach jeder Geimpfte etwa zweieinhalbmal „gepikst“. Berücksichtigt man dies in der Statistik, so ergibt sich ein geschärftes Bild zum Risiko:
3971 Fälle von Nebenwirkungen pro 1 Mio. Geimpfte
484 Fälle von schwerwiegenden Nebenwirkungen pro 1 Mio. Geimpfte
37 Verdachtsfälle mit tödlichem Ausgang pro 1 Mio. Geimpfte
Vergleicht man die letzte Zahl wieder mit den 839 Coronatoten pro 1 Mio. Einwohner, so ergibt sich nun ein Verhältnis von 23:1. Das spricht im Grundsatz immer noch klar für die Impfung, das Risikoverhältnis ist aber nicht so überwältigend positiv, wie man das eigentlich vermuten würde. Vor allem, wenn man dabei die völlig unterschiedliche Corona-Risikobewertung im Hinblick auf die diversen Altersgruppen berücksichtigt
Abbildung 4: Melderate über Verdachtsfälle von Nebenwirkungen und Impfkomplikationen nach Impfung zum Schutz vor COVID-19 pro 1 Mio. Geimpfte seit Beginn der Impfkampagne am 27.12.2020 bis zum 31.12.2021. Zum Vergleich ist in der rechten Rubrik die Corona-Todesfallzahl pro 1 Mio. Einwohner eingetragen. Rohdaten: RKI, PEI, Corona-Sicherheitsbericht 2021, Datenstand: 07.02.2022.
Die Anzahl der gemeldeten schwerwiegenden Nebenwirkungen liegt „nur“ 58 % unter der Anzahl der registrierten Todesfälle „an oder mit“ Corona. Das ist ein vergleichsweise kleiner Abstand. Wobei trotzdem klar ist: Vor die Wahl gestellt, würden sicher alle Verstorbenen die Alternative der schwerwiegenden Nebenwirkung nach der Impfung gerne in Kauf genommen haben.
Zusammenhang zwischen Impfung und möglichen Nebenwirkungen
Aufgrund der Meldungssystematik darf man zweifelsohne unterstellen, dass zumindest die zeitnah auftretenden Nebenwirkungen zu einem gewissen Teil erfasst werden. Selbst wenn wir davon ausgehen, dass es gar keine Dunkelziffer gibt, wird man die Fallzahl mit knapp 250.000 Fällen von Nebenwirkungen und knapp 30.000 Verdachtsfällen von schwerwiegenden unerwünschten Reaktionen kaum als vernachlässigbar abtun können. Es sind fraglos viele Fälle. In Relation zu den ca. 150 Mio. Impfungen ist die Melderate aber dennoch klein: 1,6 Fälle von Nebenwirkungen pro 1000 Impfungen, und 0,2 Fälle von schwerwiegenden Nebenwirkungen pro 1000 Impfungen.
Dabei hat man es hier im Grundsatz mit relativ einfach zu identifizierenden Impfreaktionen zu tun, weil sie in engem zeitlicher Abstand zur Impfung auftreten. Viel schwieriger oder gar unmöglich ist der Nachweis einer nachgelagerten Folgewirkung, die erst Monate oder gar Jahre nach der Impfung auftritt. Wie wollte man denn zweifelsfrei belegen, dass das Auftreten einer Autoimmunkrankheit auf eine Jahre zurückliegende Impfung zurückzuführen sei? Allenfalls würde man in diesem Falle eine statistische Korrelation finden können, was natürlich kein Beweis ist. Vor Gericht hätte ein solcher Nachweis wohl kaum Bestand.
Laut PEI ist von langfristigen Impffolgen nichts bekannt. Darf man daraus schließen, dass es solche Impffolgen nicht gibt? Diese Schlussfolgerung ist möglicherweise übereilt. Das Wirkprinzip von mRNA-Impfstoffen ist neu, deswegen kann man auch nachgelagerte oder indirekte Folgen auf das Immunsystem nicht mit Sicherheit ausschließen. Wer dies tut, verstößt gegen elementare wissenschaftliche Prinzipien und handelt unredlich. Analogieschlüsse aus den historischen Impfprogrammen sind nicht hinreichend für den Ausschluss von Langzeitfolgen, weil die Analogie aufgrund des neuartigen Wirkprinzips so nicht besteht.
Man muss sich vergegenwärtigen, dass die mRNA-Impfstoffe noch immer nicht über eine reguläre Zulassung verfügen. Von der Politik und den Medien wird das weitgehend ignoriert. Stattdessen verweist man gerne auf das Paul-Ehrlich-Institut und präsentiert meistens solche Wissenschaftler, die in ihren Statements jegliche von der Impfung möglicherweise ausgehenden Gefährdungen mehr oder weniger als Hirngespinste abtun. Indessen gibt es aber auch seriöse kritische Stimmen, auch wenn man wenig von ihnen hört (s. dazu [17] Fragezeichen beim mRNA-Impfstoff).
Auch wenn man eine unmittelbare Gefahr mit größter Sicherheit ausschließen kann, da die Impfstoffe schon millionenfach verabreicht wurden (darauf fußt das Urteil des PEI), so gebietet die wissenschaftliche Skepsis im Verein mit der ärztlichen Vorsicht, solche vorschnellen Verharmlosungen zu unterlassen. Dies vor allem dann, wenn es um Impfprogramme für Kinder geht. Es besteht ein Restrisiko über das man nichts Genaues weiß. Möglicherweise wird es sich als klein erweisen, das ist aber nicht gewiss. Wer das Risiko jetzt aus politischen Gründen kleinredet, ignoriert eherne wissenschaftliche Grundsätze und wird seiner Verantwortung nicht gerecht.
Natürlich kann man pragmatisch argumentieren, das bekannte von Corona ausgehende Risiko sei höher einzuschätzen als das unbekannte Restrisiko möglicher Spätfolgen. Das ist ein politisch opportuner Zugang, den man durchaus vertreten kann. Man muss ihn aber nicht zwingend gutheißen, weil ihm die wissenschaftliche Grundlage fehlt. Zumindest sollte, wer dies propagiert, sich nicht auf die Wissenschaft berufen. Es ist dennoch ein oft anzutreffendes Verhalten: Risiken, die man in Ermangelung verlässlicher Daten und gezielter Untersuchungen nicht quantifizieren kann, werden kurzerhand als nicht existent deklariert. Manchmal wird das sogar explizit als „wissenschaftlich“ ausgegeben, sogar von Wissenschaftlern – tatsächlich ist es nicht mehr als Augenwischerei.
Jedenfalls ist es unwissenschaftlich und damit unseriös, mögliche Langzeitfolgen pauschal auszuschließen. Diesen Schluss mögen sich Leute zutrauen, die ihr Wissen durch den Blick in die Kristallkugel gewinnen.
Zusammenhang zwischen Impfung und möglichen Todesfällen
Kann man davon ausgehen, dass zumindest die Verdachtsfälle mit tödlichem Ausgang nach der Impfung vollständig erfasst werden? Daran muss man Zweifel anmelden. Die Gründe dafür liegen wieder in der Statistik.
Unabhängig von der Impfung liegt die durchschnittliche Sterblichkeit bei 1,24 % p.a. Von einer Million Menschen sterben also statistisch gesehen 12.400 innerhalb der nächsten 12 Monate nach einem willkürlich festgesetzten Datum. Entsprechend sterben nach der verabreichten Impfung im statistischen Mittel ca. 1000 Personen im Laufe der folgenden 30 Tage. Hochgerechnet auf die Gesamtanzahl der in 2021 Geimpften (61,5 Mio.) muss man daher 61.500 Tote innerhalb von gut 4 Wochen nach der Impfung erwarten. Tatsächlich wurden aber nur 2255 Todesfälle (3,7 % von 61.500) in zeitlicher Nähe zur Impfung registriert. Was kann man daraus schließen?
Dreierlei:
Nur ein Bruchteil von weniger als 4 % der statistisch zu erwartenden Verdachtsfälle mit tödlichem Ausgang innerhalb von 4 Wochen nach der Impfung wurde tatsächlich gemeldet (Meldequote 1 Fall von 27). Das könnte darauf hindeuten, dass der mögliche Zusammenhang zwischen Impfung und Versterben in vielen Fällen nicht registriert wurde (s. dazu auch obiges Beispiel betreffend der Hausarztpraxen).
Wenn wir unterstellen, dass jeder dieser Todesfälle im Hinblick auf die Impfung ärztlich bewertet wurde, dann würde sich damit der Verdacht der Impfkausalität erhärten. Wir müssten also davon ausgehen, dass in all diesen Fällen (also den genannten 2255) der Tod mit hoher Wahrscheinlichkeit als unmittelbare Folge der Impfung eingetreten ist. Damit wären das keine bloßen Verdachtsfälle mehr.
Es gibt noch eine dritte Sicht: Die nur etwa 4 % dokumentierten Verdachtsfälle liegen im Bereich der möglichen statistischen Schwankungen und fallen daher in der Gesamtschau nicht ins Gewicht. Die Gesamtanzahl der Verstorbenen ist aufgrund der Impfung offensichtlich nicht statistisch signifikant angestiegen. Daraus kann man unmittelbar auf die relative Harmlosigkeit der Impfung schließen. Das ist in etwa die Position des PEI.
Was ist zutreffend? Man darf vermuten, dass alle drei Sichten einen Teil der Wahrheit repräsentieren. Die nackte Statistik spricht für die Position des PEI. Wenn vom Impfstoff tatsächlich eine nennenswerte Gefahr in unmittelbarer zeitlicher Nähe zur Impfung ausgehen würde, dann müsste sich das in den Todesfallzahlen zeigen. Dass dies dennoch eine Gratwanderung ist, zeigt die folgende Überlegung: Vorausgesetzt, wir zählen nur die unmittelbar nach der Impfung und ggf. am Folgetag aufgetretenen Todesfälle, dann ergeben sich dafür im statistischen Mittel 2050 Tote (= 61.500/30). Das sind in etwa bereits so viele, wie insgesamt für das gesamte Jahr an das PEI gemeldet wurden. Diese Fallzahl würde man auch dann erwarten, wenn man ein Placebo gespritzt hätte. Es erscheint daher zweifelhaft, inwiefern mittels dieser Vorgehensweise eine schwach ausgeprägte Todeskausalität überhaupt identifiziert werden könnte.
Umgekehrt kann man sich natürlich auch fragen, bei welcher Anzahl von Verdachtsfällen ein mögliches Risiko erkannt werden würde. Die 2255 Fälle werden offenbar noch nicht als Risikosignal gesehen, da sie mehr oder weniger im statistischen Rauschen untergehen. Indessen würden auch 10.000 Verdachtsfälle noch weit unter der statistisch zu erwartenden Anzahl von 61.500 Fällen liegen. Es ist daher eine offene Frage, inwieweit dieser Ansatz überhaupt dafür geeignet ist, mögliche Risiken sicher zu erkennen. Um es ganz pointiert zum Ausdruck zu bringen: Wenn die Menschen nach der Impfung nicht gerade wie die Fliegen sterben, dann wird man mittels dieser Methodik kaum valide Indizien für eine eventuell bestehende ernsthafte Problematik finden.
Betreffend möglicher Langzeitfolgen ist die Situation keineswegs besser: Es gibt derzeit kein Verfahren für die sichere Detektion möglicher Risikofaktoren.
Vergleich mit anderen Impfprogrammen
Von 2000 bis 2019 wurden in Deutschland mehr als 580 Mio. Impfungen durchgeführt, im Schnitt also immerhin mindestens 34 Mio. Impfungen pro Jahr. Dabei waren insgesamt 456 Todesfälle nach Impfungen gemeldet worden (jährlich also etwa 22 Fälle). Im Vergleich dazu fallen die 2255 Verdachtsfälle mit tödlichem Ausgang in 2021 aus dem Rahmen (s. Abb. 5). Und zwar erheblich: Für ein Viertel der verabreichten Impfdosen zählen wir die fünffache Anzahl von Verdachtsfällen mit tödlichem Ausgang. Im Ergebnis ist damit das potentiell von der Corona-Impfung ausgehende Risiko etwa zwanzigmal höher als das mittlere Risiko in den historischen Impfprogrammen der letzten 20 Jahre.
Abbildung 5: Risikovergleich mit historischen Impfprogrammen. Das relative Risiko bei der Corona-Impfung ist gegenüber den Vergleichsimpfungen um den Faktor 20 höher. Quelle: PEI, Corona-Sicherheitsbericht 2021, Datenstand: 07.02.2022.
Die Vergleichsdaten legen nahe, dass die aktuell verfügbaren Corona-Impfstoffe nicht zu den sichersten und harmlosesten Vakzinen gehören, die je entwickelt wurden. Selbstverständlich ändert das nichts daran, dass die Impfung in der weit überwiegenden Anzahl der Fälle nichtsdestotrotz Nutzen stiftet. Einige tausend Hochbetagte zusätzlich wären wohl ohne die Impfung Opfer des Virus geworden. Indessen sollte man angesichts der nüchternen Fakten Verständnis aufbringen für Menschen, die bezüglich der Corona-Impfung in ihrer eigenen Risikobewertung nach wie vor zögern. Vor allem auch eingedenk der nicht seriös ausschließbaren möglichen Langzeitfolgen, selbst wenn man die eher für unwahrscheinlich halten möge. Das Aufzeigen des Nutzens ist nur die eine Hälfte der nötigen Aufklärung, dazu gehört ebenso die offene Kommunikation bezüglich der möglichen Risiken.
An oder mit der Impfung verstorben?
Wir haben oben die statistisch zu erwartende Anzahl der Todesfälle in zeitlicher Nähe zur Impfung bestimmt. Dabei wurde das Verfahren des PEI angewendet (Bezug auf die mittlere Sterberate von 1,24% p.a.). Dieser Ansatz ist unscharf, insofern die Altersstruktur der Impfkohorte dabei keine Berücksichtigung findet. Das ist deswegen von Bedeutung, weil es natürlich einen Unterschied macht, ob ein 80-Jähriger innerhalb von 5 Tagen nach der Impfung verstirbt oder ob dasselbe einem 20-Jährigen widerfährt. Der Grund liegt auf der Hand: Letzterer hat ein etwa 160-mal geringeres allgemeines Sterberisiko. Wenn also der erste Fall eintritt, dann liegt das viel eher im Rahmen der Erwartung, als im zweiten Fall. Diese Differenzierung geht in der pauschalen Betrachtung des PEI verloren.
Nun kennen wir nicht die genaue Zusammensetzung der an das PEI ergangenen Meldungen hinsichtlich der Altersstruktur. Wir haben aber hinreichende Kenntnis zu den altersabhängigen Impfquoten. Das erlaubt uns eine etwas schärfere Betrachtung im Hinblick auf die statistische Erwartung betreffend der Fallzahlen.
Abbildung 6: Statistische Erwartungswerte für die Anzahl der aufgrund des allgemeinen altersbezogenen Sterberisikos „an oder mit“ der Impfung innerhalb von 30 Tagen Verstorbenen. Die rot gestrichelte Linie markiert die an das PEI tatsächlich gemeldeten Fälle. Man sieht, dass tatsächlich nur ein winziger Bruchteil (1 von 38 Fällen) der innerhalb von 30 Tagen nach der Impfung statistisch zu erwartenden Todesfälle als Verdachtsfälle registriert wurden. Zugrunde gelegt wurden folgende Impfquoten (mit mindestens 1 Dosis): Altersgruppe 12-17: 55%, Altersgruppe 18-59: 80% , Altersgruppe 60+: 90%. Quelle für die Rohdaten: RKI, Datenstand: 07.02.2022.
Aus der vorstehenden Grafik wird klar ersichtlich, dass die Meldungen an das PEI nur einen winzigen Bruchteil der Todesfälle in zeitlicher Nähe zur Impfung (30 Tage) ausmachen. Die daraus im Hinblick auf mögliche Risikosignale resultierenden Fragen wurden oben angesprochen.
Man kann noch eine weitere, allerdings spekulative Analyse hinsichtlich der potentiell von der Impfung ausgehenden Sterbefälle anschließen. In [14] und [15] wurde gezeigt, wie die hypothetische Änderung der Wirksamkeit des Impfstoffs Einfluss nimmt auf die Anzahl der an oder mit Corona Verstorbenen.
Damit können wir bestimmen, wie viele Geimpfte bei sonst gleichen Rahmenbedingungen bei einer geänderten Wirksamkeit des Impfstoffs an Corona verstorben wären. Aus der statistischen Analyse zu den Fallzahlen für 2020 und 2021 (s. [14]) ergibt sich, dass unter den knapp 70.000 an oder mit Corona Verstorbenen etwa 28.000 geimpft waren. Sie sind also trotz der Impfung Opfer des Virus geworden. Dabei wurden pro Altersgruppe unterschiedliche Impfquoten und Wirksamkeiten des Impfstoffs unterstellt (s. Tab. 1, Spalten 2, 3 und 5).
Tabelle 1: Annahmen zu den altersgruppenspezifischen Impfquoten und den Schutzwirkungen der Impfung vor Tod (an oder mit Corona). Die durchschnittlichen Impfquoten ergeben sich aus dem Verlauf der Impfkampagne im Jahresverlauf aus den Daten des RKI. Die Annahmen zur Schutzwirkung basieren auf den Infektionszahlen und den Todesfallzahlen Geimpfter und Ungeimpfter. Die Istwerte zu den Verstorbenen Geimpften wurden auf Basis des in [14] beschriebenen Modells berechnet. Die Sollwerte ergeben sich aus der im Text dargelegten Überlegung. Generell muss man anmerken, dass vielfach keine genauen Zahlen zu Geimpften und Ungeimpften publiziert werden, deshalb wurden die Werte methodisch abgeschätzt (s. [14]).
Laut Zulassungsstudien sollte die Schutzwirkung vor Tod für alle Altersgruppen bei mindestens 90 % gelegen haben. Das trifft jedenfalls auf die beiden meistgeimpften Vakzine von Biontech und Moderna zu. Indes ist diese hohe Schutzwirkung nicht vereinbar mit der beobachteten relativ großen Anzahl der an oder mit Corona verstorbenen Geimpften. Um den Unterschied zu den realen Fallzahlen aufzulösen gibt es zwei Ansätze: 1. Die tatsächliche Wirksamkeit (in Tab. 1 „der Istwert“) war deutlich geringer. Das wurde in [14] behandelt. 2. Die Wirksamkeit war unverändert hoch (in Tab. 1 „der Sollwert“), wie vom Hersteller angegeben, aber die Betroffenen sind zu einem gewissen Anteil nicht an oder mit Corona verstorben, sondern an oder mit der Corona-Impfung.
Es gilt als Sakrileg, überhaupt nur die Möglichkeit zu erörtern, von der Corona-Impfung könne eine Gefährdung ausgehen. Indes geht es hier nicht um Glauben, sondern darum, Antworten auf offene Fragen zu finden. Daher ist es zulässig, die aus dem Grundgedanken von Punkt 2 resultierenden Konsequenzen näher zu beleuchten. Das ändert freilich nichts daran, dass die Überlegungen dazu zum jetzigen Zeitpunkt ganz klar spekulativen Charakter haben. Inwieweit die Impfung Risiken birgt, eventuell auch ernsthafte, ist letztlich eine medizinische Frage. Angesichts der nur höchst unzureichend erfassten und ungenauen Daten hinsichtlich fast aller Aspekte der Pandemie – ein Armutszeugnis für einen Industrie- und Wissenschaftsstandort – muss die Aussagekraft der Statistik zwangsläufig beschränkt bleiben.
Im Falle von Punkt 2 können wir die hypothetische Anzahl der an oder mit Corona verstorbenen Geimpften unter der Annahme der Soll-Wirksamkeit direkt aus der beobachteten Fallzahl bei der Ist-Wirksamkeit berechnen.
Sei \(W_{Ist}\) die beobachtete Ist-Wirksamkeit des Impfstoffs und \(W_{Soll}\) die hypothetische Soll-Wirksamkeit. Entsprechend bezeichnen wir mit \(g_{Tod_{Ist}}\) die tatsächliche Anzahl der verstorbenen Geimpften und mit \(g_{Tod_{Soll}}\) die hypothetische Anzahl unter der Annahme der Soll-Wirksamkeit. Es gilt folgender Zusammenhang (s. [14], Analogie zu Formel (34) bei unveränderter Impfquote):
Die damit unter der Annahme eines über alle Altersgruppen wirksamen Schutzes vor Tod in Höhe von 90 % (=Soll-Wirksamkeit) errechneten Zahlenwerte finden sich in Tab. 1. Insgesamt ergeben sich statt der 28.000 Todesfälle an oder mit Corona (unter Geimpften) nur knapp 8.000 Fälle (s. Tab. 1, Spalte 6, „Sollwert verstorbene Geimpfte“), die im engeren Sinne an oder mit Corona verstorben sein könnten. Wobei angemerkt werden soll, dass die solchermaßen errechneten Zahlen unsicher sind. Die tatsächliche Wirksamkeit der Impfstoffe ist eben nicht mit der nötigen Genauigkeit bekannt. Bei einer Unschärfe von 10 % könnte der Sollwert in Spalte 6 auch bei etwa 16.000 Fällen zu liegen kommen, so dass am Ende nicht 20.000 sondern nur 12.000 Sterbefälle verblieben (Spalte ganz rechts).
Die Differenz von 20.000 (oder evtl. auch nur 12.000) ginge somit potentiell auf das Konto der Impfung, so dass wir diesbezüglich sagen könnten, „an oder mit Corona oder an oder mit der Corona-Impfung“ verstorben. Diese Interpretation steht nicht im Widerspruch zur Anzahl der an das PEI gemeldeten Verdachtsfälle mit tödlichem Ausgang, da der statistische Erwartungswert dafür sogar innerhalb der ersten 30 Tage nach der Impfung bei über 80.000 Personen liegt, übers volle Jahr gerechnet sogar bei ca. 1 Mio. Toten. Die genannte Zahl von potentiell 20.000 Toten macht daher an den innerhalb von 12 Monaten nach der Impfung Verstorbenen einen Anteil von nur 2,2 % aus. Es gibt also kein statistisches Missverhältnis.
Damit wird nicht behauptet, die genannten 20.000 (oder evtl. auch nur 12.000) Sterbefälle seien definitiv auf die Impfung zurückzuführen. Mit dieser Interpretation würde man die Beweiskraft der Statistik weit überschätzen. Evidenz kann man an dieser Stelle nur auf der Basis von gezielten Untersuchungen der Einzelfälle, im Extremfall also aller verstorbenen positiv getesteten Geimpften, erlangen. Im Minimum sind statistisch signifikante Stichproben erforderlich. Unabhängig davon könnte eine kausal auf die Impfung zurückzuführende und in der beschriebenen Weise erhöhte Sterblichkeit von etwa 0,033 % (= 20.000/61,5 Mio.) die trotz der Verfügbarkeit von im Prinzip hochwirksamen Impfstoffen beobachtete leichte Übersterblichkeit schlüssig erklären. Nichtsdestotrotz bleibt diese Folgerung eine Spekulation, da sie mit rein statistischen Mitteln nicht verifiziert werden kann.
An oder mit Corona verstorben?
Die Todesfallzahlen betreffend Corona sind bekanntermaßen immer mit dem Zusatz „an oder mit“ Corona verstorben versehen. In der öffentlichen Wahrnehmung geht das zunehmend unter. Man kann davon ausgehen, dass die knapp 70.000 Coronatoten in 2021 von einer großen Mehrheit als kausal auf Corona zurückzuführende Fälle verstanden werden. Und in diesem Sinne werden die Zahlen auch kommuniziert. In wie vielen Fällen Corona wirklich die Todesursache ist, das ist völlig offen.
Man muss den Eindruck gewinnen, dass es auch niemand interessiert. Es gibt allenfalls einige wenige kritische Stimmen. Genaueres weiß man tatsächlich nicht. Mal liest man die Schlagzeile „29 % der Coronatoten gar nicht an Corona verstorben“, mal hört man gar von bis zu 80 % Fällen, bei denen Corona zumindest nur einer von mehreren Faktoren gewesen sein soll. Letzten Endes sind diese Angaben sämtlich nicht vertrauenswürdig, weil ihnen die wissenschaftliche Grundlage fehlt. Dafür müsste man die Todeskausalität in jedem Einzelfall untersuchen, oder zumindest statistisch signifikante Stichproben nehmen. Warum Letzteres nicht systematisch umgesetzt wird, ist nur eine von vielen unwissenschaftlichen Auffälligkeiten im Pandemiemanagement.
An dieser Stelle kann man dennoch die Plausibilität der Corona-Todesfallzahlen mittels statistischer Methoden auf die Probe stellen. Dazu nehmen wir die Zahl der „an oder mit“ Corona Verstorbenen und vergleichen sie mit der statistisch zu erwartenden Anzahl der Todesfälle im Vergleichszeitraum. Wir fragen also ganz konkret, wie viele der positiv auf Corona getesteten Personen wären denn aufgrund der altersabhängigen statistischen Sterbewahrscheinlichkeit im Vergleichszeitraum gestorben. Im Grundsatz handelt es sich hierbei und dasselbe Verfahren, wie es auch vom Paul-Ehrlich-Institut betreffend der Impfungen im Hinblick auf die Verdachtsfälle mit tödlichem Ausgang angewandt wird.
Die Resultate sind in den Säulendiagrammen Abb. 7, 8 und 9 dargestellt.
Abbildung 7: Vergleich der Sterbefälle „an oder mit“ Corona mit den in 2020 unter den Infizierten aufgrund des allgemeinen altersbezogenen Sterberisikos statistisch zu erwarten gewesenen Todesfällen. Graue Säulen: „an oder mit“ Corona verstorben, wie vom RKI dokumentiert. Grün: statistischer Erwartungswert der Todesfälle p.a. unter den positiv Getesteten. Orange: verbleibende Todesfälle nach Abzug des Erwartungswerts, die man im statistischen Abgleich als Corona-bedingte Sterbefälle werten kann. Nur die Letzteren sind zusätzliche Todesfälle. In den Altersgruppen unter 60 liegt der statistische Erwartungswert über der Anzahl der registrierten Corona-Sterbefälle. Bei den Über-60-Jährigen verbleiben nach Abzug der erwarteten Todesfälle je nach Altersgruppe 1000 bis 9.000 Fälle, die man im Hinblick auf das allgemeine Sterberisiko statistisch Corona zurechnen kann. Rohdaten: RKI, Datenstand: 22.01.2022.
Abbildung 8: Vergleich der Sterbefälle „an oder mit“ Corona mit den in 2021 unter den Infizierten aufgrund des allgemeinen altersbezogenen Sterberisikos statistisch zu erwarten gewesenen Todesfällen. Graue Säulen: „an oder mit“ Corona verstorben, wie vom RKI dokumentiert. Grün: statistischer Erwartungswert der Todesfälle p.a. unter den positiv Getesteten. Orange: verbleibende Todesfälle nach Abzug des Erwartungswerts, die man im statistischen Abgleich als Corona-bedingte Sterbefälle werten kann. Nur die Letzteren sind zusätzliche Todesfälle. In den Altersgruppen unter 60 liegt der statistische Erwartungswert über der Anzahl der registrierten Corona-Sterbefälle. Bei den Über-60-Jährigen verbleiben nach Abzug der erwarteten Todesfälle je nach Altersgruppe knapp 1000 bis zu 12.000 Fälle, die man im Hinblick auf das allgemeine Sterberisiko statistisch Corona zurechnen kann. Rohdaten: RKI, Datenstand: 22.01.2022.
Abbildung 9: Vergleich der Sterbefälle „an oder mit“ Corona in 2020, 2021 und insgesamt mit den unter den Infizierten aufgrund des allgemeinen altersbezogenen Sterberisikos statistisch zu erwarten gewesenen Todesfällen. In beiden Jahren liegt der statistische Erwartungswert der Todesfälle unter der Anzahl der registrierten Corona-Sterbefälle. Nach Abzug der erwarteten Todesfälle verbleiben in 2020 etwa 15.000 und in 2021 etwa 23.000 Fälle, die man im Hinblick auf das allgemeine Sterberisiko statistisch Corona zurechnen kann. Für beide Jahre zusammen sind das in Summe 38.000 Todesfälle. Rohdaten: RKI, Datenstand: 22.01.2022.
Vermöge der vorstehenden Diagramme wird selbstredend nicht belegt oder gar bewiesen, die Anzahl der Coronatoten belaufe sich über beide Jahre tatsächlich nur auf 38.000 statt knapp 114.000. Die Todeskausalität ist – bis auf die wenigen Fälle in denen sie mittels einer pathologischen Untersuchung zweifelsfrei bestimmt wurde – im Allgemeinen als offen anzusehen. Deswegen muss man auch korrekterweise immer den Zusatz „an oder mit“ davor setzen. Aus der statistischen Analyse ergibt sich allerdings schon, dass die Zweifel an der hohen Gesamtanzahl der Corona zugerechneten Sterbefälle durchaus berechtigt sind. Zumindest kann man folgendes festhalten:
In 2020 wären etwa 30.000 der insgesamt 44.012 „an oder mit“ Corona im Laufe des Jahres Verstorbenen aufgrund der altersbedingten allgemeinen Sterblichkeit der Infizierten im statistischen Mittel auch ohne die Corona-Infektion verstorben (genauer, innerhalb von 12 Monaten nach dem Positivtest). Nur etwa 32 % der offiziell als Coronatote gezählten Sterbefälle (15.000) sind damit aus statistischer Sicht als zusätzliche Todesfälle zu werten. Das deckt sich im Übrigen mit der rechnerisch bestimmten Übersterblichkeit für 2021, die im Bereich von etwa 1,5 % – 2 % aller Sterbefälle, also bei knapp 20.000 liegt.
In 2021 wären etwa 49.000 der insgesamt 69.810 „an oder mit“ Corona im Laufe des Jahres Verstorbenen aufgrund der altersbedingten allgemeinen Sterblichkeit der Infizierten im statistischen Mittel auch ohne die Corona-Infektion verstorben (genauer, innerhalb von 12 Monaten nach dem Positivtest). Nur etwa 30 % der offiziell als Coronatote gezählten Sterbefälle (23.000) sind damit aus statistischer Sicht als zusätzliche Todesfälle zu werten. Das deckt sich auch hier mit der rechnerisch bestimmten Übersterblichkeit für 2021, die im Bereich von etwa 2 % aller Sterbefälle, also bei etwa 20.000 Toten liegt.
In der Gesamtschau zur Pandemie wären damit etwa 79.000 der insgesamt knapp 114.000 „an oder mit“ Corona Verstorbenen aufgrund der altersbedingten allgemeinen Sterblichkeit der positiv Getesteten im statistischen Mittel auch ohne die Corona-Infektion innerhalb einer Zeitspanne von 12 Monaten nach dem Positivtest verstorben. Nur etwa 31 % der offiziell als Coronatote gezählten Sterbefälle (38.000) sind somit aus statistischer Sicht als zusätzliche Todesfälle zu werten. Diese Zahl macht die durch Corona verursachte rechnerische Übersterblichkeit in Höhe von etwa 2 % aus.
Der vorstehend zusammengefasste Befund ist letztlich das Resultat der mit zunehmendem Alter ab etwa 60 bis 70 stark anwachsenden mittleren Sterblichkeit. Das allgemeine Sterberisiko steigt mit dem Alter exponentiell, ähnlich wie auch die Corona-Letalität und die Corona-Mortalität. Daher bleibt es nicht aus, dass in der statistischen Vergleichsbetrachtung insbesondere eine große Anzahl der Älteren auch ohne Corona in der definierten Zeitspanne verstorben wäre. Völlig anders würde sich die Situation darstellen, falls die Corona-Sterblichkeit Jüngere in ähnlicher Weise wie Ältere betreffen würde. Wenn wir für einen Augenblick annehmen, die Corona zugeschrieben Todesfälle würden sämtlich in der Altersgruppe unter 60 aufgetreten sein, dann würde die vorstehende statistische Analyse zum Resultat geführt haben, dass 92 % der Fälle, also über 100.000, als zusätzliche und somit mit hoher Wahrscheinlichkeit auf Corona zurückzuführende Sterbefälle zu werten seien.
Gelegentlich wird gegen die obige Argumentation ins Feld geführt, viele der Coronatoten, auch die Älteren, hätten noch eine Lebenserwartung von mehreren Jahren gehabt und seien daher definitiv „an“ und nicht nur „mit“ Corona verstorben. In dieser Pauschalität ist das Unfug, wie man ganz leicht zeigen kann. Es liegt im Wesen einer statistischen Überlegung, nicht vom Einzelfall, sondern von der großen Zahl auszugehen. Betrachten wir exemplarisch die 80-Jährigen. Ihre statistische Lebenserwartung beläuft sich auf ca. 8 Jahre. Das Risiko, in den nächsten 12 Monaten zu versterben liegt aber im Schnitt dennoch bei 5,5 %. Sofern nun eine Person „an oder mit“ Corona verstirbt, scheinen damit zunächst 8 potentielle Lebensjahre vernichtet. Im Einzelfall könnte das auch zutreffen, unter statistischen Gesichtspunkten (also der Heranziehung der großen Zahl) erweist sich dieser Schluss indes als Fehlurteil.
Von 1000 Achtzigjährigen sterben 55 in der statistischen Erwartung innerhalb eines Jahres. Da hilft der Verweis auf die Restlebenserwartung von 8 Jahren nicht weiter. Die Restlebenserwartung ist ja nicht garantiert, sie ist lediglich eine statistische Kenngröße, genau wie das Sterberisiko. Tatsächlich stehen nicht alle Todesfälle bei 80-Jährigen im Zusammenhang mit Corona, es ist nur etwa jeder zwanzigste Fall. Deswegen ist der Hinweis auf 8 vernichtete Lebensjahre völlig aus der Luft gegriffen. Statistisch darf man allenfalls von einem im Mittel um einige Monate verfrühten Ableben sprechen.
In Summe ist es deswegen eine absolut zulässige Betrachtung, die Corona-Todesfälle im Hinblick auf die bestehende allgemeine Sterbewahrscheinlichkeit zu bewerten. Wie bereits erwähnt, verfährt man im Übrigen betreffend der Verdachtsfälle von Impfungen mit tödlichem Ausgang seitens des PEI in analoger Weise.
[10] Sterbetafel 2017/2019 – Ergebnisse aus der laufenden Berechnung von Periodensterbetafeln für Deutschland und die Bundesländer 2020. DESTATIS – Statistisches Bundesamt