Archiv der Kategorie: Technik

Wärmepumpe: Prinzip, Funktionsweise und Grenzen

Teil 2 der Reihe „Energiewende und Wärmepumpe“

Zusammenfassung

Die grundsätzliche Wirkungsweise von Wärmepumpen wird erläutert. Dazu wird der COP-Wert als der wichtigste Effizienzfaktor von Wärmepumpen eingeführt und es werden die theoretisch möglichen und die in der Praxis erreichbaren Effizienzwerte abgeleitet und mit aktuellen Studien verglichen.

Heizen mit Wärmepumpe –  der Carnot-Prozess

Das Prinzip der Wärmekraftmaschine ist bekannt: Die in einem Trägermedium mit hoher Temperatur enthaltene thermische Energie wird aufgenommen und zum Teil in Bewegung (mechanische Energie) umgewandelt. Dabei kühlt sich das Medium ab. Die verbleibende Restwärme wird an die Umwelt abgegeben. Ausgeführt als Kreislaufprozess kann so kontinuierlich aus Wärme Bewegung erzeugt werden. Diesem Vorgang liegt der Carnot-Prozess zugrunde. In einer Wärmepumpe wird dieses physikalische Prinzip umgekehrt: Die eingesetzte mechanische Energie wird dazu verwendet, Wärmeenergie aus der Umgebung an ein Trägermedium zu übertragen. Die aufgenommene thermische Energie wird anschließend zielgerichtet abgeleitet (also z.B. für die Erwärmung von Wasser benutzt), dabei kühlt sich das Trägermedium wieder ab. Danach kann der Prozess unter erneutem Einsatz von mechanischer Energie wiederholt werden. Es ist auch hier ein Kreislaufprozess.

© Hieronymus Fischer

Abbildung 2-1: Prinzip der Wärmepumpe als Umkehrung der Wärmekraftmaschine (Carnot-Kreisprozess)

Abhängig vom dafür eingesetzten Trägermedium ist es mit der Wärmepumpe im Grundsatz möglich, bei nahezu jeder Temperatur der Umwelt thermische Energie zu entziehen und diese zur Aufheizung eines zu verwenden. Dazu muss man sich vergegenwärtigen, dass z.B. auch Außenluft mit einer Temperatur von unter Null Grad Celsius noch Wärmeenergie enthält. Der Bezugspunkt dafür ist der absolute Nullpunkt von -273 °C = Null Grad Kelvin. Bei 250 Grad Kelvin (= -23 °C) enthält ein Stoff erheblich mehr thermische Energie als bei 200 °K (= -73 °C). Wenn ihm diese entzogen wird, so kann sie prinzipiell an anderer Stelle zum Aufheizen verwendet werden. Erst beim absoluten Nullpunkt ist die thermische Energie null.

Es ist daher auch ohne Weiteres durchführbar, der kalten Außenluft, die z.B. im Winter deutlich unter 0 ° Celsius liegen kann, Wärmeenergie zu entziehen und diese als Heizquelle zu verwenden.

Grundsätzliches zur Effizienz von Wärmepumpen

Die Effizienz der Wärmeerzeugung hängt ab vom verwendeten Trägermedium (typischerweise ein Gas mit einer niedrigen Verdampfungstemperatur, z.B. Propan), der Umwelttemperatur und der Zieltemperatur der Heizwärme. Je höher die Temperatur der Umwelt und je niedriger die gewünschte Heiztemperatur, desto größer der Effizienzfaktor der Wärmepumpe, meist Coefficient of Performance (COP) genannt. Theoretisch sind COP-Werte von bis zu 10 möglich. Aufgrund von unvermeidlichen Verlusten werden in der Praxis Werte von etwa 2 (niedrige Außentemperatur, hohe Heiztemperatur, z.B. bei der Brauchwassererwärmung) bis 5 (hohe Außentemperatur, niedrige Heiztemperatur, z.B. Fußbodenheizung) erreicht.

Grundsätzlich kann der Effizienzfaktor (COP) im zugrundeliegenden Carnot-Prozess wie folgt bestimmt werden:

\begin{equation} COP = \frac{T_{H}} {T_{H} – T_{U}} \end{equation}

Dabei ist z.B. \(T_H\) die Temperatur im Heizkreis (Vorlauftemperatur) und \(T_U\) die Umwelttemperatur. Man sieht hier unmittelbar: Je kleiner die Temperaturdifferenz zwischen Heizkreis und Umwelt, desto größer der Effizienzfaktor. Die Temperaturen sind hierbei in Kelvin anzugeben.

© Hieronymus Fischer

Abbildung 2-2: Prinzip der Wärmepumpe: Aus Umweltwärme wird unter Einsatz von mechanischer Arbeit (elektrische Antriebsenergie) Heizwärme. Die Effizienz der Wärmeerzeugung hängt ab vom verwendeten Trägermedium (typischerweise ein Gas mit einer niedrigen Verdampfungstemperatur, z.B. Propan), der Umwelttemperatur und der Zieltemperatur der Heizwärme. Je höher die Temperatur der Umwelt und je niedriger die gewünschte Heiztemperatur, desto größer der Effizienzfaktor COP.

Es ist daher auch ohne Weiteres durchführbar, der kalten Außenluft, die z.B. im Winter deutlich unter 0° Celsius liegen kann, Wärmeenergie zu entziehen und diese als Heizquelle zu verwenden.

Haben Wärmepumpen einen Wirkungsgrad von mehr als 100 %?

Da man aus dem Einsatz von 1 kWh Strom teilweise 3 oder 4 kWh Wärmeenergie erhält, scheint der Wirkungsgrad der Wärmepumpe größer als 1 zu sein, sogar deutlich größer als 1. Manchmal liest man daher, der Wirkungsgrad einer Wärmepumpe liege bei 300 oder 400 Prozent. Das ist Unsinn. Rein physikalisch ist auch der Wirkungsgrad einer Wärmepumpe, wie der eines jeden technisch-physikalischen Systems, auf jeden Fall kleiner als 1 (also <100 %), weil in die Energiebilanz auch die der Umwelt entnommene Wärmeenergie einbezogen werden muss. Der COP-Wert darf nicht mit dem Wirkungsgrad verwechselt werden. Er beschreibt lediglich das Verhältnis zwischen der erhaltenen Heizwärme und der investierten elektrischen Energie.

Realistische COP-Faktoren

Mit der oben angegebenen Formel wird indes nur eine theoretische Effizienz bestimmt. In der Praxis gibt es eine Reihe von Verlusten, so dass der tatsächliche COP-Faktor sogar unter Laborbedingungen den Wert

\begin{equation} COP = \eta \cdot \frac{T_{H}}{T_{H} – T_{U}} \end{equation}

in der Regel nicht übersteigt, wobei \(\eta \approx 0.35 \dots 0.5 \).

Wenn man die Temperaturen in Celsius angibt, lautet die Formel wie folgt:

\begin{equation} COP = \eta \cdot \frac{273 + T_{H}}{T_{H} – T_{U}} \end{equation}

Unter günstigen Bedingungen, also bei vergleichsweise hohen Umwelttemperaturen und niedrigen Vorlauftemperaturen im Heizkreis, werden COP-Werte über 4 erzielt. Um vier Kilowattstunden Heizwärme zu erzeugen, muss dann nur eine Kilowattstunde elektrische Energie eingesetzt werden. Anders sieht es aus, wenn die Umwelttemperaturen niedrig (unter null Grad Celsius) und die erforderlichen Heizkreis-Vorlauftemperaturen hoch sind. Letzteres ist dann der Fall, wenn mit klassischen Radiatoren geheizt wird und der Wärmebedarf (z.B. bei vielen Gebäuden im Bestand) eher höher anzusetzen ist. Dann muss man mit COP-Werten zwischen 2 und 3 rechnen.

In Abb. 2-3 ist der prinzipielle Zusammenhang zwischen Außentemperatur und COP-Wert dargestellt.

© Hieronymus Fischer

Abbildung 2-3: Theoretisch möglicher und praktisch erzielbarer Effizienzfaktor COP in Abhängigkeit von der Umwelttemperatur. Dabei wurde eine Heizkreisvorlauftemperatur von 40 °C bei 0 °C und 45 °C bei -10 °C Außentemperatur zugrunde gelegt. Der blau verschwommene Bereich um die durchgezogene Kurve soll die Schwankungsbreite der real erzielbaren COP-Werte symbolisieren.

Der Einfluss der Heizkreistemperatur

Neben der Außentemperatur hat insbesondere auch die Zieltemperatur – im Falle der Heizung also die Vorlauftemperatur – einen maßgeblichen Einfluss auf die resultierenden COP-Werte. In Abb. 2-4 wird das exemplarisch für drei unterschiedliche Vorlauftemperaturen aufgezeigt.

© Hieronymus Fischer

Abbildung 2-4: Praktisch erzielbare Effizienzfaktoren COP in Abhängigkeit von der Umwelttemperatur und unterschiedlichen konstanten Vorlauftemperaturen im Heizkreis. Der farblich verschwommenen Bereiche um die durchgezogenen Kurven sollen die Schwankungsbreite der real erzielbaren COP-Werte symbolisieren. Man erkennt dennoch unschwer, dass eine Vorlauftemperatur von 65 °C höchst ineffizient ist. Dabei tritt dieser Fall bei der Warmwasseraufbereitung durchaus auf. Aber auch eine Vorlauftemperatur von 50 °C ist bei den üblicherweise zu erwartenden Wintertemperaturen von unter 0 °C kaum wirklich günstig zu nennen, da der resultierende COP-Faktor unter 3 fällt.

Effizienz von Wärmepumpen in der Praxis

Nachfolgend werden die typischerweise erreichten COP-Werte für die drei diskutierten Vorlauftemperaturen übersichtlich in einem Säulendiagramm dargestellt. Im konkreten Falle können die tatsächlichen COP-Werte davon abweichen. Das hängt von der jeweiligen Wärmepumpe und vom Aufstellungsort ab. Als Orientierung können die Werte dennoch dienen.

© Hieronymus Fischer

Abbildung 2-5: Praktisch erzielbare Effizienzfaktoren in Abhängigkeit von der Umwelttemperatur und unterschiedlichen konstanten Vorlauftemperaturen im Heizkreis. Man erkennt unschwer, dass die hohe Vorlauftemperatur T_V von 65 °C ein Effizienzkiller ist. Aber auch bei einer Heizkreistemperatur von 50 °C und Außentemperaturen von unter 0 °C erreicht man bei niedrigen Außentemperaturen kaum COP-Werte über 3. Auf der anderen Seite erweist sich die niedrige Vorlauftemperatur von T_V = 35 °C, wie man sie in Verbindung mit einer Fußbodenheizung regelmäßig antrifft, noch bis hinunter zu einstelligen Minustemperaturen als sehr effizient.

Vergleich mit Ergebnissen aus Studien

Dazu sei an dieser Stelle auf die aktuelle Studienlage zu den in der Praxis erzielbaren Effizienzfaktoren von Luft-Wasser-Wärmepumpen hingewiesen. Vom Fraunhofer-Institut für Bauphysik (IBP) nennt eine Studie aus 2017 COP-Werte von 1,9 – 3,3 mit einem Mittelwert von 2,6 (s. Zukunft Bau: Effizienz von Wärmepumpen). Davon nicht gänzlich verschieden berichtet eine Studie von Agora Energiewende 2022 (s. A-EW_273_Waermepumpen_WEB.pdf (agora-energiewende.de) Werte von 2,5 – 3,8 mit einem Mittelwert von 3,1. Durchgeführt wurde diese Studie von Fraunhofer ISE und dem Öko-Institut e.V. In älteren Studien (s. WP-Bericht-2006-07 (pro-dx.de)) wurden eher geringere Werte gemessen, z.B. COP 2,1 – 3,3 mit einem Mittelwert von 2,8 beim Betrieb mit Fußbodenheizung (also niedriger Vorlauftemperatur) und 1,4 – 2,8 mit einem Mittelwert von 2,3 beim Betrieb mit Radiatoren, also klassischen Heizkörpern (und damit höherer Vorlauftemperatur).

Anmerkung: Da diese Studien vornehmlich eher von Lobbyverbänden und ihnen nahestehenden Instituten durchgeführt wurden, stehen die Ergebnisse nach Ansicht des Autors nicht im Verdacht einer ausgesprochen negativen Berichterstattung. Jedenfalls darf bzw. muss man wohl davon ausgehen, dass die tatsächlichen COP-Faktoren in Bestandsgebäuden im Mittel kaum über den in den Studien genannten Werten liegen werden.

Diskussion zu den COP-Faktoren

Wie man Abb. 2-5 entnehmen kann, ist die Wärmepumpe bei hohen Außentemperaturen sehr effizient. Mit einem geringen Einsatz an elektrischer Energie erzielt man hohe Wärmeleistungen. Aber natürlich benötigt man eine Heizung vor allem dann, wenn es kalt ist. Sofern der Heizkreis auf niedrige Vorlauftemperaturen ausgelegt ist (z.B. Fußbodenheizung), sind für das Heizen mit Wärmepumpe auch Frosttage mit Temperaturen bis  -10 °C und darunter kein ernsthaftes Problem. Anders sieht es aus bei hohen Vorlauftemperaturen, wie das bei Gebäuden im Bestand und klassischen Radiator-Heizungen zu erwarten ist. Bei Temperaturen unter -10 °C und Vorlauftemperaturen von 50 °C und mehr sinkt die Wärmepumpen-Effizienz schnell unter die klimapolitisch sinnvolle Schwelle von COP = 3, entsprechend steigen die Betriebskosten. Glücklicherweise sind solche niedrigen Temperaturen nur selten zu erwarten (in Deutschland regional unterschiedlich mit etwa 1 %  Wahrscheinlichkeit [2 – 5 Tage pro Jahr]).

Bei der Bewertung der Effizienzfaktoren aus Abb. 2-5 muss man noch berücksichtigen, dass der größte Wärmebedarf eben bei niedrigen Außentemperaturen anfällt, so dass bei der gewichteten Mittelwertbildung übers Jahr gerade die niedrigeren COP-Werte das Gesamtergebnis stark beeinflussen. Die bei den hohen Außentemperaturen sehr günstigen COP-Faktoren von 3,5, 4,5 oder 6 klingen gut, sind in der Gesamtbetrachtung aber eher von nachrangiger Bedeutung, weil bei höheren Temperaturen von 10 °C und mehr nur ein geringer Teil der erforderlichen Jahresheizwärme erzeugt werden muss. Allenfalls kann die ganzjährig nötige Warmwasseraufbereitung davon profitieren.

Wie steht’s mit der Wirtschaftlichkeit?

Verglichen mit einer reinen Elektroheizung ist gewiss jeder COP-Wert über 1 von Vorteil. Aber: Die absehbaren Betriebskosten liegen dann schnell in Bereichen über den Kosten für die klassischen fossilen Energieträger Öl, Gas und Holz (Pellets) – und dies bei nicht unerheblichen Investitionen für die Installation der Wärmepumpe. Dieser Themenkreis wird im Hinblick auf Erdgas als Energieträger  in den Teilen 4 und 5 näher beleuchtet.

Bereits an dieser Stelle kann man aber Folgendes vorwegnehmen: Bei energetisch nicht sanierten Bestandsgebäuden mit klassischen Radiator-Heizungen und hohen Vorlauftemperaturen ist der Einsatz einer Wärmepumpe im Allgemeinen unwirtschaftlich, weil die Betriebskosten absehbar höher liegen als bei den alternativen Heizsystemen. Mittels einer durchgreifenden energetischen Sanierung kann man die Effizienz steigern und damit die Heizkosten deutlich senken, allerdings können die dafür erforderlichen hohe Zusatzinvestitionen leicht einige 10.000 € ausmachen und teilweise gar sechsstellig werden. Und wenn dabei die Strompreise im Vergleich zum heutigen Niveau nicht erheblich nachgeben, dann ist es fraglich, ob sich die Investitionen überhaupt je amortisieren werden. Mehr dazu in Teil 4.

Ausblick auf Teil 3

Wir betrachten die zu erwartenden CO2-Emissionen von Luft-Wasser-Wärmepumpen im Bestand anhand einer Modellrechnung auf Basis realer Verbrauchwerte mit und ohne Photovoltaik. Es wird die Frage beantwortet: Was bringt das Heizen mit Wärmepumpe gegenüber dem Heizen mit Gas an CO2-Einsparung? Neben der grundsätzlichen Analyse wird eine bespielhafte Modellrechnung für ein Bestandsgebäude (Baujahr 2000) durchgeführt.

Link: CO2-Emissionen von Gasheizung und Wärmepumpe – Vergleich für ein Bestandsgebäude


Alle Beiträge der Reihe:

Energiewende und Wärmepumpe

1. Energiewende, Stromproduktion und CO2-Emission

2. Wärmepumpe. Prinzip, Funktionsweise und Grenzen

3. CO2-Emissionen von Gasheizung und Wärmepumpe – Vergleich für ein Bestandsgebäude

4. Gasheizung oder Wärmepumpe? Exemplarische Wirtschaftlichkeitsrechnung

5. Grundsätzliche Analyse zur Wirtschaftlichkeit von Wärmepumpen

6. Wärmepumpen für Deutschland – Klimapolitisch sinnvoll oder Fehlinvestition?

Autonomous driving – How to achieve functional safety in highly complex traffic scenarios?

(switch to german)

To anticipate the answer: The decisive advantage in functional safety results from the constructive cooperation of on-board systems and IT back ends.

Emission-free mobility and highly automated driving are the determinant future topics for automotive OEMs and suppliers. Embedded systems (ES) in the vehicle (on-board) together with high-performance back end IT systems (off-board) are the enablers in order to achieve these ambitious goals. The key lies in the intelligent connection of both worlds.

On the way to accomplish highly automated and autonomous driving functions, established OEMs, suppliers and engineering service providers are faced with the task of implementing innovative and highly complex customer functions economically. At the same time, the market is rapidly changing. New and unconventional acting market players such as Google, Apple, Tesla, Faraday, Uber, and others, are radically breaking new ground, both technologically and in terms of business models. This competition comes mainly from the IT world, not from the engineering world. These companies understand the vehicle mainly as a sort of „software on the road„.

The well proven technology access, which has been tried and tested by premium OEMs and their suppliers, is based on a more or less self-sufficient functional representation using on-board sensors and on-board embedded systems in the vehicle. Remember, a little bit more than 20 years ago, vehicles have been largely mechanical, mechatronic and electronic systems with a marginal share of software. Meanwhile, vehicle systems have been technologically expanded by more and more electronics and a rapidly growing share of software. This technological change has been extremely successful: many vehicle functions have been gradually realized completely as embedded systems with integrated software. Today, the functionalities at the cutting edge are complex driver assistance systems up to highly automated driving (level 3 automation / conditional automation). As mentioned before, all on-board and essentially without active communication with the outside world!

Even more challenging is the implementation of functions with the required higher levels of automation (Level 4 and higher / High and Full Automation or Autonomous Driving). Particularly, in the urban environment, e.g. safe passage of a multi-lane urban intersection, there are extremely difficult tasks that cannot be handled safely by state-of-the-art closed on-board solutions.

Provided, we must rely on the exclusive basis of a self-sufficient on-board system solution. Would we gain the confidence to entrust our preschool children (without accompany of adults) to an autonomous vehicle, which should them take to the grandparents living at the other end of the city? That’s hard to imagine!

To implement such highly complex and highly critical applications in a functionally reliable manner, new solutions are needed. One promising approach is to remove definite sub functions of the overall task from the vehicle and outsource them to an IT back end, or implement them at the IT back end, redundantly. This may comprise, for example, the computationally intensive parts of the representation and interpretation of the digital world view, the processing of large amounts of data, the determination of alternative courses of action in the driving strategy using AI methods (AI = Artificial Intelligence), the continuous expansion of the scenario knowledge base (Continuous Learning), the anticipation of the behavior of other road users, the analysis and verification of the ego vehicle’s driving trajectory in view of the traffic rules and quite simply the monitoring of the vehicle and the route from a distant location.

Certainly, it is no coincidence that the new market players mentioned above have recognized the benefits of IT solutions in automotive scenarios right from the start. They take advantage of the resulting flexibility in the technical development and especially they apply IT proven procedures for the validation of driving functions. Also, they adopt the perspectives for potential disruptive changes in mobility concepts.

Enormous pressure on established OEMs, suppliers and engineering service providers results from this situation. Both technological approaches, the classical automotive one and the merely IT based one have their strengths and weaknesses. With respect to future mobility solutions, the benefits of the IT world (including the capability to process large amounts of data, rapid updates, usage of AI methods, deep learning) must be combined with the benefits of the ES world (including the close union of HW and SW, high efficiency, compact algorithms, real-time capability).

The decisive technological requirement arising from this is the connectivity capability of the different subsystems inside the car and the interconnection of the vehicle system with the overall network. The core requirement is the availability of highly secure and operationally reliable data connections with a high-bandwidth. Provided this is ensured, functionally safe applications (Safety) distributed over a heterogeneous system environment of IT and ES systems can be established. At the same time, of course, the highest standards must be applied on data security (IT security). Finally, functional safety is ruled by the simple precept „without security, there is no safety„.

The technological cornerstones for maintaining the functional safety of IT back ends are:

    • Function-dependent end-to-end latency < 20 ms … < 1sec
      (transit time measured from on-board to IT back end, and backwards)
    • 24/7 availability and third-level technical support
    • Protection of data integrity from cyber attacks
    • Anonymization of the data
    • Continuous updating of protective measures
    • Scalability of services

With the advent of the cellular standard 5G, the foundations have been laid for high-security data links with low latencies („signal propagation time„, delay between triggering and the effective execution of an action or response). The highly secure networking between the embedded systems in the vehicles on the one hand and the corresponding IT back ends on the other will thus provide a significant contribution to the further evolutionary steps in driver assistance towards reliable higher automation functions and autonomous driving.

Nevertheless, there can be no doubt that even with this holistic approach the way to the driverless car that rules the full variety of traffic scenarios („autonomous drivingin the truest sense of the word) is still far away. There may be people who are saying, what’s the matter, that’s possible, Google has done it already. Others have also shown that cars can maneuver in real world traffic scenarios without driver intervention. Yes and no! Here we have to put into perspective, that all of these examples are far away from the required technological maturity and readiness for mass use under arbitrary real traffic conditions. – Let’s do the litmus test and remind ourselves again of the scenario mentioned above: Would we gain the confidence to entrust our preschool children to an autonomous vehicle (without accompany of adults) which should them take to the grandparents living at the other end of the city? – Provided, we can answer in the affirmative without hesitation we have reached the goal, not earlier.

In the medium to long term there will be an extensive technological convergence of the IT world and the ES world. We already see the beginnings of this process. For example, there are more and more dedicated AI chips used in both environments, ES and IT. Among other things this is the progression that is driving and pioneering the convergence. This process has the power to bring together the still separated worlds of ES and IT. An additional transformation pressure comes from those highly complex new automation functions with multiple cross system dependencies. Paradoxically, precisely the use cases that are easy to describe (for example, the car should drive from address A to address B, completely independent from any driver interaction) are calling for a holistic view, thus driving the convergence process.

Autonomes Fahren – Wie kann die nötige Funktionssicherheit in hochkomplexen Szenarien hergestellt werden?

(switch to english)

Um die Antwort vorwegzunehmen: Das entscheidende Plus an funktionaler Sicherheit entsteht durch das konstruktive Zusammenwirken von On-Board-Systemen und IT-Backends.

Emissionsfreie Mobilität und hochautomatisiertes Fahren sind die bestimmenden Zukunftsthemen für Automotive-OEM und Zulieferer. Eingebettete Systeme (ES) im Fahrzeug (On-Board) sind dabei zusammen mit hochleistungsfähigen Backend-IT-Systemen (Off-Board) die Wegbereiter zur Realisierung dieser ambitionierten Ziele. Der Schlüssel liegt in der intelligenten Verbindung beider Welten.

Auf dem Weg zur Realisierung hochautomatisierter und autonomer Fahrfunktionen sehen sich etablierte OEM, Zulieferer und Engineering-Dienstleister der Aufgabe gegenüber, neuartige und hochkomplexe Kundenfunktionen wirtschaftlich zu realisieren. Zugleich verändert sich der Markt rapide durch das Auftreten von neuen und unkonventionellen Mitspielern wie Google, Apple, Tesla, Faraday, Uber und anderen, die sowohl technologisch wie auch bezüglich der verfolgten Geschäftsmodelle teilweise radikal neue Wege gehen. Dieser Wettbewerb kommt überwiegend aus der Welt der IT und versteht das Auto vor allem als „fahrende Software“.

Der bewährte, von den Premium-OEMs und ihren Zulieferern vielfach erprobte Technologiezugang basiert auf der mehr oder weniger autarken Funktionsdarstellung mittels On-Board-Sensorik und eingebetteten Systemen im Fahrzeug. Das ist das Erfolgsrezept mit dem das vormals noch weitgehend mechanische oder mechatronische System Automobil seit mehr als 20 Jahren um immer mehr Elektronik und Software technologisch erweitert wird. Und dies überaus erfolgreich: Viele Fahrzeugfunktionen wurden nach und nach komplett als eingebettete Systeme mit integrierter Software realisiert. An der Spitze der Entwicklung stehen heute komplexe Fahrerassistenzsysteme bis hin zum hochautomatisierten Fahren (Automatisierungsgrad Level 3 / Conditional Automation). Wie gesagt, das alles On-Board und im Wesentlichen ohne aktive Kommunikation mit der Außenwelt!

Noch vielfach komplexer ist die Verwirklichung von Funktionen mit den geforderten höheren Automatisierungsgraden (Level 4 und höher / High und Full Automation bzw. Autonomes Fahren). Insbesondere im urbanen Umfeld, z.B. sicheres Passieren einer mehrspurigen städtischen Kreuzung, stellen sich hier extrem schwierigere Aufgaben die heute noch nicht sicher bewältigt werden können.

Würden wir auf der ausschließlichen Basis einer – autark arbeitenden – On-Board Systemlösung das Vertrauen entwickeln, Kinder im Vorschulalter von einem autonomen Fahrzeug und ohne Begleitung Erwachsener zu den am anderen Ende der Großstadt wohnenden Großeltern bringen zu lassen? Das ist kaum vorstellbar!

Um solche hochkomplexen und hochkritischen Anwendungsfälle funktional sicher umsetzen zu können, braucht man neue Lösungen: Ein erfolgversprechender Ansatz besteht darin, bestimmte Teilfunktionen der Gesamtaufgabe aus dem Fahrzeug herauszunehmen und in ein IT-Backend auszulagern oder dort redundant zu realisieren. Dabei geht es beispielsweise um rechenintensive Anteile der Darstellung und Interpretation des digitalen Weltbilds, die Verarbeitung großer Datenmengen, die Bestimmung von Handlungsalternativen in der Fahrstrategie mittels KI-Methoden (KI = Künstliche Intelligenz), die kontinuierliche Erweiterung der Szenario-Wissensbasis (Continuous Learning), das Voraussehen des Verhaltens anderer Verkehrsteilnehmer, die Plausibilisierung der eigenen Fahrtrajektorie sowie ganz schlicht das Monitoring des Fahrzeugs und der Fahrstrecke von einem anderen Ort aus.

Es ist gewiss kein Zufall, dass die oben genannten neuen Marktplayer von Anfang an den Nutzen von IT-Lösungen erkannt und die damit verbundene Flexibilität in der Entwicklung, der Validierung und der revolutionären Veränderung des Gesamtsystems Automobil oder allgemeiner von Mobilitätskonzepten insgesamt für sich nutzbar zu machen suchen.

Aus diesem Spannungsfeld erwächst ein enormer Druck auf die etablierten OEM, Zulieferer und Engineering-Dienstleister. Beide technologischen Ansätze haben ihre Stärken und Schwächen, es kommt darauf an, bezüglich künftiger Mobilitätslösungen die Vorteile der IT-Welt (u.a. Verarbeitung großer Datenmengen, schnelle Updates, Einsatz KI-Methoden, Deep Learning) mit den Vorteilen der ES-Welt (u.a. enge Verzahnung von HW und SW, hohe Effizienz, kompakte Algorithmen, Echtzeitfähigkeit) zu verknüpfen.

Die entscheidende daraus erwachsende technologische Anforderung ist die Vernetzungsfähigkeit der Teilsysteme und Systeme im Gesamtverbund. Es geht dabei um sichere, nein, um hochsichere und absolut verlässliche Datenverbindungen in hoher Bandbreite. Nur dann, wenn dies gewährleistet ist, lassen sich funktional sichere Anwendungen (Safety) in einem heterogenen Systemumfeld aus IT- und ES-Systemen darstellen. Gleichzeitig müssen natürlich höchste Maßstäbe an die Datensicherheit (Security) gelegt werden, denn es gilt, „Ohne Security gibt es keine Safety“.

Die technologischen Eckpunkte für die Einhaltung der funktionalen Sicherheit von IT-Backends sind:

  • Funktionsabhängig definierte End-to-End-Latenz < 20 ms … < 1 sec (Laufzeit von On-Board zu IT-Backend und zurück)
  • 7×24-Verfügbarkeit und technischer Third-Level Support
  • Schutz der Daten-Integrität vor Cyber-Angriffen
  • Anonymisierung der Daten
  • Kontinuierliche Aktualisierung der Schutzmaßnahmen
  • Skalierungsfähigkeit der Services

Mit dem Aufkommen des Mobilfunkstandards 5G sind die Grundlagen für hochsichere Datenverbindungen mit geringen Latenzen (“Signallaufzeit“, Verzögerung zwischen dem Auslösen und dem tatsächlichen Durchführen einer Aktion oder Reaktion) gelegt. Die hochsichere Vernetzung zwischen den eingebetteten Systemen in den Fahrzeugen mit den geeigneten IT-Backends wird so einen maßgeblichen Beitrag für die weiteren Evolutionsschritte in der Fahrerassistenz hin zu verlässlichen höheren Automatisierungsfunktionen und zum autonomen Fahren leisten.

Dennoch kann kein Zweifel daran bestehen, dass auch mittels dieses holistischen Lösungsansatzes der Weg zum alle Verkehrsszenarien beherrschenden fahrerlosen Auto („autonomes Fahren“ im eigentlichen Wortsinne) noch weit ist. Da mag jetzt der eine oder andere einwenden, wieso denn, das geht doch, Google macht das doch schon. Auch andere haben schon gezeigt, dass sich Autos ohne Fahrereingriff im Verkehr bewegen können. Ja und nein! Hier muss man relativieren, das ist noch lange nicht die erforderliche technologische Reife für den Masseneinsatz unter beliebigen realen Verkehrsbedingungen. – Machen wir doch den Lackmustest und rufen uns noch einmal das obige Szenario in Erinnerung: Würden wir die eigenen Kinder im Vorschulalter von einem solchen autonomen Fahrzeug und ohne Begleitung Erwachsener zu den am anderen Ende der Großstadt wohnenden Großeltern bringen zu lassen? – Dann, wenn wir diese Frage ohne Zögern mit JA beantworten können, erst dann haben wir das Ziel erreicht, nicht eher.

Mittel- bis langfristig wird es zu einer weitgehenden technologischen Konvergenz der IT-Welt und der ES-Welt kommen. Die Ansätze dazu sehen wir schon heute. Z. B. gibt es immer mehr dedizierte KI-Chips, die sowohl im ES- als auch im IT-Umfeld Verwendung finden. U. a. ist es diese Entwicklung, die als Treiber und Wegbereiter die einst völlig getrennten Welten ES und IT einander näherbringt. Ein weiterer Transformationsdruck entsteht durch die hochkomplexen und vielfachen Abhängigkeiten unterliegenden neuen Automatisierungsfunktionen. Paradoxerweise sind es dabei gerade die aus der menschlichen Perspektive heraus eher einfach zu beschreibenden Use Cases (z.B., das Auto soll völlig selbständig von Adresse A zu Adresse B fahren), die nach einer ganzheitlichen Betrachtung rufen und so den Konvergenzprozess vorantreiben.

Zur aktuellen Diskussion um den Diesel (3)

Teil 3: Feinstaub PM 2.5

Laut Umweltbundesamt gibt es pro Jahr in Deutschland bis zu 41.000 vorzeitige Sterbefälle durch von Feinstaub verursachte Erkrankungen (Herz-Lunge Erkrankungen, Lungenkrebs).

Ist daran der Diesel schuld? Wenn man der teilweise hysterischen öffentlichen Diskussion folgt, dann scheint das erwiesen. Doch schauen wir auf die Fakten.

Die Daten des Umweltbundesamtes helfen weiter. Wie man der Grafik zum Feinstaub (PM 2.5) unten unschwer entnimmt, waren es in 2015 verkehrsbedingt etwa 23.000 t bei einer Gesamtemission von 100.000 t, mithin wurden ca. 23% des Feinstaubs der Partikelgröße 2.5 µm vom Verkehr verursacht. Landwirtschaft, Industrie und Haushalte emittieren zusammen 63.000 t, also fast 3-mal soviel (63%).

(Zur vergrößerten Darstellung auf die Grafik klicken)

Man kann darüber spekulieren, welcher Anteil der genannten 23% auf Dieselfahrzeuge zurückzuführen ist. Bekannt ist jedenfalls, dass Reifen und Bremsabrieb einen nennenswerten Anteil haben, also emittieren auch Benziner und sogar Elektrofahrzeuge Feinstaub. Auch bei einer vollständigen Umstellung auf E-Fahrzeuge wird der Feinstaub daher nicht verschwinden und allenfalls – s.o. – messbar reduziert.

Weniger Ideologie, mehr Rationalität! Das würde der Diskussion nicht schaden.

Zur aktuellen Diskussion um den Diesel (2)

Teil 2: Feinstaub PM 10

Laut Umweltbundesamt gibt es pro Jahr in Deutschland bis zu 41.000 vorzeitige Sterbefälle durch von Feinstaub verursachte Erkrankungen (Herz-Lunge-Erkrankungen, Lungenkrebs).

Ist daran der Diesel schuld? Wenn man der teilweise hysterischen öffentlichen Diskussion folgt, dann scheint das erwiesen. Doch schauen wir auf die Fakten.

Hier helfen ebenfalls die Daten des Umweltbundesamtes weiter. Wie man der Grafik zum Feinstaub (PM 10) unten unschwer entnimmt, waren das in 2015 verkehrsbedingt etwa 32.000 t bei einer Gesamtemission von 221.000 t, mithin wurden ca. 14% des Feinstaubs der Partikelgröße 10 µm vom Verkehr verursacht. Landwirtschaft, Industrie und Haushalte emittieren zusammen 170.000 t, also fast 6-mal soviel (80%).

(Zur vergrößerten Darstellung auf die Grafik klicken)

Ergo: Wenn man Fahrverbote für Diesel erlässt, dann muss man eventuell auch darüber nachdenken, die Nahrungsmittelaufnahme und die Industrieproduktion einzustellen, außerdem sollte man die Wohnung nicht mehr heizen.

Ein wenig mehr Rationalität würde der Diskussion nicht schaden. Jedenfalls wird die Elektromobilität (so wünschbar sie auch immer sei), die Feinstaubemission nicht wirklich durchgreifend reduzieren.

 

Zur aktuellen Diskussion um den Diesel (1)

Teil 1: Stickoxide

Eine bemerkenswerte Grafik des UMWELTBUNDESAMTES zeigt, dass sich die verkehrsbedingte Emission von Stickoxiden im Zeitraum zwischen 1990 und 2015 von 1,5 Mio. t auf weniger als 0,5 Mio. t gedrittelt hat … bei gleichzeitig deutlich gestiegenem Verkehrsaufkommen.

(Zur vergrößerten Darstellung auf die Grafik klicken)

 

Das ist ein Erfolg der technologischen Entwicklung in der Abgasreinigung und zeigt, dass die Automobilindustrie – unabhängig von den betrügerischen Einzelfällen – einen guten Job gemacht hat. Wenn allerdings gleichzeitig die Grenzwerte noch stärker abgesenkt werden, dann kann bei unreflektierter Betrachtung oder wissentlich falscher Auslegung der Eindruck eines Versagens entstehen. Das Gegenteil ist der Fall.

Nötig ist daher: Weniger Emotion, mehr Vernunft. Die hysterische Diskussion ist irrational und führt nicht weiter. Wir brauchen weder Fahrverbote, noch eine Verteufelung des Diesels insgesamt.

Umgekehrt muss man aber auch nicht für alle Zeiten krampfhaft an den Verbrennern festhalten: Die Zeit für einen maßvollen Wandel hin zu einem Mix von neuen Antriebskonzepten ist gekommen.

Verschlafen wir die digitale Transformation?

In der Netzkommunikation trifft man immer wieder auf die These, wir würden die digitale Transformation oder die Digitalisierung verschlafen. Vielen geht das alles zu langsam voran. Fantastische Anwendungen sind heute schon möglich und wir nutzen sie nicht oder sind nicht in der Lage,  sie in Produktionsabläufe oder ganz einfach in unser Leben zu integrieren. Ist das wirklich so?

Das kann man so sehen, wenn man es schneller haben  will und das Neue – und das heißt in den allermeisten Fällen auch das Unreife, das noch nicht Praxistaugliche – kaum erwarten kann.  Man kann aber auch einen Schritt zurück treten und einen weiteren Bogen spannen: Wir sind inmitten der nunmehr schon 35 – 50 Jahre währenden digitalen Transformation – ja, so lange läuft das schon. Nehmen wir die kürzere Zeitspanne: Der IBM-PC hat die Digitalisierung in der Breite eingeläutet, die Einführung des Internet im Jahrzehnt danach hat die Entwicklung nochmals beschleunigt.

Kann man nun ernsthaft die These vertreten, die digitale Transformation finde nicht statt oder sie werde verschlafen? Wohl kaum! Ich denke, es gibt ein weit verbreitetes Missverständnis zur Digitalisierung. Man muss sich von der Vorstellung lösen, dass die Digitalisierung gewissermaßen die „natürliche Fortentwicklung“ der analogen Welt darstellt. So ist das mitnichten. Analoge und digitale Welt stehen eher orthogonal zueinander. Mit der Erfindung des Computers haben wir den uns zugänglichen Lösungsraum dramatisch erweitert. In gewisser Weise ist die Digitalisierung eine „neue“ Dimension unserer Lebenswirklichkeit, das heißt aber nicht, dass nun jede Lösung digital sein muss. Die eine Welt ist nicht „besser“ als die andere, jede hat ihre Stärken und Schwächen. Richtig eingesetzt können digitale Lösungsansätze echten Nutzen stiften, sie können aber auch albern sein. Die Pizza schmeckt nicht besser, wenn sie digital bestellt. Wie viel Prozent der weltweit täglich verzehrten Pizzen werden digital geordert? Die Zahl dürfte eher klein sein. Ist das nun gut oder schlecht? Es ist irrelevant, weil es mit Digitalisierung gar nichts zu tun hat. Es ist geradezu verkrampft, jeden nur denkbaren Prozess digitalisieren zu wollen – offenbar nur um der Digitalisierung willen und oft ohne jeden greifbaren Vorteil.

Trotz aller Elektronik und Software im Auto ist das Fahrerlebnis im Kern analog – auch mit digitalen Lenkknöpfen an Stelle eines Lenkrads wäre das noch so. Der implantierte ID-Chip macht uns noch nicht zu Cyborgs, wir bleiben in der analogen Welt verhaftet. Vielleicht würde im Gegenteil die per DNA personalisierte Hardware mehr Sinn machen und tatsächlich ein Plus an Sicherheit bringen.

Gegenwärtig heißt digitale Transformation noch, neue Anwendungsfelder erschließen, neue Möglichkeiten ausprobieren. Was wir heute an Digitalisierung sehen, sind in den meisten Fällen relativ banale 1:1 Übertragungen analoger Prozessmuster (s. Pizza). Viel mehr ist technisch aber auch nicht möglich, wenn wir nicht gleichzeitig unser Leben an sich grundlegend digitalisieren wollen: Home Office statt Büro, Besprechungen nur noch online, virtuelle 3D-Reisen statt Langstreckenflügen, usw. … Second Life statt Real Life … wer will das? Künftige Generationen vielleicht. Diese Art von umfassender Digitalisierung hat eine soziale und eine technologische Dimension. Wir beherrschen beide nicht!

Nüchtern betrachtet muss man konstatieren, dass die Technologie für eine durchgreifende Digitalisierung noch in den Kinderschuhen steckt. Deswegen ist es richtig, dass es auch nur „relativ“ langsam vorangeht. Wir spielen mit der Digitalisierung, wie Kinder mit Legobausteinen. Was uns die Technik bietet, hat ungefähr diesen Reifegrad. Damit können Kinder wunderbare Sachen basteln und viel Spaß haben, es ist aber doch nur ein Spiel. Facebook oder Twitter sind für mich solche Bei-„Spiele“. Das IoT (Internet of Things) ist nur theoretisch möglich, in der Praxis ist die Technologie weder sicher noch zuverlässig und daher auch nicht wirklich praktikabel. Ja gewiss, im prototypischen Umfeld funktioniert alles Mögliche, der Schritt in die Breite aber, die durchgängige Anreicherung mit werthaltigem Inhalt, die Verfügbarkeit der Daten, die Verlässlichkeit der Funktion, die Einfachheit der Anwendung, die Sicherheit der Nutzung, der Datenschutz, … Fehlanzeige. Nicht weil hier überall noch Detailproblem zu lösen sind oder weil die Anbieter respektive Nutzer einfach nicht aus dem Quark kommen, sondern weil es in Summe, in der Vielgestaltigkeit der Querbeziehungen technisch (noch) zu komplex ist, weil die Technologie noch nicht reif ist. Letztendlich fehlt der Nutzen.

Meine These ist: In vielen Anwendungsfeldern wird echter Nutzen in Breite und Tiefe so lange ausbleiben, bis wir in der Lage sind, intelligentes Verhalten zu programmieren. Gegenwärtig sind wir dazu in den allermeisten wirtschaftlich relevanten Einsatzszenarien noch nicht imstande … denn Künstliche Intelligenz ist das, was es noch nicht gibt.

Algorithmen und andere Missverständnisse

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) fordert in einem Namensartikel von Heiko Maas in der Zeit eine Charta der digitalen Grundrechte. Unter Artikel 4 steht da „Kein Mensch darf zum Objekt eines Algorithmus werden.“

Der Terminus Algorithmus soll hier großzügig als Metapher für eine maschinengestützte Faktenverarbeitung und Entscheidung verstanden werden. Eigentlich geht es hier im Kern um „Künstliche Intelligenz“, nicht banal um singuläre Algorithmen auf der Ebene von Kochrezepten. Die Formulierungen im zitierten Artikel 4 sind nicht gerade auf der Höhe der Zeit und spiegeln ein rückwärtsgewandtes Verständnis von künstlicher Intelligenz wider. Künstliche Intelligenz erschöpft sich nicht in der banalen Abbildung logisch folgerichtiger Schlüsse.

Künstliche Intelligenz erhebt den Anspruch, in komplexen Situationen und auf Basis unsicherer und unvollständiger Informationen zu nachvollziehbaren und im Einklang mit menschlichen Verhaltensweisen stehenden vertretbaren Entscheidungen zu kommen. Und dies mit größerer Sicherheit und schneller, als dies ein Mensch je könnte.

Ein Beispiel: Nehmen wir ein Auto kurz vor einem unvermeidlichen Crash. Der Fahrer kann sich nur noch entscheiden, ob er die Mutter mit Kind auf der rechten Straßenseite oder das ältere Ehepaar links davon überfährt. In beiden Fällen mit vermutlich tödlichen Konsequenzen. Was soll er tun? – Es gibt keine allgemeingültige Regel dafür, weil jeder Fall spezifische Besonderheiten aufweist: Beim Fahrer, seinem Lebenshintergrund, seinen konkreten Erfahrungen, aber auch bei den potentiellen Opfern, ihrem Verhalten, oder ganz banal ihrem Aussehen. Der Fahrer wird sich irgendwie entscheiden und sich danach dafür verantworten müssen. Dafür haben wir Regeln, die wir Gesetze nennen, ergänzt um manchmal ungeschriebene ethische Grundsätze.

Wie verhält es sich bei der „künstlichen Intelligenz“? Bezüglich der Entscheidungsgrundsätze nicht wesentlich anders. Der Unterschied liegt vor allem darin, dass bei der maschinellen Entscheidung u. U. keine natürliche Person für die eventuellen Folgen verantwortlich gemacht werden kann. Das ist aber im Kern kein Problem eines Algorithmus oder der künstlichen Intelligenz, sondern unseres Rechtssystems. Die „künstliche Intelligenz“ selbst könnte dabei sehr viel besser als der durchschnittliche Mensch im Hinblick auf die tatsächliche Unfallfolgenminimierung auf Basis der geltenden juristischen und allgemein akzeptierten ethischen Grundsätze entscheiden.

Der menschliche Fahrer mit eigenem Kleinkind wird das Lenkrad erschreckt in Richtung auf das ältere Paar herumreißen, auch dann, wenn Mutter und Kind in 9 von 10 Fällen bei genauerer Evaluierung wahrscheinlich nur leicht verletzt werden würden. Umgekehrt wird der Fahrer, der in der älteren Frau seine Mutter zu erkennen glaubt impulsiv in die andere Richtung lenken und damit möglicherweise einen folgenschweren Fehler begehen. Ist das besser, als sich im Vorfeld genaue Gedanken zu machen und intelligente Regeln zu formulieren? Ist das gerecht?

Eine echte „künstliche Intelligenz“ wird innerhalb von Bruchteilen von Sekunden genau die Entscheidung treffen, die bei Abwägung aller Optionen und potentiellen Folgen im Hinblick auf Schäden für Leib und Leben, Sachschäden, Rechtsfolgen und Kosten unter Abwägung der Risiken und Eintrittswahrscheinlichkeiten insgesamt das Optimum darstellt. Dazu muss man neben den rein physikalischen Risikoeinschätzungen „nur“ noch die juristischen und metaphysisch-ethischen Grundsätze in gleicher Weise abbilden – Das ist es, was den Kern eines solchen „Algorithmus“ ausmacht. Es sind nicht die Lerndaten. Letzten Endes haben diese nur den Charakter von situativ unscharfen Konfigurationsparametern, mehr nicht. Entscheidend sind die immanenten Metadaten und die das Verhalten beschreibenden Zusammenhänge (Metaregeln). Und natürlich kann man diese Metadaten, Regeln und Verhaltensbeschreibungen – im engeren Sinne wäre dies der Algorithmus – einer kritischen Prüfung unterziehen und bewerten. Wenn man so will, ist das der Algorithmus-TÜV.

Nehmen wir ein einfaches Modell: Es gibt einen Input \(x\) und es gibt einen Konfigurationsparameter \(p\). Der Algorithmus \(A\) bestimmt nach Maßgabe des Konfigurationsparameters \(p\) aus dem Input \(x\) den Output \(y\), formal \(A_{p}(x)  \rightarrow {y}\). Bei einem lernenden Algorithmus ist das nicht anders, nur dass eben hier der Parameter \(p\) nicht oder nur ungefähr bekannt ist. Das ändert doch aber nichts an der grundsätzlichen algorithmischen Formulierung. Der Algorithmus beschreibt den Satz von Regeln, wie bei gegebenen \(p\) aus dem Input \(x\) der Output  \(y\) bestimmt wird. Das kann geprüft und bewertet werden. Und es kann auch geprüft und bewertet werden, wie sich die Regeln bei Variation von \(p\) verändern, Variationen und stochastische Unschärfen eingeschlossen.

Bei lernender Software geht es i. d. R. nicht darum, aus dem Nichts heraus algorithmische Lösungen zu entwickeln. Der Ansatz ist vielmehr, bestehende Lösungen systematisch zu verbessern verbunden mit der Fähigkeit zur situativen Adaption und Optimierung. Vernünftige lernende Software basiert zunächst auf Problemverständnis und Erfahrungswissen. Genau so arbeiten auch wir Menschen.

Am Beispiel der Linsensuppe wird deutlich, dass auch Venkatasubramanian (zitiert in „Es genügt nicht, Algorithmen zu analysieren„) das so sieht: Da ist die Rede von einem Koch (das ist jemand, der kochen kann, der also das nötige Problemverständnis hat). Der Koch fragt die Gäste nach ihren Rezepten (da steckt das Erfahrungswissen). Erst jetzt beginnt die Zubereitung. Was den Algorithmus ausmacht ist am Ende nicht das banale Rezept für die Linsensuppe, sondern die Einhaltung der grundlegenden Regeln und die Berücksichtigung der Zusammenhänge (Metadaten-/regeln). Im konkreten Beispiel: Gewürze sind Zutaten und keine Hauptbestandteile, Zyankali als Gewürz ist verboten, …, die Reihenfolge der Zubereitungsschritte orientiert sich an biochemischen Gesetzmäßigkeiten, …, die Suppe wird nicht kochend serviert, eine Gabel als Essbesteck wird gar nicht erst probiert, … Diese Metadaten und Regeln machen den Algorithmus aus und können evaluiert werden. Der Algorithmus bildet die Fähigkeiten eines Kochs ab. Das kann bewertet und überprüft werden. Ob die Suppe am Ende schmeckt ist genauso unbestimmt, wie auch im Falle des menschliches Kochs. Das wäre aber auch nicht Gegenstand des TüV-Zertifikats (im Sinne der Forderung des BMJV).

Deswegen: Ja, man kann Algorithmen prüfen, man muss sie sogar prüfen. Indessen ist dieser Prozess nicht trivial und erfordert die Kenntnis des Kontexts. Das ist gewiss nicht neu, es ist aber insofern komplexer, als die Algorithmen über die wir hier reden den Anspruch erheben, intelligentes Verhalten abzubilden. Im engeren Sinne sind daher nicht die Lerndaten relevant, sondern die Regeln für die Verarbeitung derselben. Das ist der Algorithmus!

Die Forderung des BMJV nach einem Algorithmen-TÜV ist daher nicht ganz falsch, sie muss aber weiter gefasst werden. Es ist absolut nicht trivial, das Verhalten eines komplexen, intelligentes Handeln widerspiegelnden Algorithmus zu analysieren. Wir reden hier von einem Testat über eine „künstliche Intelligenz“. Das ist ähnlich schwierig, wie die Beurteilung eines Menschen. Dafür brauchen wir letzten Endes so etwas wie Computerpsychologie, auch wenn das zum jetzigen Zeitpunkt noch wie Science Fiction klingt.

Brauchen wir Elektromobilität?

Tesla macht es vor: E-Fahrzeuge sehen chic aus, sind trendig und können obendrein auch noch sportlich sein. Kein Zweifel, für einen – relativen – Newcomer liefert Tesla wirklich anständige Fahrzeuge, ja, man darf schon sagen, richtig gute. Im Hinblick auf neue Konzepte für Antrieb, Infotainment und Fahrerassistenz ist das zunehmend eine ernsthafte Konkurrenz für deutsche Premiummarken. Grundsätzlich zumindest!

Aber ebenfalls kein Zweifel: Jeder der bekannten deutschen Hersteller BMW, Daimler und VW/Audi/Porsche, wäre jederzeit in der Lage, ein technisch mindestens gleichwertiges Produkt auf die Straße zu bringen und hätte dies auch schon vor 3 Jahren tun können. Das gleiche gilt für Japaner, Franzosen und andere. Um es ganz klar zu formulieren: Ein Elektrofahrzeug ist alles in allem technisch einfacher, als die hochgezüchteten Verbrenner nicht nur der deutschen Premium Marken. Es gibt nur eine große technische Herausforderung: Die Batterie.

Nichtsdestotrotz, pragmatisch gesehen ist das Potential da und die technische Umsetzungsfähigkeit gegeben. Warum haben die vielgescholtenen Hersteller dann nicht schon längst ein zum Tesla S vergleichbares E-Fahrzeug auf den Markt gebracht? Offenbar fehlt noch der unternehmerische Mut. Oder gibt es andere Gründe? Zumindest einmal diesen:

(1) Sie wollen und müssen mit ihren Fahrzeugen Geld verdienen. Man kann durchaus bezweifeln, dass dies mit E-Limousinen a la Tesla derzeit überhaupt möglich ist. Tesla selbst schafft es offenbar nicht in die Gewinnzone (s. hier). Es gibt noch einen weiteren Faktor: Die klassischen Produkte der Premium Marken verkaufen sich wie warme Semmeln. Gewissermaßen steht ihnen daher ihr eigener Erfolg im Wege. Warum sollten sie jetzt schon einen Zwang zur Neuorientierung verspüren? Diese Zeit wird gewiss kommen, aber ist sie wirklich schon jetzt? Dazu später.

Es gibt außerhalb der Sphäre der Automobilhersteller noch einem zweiten Grund, der gegenwärtig nicht gerade für Elektromobilität spricht.

(2) Der deutsche Strommix (25% Braunkohle, …, 26% erneuerbare Energien) resultiert in ca. 500 – 600g CO2/kWh. Ein Tesla S Performance (2014) ist mit einem gemittelten Verbrauch von ca. 24 kWh/100 km (EPA) angegeben (in der Praxis sind es, je nach Nutzung, dann doch deutlich mehr). Nun kann sich jeder leicht ausrechnen, dass dies zu einem äquivalenten CO2-Ausstoß von ca. 120 – 144 g / km führt. E-Fahrzeuge vom Schlage eines Tesla S sind daher – zumindest auf Basis des deutschen Strommix‘ – derzeit auch umweltpolitisch KEIN echter Schritt nach vorn und leisten KEINEN signifikanten Beitrag zur Verbesserung der CO2 Bilanz.

Und auch wenn man den kompletten Produktionszyklus und die Aufwände für die Energieerzeugung und den Transport mit einbezieht, bleibt für die Elektromobilität nur ein kleiner Vorteil von etwa 10% geringeren Emissionen: Damit erreicht man praktisch gesehen die Messbarkeitsstufe. Angesichts der Tatsache, dass der Anteil des Individualverkehrs an den gesamten CO2 Emissionen in Deutschland gerade einmal bei etwa 10 – 12% liegt, heißt dies was genau? – Es bedeutet Folgendes: Wenn wir alle zusammen ab sofort auf Elektromobilität umsteigen, dann sparen wir etwa 1% der CO2 Emissionen ein. In Worten „ein einziges Prozentpünktchen“! – Das Weltklima werden wir so nicht beeindrucken und noch weniger werden wir es mit dieser Maßnahme retten können.

Zurück zur Frage Tesla vs. Diesel Limousine. Nun mag man betreffend Punkt 2 einwenden, der Tesla S liege damit als relativ große und schwere Limousine gut im Rennen. Uneingeschränkt ja! Er liegt aber nicht nennenswert besser, als vergleichbare Diesel-Limousinen bei insgesamt ähnlichen Fahrleistungen (tendenziell agiler im Antritt, dafür i. d. R. schwächer in der Vmax und mit sehr viel geringerer Reichweite). Und hinsichtlich der erzielten Erlöse nach Punkt (1) spielen die genannten konventionellen Konkurrenzprodukte für die Hersteller geradezu die Rolle der Cash-Cow. Ausgehend vom Status quo wäre es, wirtschaftlich gesehen, grob unvernünftig, auf diese Erträge zu verzichten. Genauso, wie es umgekehrt vernünftig ist, dass Tesla E-Fahrzeuge und nicht etwa Diesel anbietet.

Die großen und schweren Diesel- und Benzin-Limousinen werden ja gerne als Dinosaurier bezeichnet, die früher oder später aussterben werden. Vielleicht! Unter den gegenwärtigen Randbedingungen (Energiemix) ist indes der Tesla S gleichfalls ein Dinosaurier. Man muss sich in Erinnerung rufen, vor 65 Millionen Jahren sind nicht nur die „bösen“ fleischfressenden Dinos ausgestorben, die „sanften“ pflanzenfressenden hat das gleiche Schicksal ereilt. Eine Überlebenschance – um im Bild zu bleiben – gibt es aber für smarte Lösungen a la BMW i3 und andere dieser Art.

Der Hauptvorteil eines E-Antriebs liegt in dem erreichbaren hohen Wirkungsgrad von über 90%, dahingegen liegen die klassischen Verbrenner nur bei etwa 35% – 45%. Dieser Vorteil lässt sich indes nur dann wirklich realisieren, wenn der Strom regenerativ erzeugt wird (Wasserkraft, Windkraft, Solar, …). Punkt! Bei der Stromerzeugung mittels Braunkohle, Steinkohle oder z.B. auch Erdgas hat man unterm Strich nichts oder fast nichts gewonnen und das Problem der CO2 Emission nur verlagert. Und die Wirkungsgrade von Kraftwerken liegen aus physikalischen Gründen auf ähnlichem Niveau wie die von Verbrennungskraftmaschinen im Auto. Bei Braun- oder Steinkohle ist zudem der CO2 Ausstoß deutlich höher. Über die Nutzung von Abwärme (Kraftwärmekopplung) kann man den Wirkungsgrad graduell erhöhen, das Grundproblem aber bleibt bestehen.

Kommen wir zu den Nachteilen des E-Antriebs. Das Hauptproblem ist, dass man die benötigte elektrische Energie nicht wirklich gut speichern kann. Die Energiedichte von Li-Ion-Akkus liegt derzeit bei ca. 0,1 – 0,2 kWh/kg, Superbenzin oder Diesel dagegen bieten ca. 12 kWh/kg, das ist der 60- 120-fache Wert. Und auch wenn man den ca. doppelten Wirkungsgrad des E-Motors berücksichtigt, bleibt effektiv eine nutzbare 30 – 60-fach höhere Energiedichte bei den fossilen Kraftstoffen. Der 85-kWh-Akku des Tesla S wiegt 600 kg; ca. 7 kg (etwa 8,4 l) Diesel enthalten die gleiche Energiemenge. Unter Berücksichtigung des Motorwirkungsgrads steckt daher in 14 kg Diesel (etwa 17 l) die gleiche effektiv für Vortrieb nutzbare Energiemenge.

Übrigens: Die genannten 17 l Diesel emittieren bei effektivster Nutzung in der Verbrennung etwa 45 kg CO2, das ist ungefähr die gleiche Menge, die in einem mit deutschem Strommix vollgeladenen Tesla-S-Akku steckt (42 – 51 kg CO2), und die er sich dann auch als CO2-Ausstoß anrechnen lassen muss.

Mit anderen Worten: Es gehört schon eine gehörige Portion Blauäugigkeit dazu, zu glauben, Elektromobilität in der aktuellen Entwicklungsstufe sei bereits die Lösung. Sie ist es erst dann, wenn die elektrische Energie regenerativ erzeugt wird und eine deutlich effektivere Speichermethode verfügbar ist (z.B. Akkus mit günstigeren Energie- und Leistungsdichten, Brennstoffzellentechnologie). Auf dem Übergang dahin kann man sich, bei vernünftiger Betrachtung, jegliche Form von „Glaubenskriegen“ sparen.

Damit ist das Thema für’s erste erledigt, könnte man meinen. Falsch!

Meiner Meinung nach ist JETZT der richtige Zeitpunkt, ernsthaft mit der Entwicklung vollelektrischer Fahrzeuge zu beginnen. Keine Verzichtsautos, keine Benziner mit Elektromotor, sondern Elektrofahrzeuge mit den Genen von Effizienz, Umweltfreundlichkeit und dem vom Kunden erwarteten Spaßfaktor. E-Autos fahren macht unbändigen Spaß. Beschleunigen, wie an der Schnur gezogen, leise wie eine Nähmaschine, und beim Bremsen wird die kinetische Energie wieder in die Batterie zurück gespeist. BMW hat es mit dem i3 vorgemacht: dieses Konzept ist ausbaufähig. Und zwischen 3 und 8 ist noch viel Platz für weitere Modelle. Wer jetzt startet, wird noch vor dem Ende des Jahrzehnts, wenn die Preise für Rohstoffe wieder auf Normalmaß gestiegen sind mit einem Modell oder einer kleinen Modellpalette am Markt sein können. Zugleich steigt der Anteil erneuerbarer Energien im Strommix weiter an und damit wird auch ökologisch gesehen Elektromobilität zu einer seriösen Alternative.

Keine Frage, heute ist der Markt für E-Fahrzeuge wirtschaftlich gesehen noch völlig unattraktiv.  Kaum jemand verdient Geld damit. Das kann aber schon zu Beginn des nächsten Jahrzehnts ganz anders werden. Es gibt eine Reihe von Synergien zwischen Elektromobilität, Connected Car Lösungen und Autonomiekonzepten (hochautomatisiertes und autonomes Fahren). Gegenwärtig wird die Technologie getrieben von den neu in den Mobilitätsmarkt eindringenden Digitalisierungsgiganten Google und Apple, begleitet von einigen noch kleinen innovativen und agilen Mitspielern wie Tesla. In dieser Gemengelage wird intelligente  Elektromobilität ein wichtiger Faktor sein und kann schon bald zur Wachstumslokomotive werden. Wer dann ohne Produkt dasteht wird es schwer haben, den Anschluss zu gewinnen.

Für die deutsche Wirtschaft, sogar für Deutschland insgesamt würde es fatal sein, sollte dieser Markt sich ohne uns entwickeln. Dann müssen sich auch unsere Politiker umstellen. Ohne eine prosperierende Automobilindustrie werden die Brötchen hier sehr schnell kleiner werden. Und ein Europa ohne ein leistungs- und zahlungsfähiges Deutschland kann ich mir beim besten Willen nicht vorstellen.

(Bild: ©BMW)