Alle Beiträge von sumymus

Die Drei von der (Diesel-)Tankstelle

Die deutschen Automobilhersteller, sich selbst als Premium verstehend, sind dabei, die Marke German Engineering und Made in Germany insgesamt massiv zu beschädigen. Über Jahre hinweg haben sie – offenbar fast alle – sowohl die Verbraucher als auch die Politik hinters Licht geführt. – So einfach kann die Welt sein! Kein Wort davon, dass sich Politik und Verbraucher freilich auch allzu gerne haben täuschen lassen. Da wir in einem Rechtsstaat leben muss man indessen scharf unterscheiden zwischen dem Betrug durch den Einbau von Software zur Vortäuschung günstiger Abgaswerte auf dem Prüfstand, wie er zumindest VW, Audi und Porsche zweifelsfrei nachgewiesen werden konnte, und dem Ausnutzen von letztlich legalen Schlupflöchern in den Richtlinien zur Messung der Schadstoffemissionen, wie es mehr oder weniger von allen Herstellern weltweit praktiziert wird.

Bezüglich der offensichtlichen Betrugsfälle kann es keine Nachsicht geben. Die betreffenden Hersteller haben über Jahre hinweg Gewinne gescheffelt auf Kosten und zu Lasten von Verbrauchern und der Allgemeinheit. Man muss dies in aller gebotenen Schärfe anprangern und darf nicht Ruhe geben, bis Abhilfe geschaffen ist. Und da es sich um Betrug handelt müssen auch strafrechtliche Konsequenzen gezogen werden. So ist es jedenfalls dann, wenn der einfache Staatsbürger die Grenze des Erlaubten überschreitet und deswegen kann es hier keine Ausnahmen geben, wenn nicht der Glaube an die Rechtsstaatlichkeit insgesamt Schaden nehmen soll.

Eine ganz andere Sache ist indes die Divergenz zwischen den gemessenen Emissionen auf dem Prüfstand und den tatsächlichen Schadstoffemissionen im realen Fahrbetrieb. Aufgabe der Automobilhersteller war und ist es, dafür Sorge zu tragen, dass die gesetzten Grenzwerte in der definierten Prüfprozedur und natürlich auch ohne Manipulationen am Prüfling eingehalten werden. Fahrzeuge, die dieser Prüfung standhalten dürfen vom Hersteller verkauft werden und darf der Verbraucher erwerben im Vertrauen auf viele Jahre Nutzungszeit – ohne nachträglich verfügte Einschränkungen und schon gar nicht mit der Aussicht auf Fahrverbote. Alle Beteiligten wussten von Anfang an, dass diese Prüfprozedur vor allem der Vergleichbarkeit der verschiedenen Modelle dient. Allen war von Anfang an klar, dass die Emissionen im realen Fahrbetrieb deutlich über den in der Prüfprozedur gemessenen Werten liegen. Vor allem wussten es die Hersteller selbst, die dies aber nur allzu gern verschwiegen, aber ebenso wusste die Politik darüber Bescheid und natürlich war es auch für jeden einigermaßen interessierten Verbraucher kein Geheimnis. Alle gemeinsam haben lieber auf die ach so schönen, weil niedrigen CO2-Emissionen geschaut und sich über den Beitrag zur Rettung des Weltklimas gefreut. Nichtsdestotrotz tragen nicht alle den gleichen Anteil an Verantwortung. Bei alledem muss man festhalten, dass, entgegen der teilweise hysterischen Diskussion,  die verkehrsbedingte Emission von Stickoxiden in den letzten 25 Jahren dramatisch zurückgegangen ist, wie die Daten des Umweltbundesamtes belegen.

Der Verbraucher denkt zunächst einmal an sich und seinen eigenen Vorteil. Er darf und soll in einer Marktwirtschaft wirtschaftlich handeln, deswegen darf man es ihm nicht verdenken, wenn er sich in seinen Kaufentscheidungen auch an den Vorgaben der Politik orientiert und z.B. Steuervorteile oder niedrige Betriebskosten beim Diesel einkalkuliert. Natürlich muss er zu einem gewissen Grade auch darauf bauen, dass die Hersteller ihm Produkte anbieten, aus denen er den gewünschten Nutzen tatsächlich ziehen kann. So funktioniert freie Wirtschaft in einem demokratischen Staatswesen. Vor allem sollte der Verbraucher auf die Politik vertrauen dürfen, darauf, dass die gegenwärtigen und zukünftigen Rahmenbedingungen für seine privaten Investitionen stabil und vorhersehbar sind. Drohende Fahrverbote sind gerade kein Ausdruck von Verlässlichkeit und gehen auf das Konto der Politik, nicht auf das der Justiz, die ja wiederum nur auf der Basis politischer Vorgaben und Gesetze entscheidet.

Tatsache ist, dass die Politik höchst widersprüchliche Rahmenbedingungen geschaffen hat. Einerseits definiert sie ein Zulassungsverfahren für Dieselfahrzeuge, das ziemlich offensichtlich wenig praxisgerecht ist. Andererseits setzt sie für bestimmte Schadstoffemissionen mehr oder weniger völlig willkürliche Grenzwerte fest. Die erlaubten Stickoxidemissionen am Arbeitsplatz sind etwa 24-mal höher als im Straßenverkehr. Warum? Weil man sich am Arbeitsplatz ja nur etwa 8 Stunden täglich aufhält und dort ja nur gesunde Erwachsene tätig sind … und was da noch für absonderliche Begründungen kommen. Aber an der verkehrsbelasteten Kreuzung steht man die ganzen langen 24 Stunden eines Tages, insbesondere Kranke und Kleinkinder. – Tatsache ist, dass der Grenzwert für die Stickoxide von der Weltgesundheitsorganisation in der Höhe von 40 mg/m^3 empfohlen wurde. Ja dann muss es damit ja wohl seine Richtigkeit haben. Großes Fragezeichen.

Es gibt nicht eine einzige Studie, in der die direkte toxikologische Wirkung der Exposition von Stickoxiden dieser Konzentration nachgewiesen werden konnte. Vielmehr ist es so, dass höhere Konzentrationen von Feinstaub eine krankmachende Wirkung auf Menschen haben. Feinstaub? Stickoxide? Ist das nicht dasselbe? Nein, ist es nicht. Feinstaub wird emittiert durch alles Mögliche: Industrie, Haushalte, von Benzinmotoren genau wie von Dieseln, Verkehr allgemein, z.B. Bremsabrieb, die Wetterlage nicht zu vergessen – alles hat einen Einfluss. Unter anderem eben auch die Stickoxide. Und weil man sie so gut messen kann, schaut man nun eben auf die Stickoxidkonzentrationen. Sie dienen gewissermaßen als Indikator für schlechte Luft. Niemand fragt mehr, ob die Stickoxide selbst in der fraglichen Konzentration überhaupt gesundheitsschädlich sind. Genau das ist aber wichtig, weil der Diesel als Emittent der Stickoxide damit in Sippenhaft genommen wird. Die Diskussion darüber trägt Züge von Hysterie. Näheres zur Feinstaubemission und den möglichen Zusammenhängen mit vorzeitigen Sterbefällen s. hier: Feinstaub PM 10, Feinstaub PM 2,5.

Ein Dieselfahrverbot wäre etwa so, als würde man dem Alkoholiker das Trinken verbieten, weil er angeblich nur so von seiner Sucht loskommt. – Der Konsum von Alkohol ist es, was ihn krank macht, nicht das Trinken. Diese Unterscheidung zu treffen erscheint in der gegenwärtigen Diskussion manchem offensichtlich schon zu anspruchsvoll. Hier ist eine nüchterne wissenschaftliche Betrachtung jenseits aller Ideologien erforderlich. Daher brauchen wir keine Gerichtsentscheidungen, sondern politische Weichenstellungen mit einem Mindestmaß an Weitblick.

Der schwarze Peter liegt damit zuallererst bei der Politik, nicht bei den Automobilherstellern, die die ausgehandelten Vorgaben – jenseits der angesprochenen Betrugsfälle – allzu buchstabengetreu umgesetzt haben. Man mag das beklagen, aber so funktioniert nun einmal jedes rechtstaatliche Gemeinwesen. Regeln müssen eingehalten werden, sie müssen aber nicht in vorauseilendem Gehorsam übererfüllt werden. Offenbar sind doch die von der Politik und den Lobbyisten der Automobilindustrie ausgehandelten Mess- und Zulassungsverfahren zu lasch und nicht praxisgerecht. Dass dabei die Automobilindustrie über ihre Lobbyisten kräftig Einfluss genommen hat ist nach Lage der Dinge ihr gutes Recht. Die Politik indessen vertritt in Gestalt ihrer gewählten Vertreter daneben auch das Interesse der Menschen, es ist ihre Aufgabe, Regeln vorzugeben bzw. auszuhandeln, die dem Gemeinwohl zuträglich sind. Dafür vor allem ist sie verantwortlich … und dieser Verantwortung ist sie nicht gerecht geworden! Dabei muss sie selbstredend auch für Verlässlichkeit sorgen. Deswegen ist der Diesel-Skandal im Hinblick auf die drohenden Fahrverbote in erster Linie ein Ausdruck politischen Versagens bis in die höchsten Spitzen hinein und abermals ein Beleg dafür, dass dieses Land seit Jahren unter Wert regiert wird. Im Übrigen sei daran erinnert, dass der städtische Personennahverkehr mit Bussen und Taxis fast ausschließlich mit Dieselfahrzeugen abgewickelt wird, ebenso der Lieferverkehr. Die wirtschaftlich negativen Folgewirkungen eines Dieselfahrverbots werden alle spüren. Gerichte kümmert das zunächst einmal nicht.

Der drohende oder bereits eingetretene Wertverlust für Dieselfahrzeuge geht voll auf das Konto der Nichtentscheider, Abwiegler und Aussitzer in der Politik. Unterm Strich tragen sie die Hauptverantwortung. In der gegenwärtigen Situation ist es daher die vorrangige Aufgabe der Politik, Dieselfahrer vor Fahrverboten zu schützen oder sie entsprechend zu entschädigen. Sich hinter Gerichtsentscheiden zu verstecken ist ein Ausdruck von Hilflosigkeit und politischem Unvermögen. Drohende Fahrverbote sind nicht höhere Gewalt, sondern das Ergebnis verfehlter Politik. Die Politik ist daher aufgerufen zur aktiven Gestaltung von tragfähigen Rahmenbedingungen. Für billigen Wahlkampf und Fingerzeigen auf die die Zeichen der Zeit verschlafenden Automobilindustrie taugt dieses Thema jedenfalls nicht.

Und welche Rolle spielt der Verbraucher? – Warum ist denn der Unterschied zwischen Praxisbetrieb und den Messungen am Prüfstand gar so groß? Liegt das nicht auch daran, dass viele sogenannte Normalfahrer beim Betrieb ihres Fahrzeugs ein Mindestmaß an Vernunft vermissen lassen und sich eher wie verkappte Rennfahrer verhalten? Auf dem Weg zur Arbeit wieder 20 Sekunden gespart. Freie Fahrt für freie Bürger … und das heißt, immer so schnell, wie es nur eben geht. Mit Vollgas auf den Abgrund zu! Man kann einen Diesel oder Benziner auch heute schon so fahren, wie man in Zukunft ein elektrisch betriebenes Gefährt ohnehin fahren muss und wie hochautomatisiert oder autonom fahrende Fahrzeuge völlig selbstverständlich fahren werden – vorausschauend, mit mäßiger Beschleunigung, ohne abrupte Manöver, eher gemächlich und vor allem ohne emotionsgetriebene und unfallverursachende Überreaktionen. Hört sich langweilig an? Nein, es hört sich vernünftig an und es ist immer noch der Kern dessen, was Mobilität meint.

Es ist nach dem Vorstehenden daher gar zu billig, den Automobilherstellern die Schuld zu zuweisen, alle drei Akteure tragen ihren Anteil. Zuallererst die Politik, ihr ging es vor allem darum, die Wirtschaft am Laufen zu halten. Alles darüber hinausgehende hat sie von Anfang an ignoriert. Dann die Hersteller, die verlässlich nach der Devise handeln, erst das Geschäft, und nur das Geschäft. Ethische Grundsätze (Ressourceneffizienz, Nachhaltigkeit, Umweltschutz) sind etwas für Sonntagsreden, im Tagesgeschäft werden harte unternehmerische Entscheidungen getroffen. Zuletzt die Verbraucher, die gar nicht wissen wollen, dass sie selbst einen Einfluss haben, sie müssen keine „Schrankwände“ vom Typ „universell verwendbar“ kaufen – das Automobilmarketing hat für diese Fahrzeuge das Kürzel SUV erfunden – wenn sie mobil sein wollen.

In der Reihenfolge dieser Verantwortung müssen nun auch die Probleme angegangen werden. Am meisten kann die Politik tun, sie muss den Verbraucher von möglichen Einbußen weitgehend freistellen. Diesel-Fahrverbote wären ein Armutszeugnis und Ausdruck von eklatantem politischem Versagen. Man kann sich nur wundern über die Kaltschnäuzigkeit, mit der einzelne Politiker nun Fahrverbote ins Spiel bringen, als ginge sie die ganze Sache, die sie doch zu wesentlichen Teilen verursacht haben nichts an. Steuererleichterungen oder sonstige Anreize für die Umrüstung von älteren Dieselfahrzeugen wären eine Möglichkeit. Die Automobilhersteller müssen dafür technisch und wirtschaftlich passende Angebote machen. Das ist möglich, wenn man es nur will, und man will es, wenn man es tun muss. Software-Updates allein sind reine Augenwischerei. Auch das wissen alle, tun aber so, als sei dies ein konstruktiver Beitrag.

Und zuletzt ist es dem Verbraucher auch zuzumuten, selbst einen Beitrag zu leisten und zumindest Fahrzeuge mit einer absehbar noch längeren Nutzungsdauer umzurüsten.

Doch wie wahrscheinlich ist ein solches Szenario? Da muss man skeptisch sein. Die Medien haben sich bereits großflächig auf die „bösen“ Automobilhersteller eingeschossen und rühren aus betrügerischen Handlungen und regelkonformen Zulassungstests einen Einheitsbrei, der dann am Ende nach Betrug riecht, wenn nur ein Diesel in der Nähe steht. Die ökologisch orientierten Verbände sehen offenbar die Chance, der Automobilindustrie nun endlich an den Kragen zu gehen, reden von krimineller Energie und Versäumnissen der Hersteller in Bezug auf elektrisches Fahren und drohen mit weiteren Klagen vor Gericht – völlig ignorierend, dass Elektromobilität so lange noch keinen wirklichen Sinn macht, wie der Strom in Deutschland noch weit überwiegend mittels fossiler Energieträger erzeugt wird, darunter sogar dem Klimakiller Braunkohle.

Elektromobilität erfordert den Gleichschritt mit dem Vollzug der Energiewende, da ist noch sehr viel auf Seiten der Energieerzeugung und -verteilung zu tun, was von der Politik viel schneller als bisher vorangetrieben werden muss. Programme zu verkünden bringt nichts, wenn nicht auch die Umsetzungsschritte vollzogen werden. Auf absehbare Zeit wird man daher auf eine moderne Dieseltechnologie noch nicht verzichten können, wer dies glaubt, nährt sich von Illusionen. Die erforderliche Technologie ist vorhanden und wird beherrscht, sie wird aber nicht mehr so billig zu haben sein, wenn die neuen Prüfverfahren mit größerer Praxisnähe zum Maßstab genommen werden. Nötig ist daher maximale Offenheit und Realitätssinn bei allen Beteiligten: Gefordert ist aber zunächst einmal die Politik. Elektromobilität auf der Basis von Batterien unterschiedlicher Zellchemie, Brennstoffzelle, Wasserstoffkreislauf … auch diese Technologien gibt es bereits in einer gewissen Reife, das heißt aber nicht, dass man einfach den Hebel umlegen kann. Die Gestaltung des Übergangs zu einer nachhaltigen Mobilität mit einem geringeren Ressourcenverbrauch und ohne fossile Energieträger setzt Veränderungswillen bei allen Beteiligten voraus und braucht Zeit. Anfangen muss man spätestens jetzt!

Zur aktuellen Diskussion um den Diesel (3)

Teil 3: Feinstaub PM 2.5

Laut Umweltbundesamt gibt es pro Jahr in Deutschland bis zu 41.000 vorzeitige Sterbefälle durch von Feinstaub verursachte Erkrankungen (Herz-Lunge Erkrankungen, Lungenkrebs).

Ist daran der Diesel schuld? Wenn man der teilweise hysterischen öffentlichen Diskussion folgt, dann scheint das erwiesen. Doch schauen wir auf die Fakten.

Die Daten des Umweltbundesamtes helfen weiter. Wie man der Grafik zum Feinstaub (PM 2.5) unten unschwer entnimmt, waren es in 2015 verkehrsbedingt etwa 23.000 t bei einer Gesamtemission von 100.000 t, mithin wurden ca. 23% des Feinstaubs der Partikelgröße 2.5 µm vom Verkehr verursacht. Landwirtschaft, Industrie und Haushalte emittieren zusammen 63.000 t, also fast 3-mal soviel (63%).

(Zur vergrößerten Darstellung auf die Grafik klicken)

Man kann darüber spekulieren, welcher Anteil der genannten 23% auf Dieselfahrzeuge zurückzuführen ist. Bekannt ist jedenfalls, dass Reifen und Bremsabrieb einen nennenswerten Anteil haben, also emittieren auch Benziner und sogar Elektrofahrzeuge Feinstaub. Auch bei einer vollständigen Umstellung auf E-Fahrzeuge wird der Feinstaub daher nicht verschwinden und allenfalls – s.o. – messbar reduziert.

Weniger Ideologie, mehr Rationalität! Das würde der Diskussion nicht schaden.

Zur aktuellen Diskussion um den Diesel (2)

Teil 2: Feinstaub PM 10

Laut Umweltbundesamt gibt es pro Jahr in Deutschland bis zu 41.000 vorzeitige Sterbefälle durch von Feinstaub verursachte Erkrankungen (Herz-Lunge-Erkrankungen, Lungenkrebs).

Ist daran der Diesel schuld? Wenn man der teilweise hysterischen öffentlichen Diskussion folgt, dann scheint das erwiesen. Doch schauen wir auf die Fakten.

Hier helfen ebenfalls die Daten des Umweltbundesamtes weiter. Wie man der Grafik zum Feinstaub (PM 10) unten unschwer entnimmt, waren das in 2015 verkehrsbedingt etwa 32.000 t bei einer Gesamtemission von 221.000 t, mithin wurden ca. 14% des Feinstaubs der Partikelgröße 10 µm vom Verkehr verursacht. Landwirtschaft, Industrie und Haushalte emittieren zusammen 170.000 t, also fast 6-mal soviel (80%).

(Zur vergrößerten Darstellung auf die Grafik klicken)

Ergo: Wenn man Fahrverbote für Diesel erlässt, dann muss man eventuell auch darüber nachdenken, die Nahrungsmittelaufnahme und die Industrieproduktion einzustellen, außerdem sollte man die Wohnung nicht mehr heizen.

Ein wenig mehr Rationalität würde der Diskussion nicht schaden. Jedenfalls wird die Elektromobilität (so wünschbar sie auch immer sei), die Feinstaubemission nicht wirklich durchgreifend reduzieren.

 

Zur aktuellen Diskussion um den Diesel (1)

Teil 1: Stickoxide

Eine bemerkenswerte Grafik des UMWELTBUNDESAMTES zeigt, dass sich die verkehrsbedingte Emission von Stickoxiden im Zeitraum zwischen 1990 und 2015 von 1,5 Mio. t auf weniger als 0,5 Mio. t gedrittelt hat … bei gleichzeitig deutlich gestiegenem Verkehrsaufkommen.

(Zur vergrößerten Darstellung auf die Grafik klicken)

 

Das ist ein Erfolg der technologischen Entwicklung in der Abgasreinigung und zeigt, dass die Automobilindustrie – unabhängig von den betrügerischen Einzelfällen – einen guten Job gemacht hat. Wenn allerdings gleichzeitig die Grenzwerte noch stärker abgesenkt werden, dann kann bei unreflektierter Betrachtung oder wissentlich falscher Auslegung der Eindruck eines Versagens entstehen. Das Gegenteil ist der Fall.

Nötig ist daher: Weniger Emotion, mehr Vernunft. Die hysterische Diskussion ist irrational und führt nicht weiter. Wir brauchen weder Fahrverbote, noch eine Verteufelung des Diesels insgesamt.

Umgekehrt muss man aber auch nicht für alle Zeiten krampfhaft an den Verbrennern festhalten: Die Zeit für einen maßvollen Wandel hin zu einem Mix von neuen Antriebskonzepten ist gekommen.

Soll man heute noch Wirtschafts­wissen­schaften studieren?

Die Wirtschaftswissenschaft ist die einzige „Wissenschaft“, in der man sowohl für die Formulierung einer Theorie als auch deren Widerlegung den Nobelpreis bekommen kann. – Das sagt nicht alles, aber schon vieles und ist letzten Endes dann doch noch harmlos:  So gibt es z.B. politisch überkorrekte Disziplinen wie die „Genderforschung“ (allein in Deutschland kann man fast 200 Professuren zählen). Dabei handelt es sich um eine Art „säkularer Theologie“ auf der Basis von vorwissenschaftlichen Glaubensgrundsätzen. Verglichen damit ist BWL eine exakte Wissenschaft.

Letzten Endes befindet sich die Wirtschaftswissenschaft in „guter“ Gesellschaft mit anderen (Geistes- und Sozial-) „Wissenschaften“ die sich gerne als solche bezeichnen, die aber zumindest nicht in der gleichen Liga spielen wie die Natur- und Ingenieurswissenschaften und insbesondere die Mathematik (nehmen wir als Platzhalter einfach das Akronym MINT = Mathematik, Informatik, Naturwissenschaft und Technik). Worin liegen die wesentlichen Unterschiede? Ich denke, es gibt drei ganz wichtige Gesichtspunkte.

  1. Methodik.
    In den MINT-Disziplinen haben wir einen definierten und allgemein anerkannten sich evolutionär – manchmal auch disruptiv – erweiternden Satz von beweisbaren (im Sinne von funktionierenden und sich nicht widersprechenden) Methoden zur Lösung von Teilproblemen. Die Geistes- und Sozial-Wissenschaften, zu denen ich die Wirtschaftswissenschaften rechne, verfügen zwar ebenfalls über gewisse methodische Ansätze, meist beschränken sich diese aber auf die deskriptiven Aspekte. Sie können nichts oder nur wenig erklären, also Beobachtungen zwingend auf Ursachen zurückführen. Zum Teil auch deswegen, weil es diese einfachen kausalen Beziehungen in vielen Fällen gar nicht gibt.


  2. Objekt (der Betrachtung).
    In den MINT-Disziplinen kommt dem untersuchten Gegenstand (axiomatischer Rahmen der Mathematik, digitale Welt, unbelebte und belebte Natur, Technik) gewissermaßen eine objektiv existierende oder gestaltbare Realität zu, die im Grundsatz unabhängig vom Betrachter über einen Satz von beobachtbaren Eigenschaften verfügt (Der Begriff der „objektiv bestehenden Realität“ ist schwierig und angreifbar, sehen wir einstweilen darüber hinweg). Ganz anders bei den Geistes- und Sozial-Wissenschaften. Das Objekt der Untersuchung sind wir selbst. Können wir aus der Innenperspektive heraus objektiv von außen auf uns selbst blicken? Nein! Wir existieren nicht unabhängig von uns selbst, von unserem eigenen Denken. Nach Descartes („Cogito ergo sum“) ist das Denken selbst gewissermaßen die Voraussetzung für unsere Existenz. Wir können über uns selbst reflektieren, wir können dabei aber keine objektiven Wahrheiten zutage fördern. Wir sind vernunftbegabte Wesen, wir verhalten uns aber nicht selten im Widerspruch zur Ratio. Beispiel: Das lange als gültig betrachtete wirtschaftswissenschaftliche Paradigma des rational handelnden Marktteilnehmers ist längst als Schimäre entlarvt.


  3. Resultate.
    MINT: Erkenntnisse über die gemäß 2 charakterisierten Gegenstände werden mittels Beobachtung und/oder Experimenten gewonnen und sind in aller Regel beliebig reproduzierbar, deswegen lassen sich im Verein mit Punkt 1 Modelle über die interessierenden Weltausschnitte erstellen, mit deren Hilfe zutreffende Ursache-Wirkungsbeziehungen (Vorhersagen) formuliert werden können. Darin liegt die große Stärke der Naturwissenschaften, der Technik und der Mathematik. – In den Geistes- und Sozial-Wissenschaften gibt es nur selten Reproduzierbarkeit. Modelle über die Realität sind in der Regel nicht verallgemeinerbar und gelten nur für den ganz speziellen Fall, für den sie geschaffen wurden. Im Ergebnis stehen Vorhersagen für zukünftige Ereignisse auf wackligen Beinen. Hinzu kommt die durch Prognosen hervorgerufene mögliche und sogar wahrscheinliche Beeinflussung künftigen Verhaltens. Der Hinweis auf den Aktienmarkt mag als Beleg genügen. Ich denke, man kann ganz allgemein ein paradoxes Prinzip formulieren: Ereignisse und Verhalten, die der Mensch selbst beeinflussen kann, entziehen sich der Vorsehbarkeit. Resümee: Die Geistes- und Sozial-Wissenschaften sind i. A. nicht in der Lage, zutreffende Ursache-Wirkungsbeziehungen abzuleiten und schlüssig darzulegen. Genau das ist ihre große Schwäche.

Vielleicht wird der eine oder andere hier die Messbarkeit als Unterscheidungsmerkmale vermissen. Messbarkeit ist KEIN Kriterium für eine exakte Wissenschaft. Die minimale Voraussetzung für sinnhaftes wissenschaftliches Arbeiten ist Unterscheidbarkeit: Der Gegenstand der Betrachtung muss abgrenzbar sein und er muss sich in irgendeiner Weise in unterscheidbare Teile (in allgemeinster Form also Elemente, Fragmente, Objekte, Subjekte, Ideen, …) gliedern lassen. Ist dies gegeben und können zudem den Teilen Eigenschaften zugewiesenen werden (mathematisch gesehen entspricht dies der Definition einer abstrakten Abbildung f aus dem Gegenstandsraum G auf einen Zielraum E, den wir Eigenschaftsraum nennen), so haben wir bereits alle nötigen Zutaten für eine exakte Wissenschaft. Z.B. können dann schon Aussagen der Art „Teil A steht zu Teil B in der Beziehung X“ getroffen werden. Der Grad der erreichbaren Exaktheit ist vor allem eine Funktion des in die Strukturierung gesteckten Aufwandes. Exaktheit heißt ja nicht, dass Ergebnisse auf n Stellen nach dem Komma angegeben werden können. Ein exaktes wissenschaftliches Ergebnis kann genauso gut in einer wahren aber zahlenlosen Aussage stecken. Ein Beispiel: Die Lichtgeschwindigkeit im Vakuum ist konstant.

Messbarkeit ist ein spezifischerer Begriff und hängt ab vom Charakter der o.g. Abbildung f und der besonderen Struktur des Eigenschaftsraums E. Ist letzterer ein (endlicher oder unendlicher) Zahlenraum, so können wir von Messbarkeit reden. – Das erscheint vielleicht abstrakt, ist aber bereits entschärft. Die abstrakt-mathematische Definition von Messbarkeit ist viel komplexer.

Dazu noch ein Zitat des Aufklärers und Aphoristikers Georg Christoph Lichtenberg: „Ich glaube, dass es, im strengsten Verstand, für den Menschen nur eine einzige Wissenschaft gibt, und diese ist reine Mathematik. Hierzu bedürfen wir nichts weiter als unseren Geist.“ Oder, etwas profaner und gleichzeitig provokativer: „… alles andere ist eine Mischung aus Handwerk und Stochern im Nebel“.

Trotz der o.g. Punkte kann  man dennoch konstatieren: Gerade Betriebs- und Volkswirtschaft sind Generalistenstudiengänge par excellence, idealerweise gepaart mit einem technologischen Schwerpunkt (z.B. Informatik). Jura dagegen ist ein eher eindimensionales Studium, in dem das reale Leben praktisch nicht vorkommt und versucht wird, die Welt in ein Schema von Regeln zu pressen. Die Tatsache, dass Juristen nicht selten Karriere in Politik und Wirtschaft machen hat m.E. weniger mit dem Inhalt des Jurastudiums zu tun, als vielmehr mit einer gesellschaftlichen Fehlentwicklung: Wir glauben, alles müsse geregelt sein und haben es verlernt, Freiräume konstruktiv und konsensual zu gestalten. Im Ergebnis bekommen wir immer mehr Reglementierung und wundern uns, dass wir aus dem Gestrüpp der sich widersprechenden Vorschriften und Regeln ohne rechtskundige Spezialisten, die doch das Dickicht selbst angelegt haben, nicht mehr herausfinden. – Alles klar? (Nein, das ist keine Anmache; das ist der kürzeste Juristenwitz)

Generell darf man nicht erwarten, im Studium einen festen Satz von unabänderlichen methodischen Vorgehensweisen und Modellen zu erlernen, die im späteren Berufsleben dann stur angewendet werden. In meinem Verständnis dient ein Studium vor allem dazu, selbstständiges und kritisches Denken einzuüben. Die erlernten Modelle und Methoden verstehe ich als Exempel. In der Mathematik liegt der Schwerpunkt im Abstrakt-Theoretischen, worin zweifellos große Potentiale im Hinblick auf vielfältige Anwendungsbereiche liegen. Allerdings ist hier der Transferaufwand in aller Regel vergleichsweise hoch. Viel näher an den realen Problemen ist man in den Wirtschaftswissenschaften, fertige Lösungen und Rezepte darf man gleichwohl auch hier nicht erwarten.

Verschlafen wir die digitale Transformation?

In der Netzkommunikation trifft man immer wieder auf die These, wir würden die digitale Transformation oder die Digitalisierung verschlafen. Vielen geht das alles zu langsam voran. Fantastische Anwendungen sind heute schon möglich und wir nutzen sie nicht oder sind nicht in der Lage,  sie in Produktionsabläufe oder ganz einfach in unser Leben zu integrieren. Ist das wirklich so?

Das kann man so sehen, wenn man es schneller haben  will und das Neue – und das heißt in den allermeisten Fällen auch das Unreife, das noch nicht Praxistaugliche – kaum erwarten kann.  Man kann aber auch einen Schritt zurück treten und einen weiteren Bogen spannen: Wir sind inmitten der nunmehr schon 35 – 50 Jahre währenden digitalen Transformation – ja, so lange läuft das schon. Nehmen wir die kürzere Zeitspanne: Der IBM-PC hat die Digitalisierung in der Breite eingeläutet, die Einführung des Internet im Jahrzehnt danach hat die Entwicklung nochmals beschleunigt.

Kann man nun ernsthaft die These vertreten, die digitale Transformation finde nicht statt oder sie werde verschlafen? Wohl kaum! Ich denke, es gibt ein weit verbreitetes Missverständnis zur Digitalisierung. Man muss sich von der Vorstellung lösen, dass die Digitalisierung gewissermaßen die „natürliche Fortentwicklung“ der analogen Welt darstellt. So ist das mitnichten. Analoge und digitale Welt stehen eher orthogonal zueinander. Mit der Erfindung des Computers haben wir den uns zugänglichen Lösungsraum dramatisch erweitert. In gewisser Weise ist die Digitalisierung eine „neue“ Dimension unserer Lebenswirklichkeit, das heißt aber nicht, dass nun jede Lösung digital sein muss. Die eine Welt ist nicht „besser“ als die andere, jede hat ihre Stärken und Schwächen. Richtig eingesetzt können digitale Lösungsansätze echten Nutzen stiften, sie können aber auch albern sein. Die Pizza schmeckt nicht besser, wenn sie digital bestellt. Wie viel Prozent der weltweit täglich verzehrten Pizzen werden digital geordert? Die Zahl dürfte eher klein sein. Ist das nun gut oder schlecht? Es ist irrelevant, weil es mit Digitalisierung gar nichts zu tun hat. Es ist geradezu verkrampft, jeden nur denkbaren Prozess digitalisieren zu wollen – offenbar nur um der Digitalisierung willen und oft ohne jeden greifbaren Vorteil.

Trotz aller Elektronik und Software im Auto ist das Fahrerlebnis im Kern analog – auch mit digitalen Lenkknöpfen an Stelle eines Lenkrads wäre das noch so. Der implantierte ID-Chip macht uns noch nicht zu Cyborgs, wir bleiben in der analogen Welt verhaftet. Vielleicht würde im Gegenteil die per DNA personalisierte Hardware mehr Sinn machen und tatsächlich ein Plus an Sicherheit bringen.

Gegenwärtig heißt digitale Transformation noch, neue Anwendungsfelder erschließen, neue Möglichkeiten ausprobieren. Was wir heute an Digitalisierung sehen, sind in den meisten Fällen relativ banale 1:1 Übertragungen analoger Prozessmuster (s. Pizza). Viel mehr ist technisch aber auch nicht möglich, wenn wir nicht gleichzeitig unser Leben an sich grundlegend digitalisieren wollen: Home Office statt Büro, Besprechungen nur noch online, virtuelle 3D-Reisen statt Langstreckenflügen, usw. … Second Life statt Real Life … wer will das? Künftige Generationen vielleicht. Diese Art von umfassender Digitalisierung hat eine soziale und eine technologische Dimension. Wir beherrschen beide nicht!

Nüchtern betrachtet muss man konstatieren, dass die Technologie für eine durchgreifende Digitalisierung noch in den Kinderschuhen steckt. Deswegen ist es richtig, dass es auch nur „relativ“ langsam vorangeht. Wir spielen mit der Digitalisierung, wie Kinder mit Legobausteinen. Was uns die Technik bietet, hat ungefähr diesen Reifegrad. Damit können Kinder wunderbare Sachen basteln und viel Spaß haben, es ist aber doch nur ein Spiel. Facebook oder Twitter sind für mich solche Bei-„Spiele“. Das IoT (Internet of Things) ist nur theoretisch möglich, in der Praxis ist die Technologie weder sicher noch zuverlässig und daher auch nicht wirklich praktikabel. Ja gewiss, im prototypischen Umfeld funktioniert alles Mögliche, der Schritt in die Breite aber, die durchgängige Anreicherung mit werthaltigem Inhalt, die Verfügbarkeit der Daten, die Verlässlichkeit der Funktion, die Einfachheit der Anwendung, die Sicherheit der Nutzung, der Datenschutz, … Fehlanzeige. Nicht weil hier überall noch Detailproblem zu lösen sind oder weil die Anbieter respektive Nutzer einfach nicht aus dem Quark kommen, sondern weil es in Summe, in der Vielgestaltigkeit der Querbeziehungen technisch (noch) zu komplex ist, weil die Technologie noch nicht reif ist. Letztendlich fehlt der Nutzen.

Meine These ist: In vielen Anwendungsfeldern wird echter Nutzen in Breite und Tiefe so lange ausbleiben, bis wir in der Lage sind, intelligentes Verhalten zu programmieren. Gegenwärtig sind wir dazu in den allermeisten wirtschaftlich relevanten Einsatzszenarien noch nicht imstande … denn Künstliche Intelligenz ist das, was es noch nicht gibt.

Algorithmen und andere Missverständnisse

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) fordert in einem Namensartikel von Heiko Maas in der Zeit eine Charta der digitalen Grundrechte. Unter Artikel 4 steht da „Kein Mensch darf zum Objekt eines Algorithmus werden.“

Der Terminus Algorithmus soll hier großzügig als Metapher für eine maschinengestützte Faktenverarbeitung und Entscheidung verstanden werden. Eigentlich geht es hier im Kern um „Künstliche Intelligenz“, nicht banal um singuläre Algorithmen auf der Ebene von Kochrezepten. Die Formulierungen im zitierten Artikel 4 sind nicht gerade auf der Höhe der Zeit und spiegeln ein rückwärtsgewandtes Verständnis von künstlicher Intelligenz wider. Künstliche Intelligenz erschöpft sich nicht in der banalen Abbildung logisch folgerichtiger Schlüsse.

Künstliche Intelligenz erhebt den Anspruch, in komplexen Situationen und auf Basis unsicherer und unvollständiger Informationen zu nachvollziehbaren und im Einklang mit menschlichen Verhaltensweisen stehenden vertretbaren Entscheidungen zu kommen. Und dies mit größerer Sicherheit und schneller, als dies ein Mensch je könnte.

Ein Beispiel: Nehmen wir ein Auto kurz vor einem unvermeidlichen Crash. Der Fahrer kann sich nur noch entscheiden, ob er die Mutter mit Kind auf der rechten Straßenseite oder das ältere Ehepaar links davon überfährt. In beiden Fällen mit vermutlich tödlichen Konsequenzen. Was soll er tun? – Es gibt keine allgemeingültige Regel dafür, weil jeder Fall spezifische Besonderheiten aufweist: Beim Fahrer, seinem Lebenshintergrund, seinen konkreten Erfahrungen, aber auch bei den potentiellen Opfern, ihrem Verhalten, oder ganz banal ihrem Aussehen. Der Fahrer wird sich irgendwie entscheiden und sich danach dafür verantworten müssen. Dafür haben wir Regeln, die wir Gesetze nennen, ergänzt um manchmal ungeschriebene ethische Grundsätze.

Wie verhält es sich bei der „künstlichen Intelligenz“? Bezüglich der Entscheidungsgrundsätze nicht wesentlich anders. Der Unterschied liegt vor allem darin, dass bei der maschinellen Entscheidung u. U. keine natürliche Person für die eventuellen Folgen verantwortlich gemacht werden kann. Das ist aber im Kern kein Problem eines Algorithmus oder der künstlichen Intelligenz, sondern unseres Rechtssystems. Die „künstliche Intelligenz“ selbst könnte dabei sehr viel besser als der durchschnittliche Mensch im Hinblick auf die tatsächliche Unfallfolgenminimierung auf Basis der geltenden juristischen und allgemein akzeptierten ethischen Grundsätze entscheiden.

Der menschliche Fahrer mit eigenem Kleinkind wird das Lenkrad erschreckt in Richtung auf das ältere Paar herumreißen, auch dann, wenn Mutter und Kind in 9 von 10 Fällen bei genauerer Evaluierung wahrscheinlich nur leicht verletzt werden würden. Umgekehrt wird der Fahrer, der in der älteren Frau seine Mutter zu erkennen glaubt impulsiv in die andere Richtung lenken und damit möglicherweise einen folgenschweren Fehler begehen. Ist das besser, als sich im Vorfeld genaue Gedanken zu machen und intelligente Regeln zu formulieren? Ist das gerecht?

Eine echte „künstliche Intelligenz“ wird innerhalb von Bruchteilen von Sekunden genau die Entscheidung treffen, die bei Abwägung aller Optionen und potentiellen Folgen im Hinblick auf Schäden für Leib und Leben, Sachschäden, Rechtsfolgen und Kosten unter Abwägung der Risiken und Eintrittswahrscheinlichkeiten insgesamt das Optimum darstellt. Dazu muss man neben den rein physikalischen Risikoeinschätzungen „nur“ noch die juristischen und metaphysisch-ethischen Grundsätze in gleicher Weise abbilden – Das ist es, was den Kern eines solchen „Algorithmus“ ausmacht. Es sind nicht die Lerndaten. Letzten Endes haben diese nur den Charakter von situativ unscharfen Konfigurationsparametern, mehr nicht. Entscheidend sind die immanenten Metadaten und die das Verhalten beschreibenden Zusammenhänge (Metaregeln). Und natürlich kann man diese Metadaten, Regeln und Verhaltensbeschreibungen – im engeren Sinne wäre dies der Algorithmus – einer kritischen Prüfung unterziehen und bewerten. Wenn man so will, ist das der Algorithmus-TÜV.

Nehmen wir ein einfaches Modell: Es gibt einen Input x und es gibt einen Konfigurationsparameter p. Der Algorithmus A bestimmt nach Maßgabe des Konfigurationsparameters p aus dem Input x den Output y, formal A_{p}(x)  \rightarrow {y}. Bei einem lernenden Algorithmus ist das nicht anders, nur dass eben hier der Parameter p nicht oder nur ungefähr bekannt ist. Das ändert doch aber nichts an der grundsätzlichen algorithmischen Formulierung. Der Algorithmus beschreibt den Satz von Regeln, wie bei gegebenen p aus dem Input x der Output  y bestimmt wird. Das kann geprüft und bewertet werden. Und es kann auch geprüft und bewertet werden, wie sich die Regeln bei Variation von p verändern, Variationen und stochastische Unschärfen eingeschlossen.

Bei lernender Software geht es i. d. R. nicht darum, aus dem Nichts heraus algorithmische Lösungen zu entwickeln. Der Ansatz ist vielmehr, bestehende Lösungen systematisch zu verbessern verbunden mit der Fähigkeit zur situativen Adaption und Optimierung. Vernünftige lernende Software basiert zunächst auf Problemverständnis und Erfahrungswissen. Genau so arbeiten auch wir Menschen.

Am Beispiel der Linsensuppe wird deutlich, dass auch Venkatasubramanian (zitiert in „Es genügt nicht, Algorithmen zu analysieren„) das so sieht: Da ist die Rede von einem Koch (das ist jemand, der kochen kann, der also das nötige Problemverständnis hat). Der Koch fragt die Gäste nach ihren Rezepten (da steckt das Erfahrungswissen). Erst jetzt beginnt die Zubereitung. Was den Algorithmus ausmacht ist am Ende nicht das banale Rezept für die Linsensuppe, sondern die Einhaltung der grundlegenden Regeln und die Berücksichtigung der Zusammenhänge (Metadaten-/regeln). Im konkreten Beispiel: Gewürze sind Zutaten und keine Hauptbestandteile, Zyankali als Gewürz ist verboten, …, die Reihenfolge der Zubereitungsschritte orientiert sich an biochemischen Gesetzmäßigkeiten, …, die Suppe wird nicht kochend serviert, eine Gabel als Essbesteck wird gar nicht erst probiert, … Diese Metadaten und Regeln machen den Algorithmus aus und können evaluiert werden. Der Algorithmus bildet die Fähigkeiten eines Kochs ab. Das kann bewertet und überprüft werden. Ob die Suppe am Ende schmeckt ist genauso unbestimmt, wie auch im Falle des menschliches Kochs. Das wäre aber auch nicht Gegenstand des TüV-Zertifikats (im Sinne der Forderung des BMJV).

Deswegen: Ja, man kann Algorithmen prüfen, man muss sie sogar prüfen. Indessen ist dieser Prozess nicht trivial und erfordert die Kenntnis des Kontexts. Das ist gewiss nicht neu, es ist aber insofern komplexer, als die Algorithmen über die wir hier reden den Anspruch erheben, intelligentes Verhalten abzubilden. Im engeren Sinne sind daher nicht die Lerndaten relevant, sondern die Regeln für die Verarbeitung derselben. Das ist der Algorithmus!

Die Forderung des BMJV nach einem Algorithmen-TÜV ist daher nicht ganz falsch, sie muss aber weiter gefasst werden. Es ist absolut nicht trivial, das Verhalten eines komplexen, intelligentes Handeln widerspiegelnden Algorithmus zu analysieren. Wir reden hier von einem Testat über eine „künstliche Intelligenz“. Das ist ähnlich schwierig, wie die Beurteilung eines Menschen. Dafür brauchen wir letzten Endes so etwas wie Computerpsychologie, auch wenn das zum jetzigen Zeitpunkt noch wie Science Fiction klingt.

Bin in einem Meeting!

Was hat ein neues «Virus» mit der Arbeitsproduktivität und  der
Finanzierung der Flüchtlingskrise  zu tun?

(fpa) München. Wie aus ungewöhnlich gut unterrichteten Kreisen verlautet, kommt das renommierte Institut für unvergleichliche Sozial- und Wirtschaftsforschung (IfuS) in einer zusammen mit dem Robert-Hunger-Institut (Berlin) erstellten, derzeit noch geheim gehaltenen Studie zu besorgniserregenden Erkenntnissen über die Ausbreitung eines gefährlichen Virus völlig neuen Typus. Bislang konnte das Virus noch nicht isoliert werden, man weiß aber bereits, dass es direkt auf bestimmte Gehirnregionen wirkt und offenbar die Wahrnehmung und Intelligenzleistung der Betroffenen beeinflusst. Möglicherweise, so die Studie, könne das Virus «gar eine Persönlichkeitsveränderung auslösen». Zur Inkubationszeit gibt es noch keine Erkenntnisse.

Die Forscher vertreten in ihren brisanten Untersuchungen die Ansicht, das Virus sei «immateriell» und stecke, wie es unser Informant doppeldeutig ausdrückte, «nur in den Köpfen» der Infizierten. Auf welche Weise es dem Virus dennoch gelingt, messbare Veränderungen zu induzieren bleibt im Einzelnen noch unklar. Die entscheidende Rolle bei der Ansteckung spielt offenbar eine Art neuronaler Reizüberflutung, ausgelöst durch einen lange andauernden Informationsstrom hoher Dichte (information overload) wie er z. B. bei häufigen Besprechungen oder längerem Internetsurfen nicht eben selten vorkommt. Die permanente «Informationsüberreizung» führt über kurz oder lang zu einer Reduzierung der Synapsenempfindlichkeit. Aufgrund dieses Abstumpfungsprozesses gelangen dezidierte Informationen erst nach mehrmaliger Wiederholung oder in ungebührlicher Deutlichkeit formuliert über die synaptische Reizschwelle. Dabei werden, wie die Forscher ferner feststellten, ungewöhnlich große Mengen an Endorphinen freigesetzt, bekanntlich die «Glücksdroge» unseres Gehirns. In einem fortgeschrittenen Stadium stellt sich daher eine Abhängigkeit der Betroffenen ein, verbunden mit dem unstillbaren Drang nach immer mehr Information. Dies geht – und dies ist das eigentlich Gefährliche – einher mit einer Lähmung der Aktionsfähigkeit von hoher Signifikanz.

Voll entwickelt zeigt sich nach Meinung der Forscher das typische Bild einer Abhängigkeit. So geht den Betroffenen z.B. die Einsichtsfähigkeit in die eigene Malaise völlig ab. Sie lechzen förmlich nach Information ohne jedoch das Erfahrene adäquat verarbeiten und in Handlungen umsetzen zu können. Absolut neu und unerwartet ist der virale Auslösungsfaktor. Es handelt sich offenbar um den ersten Fall eines reinen «Brainware»-Virus (BW-V.), nicht unähnlich den von Computersystemen her bekannten und teilweise gut erforschten Softwareviren. Wie in der Studie ferner ausgeführt wird, manifestiert sich die von den Forschern «Unknown Information Deficiency Syndrome» (UIDS) getaufte Erkrankung nach außen hin in zwei Hauptformen: im privaten Umfeld vorwiegend als Isolation und scheinbare Erstarrung vor dem heimischen Computer, dem Tablet oder dem Smartphone(«Iso-Monotonismus»), im beruflichen Umfeld dagegen zeigen die Betroffenen einen übersteigerten Hang zur Teilnahme an weitgehend nutzlosen Besprechungen («Meetingismus», in der schlimmeren Form «Hyper-Meetingismus»). Nicht zu verwechseln übrigens mit der gleichfalls ansteckenden, üblicherweise aber harmlos verlaufenden «Meetingitis». Indessen weisen die Forscher darauf hin, dass eine nicht behandelte Meetingitis in Einzelfällen zum Meetingismus ausarten kann.

Wie in der Studie ferner ausgeführt wird, leidet heute schon jeder zweite Angestellte an Meetingismus. Die Dunkelziffer ist hoch. Insbesondere in den großen Firmen und internationalen Konzernen grassiert offenbar das Virus. Subjektiv fühlen sich die Betroffenen immer unterinformiert und schieben daher die anstehenden Arbeiten auf bis zum nächsten Informationszufluss (das nächste Meeting), nur um dann wieder Defizite zu erkennen und erneut abzuwarten. Weiter und weiter dreht sich die Spirale. Für eigenes Nachdenken und Problemlösen ist einerseits immer weniger Zeit, andererseits wird es zunehmend als unerwünscht erfahren, weil in diesem Prozess das unmittelbare Gruppenkorrektiv fehlt.

Nach Schätzungen von IfuS gehen der Wirtschaft jährlich zweistellige Milliardenbeträge durch ineffektive und überflüssige Besprechungen verloren. In vorab informierten Wirtschaftskreisen befürchtet man, dass in manchen Branchen bereits mehr als 100% (!) aller Beschäftigten im nicht-produktiven Bereich infiziert sein könnten. Das Problem hierbei, wenn alle infiziert sind, fällt die Diagnose umso schwerer und wird die Heilung fast unmöglich, denn: resistent sind nur wenige. «Hier tickt möglicherweise eine Zeitbombe mit unabsehbaren Konsequenzen für die Wirtschaft», meinte der dazu von uns vertraulich befragte Pressesprecher des VDU, Dr. Rainer B. Lötzinn, unter Hinweis auf die noch ungeklärte Frage zur Inkubationszeit in aller Deutlichkeit. Und weiter: «Wir benötigen dringend ein effektives Behandlungsverfahren, der Standort ist in ernster Gefahr. Die Politik muss hier Sofortmaßnahmen ergreifen und gegensteuern».

Offenkundig fällt dieser Appell bei Regierungspolitikern durchaus auf fruchtbaren Boden. Ob im Sinne der Wirtschaft, darf indes bezweifelt werden. Zwar wollte sich niemand offen dazu äußern, doch hat der Bundesfinanzminister wohl schon entsprechende Pläne zu einer möglichen Besteuerung von Besprechungen in der Schublade. Ein ungenannt bleiben wollender hoher Beamter deutete an, man denke an eine zehnprozentige Erhebung auf die zeitanteiligen Bruttobesprechungsgesamtkosten pro Besprechungsteilnehmer, das könne damit sehr einfach und mit nur geringem Verwaltungsaufwand geregelt werden. Gemeinnützige Organisationen sollen nur mit einem Satz von 2,83% belastet werden (Anmerkung der Redaktion: Dieser eigenartig anmutende Wert ist das Ergebnis eines zwischen dem Finanzministerium und den Dachverbänden im Stillen verhandelten Kompromisses). Die öffentliche Verwaltung soll nach diesen Plänen von der Erhebung freigestellt werden. Die Steuer wäre jeweils zur Hälfte von den Arbeitgebern und den Arbeitnehmern zu entrichten, um die Wirtschaft nicht einseitig zu belasten. Bezugsgröße solle aber nur das reguläre Monatsgehalt der Besprechungsteilnehmer sein, also ausschließlich eventueller Gratifikationen. Denn man wolle gerade die Leistungsträger nicht über Gebühr belasten und andererseits auch die Nachfrage nicht dämpfen.

Die Erfassung der Vielzahl kleinerer Besprechungen macht derweil noch Probleme. Man könne sich hier auch eine pauschale Abgeltung vorstellen, heißt es dazu. Im Übrigen müsse diese «Ökonomie-Steuer» (neudeutsch abgekürzt Eco-Steuer [engl. «Economy»] in Abgrenzung zur Öko-Steuer) von den Unternehmen als positives Lenkungsinstrument verstanden und eingesetzt werden, da die Personalproduktivität bei entsprechender Verringerung der Besprechungshäufigkeit überproportional steige. Im Gegenzug wäre es dabei denkbar, die aus dieser Produktivitätssteigerung erzielten Gewinne mittelfristig geringer zu besteuern und so weiteres investives Kapital den Unternehmen zu belassen. Als Nebeneffekt trüge dies zu einer Verstetigung der Steuereinnahmen bei. Insgesamt werde damit die Wettbewerbsfähigkeit der deutschen Wirtschaft nachhaltig gestärkt und das Steueraufkommen langfristig auf einem erhöhten Niveau stabilisiert, wörtlich, «ein Selbstläufer».

Wie weiter aus Kreisen des Finanzministeriums verlautete, können mit den erwarteten Steuermehreinnahmen die durch die Flüchtlingskrise auf uns zukommenden Ausgabensteigerungen ohne Neuverschuldung voll finanziert werden. «Diesbezüglich ist die Kuh ist vom Eis, wir wirtschaften weiter mit schwarzen Zahlen», meinte der Beamte. Warnende Stimmen kommen unterdessen von den Grünen und den Linken: «Öffentliche Verwaltung und Politik dürfen von der Eco-Steuer nicht freigestellt werden, das ist dem Bürger nicht vermittelbar». Unabhängig davon kündigte der Bund der Steuerzahler bereits vorsorglich Verfassungsbeschwerde an, «falls der Fiskus sich hier einmal mehr schamlos beim Bürger und der Wirtschaft bedienen sollte».

Mittlerweile wächst auch in der Koalition die Erkenntnis, dass die Freistellung der öffentlichen Verwaltung den erwarteten Effekt drastisch reduzieren oder gar ins Negative verkehren könnte. Als Kompromisslösung denkt man daher an einen reduzierten Steuersatz von 3,5% für Kommunen und 4,75% für Landes- und Bundesbehörden.  Eine Sonderregelung haben sich jedenfalls die Fraktionen des Bundestages ausbedungen: Fraktionssitzungen und Beratungen der parlamentarischen Ausschüsse sollen grundsätzlich von der neuen Steuer befreit sein. Kritische Stimmen, nachdem dies in der Gesamtschau dann doch zu einigen Sonder- und Ausnahmeregelungen führe, kontern die finanzpolitischen Sprecher der Parteien mit dem Hinweis auf die im Grundsatz geltende 10%-Regel, alles andere müsse ohnehin im Zuge der Durchführungsbestimmungen detailliert werden. Eine Arbeitsgruppe von Spezialisten der Fraktionen sei bereits damit beauftragt, die weiteren Einzelheiten auszuarbeiten. Das Regelwerk werde den angestrebten Umfang von maximal 200 Druckseiten DIN A 4 allenfalls leicht überschreiten. Dabei hat man sich das Ziel gesetzt, nicht mehr als 67 Ausnahmeregelungen zuzulassen. Warum gerade 67? Ganz einfach: 4 Ausnahmen pro Bundesland, das macht zunächst einmal 64. Für die Länder über 10 Mio. Einwohner (NRW, Bayern, Baden-Württemberg) darf es eine Ausnahme mehr geben, so kommt man auf 67.

Unklar bleibt bei alledem, inwieweit diese Maßnahmen tatsächlich geeignet sind, den weit verbreiteten Meetingismus einzudämmen. Die Wissenschaftler vom Robert-Hunger-Institut sind da sehr skeptisch und kritisieren, dass auf diese Weise letztlich nur an den Symptomen herumgedoktert werde. Die außerberufliche Spielart des Virus dürfe in ihrer Gefährlichkeit nicht unterschätzt werden. Ein Heilung sei auf dieser Basis überhaupt nicht möglich, und weiter der bitterböse Kommentar, «unverhohlen gar nicht gewünscht». Augenscheinlich verkenne man in der Politik auch die epidemiologische Komponente des Problems. Man wisse einfach noch zu wenig über das Virus, ein wirksames Gegenmittel, z.B. ein Impfstoff, sei daher noch in weiter Ferne. Es bedürfe weiterer Studien und vieler Besprechungen. Zusammen mit den Kollegen vom IfuS fordern sie daher ein groß angelegtes Forschungsprogramm und die Gründung eines Arbeitskreises «Meetingismus» mit mindestens wöchentlichen Sitzungen zum Zwecke des Informationsaustausches. Gleichzeitig regen sie ein Internetforum zum Thema an. Meetingismus und Iso-Monotonismus seien nur zwei Erscheinungsformen der gleichen Erkrankung, es müsse daher auch den privat Betroffenen aus dem vertrauten heimischen Umfeld heraus Gelegenheit zur Information gegeben werden. Im weiteren könne man auch an Selbsthilfegruppen und -foren denken. Anonymität sei dabei nicht nötig, da ohnehin fast jeder direkt oder indirekt in Mitleidenschaft gezogen ist. Einen passenden Namensvorschlag haben die Wissenschaftler ebenfalls parat: «Bekannte Meetingismus-Monotonismus Watchers», kurz BMMW (Anmerkung der Redaktion: die Namensähnlichkeit mit einem global agierenden Automobilhersteller besteht rein zufällig).

Wie sinnvoll ist die Frauenquote?

Von der hohen gesellschaftspolitischen Warte aus gesehen klingt die Quotenforderung angesichts der steigenden Anzahl hochqualifizierter Frauen zunächst einmal logisch. Und vor allem, sie ist politisch korrekt. Aber sind Forderungen nach einer Quote in Top-Führungspositionen auch zweckdienlich? Sind sie überhaupt gerechtfertigt? Da habe ich meine Zweifel.

Über die vermeintlich offensichtliche Gerechtigkeitsfrage hinaus wird gerne als Zusatzargument für die Sinnhaftigkeit genannt, Frauen hätten ja einen ganz anderen Führungsstil und würden schon deswegen dem Unternehmen gut tun. Das ist insofern ein Kurzschluss, als dass man damit allgemein Frauen zugeschriebene Attribute wie z. B. Empathie und Harmoniebedürfnis vorschnell auf die Gruppe karrierebewusster Frauen überträgt. Sie haben es geschafft, unter Männern und mit den Spielregeln der Männer ihre jeweilige Karrierestufe zu erreichen. Warum? Weil sie sich ihrem Umfeld angepasst haben und sich danach verhalten. Für die Führungskultur sind sie ein bunter Tupfen. Ihr Beitrag für die dringend benötigte Neuausrichtung in der Führungskultur ist ebenso wahrscheinlich positiv oder negativ wie der eines zufällig ausgewählten männlichen Kollegen.

Wenn man die Führungsaufgabe auf einen Kernsatz reduzieren will, geht es darum, mit den Mitarbeitern im konstruktiven und auf Augenhöhe geführten Dialog zusammenzuarbeiten, gemeinsam nach Lösungen zu suchen und am Ende die Entscheidungen zu treffen. Intelligent, kreativ, fachlich qualifiziert müssen vor allem die Mitarbeiter sein. Die Führungskraft braucht Entscheidungs- und Kommunikationsfähigkeit. Sie muss in der Lage sein, ihre Mitarbeiter zu begeistern und mitzunehmen. Sie muss Hindernisse beseitigen und die Rahmenbedingungen für ein erfolgreiches Arbeiten schaffen. Die alles entscheidende Grundlage dafür ist Vertrauen, nicht Kontrolle. Dafür vor allem trägt sie die Verantwortung – und sie steht dabei zugleich vor und hinter ihren Mitarbeitern.

Wie sieht die Realität aus? Vielfach trifft man auf egomanische Managementstrukturen, Kontrolle statt Vertrauen, Entscheidungskonzentration statt Delegation von Verantwortung und im Ergebnis operatives Heißlaufen mit wenig Effekt und frustrierte Mitarbeiter. Hans-Jürgen Kugler von Kugler Maag Cie fasst das folgendermaßen zusammen: „Die meisten Firmen funktionieren passabel, obwohl es ein Management gibt“. Diese Feststellung so formulieren zu müssen ist frappierend und erschreckend zugleich. Wie kann dies sein nach Jahrzehnten immer raffinierterer Human Resources Methoden und Leadership Forschung. Sind die Personaler nicht in der Lage, die richtigen Personen auszuwählen? Oder dürfen sie es nicht, weil gerade in den höheren Führungspositionen andere und damit vielfach sachfremde Kriterien wichtiger sind? Letzteres dürfte die Wahrheit nicht allzu sehr verfehlen.

Richtig ist daher, dass die Kriterien für die Besetzung von Führungspositionen geändert werden müssen. Falsch ist, dass dies als Geschlechterfrage wahrgenommen und dargestellt wird. Was ändert sich, wenn der Egomane durch die Egomanin ersetzt wird? Richtig, die Anrede.

Letzten Endes sind die Quotenforderungen vom Symptom her gedacht, nicht von der Ursache. Und auch nicht vom vernünftigen Ziel einer neuen Führungskultur.

Drei Anmerkungen zur Quote im Hinblick die Rolle der Qualifikation, der Zielrichtung und der Gerechtigkeitsfrage:

  1. Im Hinblick auf die Karrierechancen wird die Bedeutung der fachlichen Ausbildung und des Könnens überschätzt – bei Frauen UND bei Männern.
    Es ist geradezu naiv, zu glauben, dass die wie auch immer definierte Qualifikation entscheidend ist für die Besetzung einer Führungsposition. Das fängt schon damit an, dass objektive Kriterien in den meisten Fällen gar nicht existieren. Karriere macht im Zweifel nicht die Person mit dem besseren Abschluss, nicht die mit dem größeren Können, sondern, in Abhängigkeit von den selbst gesetzten Präferenzen, die mit dem größeren Einsatz (natürlich auch im Netzwerk), dem Durchsetzungsvermögen, dem Willen, und, wenn man so will, dem Ego. Man kann es dabei drehen und wenden wie man will: Wer da ist, die Arbeit sucht, sich einsetzt und die Aufgabe erledigt – meinetwegen kaum besser als mittelmäßig – wird jedenfalls als Macher wahrgenommen. Im Konjunktiv funktioniert das nicht, auch nicht bei besten Potentialen („könnte“ die Arbeit hervorragend erledigen, ist aber nach 16:30 nicht mehr da, kann nicht für drei Wochen auf Dienstreise, …). Das mag man beklagen und für ungerecht halten. Gleichviel, es ist Fakt. Und es ist bei näherem Hinsehen nicht so abwegig, wie es auf den ersten Blick vielleicht erscheint. Die daraus sich ableitende politische Aufgabe ist daher nicht die Quote, sondern die konsequente politische Hilfestellung für die Gestaltung eines familienkompatiblen Umfelds (Kita, Kindergarten, Schule, Ganztagsbetreuung, …).


  2. Top down vs. Bottom up: Wieso eigentlich redet man immerzu über die Besetzung von Führungspositionen im Top-Management?
    Das ist etwa so, als würde man beim Hausbau mit dem Dachstuhl beginnen. Fangen wir doch da an, wo alles beginnt: Auf dem Boden (der Tatsachen)! Dort, wo die Fülle der Arbeiten tatsächlich anfällt und Führung unmittelbar erlebt wird und Wirkung zeigt. Zunächst einmal reden wir hier also vom unteren und mittleren Management. Wenn man für karrierebewusste Frauen im Beruf wirklich etwas tun will, dann muss man auf dieser Ebene beginnen. Nur dort kann man in der Breite wirklich einen merklichen Effekt erzielen und wird mittel- bis langfristig zu einer stärkeren Durchdringung kommen – auch im Top-Management. Die Frauenquote im Aufsichtsrat oder im Vorstand ist doch eigentlich nur ideologische Augenwischerei. Ohne Substanz! Symbolpolitik für eine kleine und ohnehin privilegierte Minderheit.


  3. Männer und Frauen sind gleichberechtigt, haben gleiche Rechte und Pflichten, sind gleichgestellt.
    Geschlechtsspezifische Unterschiede spielen keine Rolle, sofern sie für die Erledigung der Aufgabe keine Bedeutung haben. Das ist Realität! Weitgehend auch im Berufsleben. Gleichstellung bedeutet doch aber nicht, dass gleiche Chancen auch im gleichen Verhältnis realisiert werden. Gleichstellung ist ein Versprechen auf gleiche Chancen, nicht die Vorgabe gleicher Biografien. Und auch keine Garantie auf Karriere. Jedenfalls nicht bei Männern. Warum sollte es bei Frauen anders sein? – Die Quote will offensichtlich die Gleichstellung im Ergebnis. Das ist etwa so, als würde man im Spielcasino die Gewinne am Tisch gleichmäßig verteilen, mit der Begründung, es herrsche ja auch Chancengleichheit (jeder Vergleich hinkt, auch dieser). Das ist absurd!

Deswegen ist die Quote als Lösungsansatz ähnlich sinnhaft, wie das Kaltbad für den fiebernden Patienten: Die Temperatur sinkt, der Patient wird aber nicht gesund. – Gehen wir doch an die Ursachen: die Führungskultur. Dann bekommen wir am Ende mehr von dem, was uns alle zusammen voran bringt: Männer und Frauen, die führen können. Frauen und Männer, die Führung nicht als Selbstdarstellung verstehen, sondern als Dienstleistung an ihren Mitarbeitern und damit in bestem Sinne auch für das Unternehmen.

Wenn man über die Symbolpolitik hinaus tatsächlich mehr erreichen will, dann muss man die gesellschaftlichen Rahmenbedingungen anpacken, insbesondere die Vereinbarkeit von Familie und Beruf. Eine Aufgabe gleichermaßen für den Staat und die Wirtschaft – doch ohne Zweifel: Die Quote ist bequemer und billiger und damit lassen sich ideologische Feindbilder trefflich zementieren.

Hände weg vom Bargeld!

Die Bundesregierung denkt über eine Begrenzung von  Bargeldtransfers nach, die Rede ist von einer Höchstsumme von 5000 €. Sie steht damit nicht allein. In vielen Ländern Europas gelten schon heute Höchstgrenzen, z.T. sogar deutlich niedrigere, in Frankreich sind es z.B. 1000 €. Grundsätzlich könnte man da sagen, okay, es kommt ja eigentlich eher selten vor, dass man Beträge über 1000 € in bar bezahlt. Indessen muss man befürchten, dass mit einer solchen Obergrenze der Weg in ein Bargeldverbot vorbereitet werden soll. Jedenfalls denken namhafte Banker und auch der Präsident der EZB mehr oder weniger laut darüber nach.

Aus Sicht der Banken, der EZB und des Staates ist das auch verständlich. Bargeld ist eigentlich eher ineffizient: Tausende Geldautomaten müssen installiert, überwacht, gewartet und regelmäßig mit Scheinen beschickt werden. Die Herstellung der Banknoten mit ihren Sicherheitsmerkmalen ist ebenfalls extrem aufwendig. Neue Scheine müssen in den Verkehr gebracht und alte eingezogen werden. Die Einnahmen von Kaufhäusern und Supermärkten müssen mittels aufwendiger Sicherheitstransporte zur Bank gebracht werden. Trotz aller Sicherheitsmerkmale wird Falschgeld hergestellt und kursiert in Höhe von zig Millionen Euro.

Zu den Fakten: Gegenwärtig werden noch etwa 3 von 4 Zahlungsvorgängen  in bar abgewickelt, der Anteil wird aber Zuge von eCommerce (Stichwort: Einkaufen im Internet) weiter sinken. Für 2020 wird ein Anteil von nur noch etwa 60% erwartet. Weil vorwiegend kleinere Beträge in bar beglichen werden, ist der wertmäßige Anteil am gesamten Geldtransfer nur bei ca. einem Drittel. Zwei Drittel der insgesamt bewegten Geldsumme wird also schon heute bargeldlos transferiert, das allermeiste davon mit einem Anteil von ungefähr 80% durch Überweisungen.

Demnach ist ein zukünftig drohendes Bargeldverbot, sagen wir in 2030, doch eigentlich gar kein Aufreger. Oder doch?

Die Abschaffung des Bargelds ist der sichere Weg in die totale Überwachung: Durch den Staat und durch Firmen. Jede Transaktion geht übers Netz und kann prinzipiell abgefischt werden. Konsumgewohnheiten werden ausgespäht, detaillierte Bewegungsprofile werden erstellt. Am Ende des Monats kommt dann der Brief, pardon, die Mail vom Finanzamt mit dem Link auf die Tankrechnung, die belegt, dass man diesen Monat gar nicht 2000 berufliche Kilometer gefahren sein kann und deswegen anteilig x Euro vom Steuerabzugsbetrag sofort zurück überwiesen werden müssen, was rede ich, sie werden eingezogen. Von A***** erfahren wir, dass wir in den letzten 4 Wochen nicht unser gesamtes Einkommen ausgegeben haben und folglich noch y Euro für das Superschnäppchen verfügbar sind, was vorsorglich gleich für uns reserviert wurde und eigentlich schon auf dem Wege ist – es stand ja auch auf dem Wunschzettel. Im Übrigen, wer sein monatliches Einkommen nicht in den Konsum steckt, darf schon mal Strafzinsen zahlen, wegen wirtschaftsschädlichen Verhaltens. Wenn man so will, eine Steuer für Konsumverweigerer.

Im Gegenzug bekommen wir Bürger scheinbar Bequemlichkeit, tatsächlich aber mehr Unsicherheit, denn absolut sichere Transfers gibt es nicht und kann es nicht geben. Terroristen tangiert das nicht, uns Bürgern sollte es aber nicht egal sein.

Diese Bevormundung dürfen wir nicht akzeptieren! Und an dieser Stelle gilt: Wehret den Anfängen! Die Bargeldhöchstgrenze ist bereits ein solcher Anfang.

Natürlich sind bargeldlose Zahlungen oftmals von Vorteil. Und technisch möglich wäre der Verzicht auf Bargeld zweifellos. Im Prinzip könnte der Personalausweis einen Chip mit einer entsprechenden Bezahlfunktion à la Geldkarte enthalten. Aber: Fortschritt ist nicht, jeden Quatsch zu machen oder nachzuahmen, der technisch möglich ist, vor allem dann nicht, wenn die resultierenden Nachteile bei näherer Betrachtung schwerer wiegen, als die scheinbaren Vorteile. Die Technik ist Diener des Menschen, nicht umgekehrt. Wenn wir aber so weiter machen, wie bisher, dann wird es bald andersherum sein. Technokraten ohne Vision reden dann gerne von Sachzwängen und Notwendigkeiten.

Konkretes Beispiel: Die Einführung des SEPA Verfahrens mit einer mehr als 20-stelligen IBAN anstelle von Kontonummer und BLZ – ein technokratischer Unsinn par excellence. Der Nonsens liegt nicht darin, länderübergreifend ein einheitliches Verfahren einzuführen. 100% d’accord, dagegen ist nichts zu sagen! Es ist aber albern und widervernünftig, diese eigentlich nur rein technisch relevante Fragestellung innerhalb der Datenverarbeitung, nämlich die Übersetzung von BLZ und Kontonummer in ein international einheitliches Datenformat, dem Kunden aufzubürden.

Das IBAN-Format ist optimal getrimmt auf Maschinenlesbarkeit. Es ist schon aufgrund der Länge nicht für menschliche Augen gemacht, ein absolut ungeeignetes „Nutzerinterface“ für den Kunden, durch den Checksummencode nur unzureichend kaschiert.

Die sinnvolle Lösung im Dienste der Menschen, statt der Banken, wäre folgende gewesen: Wir haben einen Ländercode, einen Bankencode (BLZ), eine Kontonummer. Diese drei Daten kennt der Kunde und es gibt dafür im schlimmsten Falle länderspezifische „Benutzerschnittstellen“. Im Bankcomputer werden diese Daten in das einheitliche SEPA/IBAN-Format übersetzt und auf dieser Basis transferiert. Beim Empfänger läuft das umgekehrt – und die ganze Umstellung auf SEPA ist für den Kunden mehr oder weniger transparent (also irrelevant) und bleibt das, was es im Kern ist: Ein technisches Problem der Datenformatierung und -übertragung.

Es ist paradox: Computer werden immer leistungsfähiger – und wir werden gezwungen, uns mit dem Verweis auf internationale Einheitlichkeit an technische Datenverarbeitungsabläufe anzupassen, statt umgekehrt.

Und nun sollen wir bei jedem Einkauf die Karte zücken, damit wir besser überwacht werden können, damit jederzeit kontrolliert werden kann, wer wo über wieviel Mittel verfügt, im Inland, im Ausland, auf dem Mond. Geld auf dem Konto? Strafzinsen und kein Ausweg. Vordergründig geht es natürlich nicht um Überwachung sondern um hehre Ziele wie Bekämpfung der Schwarzarbeit, der Mafia und des Terrorismus. Dabei wird man wohl die Naturalwirtschaft gleich mit verbieten müssen. Glaubt denn ernstlich jemand, so ließen sich Gesetzesbecher und Terroristen bekämpfen? Nein, natürlich nicht, das wissen auch die Verfechter des Bargeldverbots. Deswegen reden sie auch gerne von der viel höheren Effizienz des bargeldlosen Zahlungsverkehrs.

Dabei ist das Effizienzargument ebenso absurd. Es ist eine Mär, zu glauben, dass in der Wirtschaft nur die Verfahrensweisen Erfolg haben und durchgeführt werden, die unterm Strich effizient sind. Völliger Unsinn: Es wird das gemacht, womit man Geld verdienen kann! Alles andere ist irrelevant, es sein denn, es wird von außen (Politik, Gesellschaft) vorgegeben.

Mit dem gleichen Argument könnte man die Abschaffung des Flugverkehrs verlangen: ineffizient, teuer, klimaschädlich – und im Übrigen kann man die meisten Besprechungen via Web viel effektiver und vor allem kostengünstiger gestalten.

Ja gewiss, Außerirdische können sich beim Besuch auf der Erde bestimmt gar nicht genug wundern über unsere Rückständigkeit: Für den Kauf eines Smartphones, das es uns ermöglicht mit der ganzen Welt zu kommunizieren müssen wir dem Verkäufer bunt bedruckte Scheine überreichen. Und diese Scheine sehen in jedem dieser rückständigen Erdenländer anders aus und werden noch nicht einmal überall akzeptiert. Eigentlich gar nicht weit weg von billigen Glasperlen, mit denen frühere Eroberer Eingeborene geködert haben. Keine Frage, diesen Anschein kann man bei oberflächlicher Betrachtung gewinnen.

Schauen wir uns doch einmal auf dem Heimatplaneten der genannten, total auf Effizienz getrimmten Außerirdischen um und machen uns ein Bild, welche „bizarren“ Verhaltensweisen und Regelungen sich dort etabliert haben: Da gibt es z.B. keinen Individualverkehr, ganz einfach, weil der ineffizient ist. Es werden ausschließlich erneuerbare Energien genutzt, weil das nachhaltig ist. Und auch so was: Jeder Mann hat nur zwei Paar Schuhe, zwei Anzüge und 5 Hemden. Etwas großzügiger bei den Frauen: Drei Paar Schuhe, zwei Kostüme, zwei Röcke, 4 Blusen, aber alles einheitlich in nur zwei Farben, grau-weiß und grau-schwarz. Das Effizienzministerium hat nämlich herausgefunden, dass das vollkommen ausreicht und so etwas wie Mode rational gesehen einfach keinen Sinn macht und sowieso nur von den inneren Werten ablenkt.

Das Beste zuletzt: Banken gibt es auch keine – konsequenterweise – vermutlich aus Effizienzgründen – hat man nicht nur das Bargeld abgeschafft, sondern überhaupt alle Zahlungsmittel. Fortschrittlicher Weise nennt man das aber nicht Naturalwirtschaft sondern „zahlungsmittelfreier Zahlungsverkehr“ oder kurz CFPT (von currency free payment transactions). Wenn einer etwas braucht, stellt er einfach einen Antrag beim „Der-Staat-weiß-es-besser-Ministerium“. Dort arbeiten jetzt die ehemaligen Banker – für jeden Antrag den sie ablehnen, bekommen sie einen Bonuspunkt gutgeschrieben. Da fragt man sich natürlich, was für einen Bonus, wo es doch gar kein Geld mehr gibt? – Ach ja, sie dürfen auf die Erde reisen und dort mit kleinen bunten Scheinen bezahlen. Wie man hört sind nicht wenige von ihnen ohne familiäre Bindungen nach solchen Ausflügen gleich auf der Erde geblieben. Die linientreuen CFPT-Ex-Banker dagegen verrichten weiterhin brav ihren tristen Dienst als depressive Regierungsbeamte im DSWEB-Ministerium und freuen sich auf ihren nächsten Erdentrip.

Zurück zur Erde: Bürgerrechte und Freiheit sind nicht zum Nulltarif zu haben! Bei der Abwägung zwischen vermeintlich ineffizienten aber frei gestaltbaren Bargeldtransfers auf der einen Seite und totaler Überwachung und Gängelung auf der anderen kann ein an seiner Freiheit interessierter Bürger kaum für das Letztere plädieren.

Die Abschaffung des Bargelds wäre der erste Schritt in Richtung einer rein digitalen Währung mit allen daraus resultierenden Konsequenzen, komplexitätsbedingte Crashs des gesamten Finanzsystems nicht ausgeschlossen. Die Finanzkrise aus dem Jahre 2007 ist da nur ein harmloser Abklatsch und lässt die Dimension eines solchen möglichen Zusammenbruchs kaum erahnen. Wahrscheinlich wird man dafür ein neues Wort prägen müssen: Digitale Finanzkatastrophe. An die Zeiten ineffizienter Bargeldtransfers wird man dann sehnsüchtig zurückdenken.