Schlagwort-Archive: Software

Verschlafen wir die digitale Transformation?

In der Netzkommunikation trifft man immer wieder auf die These, wir würden die digitale Transformation oder die Digitalisierung verschlafen. Vielen geht das alles zu langsam voran. Fantastische Anwendungen sind heute schon möglich und wir nutzen sie nicht oder sind nicht in der Lage,  sie in Produktionsabläufe oder ganz einfach in unser Leben zu integrieren. Ist das wirklich so?

Das kann man so sehen, wenn man es schneller haben  will und das Neue – und das heißt in den allermeisten Fällen auch das Unreife, das noch nicht Praxistaugliche – kaum erwarten kann.  Man kann aber auch einen Schritt zurück treten und einen weiteren Bogen spannen: Wir sind inmitten der nunmehr schon 35 – 50 Jahre währenden digitalen Transformation – ja, so lange läuft das schon. Nehmen wir die kürzere Zeitspanne: Der IBM-PC hat die Digitalisierung in der Breite eingeläutet, die Einführung des Internet im Jahrzehnt danach hat die Entwicklung nochmals beschleunigt.

Kann man nun ernsthaft die These vertreten, die digitale Transformation finde nicht statt oder sie werde verschlafen? Wohl kaum! Ich denke, es gibt ein weit verbreitetes Missverständnis zur Digitalisierung. Man muss sich von der Vorstellung lösen, dass die Digitalisierung gewissermaßen die „natürliche Fortentwicklung“ der analogen Welt darstellt. So ist das mitnichten. Analoge und digitale Welt stehen eher orthogonal zueinander. Mit der Erfindung des Computers haben wir den uns zugänglichen Lösungsraum dramatisch erweitert. In gewisser Weise ist die Digitalisierung eine „neue“ Dimension unserer Lebenswirklichkeit, das heißt aber nicht, dass nun jede Lösung digital sein muss. Die eine Welt ist nicht „besser“ als die andere, jede hat ihre Stärken und Schwächen. Richtig eingesetzt können digitale Lösungsansätze echten Nutzen stiften, sie können aber auch albern sein. Die Pizza schmeckt nicht besser, wenn sie digital bestellt. Wie viel Prozent der weltweit täglich verzehrten Pizzen werden digital geordert? Die Zahl dürfte eher klein sein. Ist das nun gut oder schlecht? Es ist irrelevant, weil es mit Digitalisierung gar nichts zu tun hat. Es ist geradezu verkrampft, jeden nur denkbaren Prozess digitalisieren zu wollen – offenbar nur um der Digitalisierung willen und oft ohne jeden greifbaren Vorteil.

Trotz aller Elektronik und Software im Auto ist das Fahrerlebnis im Kern analog – auch mit digitalen Lenkknöpfen an Stelle eines Lenkrads wäre das noch so. Der implantierte ID-Chip macht uns noch nicht zu Cyborgs, wir bleiben in der analogen Welt verhaftet. Vielleicht würde im Gegenteil die per DNA personalisierte Hardware mehr Sinn machen und tatsächlich ein Plus an Sicherheit bringen.

Gegenwärtig heißt digitale Transformation noch, neue Anwendungsfelder erschließen, neue Möglichkeiten ausprobieren. Was wir heute an Digitalisierung sehen, sind in den meisten Fällen relativ banale 1:1 Übertragungen analoger Prozessmuster (s. Pizza). Viel mehr ist technisch aber auch nicht möglich, wenn wir nicht gleichzeitig unser Leben an sich grundlegend digitalisieren wollen: Home Office statt Büro, Besprechungen nur noch online, virtuelle 3D-Reisen statt Langstreckenflügen, usw. … Second Life statt Real Life … wer will das? Künftige Generationen vielleicht. Diese Art von umfassender Digitalisierung hat eine soziale und eine technologische Dimension. Wir beherrschen beide nicht!

Nüchtern betrachtet muss man konstatieren, dass die Technologie für eine durchgreifende Digitalisierung noch in den Kinderschuhen steckt. Deswegen ist es richtig, dass es auch nur „relativ“ langsam vorangeht. Wir spielen mit der Digitalisierung, wie Kinder mit Legobausteinen. Was uns die Technik bietet, hat ungefähr diesen Reifegrad. Damit können Kinder wunderbare Sachen basteln und viel Spaß haben, es ist aber doch nur ein Spiel. Facebook oder Twitter sind für mich solche Bei-„Spiele“. Das IoT (Internet of Things) ist nur theoretisch möglich, in der Praxis ist die Technologie weder sicher noch zuverlässig und daher auch nicht wirklich praktikabel. Ja gewiss, im prototypischen Umfeld funktioniert alles Mögliche, der Schritt in die Breite aber, die durchgängige Anreicherung mit werthaltigem Inhalt, die Verfügbarkeit der Daten, die Verlässlichkeit der Funktion, die Einfachheit der Anwendung, die Sicherheit der Nutzung, der Datenschutz, … Fehlanzeige. Nicht weil hier überall noch Detailproblem zu lösen sind oder weil die Anbieter respektive Nutzer einfach nicht aus dem Quark kommen, sondern weil es in Summe, in der Vielgestaltigkeit der Querbeziehungen technisch (noch) zu komplex ist, weil die Technologie noch nicht reif ist. Letztendlich fehlt der Nutzen.

Meine These ist: In vielen Anwendungsfeldern wird echter Nutzen in Breite und Tiefe so lange ausbleiben, bis wir in der Lage sind, intelligentes Verhalten zu programmieren. Gegenwärtig sind wir dazu in den allermeisten wirtschaftlich relevanten Einsatzszenarien noch nicht imstande … denn Künstliche Intelligenz ist das, was es noch nicht gibt.

Algorithmen und andere Missverständnisse

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) fordert in einem Namensartikel von Heiko Maas in der Zeit eine Charta der digitalen Grundrechte. Unter Artikel 4 steht da „Kein Mensch darf zum Objekt eines Algorithmus werden.“

Der Terminus Algorithmus soll hier großzügig als Metapher für eine maschinengestützte Faktenverarbeitung und Entscheidung verstanden werden. Eigentlich geht es hier im Kern um „Künstliche Intelligenz“, nicht banal um singuläre Algorithmen auf der Ebene von Kochrezepten. Die Formulierungen im zitierten Artikel 4 sind nicht gerade auf der Höhe der Zeit und spiegeln ein rückwärtsgewandtes Verständnis von künstlicher Intelligenz wider. Künstliche Intelligenz erschöpft sich nicht in der banalen Abbildung logisch folgerichtiger Schlüsse.

Künstliche Intelligenz erhebt den Anspruch, in komplexen Situationen und auf Basis unsicherer und unvollständiger Informationen zu nachvollziehbaren und im Einklang mit menschlichen Verhaltensweisen stehenden vertretbaren Entscheidungen zu kommen. Und dies mit größerer Sicherheit und schneller, als dies ein Mensch je könnte.

Ein Beispiel: Nehmen wir ein Auto kurz vor einem unvermeidlichen Crash. Der Fahrer kann sich nur noch entscheiden, ob er die Mutter mit Kind auf der rechten Straßenseite oder das ältere Ehepaar links davon überfährt. In beiden Fällen mit vermutlich tödlichen Konsequenzen. Was soll er tun? – Es gibt keine allgemeingültige Regel dafür, weil jeder Fall spezifische Besonderheiten aufweist: Beim Fahrer, seinem Lebenshintergrund, seinen konkreten Erfahrungen, aber auch bei den potentiellen Opfern, ihrem Verhalten, oder ganz banal ihrem Aussehen. Der Fahrer wird sich irgendwie entscheiden und sich danach dafür verantworten müssen. Dafür haben wir Regeln, die wir Gesetze nennen, ergänzt um manchmal ungeschriebene ethische Grundsätze.

Wie verhält es sich bei der „künstlichen Intelligenz“? Bezüglich der Entscheidungsgrundsätze nicht wesentlich anders. Der Unterschied liegt vor allem darin, dass bei der maschinellen Entscheidung u. U. keine natürliche Person für die eventuellen Folgen verantwortlich gemacht werden kann. Das ist aber im Kern kein Problem eines Algorithmus oder der künstlichen Intelligenz, sondern unseres Rechtssystems. Die „künstliche Intelligenz“ selbst könnte dabei sehr viel besser als der durchschnittliche Mensch im Hinblick auf die tatsächliche Unfallfolgenminimierung auf Basis der geltenden juristischen und allgemein akzeptierten ethischen Grundsätze entscheiden.

Der menschliche Fahrer mit eigenem Kleinkind wird das Lenkrad erschreckt in Richtung auf das ältere Paar herumreißen, auch dann, wenn Mutter und Kind in 9 von 10 Fällen bei genauerer Evaluierung wahrscheinlich nur leicht verletzt werden würden. Umgekehrt wird der Fahrer, der in der älteren Frau seine Mutter zu erkennen glaubt impulsiv in die andere Richtung lenken und damit möglicherweise einen folgenschweren Fehler begehen. Ist das besser, als sich im Vorfeld genaue Gedanken zu machen und intelligente Regeln zu formulieren? Ist das gerecht?

Eine echte „künstliche Intelligenz“ wird innerhalb von Bruchteilen von Sekunden genau die Entscheidung treffen, die bei Abwägung aller Optionen und potentiellen Folgen im Hinblick auf Schäden für Leib und Leben, Sachschäden, Rechtsfolgen und Kosten unter Abwägung der Risiken und Eintrittswahrscheinlichkeiten insgesamt das Optimum darstellt. Dazu muss man neben den rein physikalischen Risikoeinschätzungen „nur“ noch die juristischen und metaphysisch-ethischen Grundsätze in gleicher Weise abbilden – Das ist es, was den Kern eines solchen „Algorithmus“ ausmacht. Es sind nicht die Lerndaten. Letzten Endes haben diese nur den Charakter von situativ unscharfen Konfigurationsparametern, mehr nicht. Entscheidend sind die immanenten Metadaten und die das Verhalten beschreibenden Zusammenhänge (Metaregeln). Und natürlich kann man diese Metadaten, Regeln und Verhaltensbeschreibungen – im engeren Sinne wäre dies der Algorithmus – einer kritischen Prüfung unterziehen und bewerten. Wenn man so will, ist das der Algorithmus-TÜV.

Nehmen wir ein einfaches Modell: Es gibt einen Input \(x\) und es gibt einen Konfigurationsparameter \(p\). Der Algorithmus \(A\) bestimmt nach Maßgabe des Konfigurationsparameters \(p\) aus dem Input \(x\) den Output \(y\), formal \(A_{p}(x)  \rightarrow {y}\). Bei einem lernenden Algorithmus ist das nicht anders, nur dass eben hier der Parameter \(p\) nicht oder nur ungefähr bekannt ist. Das ändert doch aber nichts an der grundsätzlichen algorithmischen Formulierung. Der Algorithmus beschreibt den Satz von Regeln, wie bei gegebenen \(p\) aus dem Input \(x\) der Output  \(y\) bestimmt wird. Das kann geprüft und bewertet werden. Und es kann auch geprüft und bewertet werden, wie sich die Regeln bei Variation von \(p\) verändern, Variationen und stochastische Unschärfen eingeschlossen.

Bei lernender Software geht es i. d. R. nicht darum, aus dem Nichts heraus algorithmische Lösungen zu entwickeln. Der Ansatz ist vielmehr, bestehende Lösungen systematisch zu verbessern verbunden mit der Fähigkeit zur situativen Adaption und Optimierung. Vernünftige lernende Software basiert zunächst auf Problemverständnis und Erfahrungswissen. Genau so arbeiten auch wir Menschen.

Am Beispiel der Linsensuppe wird deutlich, dass auch Venkatasubramanian (zitiert in „Es genügt nicht, Algorithmen zu analysieren„) das so sieht: Da ist die Rede von einem Koch (das ist jemand, der kochen kann, der also das nötige Problemverständnis hat). Der Koch fragt die Gäste nach ihren Rezepten (da steckt das Erfahrungswissen). Erst jetzt beginnt die Zubereitung. Was den Algorithmus ausmacht ist am Ende nicht das banale Rezept für die Linsensuppe, sondern die Einhaltung der grundlegenden Regeln und die Berücksichtigung der Zusammenhänge (Metadaten-/regeln). Im konkreten Beispiel: Gewürze sind Zutaten und keine Hauptbestandteile, Zyankali als Gewürz ist verboten, …, die Reihenfolge der Zubereitungsschritte orientiert sich an biochemischen Gesetzmäßigkeiten, …, die Suppe wird nicht kochend serviert, eine Gabel als Essbesteck wird gar nicht erst probiert, … Diese Metadaten und Regeln machen den Algorithmus aus und können evaluiert werden. Der Algorithmus bildet die Fähigkeiten eines Kochs ab. Das kann bewertet und überprüft werden. Ob die Suppe am Ende schmeckt ist genauso unbestimmt, wie auch im Falle des menschliches Kochs. Das wäre aber auch nicht Gegenstand des TüV-Zertifikats (im Sinne der Forderung des BMJV).

Deswegen: Ja, man kann Algorithmen prüfen, man muss sie sogar prüfen. Indessen ist dieser Prozess nicht trivial und erfordert die Kenntnis des Kontexts. Das ist gewiss nicht neu, es ist aber insofern komplexer, als die Algorithmen über die wir hier reden den Anspruch erheben, intelligentes Verhalten abzubilden. Im engeren Sinne sind daher nicht die Lerndaten relevant, sondern die Regeln für die Verarbeitung derselben. Das ist der Algorithmus!

Die Forderung des BMJV nach einem Algorithmen-TÜV ist daher nicht ganz falsch, sie muss aber weiter gefasst werden. Es ist absolut nicht trivial, das Verhalten eines komplexen, intelligentes Handeln widerspiegelnden Algorithmus zu analysieren. Wir reden hier von einem Testat über eine „künstliche Intelligenz“. Das ist ähnlich schwierig, wie die Beurteilung eines Menschen. Dafür brauchen wir letzten Endes so etwas wie Computerpsychologie, auch wenn das zum jetzigen Zeitpunkt noch wie Science Fiction klingt.