Algorithmen und andere Missverständnisse

twitterlinkedin

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) fordert in einem Namensartikel von Heiko Maas in der Zeit eine Charta der digitalen Grundrechte. Unter Artikel 4 steht da „Kein Mensch darf zum Objekt eines Algorithmus werden.“

Der Terminus Algorithmus soll hier großzügig als Metapher für eine maschinengestützte Faktenverarbeitung und Entscheidung verstanden werden. Eigentlich geht es hier im Kern um „Künstliche Intelligenz“, nicht banal um singuläre Algorithmen auf der Ebene von Kochrezepten. Die Formulierungen im zitierten Artikel 4 sind nicht gerade auf der Höhe der Zeit und spiegeln ein rückwärtsgewandtes Verständnis von künstlicher Intelligenz wider. Künstliche Intelligenz erschöpft sich nicht in der banalen Abbildung logisch folgerichtiger Schlüsse.

Künstliche Intelligenz erhebt den Anspruch, in komplexen Situationen und auf Basis unsicherer und unvollständiger Informationen zu nachvollziehbaren und im Einklang mit menschlichen Verhaltensweisen stehenden vertretbaren Entscheidungen zu kommen. Und dies mit größerer Sicherheit und schneller, als dies ein Mensch je könnte.

Ein Beispiel: Nehmen wir ein Auto kurz vor einem unvermeidlichen Crash. Der Fahrer kann sich nur noch entscheiden, ob er die Mutter mit Kind auf der rechten Straßenseite oder das ältere Ehepaar links davon überfährt. In beiden Fällen mit vermutlich tödlichen Konsequenzen. Was soll er tun? – Es gibt keine allgemeingültige Regel dafür, weil jeder Fall spezifische Besonderheiten aufweist: Beim Fahrer, seinem Lebenshintergrund, seinen konkreten Erfahrungen, aber auch bei den potentiellen Opfern, ihrem Verhalten, oder ganz banal ihrem Aussehen. Der Fahrer wird sich irgendwie entscheiden und sich danach dafür verantworten müssen. Dafür haben wir Regeln, die wir Gesetze nennen, ergänzt um manchmal ungeschriebene ethische Grundsätze.

Wie verhält es sich bei der „künstlichen Intelligenz“? Bezüglich der Entscheidungsgrundsätze nicht wesentlich anders. Der Unterschied liegt vor allem darin, dass bei der maschinellen Entscheidung u. U. keine natürliche Person für die eventuellen Folgen verantwortlich gemacht werden kann. Das ist aber im Kern kein Problem eines Algorithmus oder der künstlichen Intelligenz, sondern unseres Rechtssystems. Die „künstliche Intelligenz“ selbst könnte dabei sehr viel besser als der durchschnittliche Mensch im Hinblick auf die tatsächliche Unfallfolgenminimierung auf Basis der geltenden juristischen und allgemein akzeptierten ethischen Grundsätze entscheiden.

Der menschliche Fahrer mit eigenem Kleinkind wird das Lenkrad erschreckt in Richtung auf das ältere Paar herumreißen, auch dann, wenn Mutter und Kind in 9 von 10 Fällen bei genauerer Evaluierung wahrscheinlich nur leicht verletzt werden würden. Umgekehrt wird der Fahrer, der in der älteren Frau seine Mutter zu erkennen glaubt impulsiv in die andere Richtung lenken und damit möglicherweise einen folgenschweren Fehler begehen. Ist das besser, als sich im Vorfeld genaue Gedanken zu machen und intelligente Regeln zu formulieren? Ist das gerecht?

Eine echte „künstliche Intelligenz“ wird innerhalb von Bruchteilen von Sekunden genau die Entscheidung treffen, die bei Abwägung aller Optionen und potentiellen Folgen im Hinblick auf Schäden für Leib und Leben, Sachschäden, Rechtsfolgen und Kosten unter Abwägung der Risiken und Eintrittswahrscheinlichkeiten insgesamt das Optimum darstellt. Dazu muss man neben den rein physikalischen Risikoeinschätzungen „nur“ noch die juristischen und metaphysisch-ethischen Grundsätze in gleicher Weise abbilden – Das ist es, was den Kern eines solchen „Algorithmus“ ausmacht. Es sind nicht die Lerndaten. Letzten Endes haben diese nur den Charakter von situativ unscharfen Konfigurationsparametern, mehr nicht. Entscheidend sind die immanenten Metadaten und die das Verhalten beschreibenden Zusammenhänge (Metaregeln). Und natürlich kann man diese Metadaten, Regeln und Verhaltensbeschreibungen – im engeren Sinne wäre dies der Algorithmus – einer kritischen Prüfung unterziehen und bewerten. Wenn man so will, ist das der Algorithmus-TÜV.

Nehmen wir ein einfaches Modell: Es gibt einen Input \(x\) und es gibt einen Konfigurationsparameter \(p\). Der Algorithmus \(A\) bestimmt nach Maßgabe des Konfigurationsparameters \(p\) aus dem Input \(x\) den Output \(y\), formal \(A_{p}(x)  \rightarrow {y}\). Bei einem lernenden Algorithmus ist das nicht anders, nur dass eben hier der Parameter \(p\) nicht oder nur ungefähr bekannt ist. Das ändert doch aber nichts an der grundsätzlichen algorithmischen Formulierung. Der Algorithmus beschreibt den Satz von Regeln, wie bei gegebenen \(p\) aus dem Input \(x\) der Output  \(y\) bestimmt wird. Das kann geprüft und bewertet werden. Und es kann auch geprüft und bewertet werden, wie sich die Regeln bei Variation von \(p\) verändern, Variationen und stochastische Unschärfen eingeschlossen.

Bei lernender Software geht es i. d. R. nicht darum, aus dem Nichts heraus algorithmische Lösungen zu entwickeln. Der Ansatz ist vielmehr, bestehende Lösungen systematisch zu verbessern verbunden mit der Fähigkeit zur situativen Adaption und Optimierung. Vernünftige lernende Software basiert zunächst auf Problemverständnis und Erfahrungswissen. Genau so arbeiten auch wir Menschen.

Am Beispiel der Linsensuppe wird deutlich, dass auch Venkatasubramanian (zitiert in „Es genügt nicht, Algorithmen zu analysieren„) das so sieht: Da ist die Rede von einem Koch (das ist jemand, der kochen kann, der also das nötige Problemverständnis hat). Der Koch fragt die Gäste nach ihren Rezepten (da steckt das Erfahrungswissen). Erst jetzt beginnt die Zubereitung. Was den Algorithmus ausmacht ist am Ende nicht das banale Rezept für die Linsensuppe, sondern die Einhaltung der grundlegenden Regeln und die Berücksichtigung der Zusammenhänge (Metadaten-/regeln). Im konkreten Beispiel: Gewürze sind Zutaten und keine Hauptbestandteile, Zyankali als Gewürz ist verboten, …, die Reihenfolge der Zubereitungsschritte orientiert sich an biochemischen Gesetzmäßigkeiten, …, die Suppe wird nicht kochend serviert, eine Gabel als Essbesteck wird gar nicht erst probiert, … Diese Metadaten und Regeln machen den Algorithmus aus und können evaluiert werden. Der Algorithmus bildet die Fähigkeiten eines Kochs ab. Das kann bewertet und überprüft werden. Ob die Suppe am Ende schmeckt ist genauso unbestimmt, wie auch im Falle des menschliches Kochs. Das wäre aber auch nicht Gegenstand des TüV-Zertifikats (im Sinne der Forderung des BMJV).

Deswegen: Ja, man kann Algorithmen prüfen, man muss sie sogar prüfen. Indessen ist dieser Prozess nicht trivial und erfordert die Kenntnis des Kontexts. Das ist gewiss nicht neu, es ist aber insofern komplexer, als die Algorithmen über die wir hier reden den Anspruch erheben, intelligentes Verhalten abzubilden. Im engeren Sinne sind daher nicht die Lerndaten relevant, sondern die Regeln für die Verarbeitung derselben. Das ist der Algorithmus!

Die Forderung des BMJV nach einem Algorithmen-TÜV ist daher nicht ganz falsch, sie muss aber weiter gefasst werden. Es ist absolut nicht trivial, das Verhalten eines komplexen, intelligentes Handeln widerspiegelnden Algorithmus zu analysieren. Wir reden hier von einem Testat über eine „künstliche Intelligenz“. Das ist ähnlich schwierig, wie die Beurteilung eines Menschen. Dafür brauchen wir letzten Endes so etwas wie Computerpsychologie, auch wenn das zum jetzigen Zeitpunkt noch wie Science Fiction klingt.

Facebooktwitterredditpinterestlinkedinmail

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.