Wenn der Staat Algorithmen nutzt – brauchen wir ethische Standards
Algorithmen sind nichts Neues
Bereits seit Lebzeiten begleiten uns Algorithmen. Genau gesagt seit dem 12 Jahrhundert. 🙂 Also nicht jeden Einzelnen von uns, aber über die Jahrhunderte hinweg unsere Gesellschaften.
Algorithmen sind vereinfacht ausgedrückt eindeutige Handlungsanleitungen zur Lösung eines Problems. Sie bedürfen dazu nicht einmal mathematischer Formeln oder Code oder gar einer digitalen Umsetzung. .
Als Beispiel für einfache Algorithmen seinen hier stellvertretend Bastelanleitungen, Gebrauchsanweisungen, Gesetze oder ähnliches genannt, die mittels natürlicher Sprache die Problemlösung beschreiben. Ja, auch IKEA-Aufbauanleitungen fallen hierunter, auch wenn das der ein oder andere Käufer von Billy und Co das schier unglaublich findet.
Auch einem Algorithmus zugrunde liegende mathematische Formeln bedürfen keiner Umsetzung durch die “IT”, wie am Bespiel der Berechnung des BMI deutlich wird. Bei Vorhandensein notwendiger Basisangaben kann dieser mittels der bereitgestellten Formel auch im Kopf berechnet werden. Oder ganz “oldschool” auf dem Papier. Oder Taschenrechner.
Algorithmen in dieser Form sind für jeden nachvollziehbar, transparent (naja, vielleicht bis auf Gesetze oder IKEA) und können weitgehend ohne weitere Hilfsmittel angewandt werden.
Menschen machen Algorithmen
Das ist eine ganz profane Feststellung, auf die ich am Ende gern nochmals kurz zurückkommen möchte.
Der Algorithmus selbst an sich ist also weder “gut” noch “böse”, sondern er ist lediglich das in Sprache/Formeln/Code gegossene Ergebnis der Erstellers. Wichtig ist also immer die Intention, mit der diese Algorithmen geschrieben werden.
Und wenn wir uns nochmals verdeutlichen, dass auch Bastelanleitungen ein Algorithmus sind, stellen wir fest, dass eine unspezifische Dämonisierung von Algorithmen am Ende totaler Nonsens ist.
Der Einzug der Algorithmen in die Informatik
Auch wenn wir sie nicht direkt sehen könne, begleiten uns Algorithmen in unserer digitalisierten Welt auf Schritt und Tritt.
Egal ob wir gerade ein paar Apps auf dem Smartphone nutzen, oder bei Google etwas suchen oder bei Amazon etwas einkaufen. Auch wenn wir die praktische Rechtschreibprüfung in einem Office-Programm benutzen oder das Navi uns mal eben zum nächsten Date lotst. Selbst bei der Partnersuche im Internet oder via App (Dating-Portal, Tinder und Co) laufen im Hintergrund kleine Algorithmen, die den für uns passenden “Partner” finden sollen. Nur wir dies hier unter dem Modewort “Matching” verkauft.
Bei all diesen Beispielen haben wir in aller Regel keine Bedenken, dass uns diese Algorithmen irgendwie schaden wollen. Wir betrachten sie vielmehr als nützliche Tools im Umgang mit unseren täglichen Herausforderungen.
Eine neue Dimension der Anwendung erfährt der Algorithmus allerdings durch Nutzung Bereich Big Data bzw. Data Mining. Dank gestiegener Anzahl von gesammelten Daten und der gestiegenen Rechenleistungen von Computern, können große Datenmengen mithilfe von Algorithmen nach Mustern und Zusammenhängen durchforstet und ausgewertet werden.
Und spätestens an dieser Stelle gehen für “Otto Normalbürger” Transparenz und Nachvollziehbarkeit dieser Algorithmen verloren.
Der Staat mischt sich ein und mit
Ein moderner Staat sollte, oder besser muss, Algorithmen nutzen. Sie können dabei helfen, Verwaltungsabläufe zu optimieren. Neben schlankeren und transparentere Prozessen kann diese auch dazu führen, dass auch monetäre Einspareffekte erzielt werden können.
Weil es dabei in aller Regel um Steuergelder geht, ist diese Effizienz im Sinne jedes Bürgers, jedes Steuerzahlers.
Diese können dann sinnvoller und gewinnbringender an anderer Stelle eingesetzt werden.
Und der Staat verfügt auch gerade hinsichtlich der möglichen Daten über einen wesentlichen Vorteil:
Bei Privatanbietern können wir unter Umständen der Datennutzung widersprechen können oder via “Fake-Accounts” unsere Daten nicht preisgeben.
Hier hat der “Staat” einen Vorteil, da er aus hoheitlichen Aufgaben heraus über eine ganze Menge von Echtdaten verfügt. Ob das nun das Finanzamt ist, das Melderegister oder auch die Arbeitsagentur bzw. das Jobcenter.
“Minority Report – eine Anleitung zum Gruseln
Das wohl prägnanteste (fiktive) Beispiel was Algorithmen ohne entsprechende Transparenz, ethische Regeln und Kontrolle anrichten können zeigt sehr eindrucksvoll der Film “Minority Report”. In diesem werden via “predictive policing” Menschen klassifiziert und durch vollständige Kontrolle über jegliche Kommunikation wird die totale Kontrolle über alle Menschen erlangt. Wer auch nur daran denken könnte eine Straftat zu begehen, ist schuldig. Dabei spielt es keine Rolle, ob dieser Mensch wirklich auch nur daran gedacht hat. Denn das entscheiden Algorithmen. Und auch hier können wesensspezifische Merkmale wie Hautfarbe und Herkunft dazu führen, dass man weggesperrt wird.
Die zunächst freie Gesellschaft muss also – zu ihrem eigenen Wohl – kontrolliert werden, damit man ihre Sicherheit besser gewährleisten kann.
Eine Gruselvorstellung die da skizziert wird. Wissenswert ist vielleicht, dass die zugrunde liegende Kurzgeschichte bereits 1956 (!!) geschrieben wurde.
Beispiele aus der Gegenwart
Und genau hier lohnt es sich einen Blick darauf zu werfen, wie der Staat mit diesen Daten umgehen sollte.
Und das er die Potenziale der Algorithmen im Zeitalter von Digitalisierung und Big Data erkannt hat, zeigen 2 Beispiele. Von denen eines gerade zu massiven Diskussionen führt.
Beispiel 1 – Stellenportale
Seit 2003 betreibt die Bundesagentur für Arbeit ein Stellenportal und befindet sich damit in direkter Konkurrenz zu gewerblichen Anbietern wie Monster, Stepstone, Indeed und Co.
Was diesen Stellenportalen zugrunde liegt ist ein Abgleich zwischen Angebots- und Nachfrageseite. Bei den Bewerbern wird hierbei zumeist auf Fähigkeiten, Fertigkeiten, Abschlüsse und sonstige Rahmenbedingungen gesetzt. Diese werden dann nach zugrunde liegenden Algorithmen (Matching) mit den vorhandenen Stellen abgeglichen und ein Matchscore ermittelt. Dieser zeigt (vereinfacht) ausgedrückt den Übereinstimmungsgrad und damit die Wahrscheinlichkeit, wie gut die Stelle zu dem Bewerber passt. Oder umgekehrt.
Die diesem Matching zugrunde liegende Software, bzw., die darin enthaltenen Algorithmen, sind dem normalen Nutzer nicht sichtbar. Wir verlassen uns einfach weitgehend auf diese Ergebnisse. Und ob dann Alter, Kinder, Geschlecht oder Behinderung zu Punktabzug oder nicht führen, bleibt uns verborgen.
Dies kann am Ende in aller Konsequenz dann über Job oder Absage entscheiden.
Beispiel 2- Kategorisierung von Arbeitslosen in Österreich
Die österreichische Arbeitsverwaltung pant ab 2020 einen Algorithmus einzuführen, der Arbeitslose in drei Kategorien sortieren soll: mit guten, mittleren und schlechten Chancen auf einen neuen Job.
Dabei sollen anhand dieser Kategorisierung nicht nur Jobchancen ermittelt werden. Es sollen auch die Förderungen differenziert eingesetzt werden.
Ganz schlicht ausgedrückt: wer in der Kategorie 3 landet – wird praktisch aufgegeben. Dies ist nicht nur aus der eigentlichen Aufgabe einer staatlichen Arbeitsverwaltung zu hinterfragen. Vielmehr führen auch die zugrunde gelegten Kriterien zu Fragen, bei denen Begriffe wie “Diskriminierung” zunehmend in die Debatte einfließen.
Für ein paar Beispiele hier entlang
Eine besondere Verantwortung für den Staat – Forderungen an die Politik
Anhand dieser Beispiele wird deutlich, dass gerade der Staat eine besondere Verantwortung haben MUSS, derartige “Programme” unter besonderen ethischen und transparenten Standards zu entwickeln. Insbesondere auch im Bereich der sozialen Sicherung, wo nicht das Leistungsprinzip im Vordergrund steht, sondern die soziale Absicherung und Fürsorge.
Dies allein ist kein Grund, gänzlich auf automatisierte “Entscheidungen” zu verzichten. Vielmehr sind durch den Staat Rahmenbedingungen zu schaffen, die dem Anspruch an Transparenz, Kontrolle und Diskriminierungsfreiheit gerecht werden.
Bereits im Rahmen der damaligen Sondierungsverhandlungen haben wir die Forderungen/Wünsche relativ klar und deutlich formuliert, die wir hier nochmals aufgreifen.
- Ausweitung des Diskriminierungsverbotes durch Ergänzung des Grundgesetzes hinsichtlich automatisierter Entscheidungen
- Einsetzung einer „Enquete-Kommission“ zur Erarbeitung ethischer Standards bei der Nutzung von Algorithmen
- Verabschiedung von ethischen Standards durch die Bundesregierung
- Offenlegung aller in staatlichen Behörden angewandten Algorithmen durch „Open-Data“-Politik
- Bereitstellung des Quelltextes unter dem Label “Open Source”
- Ständige Kontrolle der Algorithmen durch eine Kommission aus Experten, Anwendern und Betroffenen
Und am Ende der Algorithmen steht wieder der Mensch
Wie bereits erwähnt sind Algorithmen von Menschen gemacht. Und die Ergebnisse werden wieder von Menschen angewandt oder interpretiert.
Nicht der Algorithmus ist Schuld, sondern die Menschen, die die”Bürokratie” gestalten und verwalten.
Wir müssen auch auch der Bürokratie die ethischen Rahmenbedingungen vorgeben, damit wir Algorithmen nicht mehr als Risiko betrachten, sondern als Helfer.