Samstag, 17. Dezember 2016

Transparenz bei Algorithmen

Straftaten bleiben nicht ungeahndet. Algorithmen durchstöbern das Netz auf der Suche nach Rechtsvergehen. Juristen verlieren ihren Job.

Wenn Software Entscheidungen fällt oder zu einer Entscheidung beiträgt, sollten deren Ergebnisse für uns Menschen nachvollziehbar sein.
Wie soll das bei einer künstllichen Intelligenz gehen?

Folgender Beitrag will das erklären:
Technologyreview.com - How to hold Algorithms accountable?

Leider erklärt der Beitrag nicht das wie, wie im Titel versprochen, sondern zerlegt Verlässlichkeit (Accountibility) in fünf Prinzipien:
Responsibility
Explainability
Accuracy
Auditability
Fairness

Für mich hört sich das genauso an wie die Forderung nach Einigkeit, Recht und Freiheit.
Die Forderung ist verständlich, aber um sie Realität werden zu lassen, bedarf es Gesetze.
Gesetze kommen derzeit nur beim Handeln von Menschen und nicht beim Denken zur Anwendung.
Das Gehirn des Menschen ist eine Blackbox. Kein Richter interessiert sich für die Verdrahtung im Oberstübchen.
Wenn eine Tat entgegen dem Gesetz geschieht, fragen die Richter nach dem "Warum" für die Abweichung vom Gesetz.
Genetische Algorithmen, neuronale Netze und Fuzzy Logic müssen eine Antwort liefern, worauf ihr Handeln basiert.

Wie können Algorithmen ihr Motiv erklären? Folgendes Video liefert mit dem LIME-Prinzip Lösungsansätze:


Why should I trust you - YouTube

Was kümmern mich Algorithmen mögen wir denken? Wir sind weit davon weg, dass Algorithmen so mächtig sind, dass sie menschliches Leben beeinflussen. Falsch, denn Algorithmen sind längst unsere täglichen Berater.

Die von Sportportalen verwendeten Algorithmen sind oft weit davon weg, sich selbst zu erklären. Beispielsweise errechnete das adidas miCoach-Laufportal eine Laufprognose nach einem absolvierten freien Lauftraining. Das Ergebnis zeigte mir, wie viel Zeit ich für die typischen Wettkampfdistanzen (5km, 10km, HM, Marathon) benötigen würde. Der arme Läufer hat keine Möglichkeit, zu beurteilen, warum er dem Algorithmus trauen kann.

Der Algorithmus könnte sein Ergebnis verteidigen und offenlegen, welche Trainingsdaten er berücksichtigt. Das tut er aber nicht. Was der Anwender nicht sicher weiß, ist, dass der der Algorithmus auf adidas miCoach nur auf einem einzelnen Lauftraining basiert. Das heißt, wenn ich 2,5 Kilometer schnell sprinte, dann würde ich nach dem Algorithmus auch einen schnellen Marathon laufen können. Es wäre schön, wenn Laufsport so einfach wäre. Mit dem Wissen über die Berechnungsgrundlagen wäre jedem Anwender klar, dass der Algorithmus unzuverlässig bis nutzlos ist.

Ein Unternehmen betrachtet seine Algorithmen immer als geistiges Eigentum. Selbst eine Offenlegung der Funktionsweise käme aus ihrer Sicht der Offenlegung von Betriebsgeheimnissen gleich.

Daher sollten Gesetze hier für einen Druck sorgen, die Verlässlichkeit von Algorithmen insoweit offenzulegen, um die Verlässlichkeit der Ergebnisse einschätzen zu können.

Siehe auch:
Angela Merkel: Warum die Kanzlerin an die Algorithmen von Facebook will - SPIEGEL ONLINE
AlgorithmWatch hat es sich zur Aufgabe gemacht, Algorithmen zu bewerten, die im Rahmen von algorithmisch unterstützten Entscheidungsprozessen genutzt werden.

Keine Kommentare: