Ohne „Explainable-AI“ ist maschinelles Lernen nicht ethisch!


Veröffentlicht am 05.05.2022 von Tisson & Company
Avatar

Die Begriffe KI, Machine Learning und Data Science gewinnen immer mehr an Bedeutung. Unternehmen und Kunden wird es immer mehr bewusst, welche Chancen die Verarbeitung von bereits erhobenen Daten ermöglicht. Gleichzeitig zeigen die Trends an, dass Datenschutz, Transparenz in Datenbearbeitung und ethischer Umgang mit Kunden- und Personendaten zunehmend wichtige Bestandteile der modernen Arbeitswelt sind. Eine Frage, die man sich jetzt stellen muss ist, ob Machine Learning mit diesen Werten Hand in Hand geht. Wie können Kunden genau wissen, wie Machine-Learning-Algorithmen ihre Daten verwenden, um bestimmte Ergebnisse zu erzielen?

Definition

 

Interpretierbarkeit in maschinellem Lernen wird als das Maß definiert, das besagt, wie gut wir die Ergebnisse des maschinellen Lernens vorhersagen oder Entscheidungen der Algorithmen nachvollziehen können.

Warum maschinelles Lernen interpretierbar sein muss

 

1) Vertrauen in Algorithmen und maschinellem Lernen: Kunden wie zum Beispiel Banken oder Krankenhäuser müssen Algorithmen und deren funktionsweise nachvollziehen können, weil teilweise hochsensible Daten verarbeitet werden. Mit Hilfe von Python können Bibliotheken wie SHAP - lange als Blackbox betrachtet - Algorithmen und deren Entscheidungen erklären.

 

2) Datenschutzregelungen: Nach internationalen und nationalen Datenschutzregelungen muss jede Person nachvollziehen können, wie ihre persönlichen Daten verwendet und verarbeitet werden. Der Umgang mit diesen Daten ist deshalb problematisch, weil die Entscheidungen der Algorithmen Personen rechtlich oder finanziell benachteiligen können.

 

3) Verzerrungen erkennen und vermeiden: Aus der Sicht von Diskriminierungsschutzregelungen ist es wichtig, Verzerrungen in den Ergebnissen zu erkennen. Dies gilt besonders, wenn Personen einer bestimmten Gruppe angehören, die Algorithmen falsche Entscheidungen treffen und dadurch Nachteile für diese Personen entstehen.

 

4) Algorithmen verstehen: Es ist aus wissenschaftlicher und praktischer Sicht relevant, getroffene Entscheidungen und Funktionen des Machine Learning nachvollziehen zu können. Dies ist für die Optimierung vorhandener oder die Entwicklung neuer Modelle wichtig.

Es existieren bereits Werkzeuge zur Untersuchung von Machine-Learning-Algorithmen und deren Interpretierbarkeit. SHAP ist eine dieser Bibliotheken. Sie basiert auf dem Shapley-Wert der kooperativen Spieltheorie. Stand 29.03.2022 und laut Interpretable Machine Learning, geschrieben von Christoph Molnar (https://christophm.github.io/interpretable-ml-book/shapley.html), ist der Shapley-Wert bis jetzt das einzige Verfahren zur Untersuchung der Interpretierbarkeit von Machine-Learning-Algorithmen, die die oben genannten Kriterien erfüllen könnten. Die Kennzahl basiert auf einer soliden wissenschaftlichen Theorie.


Kontakt aufnehmen

Sie wünschen mehr Informationen oder haben eine Frage? Schreiben Sie uns:

Datenschutzerklärung
captcha