©2018 by LAWTECHROSE.

LAWTECHBLOG

 
Zusammenfassung Oberflächen

LAW // TECH // ETHICS

 
 
  • Jolanda Rose

Wie kommt die Ethik in den Code?

Aktualisiert: 18. Aug 2019


#tbthursday #ethics #ai

Mitte Juli hat Lajla Fetic von der Bertelsmann Stiftung im Rahmen der Vorlesungsreihe LegalTech an der HU über die Regulierung von Algorithmen, den gesellschaftlichen Nutzen von KI und soziale Auswirkungen der Digitalisierung gesprochen. Außerdem hat sie die neu veröffentlichten Algo.Rules und den Arbeitsansatz ihres Teams näher erörtert.


"Ich bin kein Techie und auch kein Philosoph"

Dafür ist Lajla Fetic Sozialwissenschaftlerin und Projektmanagerin von "Ethics of Algorithms". Dort kann sie ihr Wissen über gesellschaftliche, soziologische Gefüge in der Diskussion und Forschung zu Algorithmen, die den Menschen unterstützen sollen, gewinnbringend einsetzen.

Ihr Projekt bei der Bertelsmann Stiftung beschäftigt sich mit den Fragen, die sich aus dem ethischen, soziologischen Blick auf die Entwicklungen der Digitalisierung ergeben. Im Fokus steht dabei die Frage, wie man Algorithmen so gestalten kann, damit alle etwas davon haben. Viele Menschen empfinden das analoge Leben als geregelt und sicher, können aber das digitale Leben noch nicht einordnen. Zuweilen bereitet es ihnen Sorge oder macht sogar Angst. Gesellschaftliche und ethische Fragen, die gestellt wurden und schon beantwortet schienen, werden im Licht der Digitalisierung wieder neu diskutiert. Das macht diesen Prozess auch so spannend und wenig vorhersehbar.


Was verstehen wir unter KI?

Die Debatte um KI schwankt zwischen Utopie und Dystopie. Schon die Frage, was Intelligenz bzw. menschliche Intelligenz ausmacht, ist wissenschaftlich hoch umstritten. Daher konzetriert sich das Projekt "Ethics of Algorthims" auf Algorithmen statt den allgemeineren Begriff der Künstlichen Intelligenz.


Wie wirken Algorithmen?

Die Bertelsmann Stiftung definiert einen Algorithmus als eindeutige Handlungsvorschrift zum Lösen eines vorab definierten Problems.

Als Ausgangspunkt für die vom Projekt entwickelten Algo.Rules, wurden deutschlandweit Bürger zu ihrem Wissen über Algorithmen befragt. Die Ergebnisse der Studie sind sehr gemischt.

>> 48 Prozent der Befragten wissen nicht, was ein Algorithmus ist.

>> 74 Prozent der Befragten wünschen sich ein stärkere Kontrolle beim Einsatz von Algorithmen.

>> 46 Prozent der Befragten sehen mehr Vorteile.

>> 20 Prozent der Befragten sehen mehr Probleme.

Die Studie zeigt deutlich, dass ein großes Informationsdefizit beim Thema Algorithmen besteht. Deshalb stellt das Projekt Aufklärung, Transparenz und Teilhabe von Verwendern algorithmisch gesteuerter Produkte bei der Entwicklung von Algorithmen in den Fokus. Um die Algo.Rules zu entwickeln, wurden Chancen und Risiken von Algorithmen abgewogen.


Risiken von Algorithmen

Eines der größten Probleme beim Einsatz von Algorithmen betrifft nicht den Algorithmus selbst. Vielmehr reproduzieren Algorithmen menschengemachte Diskriminierung, wenn Datensets diskriminierende Daten enthalten. Algorithmen skalieren menschliche Entscheidungen. Beim sogenannten Roborecruiting wurden sexistischer Rekrutierungspraktiken im Technologiesektor reproduziert. Das Attribut männlich wurde mit erfolgreich gleichgesetzt. Da regelmäßig keine fairen und transparenten Kritrien an die Datensets angelegt werden, skalieren diese beim Einsatz in Algorithmen Ungerechtigkeit und Diskriminierung.

Dennoch können auch Algorithmen selbst diskriminierend oder schlichtweg fehlerhaft programmiert sein. So unterscheidet das System beim Predictive Policing nicht zwischen potentiellen Opfern und Tätern von Gewalt. Dadurch hat sich das Tool, das eigentlich zur Prävention genutzt werden sollte, zu einem selbstverstärkenden System von Verdachtsdiskriminierung entwickelt. Da in gewissen Gebieten, die als unsicher eingestuft wurden, öfter gesucht wurde, wurden auch mehr Probleme gefunden. So hat sich der Algorithmus schnell auf wenige Gebiete konzetriert und Menschen in diesen Gebieten, ungerechtfertigter Weise häufiger verdächtigt und in ihrem Alltag eingeschränkt.

Doch selbst, wenn der Algorithmus und die Datensets fehlerfrei und gerecht programmiert sind, kommt es immer noch auf dessen Einsatz und den Umgang des Menschen mit diesem an. Jeder Algorithmus ist nur so gut wie der Output interpretiert wird.


Chancen von Algorithmen

Im Gegenzug kann man dieses Wissen um die Risiken auch nutzen, um einen gerechteren Algorithmus zu schaffen. Menschen handeln oder stellen Überlegungen auf Grund von gefühlten Wahrscheinlichkeiten an. Oft entdeckt man daher erst durch Algorithmen die Problematiken innerhalb der Gesellschaft.

So haben die Verantwortlichen bei LinkedIn z.B. den Algorithmus zum Vorschlagen von Jobkandidaten verändert, nachdem klar wurde, dass dieser Frauen diskriminiert, weil diese ihre Profile weniger ausfüllen. Dieses Verhalten ist ein Ausdruck der Sozialisierung von Frauen, die gelernt haben ihre Erfolge bescheidener nach außen zu tragen als viele Männer. Die Aufdeckung dieses Problems hat sowohl zu wichtigen Diskussionen geführt, als auch zu einem neuen, angepassten Algorithmus geführt.

Anhand der Analyse von Datensets und Algorithmen können gesellschaftliche Probleme ausgemacht, diese Themen öffentlich diskutiert und bei der technischen Umsetzung berücksichtigt werden. Denn gemäß Sascha Lobo bestimmt nicht die Technik, sondern die Art und Weise, wie wir sie nutzen unsere Zukunft.


Algo.Rules

Bei "Ethics of Algorithms" möchte man Algorithmen in den Dienst der Gesellschaft stellen.

Im Rahmen dessen hat man die Algo.Rules als prozessorientierte Gestaltungsregeln entwickelt. Die folgenden neun Regeln für die Gestaltung algorithmischer Systeme sollen Raum für Diskussionen und Veränderung schaffen.

>> Kompetenz aufbauen

>> Verantwortung definieren

>> Ziele und erwartete Wirkung definieren

>> Sicherheit gewährleisten

>> Kennzeichnung durchführen

>> Nachvollziehbarkeit sicherstellen

>> Beherrschbarkeit absichern

>> Wirkung überprüfen

>> Beschwerden ermöglichen

Die Algo.Rules sollen eine Skala darstellen, wie sicher und ethisch vertretbar ein jeweiliger Algorithmus ist. Besonders wichtig ist dem Projekt, dass die Nachvollziehbarkeit für den Verbraucher sichergestellt ist. Heute basieren digitale Produkte oft noch auf einfachen Entscheidungsbäumen, die - einmal erklärt - für den Verwender leicht nachvollziehbar sind. Bei komplexeren Algorithmen kann "Explainable AI", also künstliche Intelligenz, die selbst erklärt, was sie tut, helfen. Wo EU-Richtinien zu allgemein sind, bieten die Algo.Rules konkrete Ansätze.


Visionen für die Regulierung von Algorithmen

Bisher sind die Algo.Rules ein Angebot zur Diskussion. Auf Dauer ist eine Selbstverpflichtung jedoch zu einfach. Deshalb wird diskutiert die Algo.Rules oder ein ähnliches Ruleset als Standard zu implementieren, damit Unternehmen auf dessen Einhaltung kontrolliert werden können.

Transparenz ist dabei der erste Schritt zum Beginn einer Diskussion. Denn viel zu oft werden diese gesellschaftlich, ethisch entscheidenden Diskussionen über den Umgang mit Algorithmen gar nicht geführt. Dafür ist ein interdisziplinärer, offener Austausch zwischen Entwicklern, Verwendern und Politik eine wichtige Grundlage.

Heute wird flächendeckend jedoch noch keine KI eingesetzt. Außerdem sind die meisten Systeme nicht voll automatisiert. Also sind viele Systeme noch leicht erklärbar. So bleibt eine tatsächliche Entscheidungsfreiheit für den Menschen an der Maschine. Diese Freiheit impliziert auch eine Verantwortung die Ergebnisse eines technischen Prozesses richtig zu interpretieren und umzusetzen.


Fazit

Algorithmen schaffen die Möglichkeit, alte, unethische Strukturen ans Licht zu bringen. Mit den richtigen Strukturen können diese diskutiert und für die Gesellschaft gewinnbringend eingesetzt werden. So kommt die Ethik in den Code.


Wer mehr über das Projekt oder ihre Arbeit erfahren möchte, kann Lajla Fetic, "Ethics of Algorithms" oder der Bertelsmann Stiftung bei Twitter folgen.

109 Ansichten