Intelligente Algorithmen können Menschen viele lästige Entscheidungen abnehmen. Doch das kann auch zu drastischen Auswirkungen auf die Betroffenen führen. Experten fordern deshalb, die Gesetze anzupassen.
Über die rechtlichen Konsequenzen intelligenter Algorithmen wird schon länger diskutiert - besonders in den Fällen, in denen sie Menschen Entscheidungen abnehmen sollen. Experten fordern nun, dass endlich auch die Rechtslage den neuen Gegebenheiten angepasst werden muss. Hintergrundwissen
Eric Horvitz, leitender Forscher bei Microsoft Research, etwa moniert in der aktuellen Ausgabe von Technology Review, dass maschinelles Lernen es dem Einzelnen zunehmend erschwert, "zu verstehen, was andere über ihn wissen können.“ Studien zeigen beispielsweise, dass mittels Daten aus sozialen Netzwerken depressive Nutzer mit hoher Treffergenauigkeit erkannt werden können. Wenn Algorithmen auf dieser Datenbasis vorhersagen, dass ein Mensch vermutlich eine Depression entwickeln wird, könnte ein Arbeitgeber entsprechende Bewerber legal ablehnen. Denn nur akute Krankheiten schützen den Bewerber, keine drohenden.
„Die Gesetze sind nicht auf dem Stand der Technologie“, moniert Horvitz. Die Politik müsse nacharbeiten: „Auch wenn das eine Herausforderung ist, sind solche Gesetze ein wichtiger Teil der rechtlichen Landschaft der Zukunft. Sie werden helfen, Freiheit, Privatsphäre und das Allgemeinwohl voranzubringen“, sagt Horvitz. Algorithmen-Ethik
Viktor Mayer-Schönberger, Professor of Internet Governance and Regulation in Oxford, fordert deshalb: „Ethisch problematische Verwendungen müssen jetzt eingeschränkt werden.“ Generell rät er davon ab, mittels Daten aus der Vergangenheit Entscheidungen für die Zukunft zu treffen. Denn wenn der Algorithmus eines Tages nicht mehr sagt: „Menschen wie Sie interessieren sich auch für folgende Bücher“, sondern „Menschen wie Sie fahren in der Regel rowdyhaft, Sie bekommen schon präventiv keinen Führerschein“, sieht er die menschliche Freiheit in Gefahr.
Auch der Informatiker Kavé Salamatian von der Université de Savoie in Annecy plädiert dafür, manche Anwendungsfälle von Big Data auszuschließen, etwa vorhersagende Systeme wie Predictive Policing. „Wir können nicht überschauen, ob der Algorithmus richtig liegt“, sagt er. „Wenn ich die Menschen ausblende, blende ich auch die Vorannahmen aus und tue so, als wäre das reine Empirie“, sagt er. Und das ist gefährlich. Rassistische Algorithmen
So entstehe bei den Nutzern der Eindruck, diese Systeme seien unfehlbar: Was die Maschine aufgrund reiner Beobachtung der Realität errechnet hat, könne doch unmöglich falsch sein.
So finden Algorithmen etwa einen Zusammenhang zwischen steigender Wegstrecke zum Arbeitsplatz und Fluktuation entsprechender Mitarbeiter. Der Computer rät also zu Bewerbern, die näher am Unternehmen wohnen.
Zumindest in den USA trifft diese Korrelation aber vermehrt Schwarze, die häufig in den Außenbezirken leben. Der Rassismus hat sich durch die Hintertür eingeschlichen. Salamatian ist überzeugt, dass wir die meisten derartigen Probleme gar nicht mitbekommen. Sein Fazit: „Diese ganzen inhärenten Probleme zeigen, dass man die Technologie in Bereichen mit weitreichenden Konsequenzen für die Betroffenen nicht anwenden darf.“