Faire Algorithmen
Wer über Daten verfügt, verfügt vielfach auch über Macht. Miriam Fahimi ist Doktorandin am Digital Age Research Center (D!ARC) und befasst sich mit den sozialen Effekten, die sich durch Algorithmen ergeben.
Insgesamt sind es 15 Doktoratsstudierende – in der gesamten EU verteilt – die in dem EU-H2020-Projekt „NoBIAS – Artificial Intelligence without Bias“ arbeiten. Den Forschungsarbeiten liegt die Annahme zugrunde, dass durch Algorithmen Diskriminierung entsteht. Während Technikentwickler*innen oft zu wenig an soziale, rechtliche und ethische Fragestellungen denken, sind interdisziplinäre Ansätze nötig, um für mehr algorithmische Fairness zu sorgen.
Doch was ist algorithmische Fairness? „Mich interessieren algorithmische Entscheidungsprozesse in unterschiedlichen Kontexten. Ich frage mich zum Beispiel, wie Fairness von Algorithmen hergestellt, bewertet und validiert wird. Wer entscheidet was fair ist und was nicht und für wen?“, erläutert Miriam Fahimi. Ihre ethnographische Forschung hat Fahimi u.a. in einer Agentur gemacht, die die Kreditwürdigkeit von Personen bewertet. Das Prinzip erklärt sie folgendermaßen: „Wenn Personen einen Kredit beantragen, errechnet die Agentur die Ausfallwahrscheinlichkeit. Daten und Attribute, sowie deren Gewichtung der kreditanfragenden Person bedingen dann den Score, ein Punktwert, der von Banken für die Kreditentscheidung herangezogen wird. Das ist ein komplexes Verfahren und den kreditanfragenden Personen ist oft nicht klar, wie der Score zustande kommt.“ Das Unternehmen, das Miriam Fahimi begleitet hat, bemüht sich darum, die Vorgänge transparent zu machen und Vertrauen aufzubauen. Zu dessen Strategie gehört es, den Menschen Informationen an die Hand zu geben, wie sie ihren Score verbessern können.
Vielfach sei intransparent, welche Algorithmen für kleine und große Entscheidungen in unserem digitalen Alltag verantwortlich sind. „Wir wissen zum Beispiel, dass bekannte Übersetzungsprogramme einen Gender Bias haben, das englische ‚doctor‘ wird dann immer nur mit dem männlichen Arzt übersetzt. Oder dass die Erkennung von Hate Speech vor allem in Kolonialsprachen funktioniert, also z.B. Englisch oder Spanisch. Das alles hat Auswirkungen auf Gerechtigkeit in unserer Gesellschaft“, erklärt Miriam Fahimi. Dass die Systeme dennoch so erfolgreich sind, hat damit zu tun, dass sie einfach praktisch sind: „Viele Probleme von Algorithmen und Plattformen sind bekannt. Amazon, Netflix, Youtube und Google sind aber auch funktional und bequem. So befinden wir uns in einem steten Aushandlungsprozess.“
Die Frage, wer beispielsweise bei den großen Suchmaschinen die meiste Sichtbarkeit erreicht, ist häufig auch eine Frage des Geldes. „Daten sind Waren. Und wer über viele Daten verfügt , verfügt über Macht. Meist sind es wir, die mit der bewussten und unbewussten Freigabe unserer Daten den Profit für diese Unternehmen generieren. Ich finde es wichtig, dass wir uns dessen bewusst sind und hinterfragen, mit welchen sozialen Auswirkungen solche Technologien einhergehen“, fasst Miriam Fahimi zusammen.
Insgesamt stammen zwölf der Doktorand*innen im NoBIAS-Projekt aus der Informatik. Zwei sind Rechtswissenschaftler*innen, eine – nämlich Miriam Fahimi – macht „Science and Technology“-Studies, kurz STS. Fahimi studierte an der Universität Wien die Bachelor Internationale Entwicklung (BA) sowie Volkswirtschaftslehre (BSc). Ihren Master schloss sie in Internationaler Entwicklung ab, wobei sie sich immer für Fragen globaler Gerechtigkeit interessierte. Zur Technik fand sie im Rahmen ihrer Masterarbeit: „Ich habe mich damit befasst, wie Digitalisierungsprozesse die Pflegearbeit verändern und habe dazu in Pflegeeinrichtungen geforscht.“ Noch in Köln startete Miriam Fahimi ihre Mitarbeit in der Forschungsgruppe von Prof. Katharina Kinder-Kurlanda. Mit ihr ist sie dann auch an die Universität Klagenfurt und das neu gegründete „Digital Age Research Center“ (D!ARC) übersiedelt. In der Forschung fühlt sich Miriam Fahimi wohl, wenngleich: „Ich brauche die Schnittstelle zu den konkreten, sozialen Fragestellungen. Arbeiten wir an Fairness in Algorithmen, kann es uns bei zunehmender Digitalisierung auch gelingen, zu einer faireren Gesellschaft beizutragen.“
Auf ein paar Worte mit … Miriam Fahimi
Was motiviert Sie, wissenschaftlich zu arbeiten?
Im Prozess motiviert mich Gesellschaft besser zu verstehen. Und als Ausblick, dass kluge Menschen mit unserer Forschung vielleicht dazu beitragen können, die Welt ein bisschen gerechter zu machen.
Verstehen Ihre Eltern, woran Sie arbeiten?
Gute Frage! Sie schicken mir jedenfalls immer Links, wenn es etwas zu Algorithmen in den Nachrichten gibt, haha. Am wichtigsten ist für mich, dass meine Eltern mich immer unterstützen, auch wenn sie sich nicht bis ins kleinste Detail mit meiner Forschung auskennen.
Was machen Sie morgens als Erstes?
Ich liebe die ruhigen Morgenstunden und stehe meist zwei Stunden vor der Arbeit auf, damit ich noch Zeit für mich habe. Dann koche ich für den Tag, mache eine entspannte Yogaeinheit oder gehe Laufen.
Machen Sie richtig Urlaub? Ohne an Ihre wissenschaftliche Arbeit zu denken?
Oh, ich reise voll gerne, am liebsten mit dem Backpack am Rücken und von Ort zu Ort. Die besten Ideen kommen manchmal genau dann, wenn ich dachte, dass ich eigentlich gerade nicht an die Arbeit denken würde.
Was bringt Sie in Rage?
Das passiert nicht so leicht, ich bin eine ausgeglichene Person. Emotional betroffen macht mich Ungerechtigkeit. Ich kann mich auch ganz gut über mich selbst ärgern – gleich danach kommen unachtsame Autofahrer*innen, wenn ich am Rad sitze.
Und was beruhigt Sie?
Ganz aktuell: Mit dem stand-up paddle board auf den Wörthersee.
Wovor fürchten Sie sich?
Höhe, aber vielleicht kann ich das jetzt durch die Kärntner Berglandschaft überwinden.
Worauf freuen Sie sich?
Immer auf die nächste Kaffeepause 🙃