Warum Algorithmen Nachhilfe in der Gleichberechtigung brauchen
-
Shutterstock / WAYHOME studio
- 19. Oktober 2017
Interessieren sich Männer eher für den Chefsessel als Frauen? Diesen Schluss lassen Werbeanzeigen von Jobportalen zu, die entsprechend häufig ausgespielt werden. Für die Gleichstellung sind solche Feinheiten jedoch essentiell. Drei Ansätze, wie es besser geht.
Schon 2015 machten US-Forscher an der Carnegie Mellon University eine heikle Entdeckung: Nutzer, die der Algorithmus eines Werbeanzeigentools von Google für männliche Jobsuchende hielt, wurden häufiger auf lukrative Führungsjobs hingewiesen als Frauen.
Ob dies allein auf Einstellungen des Google-Dienstes, die Wünsche des Werbekunden, Nutzverhalten oder eine Kombination aus mehreren Faktoren zurückzuführen ist, konnten die Forscher nicht eindeutig ermitteln. Fest steht allerdings: Das Ergebnis steht der Teilhabe im Weg und die Intransparenz der Prozesse behindert den Fortschritt.
Aber sind Algorithmen denn nicht objektiv?
Um zu entscheiden, wer welche Inhalte sieht, nutzen Google, Facebook und Co. komplexe Sortierprogramme. Der Haken: Wie diese Zuordnung verläuft, können Nutzer kaum nachvollziehen. Stattdessen registrieren Algorithmen das Netzverhalten der User und ziehen daraus ihre – vermeintlich objektiven – Schlüsse.
Orientieren sich diese allein an den Erfordernissen der Wirtschaft, können sie bestehende Ungleichgewichte verstärken. Deshalb spricht sich der scheidende Bundesjustizminister Maas für ein Gesetz als rechtlichen Ordnungsrahmen aus, wie das Handelsblatt berichtet. Es soll Konzerne wie Google und Facebook zwingen, ihre Algorithmen auf Diskriminierung zu prüfen.
Auch unser Algorithmen-Experte Konrad Lischka von der Bertelsmann Stiftung fordert eine Diskussion über die Ziele algorithmischer Verfahren: „Wenn Software Menschen bewertet, muss es vor dem Einsatz eine breite Diskussion über die Ziele geben. Algorithmische Verfahren werden Teilhabe nur dann stärken, wenn Planung, Gestaltung und Umsetzung auf dieses Ziel ausgerichtet sind.“
Dabei sind es Menschen, die entscheiden, welche Daten Systeme nutzen, erklärt Lischka im Rahmen des Stiftungsprojekts Ethik der Algorithmen.
Darauf zu beharren, Algorithmen seien trotzdem objektiv, schafft Raum für Missbrauch. „Gefährlich wird es immer dann, wenn algorithmische Entscheidungen, unreflektiert akzeptiert und umgesetzt werden. Software kann menschlichen Fehlurteilen vorbeugen. Sie kann aber auch die Irrtümer ihrer menschlichen Entwickler potenzieren oder gesellschaftlich nicht sinnvolle Einzelinteressen durchsetzen. “
Reine Weste durch Mathwashing
Der Datenwissenschaftler Fred Benenson prägte dafür den Begriff Mathwashing. Gemeint ist damit, dass der Deckmantel vermeintlich wertfreier Mathematik Interessen, Macht und Vorurteile verbirgt.
Wie geht's besser? Drei Ansätze für faire Algorithmen:
Die Erklärseite des holländischen Technologiekritikers Tijmen Schep, von der die Vorschläge stammen, übersetzte die Bertelsmann Stiftung ins Deutsche.
Mehr zum Thema? Die Bertelsmann Stiftung untersucht, wie Algorithmen die Öffentlichkeit beeinflussen.