top of page
  • AutorenbildWolfgang Gründinger

Mehr Diversity für Algorithmen!

Aktualisiert: 14. Dez. 2020



Algorithmen können diskriminierend wirken. Beabsichtigt oder unbeabsichtigt. Und hier liegt ein gesellschaftliches Problem, das uns in Zukunft beschäftigten wird. Schon heute gibt es Software, die bestimmte Menschen benachteiligt. So bekamen beispielsweise Frauen bei Google-Suchen schlechter bezahlte Job-Angebote angezeigt als Männer. Maschinelle Gesichtserkennung funktioniert am besten bei weißen Männern, am schlechtesten bei schwarzen Frauen. Und ein bei US-Gerichten eingesetztes System namens COMPAS empfahl bei Afroamerikanern deutlich seltener eine Entlassung auf Bewährung als bei weißen Straftätern.


Algorithmen diskriminieren meist dann, wenn die programmierten Regeln nicht stimmen, nach denen der Code funktioniert. Oder aber die Daten, mit denen die Algorithmen beim maschinellen Lernen trainiert werden, sind verzerrt – denn oft reproduzieren sie eine ungerechte Realität. Beispiel: Wenn in den Dax-Vorständen mehr Männer mit dem Namen Thomas als Frauen insgesamt vertreten sind, dann „lernt“ ein Algorithmus daraus, dass Frauen scheinbar nicht geeignet für Führungsposten sind. Daher wundert es auch nicht, wenn Google die Jobs mit höheren Gehältern vor allem Männern anzeigt. Maschinen können nur Korrelationen erkennen, aber tatsächliche kausale Zusammenhänge können sie nicht herausfinden. Hier ist der Mensch gefragt, um nicht die falschen Schlüsse zu ziehen.


Wenn Menschen die Entscheidung treffen, führt das aber nicht unbedingt zu weniger Diskriminierung. Sind Menschen für die Personalplanung verantwortlich, haben beispielsweise Bewerber mit ausländisch klingendem Namen deutlich weniger Chancen – trotz gleicher Qualifikation. Bereits in der Schule erhalten Kinder mit ausländischem Namen trotz gleicher Leistung schlechtere Noten. Und polizeiliche Kontrollen etwa an Bahnhöfen müssen vor allem Menschen mit dunkler Hautfarbe über sich ergehen lassen, obwohl dieses Racial Profiling geächtet ist.


Diskriminierung muss entschieden entgegengetreten werden – egal ob analog oder digital. Und Algorithmen können helfen, die oft unbewussten Vorurteile aufzudecken und zu korrigieren. Sie können also unterm Strich zu weniger Diskriminierung führen.


Diversität ist daher kein Selbstzweck, sondern Grundlage für die Funktionsfähigkeit von Algorithmen – und für deren rechtliche Zulässigkeit. Denn die EU-Antidiskriminierungs-Richtlinie verbietet Diskriminierung aufgrund von Geschlecht, ethnischer Herkunft, Religion und einigen weiteren Merkmalen. Und die EU-Datenschutz-Grundverordnung setzt automatisierten Entscheidungssystemen strenge Grenzen.


Nicht zuletzt wird Diversität auch ökonomisch immer wichtiger: Gerade angesichts immer komplexerer Anforderungen an Schnelligkeit, Innovation und Flexibilität kann Diversität zum Wettbewerbsfaktor werden. Erst im Januar hat das Weltwirtschaftsforum in Davos einen Report vorgestellt, wonach mehr Diversität zu einer höheren Profitabilität von Unternehmen beiträgt und bessere Fachleute für das Unternehmen anzieht.


Die Wirtschaft sollte verstärkt Frauen sowie unterschiedliche gesellschaftliche Gruppen und Minderheiten für Informatik und verwandte Disziplinen werben. Es liegt nahe, dass gemischte Teams stärker für Fragen der Diskriminierung sensibilisiert sind. Das gilt nicht zunächst für die Programmierteams selbst, aber auch für die Auftraggeber im Management und die Anwender, die ein Verständnis dafür entwickeln müssen, was ein maschinell erzeugtes Ergebnis aussagt und was nicht.


Zudem bieten sich Trainings zur Sensibilisierung für unbewusste Diskriminierung (man spricht von „unconscious bias“) an. Und: Die im Maschinellen Lernen eingesetzten Trainingsdaten sollten auf diskriminierende Effekte geprüft werden.


Der Staat kann seinen Teil dazu beitragen, indem beispielsweise Programmiersprachen in Schulen zum Pflichtfach werden und dabei auch auf Diskriminierungsaspekte Bezug genommen wird. Vor allem aber: Staatliche Behörden brauchen genügend Kompetenzen und Ressourcen, um Algorithmen beurteilen zu können. Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfARM), das beispielsweise auch digitale Medizinprodukte prüft, und die Antidiskriminierungsstelle des Bundes benötigen entsprechende Ausstattung.


Die Gleichheit aller Menschen ist ein gesellschaftlicher Wert, und keine bloß technische Frage. Egal ob digital oder analog gilt: Nicht anonyme Maschinen, sondern der Mensch ist und bleibt die letzte Instanz und zentrale Figur bei ethischen Entscheidungen.

Veröffentlicht in Tagesspiegel Background, 8.2.2019


18 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen
bottom of page