Gendershades: Gesichtserkennung funktioniert nahezu perfekt – bei weißen Männern

Joy Buolamwini forscht am MIT über die sozialen Auswirkungen von Technologie; sie ist weiblich, sie ist schwarz, und sie hat definitiv eine gesellschaftspolitische Agenda. Sehr naheliegenderweise. Denn einerseits halten in immer mehr Lebensbereichen technische Verfahren Einzug, die bestimmte Aufgaben anscheinend (oder scheinbar…) besser als jeder Mensch bewältigen: Kreditscores berechnen, Hautkrebs diagnostizieren, weltmeisterlich Go spielen, Gesichter oder verdächtiges Verhalten erkennen.

Wir Menschen tendieren dazu, den Algorithmen oder der „Künstlichen Intelligenz“ Objektivität zuzubilligen. Ein Computer hat doch schließlich keine Vorurteile. Stimmt – aber die Menschen, die ihn programmieren; oder die moderne „Maschinenlern-Verfahren“ oder „neuronale Netze“ mit Daten füttern und trainieren. Dabei klingt bei „Vorurteil“ oder „Voreingenommenheit“ oder „Tendenz“ – im Englischen spricht man ja hier von „Bias“ – schon etwas wie Absicht oder eine verquere Weltsicht mit.  Ich denke aber, dass „Bias“ meist einfach durch ganz  (für die Betroffenen natürlich nicht…) „harmlose“ Gedankenlosigkeit in die Welt kommt. Beziehungsweise in die vermeintlich „objektive“ Technik.

Das Problem ist – für digitale Verhältnisse – uralt: 2010 machten asiatische Nutzer einer Digitalkamera eine verstörende Erfahrung: der „smarte“ Portrait-Assistent des Fotoapparates wollte sie gar nicht knipsen, sondern gab eine launige Warnung von sich: „Na, blinzelt da etwa jemand?“ Nein, die ins Visier genommenen hatten einfach die normale asiatische Augenform; aber der Gesichtserkennungsalgorithmus der Kamera war offenbar vorwiegend mit „westlichen“ („caucasian“) Testbildern trainert worden. Es handelte sich um die Nikon Coolpix S630; das Produkt eines japanischen Herstellers 🙂 …

Bild: Joy Buolamwini/TED /Guardian

Dass im Jahr 2018 (oder 2017, wo die die Tests stattfanden…) drei Gesichtserkennungs-Softwaremodule von namhaften Herstellern ganz offenbar immer noch auf einer völlig unausgewogenen Trainingsbilder-Suite beruhen und dementsprechend bei weißen Männern exzellente, bei schwarzen Frauen dagegen miserable Ergebnisse liefern, das ist natürlich extrem peinlich. IBM wird in Kürze eine neue Version veröffentlichen, die genau wie die Testsuite des MIT auf einer möglichst ausgewogenen Bildermischung aufbaut. Angeblich erzielt diese neue Version ganz erheblich bessere Ergebnisse. Und auch Microsoft hat signalisiert, man nehme das „Bias“-Problem sehr ernst und werde keine Ausgaben scheuen, es zu beheben.

Wenn man Experten fragt: Die im MIT-Paper getesteten „Gender Classification“-Module spielen eigentlich bei zeitgemäßer Gesichtserkennungs-Software gar keine Rolle mehr. Dort werden nämlich neuronale Netze verwendet; und bei denen macht einfach die Vielfalt, die Qualität und die Quantität der Trainingsbilder den entscheidenden Unterschied: Google, Facebook und auch die chinesische Suchmaschine Baidu sind da „state-of-the art“. Die „Big Player“ trainieren ihre Systeme mit tausenden von Bildern einer Person; und mit Bildern von Millionen oder gar Milliarden von Personen. Dagegen sind die Test- oder Trainingssuiten von mittelständischen „Sicherheitsfirmen“ oder auch die als Alternative zu vorhandenen Benchmarks vorgeschlagene Testsuite der MIT-Forscher ein Witz.

Aber natürlich ist das MIT-Paper bzw. die „GenderShades“-Initiative ohnehin eher paradigmatisch zu verstehen: Der „Bias“-Effekt durch unausgewogene Trainingsdaten steckt ohne jeden Zweifel auch in zig bereits im Alltag eingesetzen Gesichtserkennungs-„Sicherheitslösungen“ ; die werden aber als angeblich „objektiv“ wahrgenommen oder dargestellt. Die Agenda von Joy Buolamwini ist also eindeutig berechtigt.

Deutschlandfunk – Computer und Kommunikation vom 17.02.2018 (Moderation: Manfred Kloiber)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert