Beta Stories: Diskriminierende Algorithmen (BR, Mediathek)

Eine kurze, gut verständliche Einführung in die Thematik von Nutzen und Problemen von Algorithmen bietet diese mit einfachen Animationen bunt angereichertete Beta Story von Lennart Bedford-Strohm (Autor) und Dr. Jeann Rubner und Salvan Joachim (Redaktion und Leitung). 

Beispiel für einen positiven Nutzen ist ein MS-Patient. Algorithmen helfen bei der Analyse der Bilder aus der Computer-Tomographie und können, wo das menschliche Auge überfordert wäre, sofort unterscheiden, ob Krankstellen im Gehirn neu sind oder schon bei den letzten Untersuchungen da waren, ob sich die Krankheit ausgebreitet oder stabilisiert hat. 

Beispiel für ein enormes Problem mit Algorithmen ist ein junger Afroamerikaner aus den USA. Der wurde aufgrund eines Gesichtserkennungsprogrammes als Handy-Dieb von der Polizei festgenommen. Allerdings ist auf dem Original-Video des Opfers, das den Diebstahl gefilmt hat, eindeutig ein vollkommen anderer junger Mann zu sehen Dies lässt es als ratsam erscheinen, solchen Programmen gegenüber eine gesunde Skepsis an den Tag zu legen. 

Der Mensch tendiert allerdings zu blindem Glauben der Technik gegenüber und hat im Falle des Handy-Diebes es sogar unterlassen, das Bild des vermeintlichen Täters mit demjenigen des richtigen Täters zu vergleichen – was in diesem Falle einfach gewesen wäre. 

Gerade das Thema Gesichtserkennung weist auf ein grundsätzliches Problem der Algorithmen hin: sie sind von Menschen gemacht. Aber nicht von irgendwelchen Menschen. Es sind überwiegend weiße Computernerds und zwar Männer. Weshalb Gesichtserkennungsprogramme, wenn es um Schwarze geht und besonders um Frauen, nicht sehr zuverlässig sind. 

Als Fazit könnte man lesen: Algorithmen sind zwar mechanisch-maschinelle Vorgänge, die sogar lernen können, aber letzlich sind sie von Menschen gemacht und mit entsprechender Vorsicht zu genießen. Sie werden einem durch diese Fernsehsendung etwas weniger unheimlich. Es kommt darauf an, wie der Mensch mit ihnen umgeht. 

Vorbildlich viele Protagonisten tragen Maske für die Interviews oder am Arbeitsplatz. Ein Disclaimer mittendrin offenbart, dass entgegen der Absicht im Film letztlich doch viel mehr Männer vorkommen als Frauen, was aber wiederum mit der Gender- und Hautfarbenstruktur der Algorithmus-Entwickler zusammenhängt. Im Gegenzug wird bei Berufsbezeichnungen konsequent gegendert. 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.