endstation:racial_profiling_u._predictive_policing
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
endstation:racial_profiling_u._predictive_policing [2018/03/19 07:36] – angelegt moritz | endstation:racial_profiling_u._predictive_policing [2018/04/27 16:12] (aktuell) – moritz | ||
---|---|---|---|
Zeile 62: | Zeile 62: | ||
-> Verfestigung und Verschärfung von Diskriminierung | -> Verfestigung und Verschärfung von Diskriminierung | ||
+ | |||
+ | ## Rassismus in der Informationstechnik | ||
+ | |||
+ | ### Beispiele | ||
+ | |||
+ | Wenn die KI Diskriminierung lernen: | ||
+ | |||
+ | - Microsoft‘s Chatbot „Tay“ auf Twitter hat von dem verhalten anderer Nutzer\_innen gelernt und ist sehr schnell rassistisch und antisemitisch geworden. Er musste nach ca. 16h ausgeschaltet werden. Beeinflusst wurde das ganze vor allem durch Internet-Trolle. | ||
+ | |||
+ | Wenn die Entwickler\_innen nicht auf Diversity achten: | ||
+ | |||
+ | - Seifenspender mit Bewegungsmelder erkennen teilweise nur weiße Hände und keine schwarzen. | ||
+ | - Die Bilderkennung von Google hat eine Zeit lang schwarze Gesichter als „Gorilla“ markiert. Bei Flicker gab es ähnliche Probleme. | ||
+ | - Die Suchergebnisse bei Google Bilder sind stark weiß geprägt. Bsp: bei „Gesicht“ sind ca. die ersten 50 Ergebnisse weiß. | ||
+ | |||
+ | ### Gründe | ||
+ | |||
+ | Die Informatik ist stark weiß und männlich geprägt. | ||
## Quellen | ## Quellen | ||
Zeile 88: | Zeile 106: | ||
https:// | https:// | ||
+ | |||
+ | http:// | ||
+ | |||
+ | https:// | ||
+ | |||
+ | http:// | ||
+ | |||
+ | https:// | ||
+ | |||
+ | http:// | ||
endstation/racial_profiling_u._predictive_policing.1521441415.txt.gz · Zuletzt geändert: 2018/03/19 07:36 von moritz