Benutzer-Werkzeuge

Webseiten-Werkzeuge


endstation:racial_profiling_u._predictive_policing

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

endstation:racial_profiling_u._predictive_policing [2018/03/19 07:36]
moritz angelegt
endstation:racial_profiling_u._predictive_policing [2018/04/27 16:12] (aktuell)
moritz
Zeile 62: Zeile 62:
 -> Verfestigung und Verschärfung von Diskriminierung -> Verfestigung und Verschärfung von Diskriminierung
  
 +
 +## Rassismus in der Informationstechnik
 +
 +### Beispiele
 +
 +Wenn die KI Diskriminierung lernen:
 +
 +- Microsoft‘s Chatbot „Tay“ auf Twitter hat von dem verhalten anderer Nutzer\_innen gelernt und ist sehr schnell rassistisch und antisemitisch geworden. Er musste nach ca. 16h ausgeschaltet werden. Beeinflusst wurde das ganze vor allem durch Internet-Trolle.
 +
 +Wenn die Entwickler\_innen nicht auf Diversity achten:
 +
 +- Seifenspender mit Bewegungsmelder erkennen teilweise nur weiße Hände und keine schwarzen.
 +- Die Bilderkennung von Google hat eine Zeit lang schwarze Gesichter als „Gorilla“ markiert. Bei Flicker gab es ähnliche Probleme.
 +- Die Suchergebnisse bei Google Bilder sind stark weiß geprägt. Bsp: bei „Gesicht“ sind ca. die ersten 50 Ergebnisse weiß.
 +
 +### Gründe
 +
 +Die Informatik ist stark weiß und männlich geprägt.
  
 ## Quellen ## Quellen
Zeile 88: Zeile 106:
  
 https://​www.propublica.org/​article/​machine-bias-risk-assessments-in-criminal-sentencing https://​www.propublica.org/​article/​machine-bias-risk-assessments-in-criminal-sentencing
 +
 +http://​www.bbc.com/​news/​technology-35890188
 +
 +https://​www.youtube.com/​watch?​v=8PlUf30rvyA
 +
 +http://​www.worldwhiteweb.net/​
 +
 +https://​www.zeit.de/​digital/​internet/​2015-07/​google-fotos-algorithmus-rassismus
 +
 +http://​money.cnn.com/​interactive/​technology/​tech-diversity-data/​
  
  
  
endstation/racial_profiling_u._predictive_policing.txt · Zuletzt geändert: 2018/04/27 16:12 von moritz