Benutzer-Werkzeuge

Webseiten-Werkzeuge


endstation:racial_profiling_u._predictive_policing

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

endstation:racial_profiling_u._predictive_policing [2018/03/19 07:36] – angelegt moritzendstation:racial_profiling_u._predictive_policing [2018/04/27 16:12] (aktuell) moritz
Zeile 62: Zeile 62:
 -> Verfestigung und Verschärfung von Diskriminierung -> Verfestigung und Verschärfung von Diskriminierung
  
 +
 +## Rassismus in der Informationstechnik
 +
 +### Beispiele
 +
 +Wenn die KI Diskriminierung lernen:
 +
 +- Microsoft‘s Chatbot „Tay“ auf Twitter hat von dem verhalten anderer Nutzer\_innen gelernt und ist sehr schnell rassistisch und antisemitisch geworden. Er musste nach ca. 16h ausgeschaltet werden. Beeinflusst wurde das ganze vor allem durch Internet-Trolle.
 +
 +Wenn die Entwickler\_innen nicht auf Diversity achten:
 +
 +- Seifenspender mit Bewegungsmelder erkennen teilweise nur weiße Hände und keine schwarzen.
 +- Die Bilderkennung von Google hat eine Zeit lang schwarze Gesichter als „Gorilla“ markiert. Bei Flicker gab es ähnliche Probleme.
 +- Die Suchergebnisse bei Google Bilder sind stark weiß geprägt. Bsp: bei „Gesicht“ sind ca. die ersten 50 Ergebnisse weiß.
 +
 +### Gründe
 +
 +Die Informatik ist stark weiß und männlich geprägt.
  
 ## Quellen ## Quellen
Zeile 88: Zeile 106:
  
 https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
 +
 +http://www.bbc.com/news/technology-35890188
 +
 +https://www.youtube.com/watch?v=8PlUf30rvyA
 +
 +http://www.worldwhiteweb.net/
 +
 +https://www.zeit.de/digital/internet/2015-07/google-fotos-algorithmus-rassismus
 +
 +http://money.cnn.com/interactive/technology/tech-diversity-data/
  
  
  
endstation/racial_profiling_u._predictive_policing.1521441415.txt.gz · Zuletzt geändert: 2018/03/19 07:36 von moritz