Benutzer-Werkzeuge

Webseiten-Werkzeuge


endstation:flyer:endstation-v2

Aktionsbündnis gegen den Ausbau von Videoüberwachung Wiki-Home Website Tor

# Flyer 2018

## Dateien

* [PDF](https://wastun.tem.li/_media/endstation/flyer/flyer-endstation-v2.pdf) * [Quelldateien](https://wastun.tem.li/_media/endstation/flyer/flyer-endstation-src-v2.zip)

Anmerkung: Die Datei wurde für den Druck erstellt. Deshalb sind die Schriften nur Kurven, es gibt einen Anschnitt und das Blau ist der volle Cyan Kanal anstatt nur die Farbe #00719a bzw HKS42.

## Text

### DU WURDEST ERKANNT!

#### ÜBERWACHUNG JETZT NOCH EFFEKTIVER?

Wir werden beobachtet und unser Verhalten wird bewertet. Wo? Überall im öffentlichen Raum erfassen uns Kameras. Und das permanent, zumindest fühlt es sich so an. Ob die Kamerabilder tatsächlich ausgewertet werden, ist egal. Denn es bleibt der Überwachungsdruck, welcher immer mehr unseren Alltag prägt.

#### MEHR SICHERHEIT?

Kameras geben einigen Menschen ein Gefühl von Sicherheit - da ist jemand, der zuschaut und aufpasst. In Einzelfällen können mit Hilfe von Kameraaufnahmen Straftäter_innen gefasst werden. Aber kann Überwachung auch Straftaten verhindern? Studien [1] zeigen, dass die angepriesene präventive Wirkung nicht eintritt, denn:

  1. Straftäter\_innen kalkulieren Kameras ein
  2. impulsive Gewalttäter\_innen ignorieren sie
  3. Terrorist\_innen nutzen sie als Teil der Inszenierung

#### KOMPLEXE SYSTEME, KOMPLEXE PROBLEME

Technische Systeme werden immer komplexer und undurchsichtiger. Mit wohlklingenden Schlagwörtern wie »selbstlernende Algorithmen«, »künstliche Intelligenz«, »Big Data« und »smarter Technik« werden intransparente Technologien als neue Lösungen präsentiert. Diese sollen nicht nur effizienter Daten analysieren als Menschen, sondern in Zukunft auch Vorhersagen treffen. Dafür müssen die Systeme mit vielen Übungsdaten aus realen Situationen trainiert werden, um zielgemäß zu arbeiten. Die Vorauswahl der Daten erfolgt durch Entwick- ler_innen und kann nicht neutral sein. Zudem werden viele der Daten von der Polizei erhoben. Da z.B. Racial Profiling [2] immer noch in der Polizeipraxis zu beobachten ist, sind die Kriminalitätsstatistiken jedoch verzerrt. Werden solche Daten in IT-Systeme eingespeist, reproduzieren sie vorhandene Vorurteile und Diskriminierung.

#### VIELE DATEN, VIELE GEFAHREN

Wenn große Datenmengen zentral gespeichert werden, können diese auf einen Schlag gestohlen oder manipuliert werden. Solche Datensammlungen sind daher ein attraktives Ziel für Angreifer_innen. Selbst das als sicher geltende Netz der Bundesregierung wurde immer wieder angegriffen und geheime Daten entwendet.

_»Jedes Gerät hat irgendwo eine Sicherheits- lücke. Es ist nur eine Frage der Zeit bis diese entdeckt und ausgenutzt wird.«_

(Jörg Schieb, Computerexperte der Tagesschau [3])

Eine weitere Gefahr ist Missbrauch. Personenbezogene Informationen können in Zukunft entgegen der ursprünglichen Bestimmung und jenseits einstiger Beschränkungen verwendet werden. Denn Regierungen wechseln und Korruption kann nicht ausgeschlossen werden.

#### CHRONIK DER ÜBERWACHUNG [4]

1956 Erste Überwachungskameras
1996 Kameras in BVG
2002 Biometrische Daten im Pass
2017 Gesichtserkennung am Südkreuz
2018 \#Schnüffelwagen in Berlin

*»Wir werden nicht zulassen, dass technisch manches möglich ist, aber der Staat es nicht nutzt.«*

(Dr. Angela Merkel)

#### FOLGEN FÜR DIE GESELLSCHAFT

##### PANOPTISMUS

Überall hängen mittlerweile Kameras, manche klein und unauffällig. Ob wir im Erfassungsbereich stehen oder was mit den Aufnahmen passiert, ist undurchsichtig. Die Möglichkeit einer Aufzeichnung besteht aber jederzeit. So kommt es zu einer Disziplinierung der Gesellschaft. Sogar über den Moment der Überwachung hinaus, werden erwünschte Verhaltensmuster verinnerlicht und es kommt zur Selbstüberwachung und Anpassung.

##### CHILLING EFFECT

Durch das Wissen um die langfristige Speicherung entsteht die Befürchtung, dass Daten in Zukunft neu bewertet werden. Das Verhalten der Menschen passt sich deshalb nicht nur an aktuelle Normen an, sondern auch an mögliche Vorgaben der Zukunft. Menschen werden risikoscheu. Selbstzensur im vorauseilenden Gehorsam schadet der Meinungsfreiheit und einer freien Gesellschaft.

##### SOCIAL COOLING

In immer mehr unserer Lebensbereiche werden wir analysiert, kategorisiert und bewertet: ob zu Werbezwecken, in Risikostufen von Versicherungen, durch Likes auf Facebook, Suchanfragen bei Google oder Algorithmen des Predictive Policing. Andauerndes Rating und Scoring entscheidet mehr und mehr darüber wie wir unseren Alltag gestalten können. Aus Angst, schlecht bewertet zu werden, passen wir uns an die Bewertungskiterien an. Die langfristige Folge auf die Gesellschaft ist ein Abkühlen des sozialen Miteinanders. [5]

#### PILOTPROJEKT »SICHERHEITS«-BAHNHOF

Ein neues Prestige-Projekt des Bundeskriminalamts, des Bundesministerium des Inneren und der Bundespolizei ist ein Pilotprojekt zur automatisierten Video- überwachung am Berliner Bahnhof Südkreuz. Dort werden die Bilder mehrerer Kameras zusammengeführt und per Software automatisch ausgewertet. Mittels Gesichtserkennung sollen sogenannte »Gefährder« identifiziert werden. Durch Verhaltensanalyse soll »auffälliges Verhalten« erkannt werden. Die Behörden versprechen sich von diesen neuen Technologien eine effiziente Strafverfolgung und würden sie gerne innerhalb der nächsten Jahre flächendeckend in deutschen Bahnhöfen und Flughäfen einsetzen. Die Gesetzesgrundlage dafür soll in Kürze geschaffen werden. Allerdings ist der Test am Südkreuz nicht wissenschaftlich aufgebaut. Die Proband_innen wurden nicht repräsentativ ausgewählt und mit Prämien animiert direkt in die Kamera zu schauen. Dadurch wird das Ergebnis verfälscht. [6] Die Behörden verwenden die Zahlen zur weiteren Legitimation und sprechen von einem Erfolg, aber machen wir mal einen FaktenCheck:

#### FAKTEN-CHECK

##### Beim Pilotprojekt

Erkennungsquote 70-85%
Falsch Erkennungen <1%
Passant_innen am Südkreuz / Tag 100 000
Fehlalarm pro Tag bis 1000

##### Wenn die Technik im Einsatz wäre: [7]

Bei ca. 82,8 Mio. Menschen in Deutschland, von denen rund 720 als »Gefährder« eingestuft werden, beträgt die Wahrscheinlichkeit, dass bei einem Alarm die gesuchte Person tatsächlich entdeckt wird nur 0,06% - 0,07%. Alle übrigen Alarme sind Fehlalarme.

### ENDSTATION

Wir setzen uns über die Datenschutzdebatte hinaus mit heutigen Überwachungstechnologien auseinander und betrachten die schädlichen Effekte auf die Gesellschaft. Überwachung ist als ein Mittel der Kontrolle zu verstehen, mit dem versucht wird, den Symptomen gesellschaftlicher Missstände durch Zwang, Normierung und Verdrängung zu begegnen.

Wir formulieren deshalb ein klares NEIN zu jeglichen Überwachungstechnologien!

Statt blindem Aktionismus und massenhafter Installation automatisierter Kamerasysteme fordern wir eine Debatte über Ursachen von Problemen und eine Offenheit für Lösungsansätze jenseits von Anpassungsdruck und Repression. Gemeinsam für ein selbstbestimmtes, solidarisches Zusammenleben!

[1] Studiensammlung unter endstation.info/studien

[2] Bsp.: Kontrollieren und schikanieren aufgrund des Aussehens/der Hautfarbe

[3] Beitrag zum #bundeshack in der Tagesschau vom 01.03.2018

[4] Chronik des Überwachungsstaats unter endstation.info/chronik

[5] Weitere Infos auf socialcooling.de

[6] Mehr Kritikpunkte zum Pilotprojekt auf endstation.info/südkreuz

[7] Erklärung und genaue Rechnung auf endstation.info/rechnung

V.i.S.d.P.: Franziska Baum, Uhlandstr. 13, 72072 Tübingen

endstation/flyer/endstation-v2.txt · Zuletzt geändert: 2018/04/27 23:47 von moritz