Benutzer-Werkzeuge

Webseiten-Werkzeuge


endstation:flyer:v1

Dies ist eine alte Version des Dokuments!


Aktionsbündnis gegen den Ausbau von Videoüberwachung Wiki-Home Website Tor

# Flyer 2018

## Dateien

* [PDF](https://wastun.tem.li/_media/endstation/flyer/flyer-endstation-v2.pdf) * [Quelldateien](https://wastun.tem.li/_media/endstation/flyer/flyer-endstation-src-v2.zip)

## Text

### DU WURDEST ERKANNT!

#### ÜBERWACHUNG JETZT NOCH EFFEKTIVER?

Wir werden beobachtet und unser Verhalten wird bewertet. Wo? Überall im öffentlichen Raum erfassen uns Kameras. Und das permanent, zumindest fühlt es sich so an. Ob die Kamerabilder tatsächlich ausgewertet werden, ist egal. Denn es bleibt der Überwachungsdruck, welcher immer mehr unseren Alltag prägt.

#### MEHR SICHERHEIT?

Kameras geben einigen Menschen ein Gefühl von Sicherheit - da ist jemand, der zuschaut und aufpasst. In Einzelfällen können mit Hilfe von Kameraaufnahmen Straftäter_innen gefasst werden. Aber kann Überwachung auch Straftaten verhindern? Studien [1] zeigen, dass die angepriesene präventive Wirkung nicht eintritt, denn:

  1. Straftäter\_innen kalkulieren Kameras ein
  2. impulsive Gewalttäter\_innen ignorieren sie
  3. Terrorist\_innen nutzen sie als Teil der Inszenierung

#### KOMPLEXE SYSTEME, KOMPLEXE PROBLEME

Technische Systeme werden immer komplexer und undurchsichtiger. Mit wohlklingenden Schlagwörtern wie »selbstlernende Algorithmen«, »künstliche Intelligenz«, »Big Data« und »smarter Technik« werden intransparente Technologien als neue Lösungen präsentiert. Diese sollen nicht nur effizienter Daten analysieren als Menschen, sondern in Zukunft auch Vorhersagen treffen. Dafür müssen die Systeme mit vielen Übungsdaten aus realen Situationen trainiert werden, um zielgemäß zu arbeiten. Die Vorauswahl der Daten erfolgt durch Entwick- ler_innen und kann nicht neutral sein. Zudem werden viele der Daten von der Polizei erhoben. Da z.B. Racial Profiling [2] immer noch in der Polizeipraxis zu beobachten ist, sind die Kriminalitätsstatistiken jedoch verzerrt. Werden solche Daten in IT-Systeme eingespeist, reproduzieren sie vorhandene Vorurteile und Diskriminierung.

#### VIELE DATEN, VIELE GEFAHREN

Wenn große Datenmengen zentral gespeichert werden, können diese auf einen Schlag gestohlen oder manipuliert werden. Solche Datensammlungen sind daher ein attraktives Ziel für Angreifer_innen. Selbst das als sicher geltende Netz der Bundesregierung wurde immer wieder angegriffen und geheime Daten entwendet.

_»Jedes Gerät hat irgendwo eine Sicherheits- lücke. Es ist nur eine Frage der Zeit bis diese entdeckt und ausgenutzt wird.«_

(Jörg Schieb, Computerexperte der Tagesschau [3])

Eine weitere Gefahr ist Missbrauch. Personenbezogene Informationen können in Zukunft entgegen der ursprünglichen Bestimmung und jenseits einstiger Beschränkungen verwendet werden. Denn Regierungen wechseln und Korruption kann nicht ausgeschlossen werden.

#### CHRONIK DER ÜBERWACHUNG [4]

1956 Erste Überwachungskameras
1996 Kameras in BVG
2002 Biometrische Daten im Pass
2017 Gesichtserkennung am Südkreuz
2018 \#Schnüffelwagen in Berlin

*»Wir werden nicht zulassen, dass technisch manches möglich ist, aber der Staat es nicht nutzt.«*

(Dr. Angela Merkel)

#### FOLGEN FÜR DIE GESELLSCHAFT

##### PANOPTISMUS

Überall hängen mittlerweile Kameras, manche klein und unauffällig. Ob wir im Erfassungsbereich stehen oder was mit den Aufnahmen passiert, ist undurchsichtig. Die Möglichkeit einer Aufzeichnung besteht aber jederzeit. So kommt es zu einer Disziplinierung der Gesellschaft. Sogar über den Moment der Überwachung hinaus, werden erwünschte Verhaltensmuster verinnerlicht und es kommt zur Selbstüberwachung und Anpassung.

##### CHILLING EFFECT

Durch das Wissen um die langfristige Speicherung entsteht die Befürchtung, dass Daten in Zukunft neu bewertet werden. Das Verhalten der Menschen passt sich deshalb nicht nur an aktuelle Normen an, sondern auch an mögliche Vorgaben der Zukunft. Menschen werden risikoscheu. Selbstzensur im vorauseilenden Gehorsam schadet der Meinungsfreiheit und einer freien Gesellschaft.

##### SOCIAL COOLING

In immer mehr unserer Lebensbereiche werden wir analysiert, kategorisiert und bewertet: ob zu Werbezwecken, in Risikostufen von Versicherungen, durch Likes auf Facebook, Suchanfragen bei Google oder Algorithmen des Predictive Policing. Andauerndes Rating und Scoring entscheidet mehr und mehr darüber wie wir unseren Alltag gestalten können. Aus Angst, schlecht bewertet zu werden, passen wir uns an die Bewertungskiterien an. Die langfristige Folge auf die Gesellschaft ist ein Abkühlen des sozialen Miteinanders. [5]

#### PILOTPROJEKT »SICHERHEITS«-BAHNHOF

Ein neues Prestige-Projekt des Bundeskriminalamts, des Bundesministerium des Inneren und der Bundespolizei ist ein Pilotprojekt zur automatisierten Video- überwachung am Berliner Bahnhof Südkreuz. Dort werden die Bilder mehrerer Kameras zusammengeführt und per Software automatisch ausgewertet. Mittels Gesichtserkennung sollen sogenannte »Gefährder« identifiziert werden. Durch Verhaltensanalyse soll »auffälliges Verhalten« erkannt werden. Die Behörden versprechen sich von diesen neuen Technologien eine effiziente Strafverfolgung und würden sie gerne innerhalb der nächsten Jahre flächendeckend in deutschen Bahnhöfen und Flughäfen einsetzen. Die Gesetzesgrundlage dafür soll in Kürze geschaffen werden. Allerdings ist der Test am Südkreuz nicht wissenschaftlich aufgebaut. Die Proband_innen wurden nicht repräsentativ ausgewählt und mit Prämien animiert direkt in die Kamera zu schauen. Dadurch wird das Ergebnis verfälscht. [6] Die Behörden verwenden die Zahlen zur weiteren Legitimation und sprechen von einem Erfolg, aber machen wir mal einen FaktenCheck:

#### FAKTEN-CHECK

##### Beim Pilotprojekt

Erkennungsquote 70-85%
Falsch Erkennungen <1%
Passant_innen am Südkreuz / Tag 100 000
Fehlalarm pro Tag bis 1000

##### Wenn die Technik im Einsatz wäre: [7]

Bei ca. 82,8 Mio. Menschen in Deutschland, von denen rund 720 als »Gefährder« eingestuft werden, beträgt die Wahrscheinlichkeit, dass bei einem Alarm die gesuchte Person tatsächlich entdeckt wird nur 0,06% - 0,07%. Alle übrigen Alarme sind Fehlalarme.

### ENDSTATION

Wir setzen uns über die Datenschutzdebatte hinaus mit heutigen Überwachungstechnologien auseinander und betrachten die schädlichen Effekte auf die Gesellschaft. Überwachung ist als ein Mittel der Kontrolle zu verstehen, mit dem versucht wird, den Symptomen gesellschaftlicher Missstände durch Zwang, Normierung und Verdrängung zu begegnen.

Wir formulieren deshalb ein klares NEIN zu jeglichen Überwachungstechnologien!

Statt blindem Aktionismus und massenhafter Installation automatisierter Kamerasysteme fordern wir eine Debatte über Ursachen von Problemen und eine Offenheit für Lösungsansätze jenseits von Anpassungsdruck und Repression. Gemeinsam für ein selbstbestimmtes, solidarisches Zusammenleben!

[1] Studiensammlung unter endstation.info/studien

[2] Bsp.: Kontrollieren und schikanieren aufgrund des Aussehens/der Hautfarbe

[3] Beitrag zum #bundeshack in der Tagesschau vom 01.03.2018

[4] Chronik des Überwachungsstaats unter endstation.info/chronik

[5] Weitere Infos auf socialcooling.de

[6] Mehr Kritikpunkte zum Pilotprojekt auf endstation.info/südkreuz

[7] Erklärung und genaue Rechnung auf endstation.info/rechnung

V.i.S.d.P.: Franziska Baum, Uhlandstr. 13, 72072 Tübingen

# Flyer 2017

## Dateien

* [PDF](https://wastun.tem.li/_media/endstation/endstation-v3.pdf) * [Quelldateien](https://wastun.tem.li/_media/endstation/flyer-src-v3.zip)

## Text

### Du wurdest gescannt!

#### Überwachung jetzt noch besser?

Am Bahnhof Südkreuz wird ein Pilotprojekt von BKA und Bundespolizei zur intelligenten Videoüberwachung durchgeführt. Die neue Videoüberwachungssoftware mit digitaler Gesichts- und Verhaltenserkennung soll Menschen anhand biometrischer Daten identifizieren und bei Verdacht in der Lage sein, eine Person vollständig automatisiert über mehrere Kameras hinweg zu verfolgen. Im Zeitraum von August 2017 bis Januar 2018 findet in einem ausgeschilderten Bereich der erste Test statt.

In unserem Alltag finden sich viele Situationen, in denen wir uns in einen nicht-öffentlichen Bereich zurückziehen, also unser Recht auf Privatsphäre wahrnehmen: Wir schließen Türen, um uns vor neugierigen Blicken zu schützen. Über unsere Sorgen und Probleme reden wir nur mit Menschen, denen wir vertrauen. Wann wir wo, mit wem, was gemacht haben und wer davon weiß, darüber bestimmten wir selbst. Das ist eine zentrale Errungenschaft moderner, demokratischer Gesellschaften. Dieses Recht wird allerdings zunehmend ausgehöhlt. Technischer Fortschritt, insbesondere die Digitalisierung, vereinfacht die Erfassung, Speicherung und Verarbeitung personenbezogener Daten in einem nie dagewesenen Maßstab. In Großstädten wie London ist es mittlerweile unmöglich geworden, von Ort zu Ort zu gehen, ohne von Kameras erfasst zu werden. Quasi alles, was wir im Internet tun, auch darüber hinaus, was wir freiwillig teilen, wird gespeichert und verarbeitet - von Konzernen, die unser Verhalten analysieren, um ihre Produkte und Werbebotschaften möglichst effizient zu platzieren. Und von staatlichen Organisationen, die unter dem Vorwand mehr Sicherheit schaffen zu wollen uns alle unter Generalverdacht stellen. Dadurch wird es immer schwieriger, wenn nicht unmöglich, tatsächliche Privatsphäre herzustellen. Das Pilotprojekt am Bahnhof Südkreuz ist dabei nur das aktuellste Beispiel in einer langen Reihe von zunehmend schwerer wiegenden Eingriffen in dieses Grundrecht.

Der großflächige Ausbau von Überwachung wird stets mit einem Gewinn an Sicherheit begründet. Straftaten sollen verhindert, bzw. ihre Aufklärung erleichtert werden. Wissenschaftlich überprüft werden solche Maßnahmen aber eher selten. Was zählt, ist die politische Symbolwirkung - es soll Handlungsfähigkeit demonstriert werden. Dabei ist die Studienlage, gerade was den Nutzen von Videoüberwachung im öffentlichen Raum angeht, alles andere als eindeutig¹. Einige Gründe dafür liegen auf der Hand: Kameras können umgangen oder unbrauchbar gemacht werden. Menschen, die im Affekt handeln, lassen sich von ihnen nicht abschrecken. Schon ein einfacher Schal vor dem Gesicht täuscht selbst aktuellste Gesichtserkennungstechnik. Das heißt, auch die Aufklärung von Straftaten kann durch einfachste Mittel verhindert werden.

*Das Potential der Technik wird überschätzt, während die ursächlichen Probleme unberührt bleiben.*

Technologie dringt immer tiefer in unseren Alltag ein. Die Menge an verfügbaren Daten ermöglicht immer genauere Voraussagen über persönliche Eigenschaften und Verhaltensweisen. Diese Daten fließen in eine Vielzahl von Bewertungen ein - Einem „digitalen Ruf“ - hinter dem die reale Person immer mehr zu verschwinden droht. Unser Alltag wird zunehmend von diesem digitalen Ruf und den zur Erstellung genutzten Algorithmen geprägt. Das führt zu einer Anpassung des Verhaltens, z. B. zur Selbstzensur, um sich entsprechend der Bewertungskriterien konform zu verhalten. Der Druck, sich einem bürokratischen Durchschnitt anzugleichen, wächst. Langfristig können diese Effekte die Gesellschaft „abkühlen“². Wir alle sind Teil dieser Entwicklung. Unser Verhalten bestimmt die Richtung. Statt weiter passiv zu bleiben, lasst uns für eine kritische Auseinandersetzung mit Überwachungstechnologien einstehen!

1. [https://digitalcourage.de/themen/videoueberwachung/wissenschaftliche-materialsammlung-wirkt-videoueberwachung](https://digitalcourage.de/themen/videoueberwachung/wissenschaftliche-materialsammlung-wirkt-videoueberwachung) 2. [https://www.socialcooling.com/](https://digitalcourage.de/themen/videoueberwachung/wissenschaftliche-materialsammlung-wirkt-videoueberwachung

endstation/flyer/v1.1524790870.txt.gz · Zuletzt geändert: 2018/04/27 03:01 von moritz