Frau Präsidentin, meine sehr verehrten Damen und Herren! Wir werden dem Antrag der LINKEN natürlich nicht zustimmen. Die AfD steht bei der Verbrechensbekämpfung stets an der Seite der Polizei, und wir unterstützen auch wirklich jeden Wunsch der hamburgischen Polizei nach einer modernen Ausstattung und technischen Sicherheitsausrüstung. Schon viele Jahre, bevor am Hansaplatz die erste Kameraüberwachung angeordnet wurde, haben wir diese gefordert. Nun allerdings sollen diese 2019 aufgestellten Kameras auch mit einer Software nachgerüstet werden, die zur automatischen Detektion von auffälligen Verhaltensweisen geeignet ist.
Bereits im Rahmen der letzten Sitzungen von Innenausschuss und Justizausschuss habe ich meine Bedenken angemeldet, als es darum ging, ITgestützte Kamerasysteme in Zügen einzurichten. Das gilt jetzt allerdings auch für den Hansaplatz, denn zwei Gründe sprechen immer noch dagegen: Diese Software kann Bewegungen immer noch nicht eindeutig voneinander abgrenzen, und dazu haben Sie, Herr Gladiator, nichts gesagt, dazu hat auch die justizpolitische Sprecherin der GRÜNEN nichts gesagt, dazu hat auch Herr Schumann nichts gesagt.
Häufig führen derartige Systeme immer noch zu Fehlalarm, und deswegen ist dieser Versuch auch verlängert worden. Es ist nicht unsere Aufgabe, irgendeine Software zu vervollkommnen, sondern dafür zu sorgen, dass am Hansaplatz ausreichend Polizeipräsenz vorhanden ist
und dass hoheitliches Handeln eben nur entschieden wird durch Beamte und nicht durch irgendeine Software.
Es ist nicht ganz von der Hand zu weisen, dass eine auf Algorithmen basierende Verhaltensanalyse tatsächlich nicht zielgenau ist und dass in der Tat der Adressat dieser Maßnahme nicht klar weiß, welche Verhaltensweisen dort detektiert werden. Deswegen ist damit immer auch notwendigerweise eine Verhaltenssteuerung des Bürgers verbunden. In diesem einen Punkt, Herr Celik, stimme ich Ihnen zu, aber wirklich nur in diesem einen Punkt, nicht aber in der Verdächtigung der gesamten Polizei Hamburgs. – Vielen Dank.
Ist es richtig, Herr Walczak, dass Sie ebenfalls das Wort wünschen? – Nein. Herr Celik, dann haben Sie erneut das Wort für wiederum zwei Minuten.
Zunächst einmal muss ich geraderücken, wie die Stellungnahme des Datenschutzbeauftragten war. Es war mitnichten so, dass der Datenschutzbeauftragte gesagt hat, es wäre alles im grünen Bereich, wie Sie das so einseitig dargestellt haben, sondern vielmehr kann er gar keine abschließende Bewertung abgeben, weil er überhaupt nicht involviert wurde. Das ist ein Unding,
dass der Datenschutzbeauftragte über die Presse erfährt, dass so ein Projekt anläuft, und er erst einmal die Daten anfordern muss.
Zweitens ist das System total fehleranfällig. Auch die Polizei Mannheim sagt, im niedrigen zweistelligen Bereich wird ein Fehlalarm ausgelöst. Das heißt also, dass in mindestens 10 Prozent der Fälle ein Fehlalarm ausgelöst wird. Das System kann zum Beispiel nicht erkennen, ob eine Person jemanden umarmt oder schlägt,
Die Diskriminierung beginnt nicht, wenn die Polizei anrückt, die Diskriminierung beginnt schon, wenn das erfasst wird, und wenn Echtzeitbilder geliefert werden von einer Person, die sich eigentlich total zu Unrecht beobachtet fühlen muss. Das ist es, was wir kritisieren.
(Beifall bei der LINKEN – Sören Schuma- cher SPD: Es wird die ganze Zeit geliefert, und zwar jetzt schon!)
Der wesentliche Punkt ist eigentlich, dass auch der Datenbeauftragte davon spricht, dass es um Verhaltenssteuerung geht, und darüber müssen wir doch sprechen. Es geht um soziale Kontrolle und Verhaltenssteuerung; wenn ich mich auf dem Platz befinde – und vielen Menschen wird es auch so gehen –, spüre ich natürlich den Druck, mich konform zu verhalten,
ein angepasstes Verhalten darzulegen oder den Platz ganz zu meiden. Und das ist eine massive Einschränkung der freien Entfaltung der Menschen auf öffentlichen Plätzen. Diesen Grundrechtseingriff kritisieren wir. Wir wollen keine Verhältnisse wie zum Beispiel in China haben, wo soziale Kontrolle durch intelligente Überwachung stattfindet und gesellschaftliche Vielfalt unterdrückt wird. Deshalb treten wir für eine vielfältige und offene Gesellschaft ein. – Vielen Dank.
Herr Celik, was Sie gerade gemacht haben, das haben wir vorhin der anderen Seite vorgeworfen: Sie schüren hier Ängste
Sie wissen sehr genau, dass in China etwas ganz anderes passiert, nämlich eine biometrische Erfassung jedes Bürgers, und das will hier niemand, und das macht diese Software auch nicht.
Hier wird ein Assistenzsystem weiter erprobt, und wir werden am Ende des Zeitraums sehen, ob sich die Hoffnung der Arbeitsentlastung oder der verbesserten Arbeit der Polizistinnen und Polizisten, die nämlich heute die 20 Bildschirme den ganzen Tag angucken müssen, realisiert oder nicht. Nichts von dem, was Sie gesagt haben, stimmt. Es sind die Bewegungsabläufe, die durch Strichmännchen dort erzeugt werden. Sicherlich ist so eine Software, wenn sie neu ist, fehleranfällig, und wir werden sehen, ob sich die Software entwickeln kann,
dass sie gefährliche Situationen, Straftaten schnell erkennt und zum Schutz der Bürgerinnen und Bürger die Polizei auch schnell vor Ort sein kann. – Vielen Dank.
(Beifall bei der SPD – Sabine Boeddinghaus DIE LINKE: Was ist denn mit dem Daten- schutzbeauftragten? Wird der eingebunden oder nicht?)
Werte Frau Vorsitzende, werte Kolleg:innen! Frau Boeddinghaus, ja, das war auch die erste Frage, die ich gestellt habe, und er ist nicht von Anfang an eingebunden worden. Diese Kritik teile ich, und diese Kritik habe ich auch geäußert, dass das nicht frühzeitig passiert ist. Da sage ich auch, dass da die Institution Polizei besser werden muss und sensibler damit umgehen muss. Sie haben ja einen eigenen Datenschutzbeauftragten, der vieles prüft. Aber das sind Themen, bei denen ich sage: Da müsst ihr besser sein und viel besser verstehen, dass das eine politische Dimension hat. Da müsst ihr einfach schlauer sein und das von vornherein mit bedenken. Die Kritik teile ich, und die habe ich auch weitergegeben.
Das System ist fehleranfällig. Ja, das ist es, weil es ein neues Produkt ist. Und es ist ein Produkt, das lernt. Also die Kritik zu sagen, wir können nur etwas einsetzen, was fehlerlos läuft, werden wir nicht erreichen, weil das immer nur durch Evaluation und durch Ausprobieren funktioniert. Sie sagen, dann gebe es einen Fehlalarm. Ja, aber es ist doch jetzt mehrfach gesagt worden, dass bei diesem Fehlalarm das System alarmiert, und dann gucken die Beamt:innen drauf; also ob dann wirklich etwas passiert, ist keine Entscheidung dieses Systems, dieser Software. Das heißt, wenn es ein Fehlalarm in dem Sinne ist, als dass das System eine Bewegung erkennt, die nicht im völlig normalen Rahmen ist und nichts ist, was ein polizeiliches Einschreiten erfordert, dann wird auch kein polizeiliches Einschreiten erfolgen, wenn die Person, der Mensch die Situation dazu gesichtet hat.
Letztlich entscheidet der Mensch. Und es ist noch mal wichtig zu sagen: Mit diesem Projekt ist keine Ausweitung polizeilicher Befugnisse verbunden. Also das, was Sie sagen, dass dann jemand vertrieben wird, der dort einfach sitzt – wenn die Polizei das vorhätte, dann könnte sie das heute schon tun. Die Annahme, sie würde es tun, weil eine Software sie darauf aufmerksam macht, die halte ich, ehrlich gesagt, für ein bisschen schräg. Und weil