Wer also möchte diesem seine Zustimmung geben? – Das sind CDU und AfD. Die Gegenprobe. – Das sind die übrigen Fraktionen. Damit hat dieser Antrag keine Mehrheit erhalten.
Wir kommen zum Tagesordnungspunkt 62, der Drucksache 22/12304, einem Antrag der Fraktion DIE LINKE: Hitzeschutz für obdachlose Menschen starten.
Die Linksfraktion, GRÜNE und SPD beantragen die Überweisung der Drucksache an den Ausschuss für Soziales, Arbeit und Integration.
Wer möchte nun die Drucksache 22/12304 an den Ausschuss für Soziales, Arbeit und Integration überweisen? – Das ist eine große Mehrheit. Wer möchte das nicht? – Die AfD. Enthaltungen? – Dann ist diese Überweisung angenommen.
Wir kommen zum Tagesordnungspunkt 64, der Drucksache 22/12306, einem Antrag der Fraktion DIE LINKE: Kein Einsatz von Künstlicher Intelligenz bei der Videoüberwachung am Hansaplatz.
[Antrag der Fraktion DIE LINKE: Kein Einsatz von Künstlicher Intelligenz bei der Videoüberwachung am Hansaplatz! – Drs 22/12306 –]
Die Linksfraktion wünscht die Überweisung ihres Antrags an den Innenausschuss. Auch dieser Tagesordnungspunkt ist von der Linksfraktion als Kurzdebatte angemeldet worden, und somit gelten zwei Minuten Redezeit pro Debattenbeitrag.
Sehr geehrter Herr Präsident, liebe Hamburger:innen! Videoüberwachung kann, wenn überhaupt, nur einen sehr kleinen Beitrag zur Kriminalitätsbekämpfung leisten. Dafür sind die negativen Auswirkungen umso gravierender. Sie greift in das Recht auf informationelle Selbstbestimmung ein und stellt aufgrund des permanenten Überwachungsdrucks eine staatliche Sozialkontrolle dar. Die Überwachung des Hansaplatzes als sogenannter sozialer Brennpunkt führt zur Stigmatisierung und Vertreibung marginalisierter Menschen. Die Videoüberwachung dort bekämpft nicht die Kriminalität, sondern kriminalisiert Armut und soziale Probleme, und das muss aufhören.
Nun will die Innenbehörde die massive Videoüberwachung am Hansaplatz weiter ausbauen und künftig eine Software einsetzen, die mittels KI automatisiert Verhalten von Personen erkennt und bei atypischen Bewegungsabläufen die Polizei warnt. Welches Verhalten dabei als atypisch klassifiziert wird und polizeiliche Reaktionen auslöst, ist absolut intransparent, erzeugt auf diese Weise einen hohen Konformitätsdruck und führt zu Verhaltensanpassungen. Das ist ein erheblicher Angriff auf die Freiheitsrechte, und das lehnen wir entschieden ab.
Auch im Hinblick auf den Datenschutz ist die Software zweifelhaft. Zwar soll die Darstellung digital skelettiert erfolgen, aber welche personenbezogenen Daten verarbeitet werden, bleibt unklar. Vor allem für Menschen mit körperlicher Behinderung, deren Bewegungen von als normal klassifizierten Bewegungen abweichen, dürfte die Software zur Diskriminierungsfalle werden. Genauso wie für obdachlose Menschen, die am Hansaplatz Platte machen oder sich dort auch nur auf den Boden setzen. Zu allem Überfluss hält die Software nicht einmal, was sie verspricht, und das Softwareprojekt in Mannheim musste gerade nach fünf Jahren erneut verlängert werden, weil sie eine zu hohe Fehlerquote aufweist.
Diese Software wird Hamburg nicht sicherer machen, sondern führt zu noch mehr Verunsicherung und stellt eine massive Beschränkung der freien Entfaltung im öffentlichen Raum dar. Deshalb sagen wir: Stoppen Sie auf der Stelle die Verhaltensüberwachung mittels KI. – Vielen Dank.
Herr Präsident, meine Damen und Herren! In dem vorliegenden Antrag wird gefordert, ein Pilotprojekt zur Videoüberwachung zu stoppen. Nach der Stellungnahme des
Hamburger Datenschutzbeauftragten, die uns heute allen zugegangen ist, liegt dort kein Verstoß gegen den Datenschutz vor. Er kam zu der Einschätzung, keine Bedenken zu haben. Es geht um eine Software, mit deren Hilfe Gefahrensituationen frühzeitig erkannt werden können. Ziel des Projekts der Innenbehörde ist es, den Reifegrad dieser Software weiterhin zu lernen. Sie ist vom Fraunhofer-Institut in Deutschland entwickelt und eben keine US-Software, das freut mich besonders.
Der Hansaplatz, an dem das Projekt umgesetzt wird, ist heute schon videoüberwacht, und vier Kameras werden jetzt so geschaltet, dass diese Software da hinterlegt wird.
Sie haben schon richtig gesagt, was die Software macht: Sie skelettiert, das bedeutet, aus den Menschen, die dort sind, werden kleine Strichmännchen übersetzt, und diese Strichmännchen werden so angeguckt, wie sie sich bewegen. Es erfolgt keine Gesichtserkennung, keine Bestimmung von Alter und Geschlecht oder Ethnie.
Erkennt die Software eine gefährliche Situation, wird ein Ausschnitt dieser Situation an das Polizeikommissariat weitergeleitet, wo sich ein Polizist die Situation anschauen kann und dann selbst entscheidet, ob dort eine Handlung vorzunehmen ist, einzuleiten ist oder eben nicht. Es handelt sich um ein Assistenzsystem, was die Bewertung der Situation einfacher für diejenigen macht, die vor den vielen Bildschirmen sitzen. Es werden keine zusätzlichen Daten gespeichert. Im Gegenteil, wir haben hier eine besonders datenschonende Methode, und das ist gut so, dass die Hamburger Polizei sich mit solch einem Softwaresystem auseinandersetzt. Es handelt sich hier auch um ein Pilotprojekt, es wird weiter gelernt an der Software. Ihren Antrag lehnen wir derzeit ab.
Sehr geehrter Herr Präsident, werte Kolleg:innen! Herr Celik, ich gebe zu, als ich das erste Mal von diesem Projekt gehört habe, dass also am Hansaplatz eine Technik eingesetzt werden soll, die aus den dort bereits aufgenommenen Bildern Strichmännchen macht, die dann Bewegungen wie Schlagen, Treten, Hinfallen et cetera registriert, war ich auch etwas irritiert und stand dem im Grundsatz reserviert gegenüber.
Denn in der Tat ist die Vorstellung ein bisschen befremdlich, dass es einen Algorithmus gibt, der analysiert und dann einen Alarm auslöst, also auf etwas aufmerksam macht.
Man muss aber auch sagen, künstliche Intelligenz und lernende Algorithmen – und darum handelt es sich hier eher, künstliche Intelligenz ist noch mal etwas anderes – nehmen zu und erfassen zunehmend sämtliche Lebensbereiche unseres täglichen Lebens.
Insofern, muss ich sagen, wäre es schon ein bisschen weltfremd, jetzt zu sagen, dass der Bereich der Inneren Sicherheit ein Bereich ist, in dem das nicht zur Anwendung kommt, denn ehrlicherweise bieten diese Anwendungen dort ja auch Chancen.
Ganz zentral bei all diesen Punkten muss sein, dass wir die Grundrechte der Bürgerinnen und Bürger weiterhin wahren, und das ist hier der Fall. Also, die Technologie erhebt keine weiteren Daten, sie erhebt vor allem keine weiteren personenbezogenen Daten. Herr Schumacher hat es gerade schon gesagt, es wird skelettiert, das heißt, es wird damit nicht geschaut, ob es ein Mann, eine Frau oder eine diverse Person ist, das Alter wird nicht registriert, die Ethnie wird nicht registriert. All das passiert dort nicht, insofern sehe ich das jetzt nicht kritisch. Und auch der Hamburgische Datenschutzbeauftragte hat heute noch einmal seine Zustimmung dazu gegeben. Es ist auch im Gegensatz zu dem, was Sie hier gerade gesagt haben, sehr deutlich kommuniziert worden, um welche Handlungen es geht. Ich finde es, ehrlich gesagt, ein bisschen unredlich, wenn Sie jetzt sagen, es sei nicht klar, um welche Handlungen es gehe. Sie haben sehr viele Schriftliche Kleine Anfragen in den letzten drei Wochen dazu gestellt und sehr viele ausführliche Antworten bekommen, und da ist das beschrieben worden. Es stimmt einfach nicht, dass nicht klar ist, was dort geschehen soll und was dort passiert.
Insofern ist das eine Chance, wenn es funktioniert, relativ datenarm dem Sicherheitsbedürfnis unserer Bevölkerung entgegenzukommen, und insofern stehe ich diesem Versuch ergebnisoffen gegenüber, und wir werden dieses Pilotprojekt begleiten.
Denn spätestens, nachdem uns alle heute die Antwort des Datenschutzbeauftragten auf Ihre Fragen erreicht hat, ist jedem klar geworden: Ihr Antrag hat überhaupt keine Grundlage, die auf Fakten basiert, sondern was Sie mit Ihrem Antrag machen, ist aus Ihrer Sicht zwar konsequent, aber absolut falsch: Sie pflegen Ihr Feindbild, und das ist die Hamburger Polizei.
Anders kann man das überhaupt nicht zusammenfassen, denn was Sie hier an steilen Thesen aufstellen, hat mit der Realität nichts zu tun und wird auch vom Datenschutzbeauftragten in keinem Punkt bestätigt. Und er steht nun nicht im Verdacht, der Polizei Persilscheine auszustellen, sondern schaut sehr genau hin und prüft Eingriffe in Grundrechte. Sie wissen es so gut wie wir, wollen es aber nicht wahrhaben: Der Videoschutz sorgt für mehr Sicherheit,
(Sina Imhof GRÜNE: Videoüberwachung! – Gegenruf von Dirk Nockemann AfD: Das ist etwas ganz anderes!)
und die künstliche Intelligenz oder die Algorithmen sind hier kein tieferer Eingriff in die Rechte Dritter. Und wenn Sie davon reden, dass dann auch Obdachlose oder andere diskriminiert und stigmatisiert werden, ist das Quatsch. Die Einzigen, die diese Technik zu fürchten haben, sind Menschen, die Straftaten begehen
und in die Rechte anderer eingreifen, indem sie Gewalt anwenden. Da ist es doch richtig, viel besser hinschauen zu können, ohne dass weitere Daten gespeichert werden, ohne dass eine Auswertungssoftware dahinterliegt, sondern das dient den Beamten an den Bildschirmen, um auf solche Situationen gezielt aufmerksam gemacht zu werden, und dann entscheiden Menschen, was passiert. Wenn sich da jemand auffällig verhält, wird nicht sofort ein Alarm ausgelöst und die Kavallerie kommt angeritten, sondern da schaut schon noch ein Mensch drauf, prüft und bewertet die Situation und entscheidet dann, was zu tun ist. Hier davon zu sprechen, das sei diskriminierend, stigmatisierend, zeigt nur eins: Sie haben es wirklich nicht verstanden, oder Sie gehen über das hinweg, was Sie verstehen, weil das nicht in Ihre politische Agenda passt. Ihr Antrag ist völliger Quatsch, und deshalb gehört er abgelehnt.