home.social

#verhaltensscanner — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #verhaltensscanner, aggregated by home.social.

  1. Letzte Woche war ich so wütend, dass ich abends Stickermotive gegen die Polizeirechtsreform in Sachsen im @datenpunks -Design gebastelt habe. Heute sind sie angekommen.

    Ihr findet die Sticker in den kommenden Tagen bei den @piratendresden in der @ro7, im @kursif, im @c3d2 und bei der @PVPkoopDD

    #NoPolG #Sachsen #Polizei #Sticker #Lieblingssticker #Datenpunks #DatenpunksDresden #DPD #Überwachung #Gesichtserkennung #Verhaltensscanner #Verhaltensanalysen

  2. Letzte Woche war ich so wütend, dass ich abends Stickermotive gegen die Polizeirechtsreform in Sachsen im @datenpunks -Design gebastelt habe. Heute sind sie angekommen.

    Ihr findet die Sticker in den kommenden Tagen bei den @piratendresden in der @ro7, im @kursif, im @c3d2 und bei der @PVPkoopDD

    #NoPolG #Sachsen #Polizei #Sticker #Lieblingssticker #Datenpunks #DatenpunksDresden #DPD #Überwachung #Gesichtserkennung #Verhaltensscanner #Verhaltensanalysen

  3. Letzte Woche war ich so wütend, dass ich abends Stickermotive gegen die Polizeirechtsreform in Sachsen im @datenpunks -Design gebastelt habe. Heute sind sie angekommen.

    Ihr findet die Sticker in den kommenden Tagen bei den @piratendresden in der @ro7, im @kursif, im @c3d2 und bei der @PVPkoopDD

    #NoPolG #Sachsen #Polizei #Sticker #Lieblingssticker #Datenpunks #DatenpunksDresden #DPD #Überwachung #Gesichtserkennung #Verhaltensscanner #Verhaltensanalysen

  4. Letzte Woche war ich so wütend, dass ich abends Stickermotive gegen die Polizeirechtsreform in Sachsen im @datenpunks -Design gebastelt habe. Heute sind sie angekommen.

    Ihr findet die Sticker in den kommenden Tagen bei den @piratendresden in der @ro7, im @kursif, im @c3d2 und bei der @PVPkoopDD

    #NoPolG #Sachsen #Polizei #Sticker #Lieblingssticker #Datenpunks #DatenpunksDresden #DPD #Überwachung #Gesichtserkennung #Verhaltensscanner #Verhaltensanalysen

  5. Letzte Woche war ich so wütend, dass ich abends Stickermotive gegen die Polizeirechtsreform in Sachsen im @datenpunks -Design gebastelt habe. Heute sind sie angekommen.

    Ihr findet die Sticker in den kommenden Tagen bei den @piratendresden in der @ro7, im @kursif, im @c3d2 und bei der @PVPkoopDD

    #NoPolG #Sachsen #Polizei #Sticker #Lieblingssticker #Datenpunks #DatenpunksDresden #DPD #Überwachung #Gesichtserkennung #Verhaltensscanner #Verhaltensanalysen

  6. Und die nächste Info-Veranstaltung zum #ThürPAG steht auch schon an! Wir sind am

    Dienstag, 19. Mai um 17 Uhr
    im Haskala in #Saalfeld,
    Saalstraße 38

    eingeladen, einen Input zum ThürPAG zu halten. Im Anschluss ist eine Diskussion mit @katharinakoenig sowie der Blau-Gelb-Weißen Hilfe für eine Perspektive aus der Fußball-Fanhilfe geplant.
    Kommt vorbei!

    #Polizeigesetz #Überwachung #Verhaltensscanner #Palantir

  7. Verhaltensscanner – „Eine reale Gefahr“

    Gerade gibt es bundesweit Bestrebungen, Überwachungskameras mit Systemen zu koppeln, die vollautomatisiert erkennen, was die abgebildeten Menschen gerade tun. Davy Wang von der Gesellschaft für Freiheitsrechte erklärt, warum das eine schlechte Idee ist.

    Verhaltensanalyse-Software legt eine Art Strichmännchen über die Gliedmaßen abgebildeter Menschen. Anhand der Bewegungen dieses Vektorenbündels schätzt sie, welches Verhalten zu sehen ist. Bei vorab festgelegten Kategorien schlägt sie Alarm. In Mannheim sind das aktuell Schläge, Tritte, Schubser und abwehrende Körperhaltungen. In Hamburg wird auch detektiert, wenn jemand liegt.

    Berlin will bald ebenfalls eine derartige Software einsetzen, Baden-Württemberg will sie auf Heidelberg ausweiten, in Bremer Tram-Bahnen läuft sie bereits. In Niedersachsen, Sachsen, Schleswig-Holstein und Thüringen sind Gesetzesentwürfe dazu in der Abstimmung. Es wird künftig wohl immer mehr Areale geben, in denen KI prüft, ob sich die Anwesenden artig benehmen.

    Zeit also, sich die Technologie mal genauer anzuschauen: Welche Auswirkungen hat sie auf die Grundrechte der Betroffenen, wo liegen die größten Risiken bei der Implementierung und welche Rolle kann sie bei der drohenden autoritären Wende spielen? Das haben wir Davy Wang gefragt, Jurist bei der Gesellschaft für Freiheitsrechte.

    „Ein subtiles Gefühl des Überwacht-Seins”

    Herr Wang, Berlin will bald Verhaltenserkennungs-Kameras an vermeintlich besonders kriminalitätsbelasteten Orten installieren. Liegen diese Orte in Ihrem Lebensradius?

    Im Görlitzer Park bin ich in meiner Freizeit gelegentlich, am Kottbusser Tor oder an der Warschauer Straße steige ich manchmal in Bahnen.

    Werden Sie sich dort sicherer fühlen, wenn die Verhaltenserkennung läuft?

    Ich fühle mich da aktuell nicht unsicher. Aber wenn die Verhaltenserkennung kommt, wird das sicher ein subtiles Gefühl des Überwacht-Seins auslösen.

    Welche Auswirkungen hat die Technologie auf die Grundrechte der Menschen, die da langlaufen?

    Da ist meine Privatsphäre betroffen und die aller anderen Menschen, die sich da bewegen. Konkret bedeutet dies eine Einschränkung des Grundrechts auf informationelle Selbstbestimmung. Nach dem darf eigentlich ich darüber bestimmen, wer meine Daten erfasst und nutzt. Darüber hinaus kann so eine Überwachung Menschen davon abhalten, den Ort zu besuchen, und sich darauf auswirken, wie sich Menschen dort verhalten. Das hat dann beispielsweise auch Auswirkungen auf die Versammlungsfreiheit.

    „Keine Zahlen, die die Wirksamkeit belegen“

    Werden da alle Passant*innen unter Generalverdacht gestellt?

    Von beiden Systemen werden erst einmal alle Menschen erfasst.

    Und ist das Problem, das mit der Überwachung gelöst wird, diesen massiven Grundrechtseingriff wert?

    Aus den Pilotprojekten gibt es keine Zahlen, die die Wirksamkeit belegen. Dabei gibt es sehr hohe Anforderungen. Denn die Anlagen erfassen viele tausend Menschen täglich, die Betroffenen wissen nie genau, ob ihre Daten gerade verarbeitet werden, und dann wird noch ein sehr intransparentes KI-System benutzt, dessen Schlussfolgerungen nicht nachvollziehbar sind. Bei einem derart strengen Eingriff in die Grundrechte bräuchte es strenge Anforderungen und Belege, dass die Technologie wirksam ist.

    Solche Systeme haben immer eine gewisse Rate von False Positives. Das sind Alarme, die auf einem Fehler, einem falschen Verdacht beruhen. Ist da die Verfolgung Unschuldiger schon eingepreist?

    Es ist ein Problem, wenn ein Maximum für diese Rate nicht fest vorgegeben ist. Dann kann die Polizei frei einschätzen, wie viele Fehl-Verdächtigungen sie noch akzeptabel findet. In Berlin wurde die maximale Fehlerrate jetzt in einer Ausschreibung benannt: bis zu 25 Prozent. Jeder vierte Alarm würde dann versehentlich ausgelöst. Das ist ziemlich viel. Da werden viele Verhaltensweisen erfasst, die völlig unproblematisch sind. Und dann kann es auch sein, dass Menschen zum Opfer von Anschlussmaßnahmen werden, die gar nichts getan haben. In den Landespolizeigesetzen steht ja auch gar nicht, welche Verhaltensweisen mit dem Scanner gesucht werden können. Da steht einfach nur: Verhaltensweisen, die auf Straftaten hindeuten. Welche gesucht werden, liegt dann im Ermessen der Exekutive.

    „Es gibt einen politischen Druck“

    Wie kommt das eigentlich, dass diese Technologie gerade so unglaublich beliebt ist?

    Die Polizeien in den Bundesländern und auf Bundesebene wollen ihre Digitalisierung vorantreiben. Die wollen jetzt auch KI-Systeme nutzen, um vermeintlich effektiver Straftaten verhüten zu können. Da sehe ich die Gefahr, dass man sich öffentlich der Rhetorik bemüht, dass die Anlage verhältnismäßig sei, weil sie beispielsweise keine Gesichter analysiert. Es gibt auch einen politischen Druck, nach öffentlichkeitswirksamen Gewaltvorfällen zu handeln und beispielsweise die Videoüberwachung weiter auszubauen.

    In der Logik der Verfechter ist die Technik Privatsphäre-freundlicher als konventionelle Videoüberwachung, weil ja nicht mehr unbedingt immer ein Mensch zuschaut. Als wäre es keine Überwachung, wenn uns ein Computer analysiert. Was sagen Sie dazu?

    Das ist trotzdem auch eine Überwachung und auch ein Grundrechtseingriff. Wenn die Polizei durch ein KI-System personenbezogene Daten erfasst, ist es ein Eingriff in die Privatsphäre. Und diese Überwachung kann zu Ingewahrsamnahme und anderen Anschlussmaßnahmen führen.

    Müsste die Eingriffsschwelle für die Verhaltenserkennung nicht noch höher sein als die für Videoüberwachung? Immerhin ist es ja eine Art Videoüberwachung plus.

    Da würde ich definitiv zustimmen. Auch aus unserer Sicht ist die Eingriffsschwelle viel zu niedrig. Durch die Nutzung des KI-Systems und die automatisierte Auswertung enthält der Eingriff eine neue Qualität. Dabei hat das Bundesverfassungsgericht betont, dass automatisierte Auswertungen durch selbstlernende Systeme ein spezielles Eingriffsgewicht haben können, wenn die Entscheidungsfindung und Funktionsweise weder für die Betroffenen noch für die handelnde Behörde nachvollziehbar sind.

    „Das kann diskriminierend wirken“

    Weil die Systeme menschliche Körper vor der Analyse in Vektoren umrechnen, also Hinweise auf Hautfarbe, Alter, Geschlecht entfernen, gelten sie nicht als diskriminierend. Was sagen Sie dazu?

    Das kann man nicht pauschal so sehen. Es gibt Berichte, dass unproblematisches Verhalten wie Liegen oder Taumeln erfasst wird. Das kann diskriminierend gegenüber bestimmten Personengruppen wirken. Und durch die Trainingsdaten kann ja auch ein Bias entstehen, dass dann Bewegungen bei bestimmten Gruppen eher falsch erkannt werden.

    Ein weiteres Argument für den Einsatz der Verhaltensanalyse ist die Effizienz. Führt die dann nicht automatisch zur Ausweitung – weil man mit den gleichen Kräften mehr Stadtgeschehen im Blick behalten kann?

    Das sehe ich als eine reale Gefahr. Die vermeintliche Effektivität kann dazu führen, dass immer mehr Orte die Technik einführen.

    Es heißt, letztlich entscheidet ein Mensch darüber, ob Einsatzkräfte zu einer Situation entsandt werden. Wie weit wird da die menschliche Verantwortung aufgelöst?

    Wenn der Mensch sich auf die Technik verlässt, neigt er dazu, ihren Empfehlungen zu folgen. Und die Entscheidungsfindung des KI-Systems ist für die Beamt*innen nicht nachvollziehbar, was ein Grundvertrauen in die Richtigkeit der Entscheidung begünstigt.

    „Wir glauben, dass die Rechtsgrundlagen angreifbar sind“

    Welche Hebel hat die Zivilgesellschaft, um zu verhindern, dass die Technologie breit ausgerollt wird?

    Wir als GFF betreiben strategische Prozessführung. Eine Möglichkeit ist, wenn diese Systeme im Einsatz sind, dagegen zu klagen und zu versuchen, das zum Bundesverfassungsgericht zu bringen. Wir glauben, dass die Rechtsgrundlagen in mehreren Bundesländern angreifbar sind. Ansonsten kann man sich auch politisch engagieren. Durch Petitionen, durch Demonstrationen oder als Sachverständige im Gesetzgebungsverfahren. Was auch hilft, ist parlamentarische Kontrolle, beispielsweise mit Kleinen Anfragen.

    Was sagt die EU-KI-Verordnung zur Verhaltensanalyse?

    Die stuft sie als Hochrisiko-KI ein. Das bedeutet, es braucht eine Risikobewertung und Risikominderungsmaßnahmen, es gibt Sorgfalts‑, Berichts- und Aufsichtspflichten.

    Welche Rolle kann die Verhaltenserkennung bei der autoritären Wende spielen?

    Der Dual Use für Sicherheit und Kontrolle ist bei dieser Technologie systeminhärent. Die kann in demokratischen Staaten in engen Grenzen grundrechtsschonend eingesetzt werden, aber in autoritären Staaten auch dazu genutzt werden, marginalisierte Gruppen bei Protesten zu überwachen. Das richtet sich je nach Einsatzform aus.

    Zahlen zum Erfolg der Technologie werden nicht veröffentlicht. Kann es sein, dass hier vor allem getestet wird, ob sich so eine Überwachungsmaßnahme ohne größere Widerstände durchsetzen lässt?

    Das ist ein berechtigter Verdacht. Dazu passt auch, dass in keinem der Polizei-Gesetze eine unabhängige Evaluation der Verhaltenserkennung festgeschrieben ist.

    Martin Schwarzbeck ist seit 2024 Redakteur bei netzpolitik.org. Er hat Soziologie studiert, als Journalist für zahlreiche Medien gearbeitet, von ARD bis taz, und war lange Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriffen hat. Martin interessiert sich für Machtstrukturen und die Beziehungen zwischen Menschen und Staaten und Menschen und Konzernen. Ein Fokus dabei sind Techniken und Systeme der Überwachung. Kontakt: E-Mail (OpenPGP), Mastodon, Signal: yoshi.42042. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

  8. #Verhaltensscanner: „Eine reale Gefahr“
    Gerade gibt es bundesweit Bestrebungen, #Überwachungskamera s mit Systemen zu koppeln, die vollautomatisiert erkennen, was die abgebildeten Menschen gerade tun.
    netzpolitik.org/2026/verhalten

  9. Wir waren zu Gast bei Radio F.R.E.I. in Erfurt und haben dort über das neue #ThürPAG gesprochen. Wer das Gespräch heute vormittag verpasst hat, kann es hier nachhören:

    radio-frei.de/index.php?iid=7&

    #Polizeigesetz #Überwachung #Verhaltensscanner

  10. Tröt! Wir sind #ThürPAG stoppen! – ein junges Bündnis aus Thüringen mit dem Ziel, das neue Thüringer Polizeiaufgabengesetz zu verhindern.

    Dem aktuellen Entwurf nach soll die Polizei mit Tasern, Drohnen und elektronischen Fußfesseln, KI-gestützten #Verhaltensscanner|n sowie Gesichter- und Stimmensuchmaschinen ausgerüstet werden. Auch automatisierte Datenanalyse mit #Palantir-ähnlicher Gruselsoftware darf natürlich nicht fehlen.

    Mehr zum Entwurf: netzpolitik.org/2026/polizeige

  11. Verhaltensscanner

    In Mannheim: Hier wird die Überwachung getestet, die so viele Städte wollen

    Viele deutsche Städte wünschen sich Videoüberwachung mit KI-gestützter Verhaltenserkennung. Die wird seit sieben Jahren in Mannheim getestet. Ein Besuch der überwachten Orte zeigt, was diese Form der Überwachung mit den Menschen in einer Stadt macht – und wie schlecht die Technologie funktioniert.

    „Popeln würde ich hier lieber nicht“, sagt Svenja. Die Enddreißigerin steht auf dem Mannheimer Marktplatz und beäugt argwöhnisch eine Dachkante. Dort sind sechs Kameras installiert. Fünf davon zeigen ungefähr in ihre Richtung. Die sechste ist eine dreh-, kipp- und zoomfähige Kuppelkamera, bei der nur die kameraführende Person in der Polizei-Leitstelle weiß, was sie gerade filmt. Svenja dreht sich um und sieht eine weitere Kuppelkamera. „Das ist ja überhaupt nicht gruselig“, sagt sie und lacht trocken.

    Svenja wusste bis eben nicht, dass sie gefilmt wird. Und auch nicht, dass eine Software ihr Verhalten analysiert und bei bestimmten Bewegungen Alarm auslöst. Ein Reporter von netzpolitik.org hat sie darauf aufmerksam gemacht. Es ist nicht so, dass sie regelmäßig in der Nase popeln würde, wie sie beteuert. Aber als sie die Kameras sieht, spürt sie direkt den Drang zur Selbstbeschränkung. Dass ihr erster Gedanke dabei der Nasenreinigung galt, ist ihr unangenehm. Sie bittet uns, für diesen Artikel ihren Vornamen zu ändern.

    70 Kameras filmen den öffentlichen Raum in Mannheim. Bei 46 dieser Kameras untersucht eine Software die Bewegungsmuster der überwachten Menschen. Dafür verwandelt sie die Personen in Strichmännchen mit Knotenpunkten an den Gelenken und erfasst, wie sich die Gliedmaßen bewegen. So soll die Software vor allem Schläge, Tritte, Schubse, Rempler und Würgegriffe erkennen, aber auch andere Bewegungen wie Stehen, Gehen, Rennen, Rad- und Rollerfahren, Taumeln, Tanzen, Sitzen, etwas Tragen und jemanden Umarmen. Auch aggressive oder defensive Körperhaltungen soll die Software detektieren, so die Mannheimer Polizei.

    „Mannheimer Modell“ haben die Verantwortlichen das Projekt genannt, das seit 2018 im Einsatz ist. Die Software soll dabei nicht nur Bewegungsmuster von mutmaßlich kriminellen Handlungen erfassen, sondern auch „Normalsituationen“, so die Mannheimer Polizei. Das sei erforderlich, „um diese von den polizeilich relevanten Sachverhalten abzugrenzen.“

    Eine sogenannte KI schaut also mit 46 Augen permanent zu, was Menschen in Mannheim so treiben. Die Stadt ist ein Reallabor – und Passant*innen wie Svenja sind so etwas wie Labormäuse.

    So arbeiten die Überwachenden

    Die Aufnahmen der Mannheimer Kameras laufen im Führungs- und Lagezentrum des Polizeipräsidiums Mannheim zusammen. Dort beobachten Polizist*innen das Geschehen in der Stadt permanent auf einer Vielzahl von Bildschirmen. Wenn die Software ein verdächtiges Bewegungsmuster erkennt, ertönt ein Alarm. Auf einem der Bildschirme erscheint ein Hinweisfenster. In diesem sehen die Beamt*innen die Situation, die den Alarm ausgelöst hat, umrahmt von einem gelben Rechteck; daneben das Livebild der entsprechenden Überwachungskamera. Die zuständige Person entscheidet dann, ob die Polizei einschreitet, erklärt die Mannheimer Polizei weiter.

    Mindestens 72 Stunden, also drei Tage lang, werden die Bilder gespeichert. Bei polizeilicher Relevanz bleiben sie sogar bis zu 28 Tage im System; bei Verwendung als Beweismittel noch länger. Die Mannheimer Polizei will mit der Software ihre Einsatzbelastung senken und Effizienz steigern.

    Die gruselige Anziehungskraft der KI-Überwachung

    Das Mannheimer Modell löst bei vielen Sicherheitsbehörden und -politiker*innen Begehrlichkeiten aus. Seit dem ersten September 2025 läuft es auch hinter Hamburger Kameras. Laut dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (Fraunhofer IOSB), das die Technologie entwickelt, haben weitere Städte und Kommunen Interesse bekundet. In Berlin wollen die Regierungsparteien das Polizeigesetz ändern, um den Einsatz der Technologie zu erlauben. In Hessen liegt diese Erlaubnis bereits vor; Innenminister Roman Poseck (CDU) nennt das Mannheimer Modell „vorbildhaft“. In Baden-Württemberg hat die grün-schwarze Landesregierung angekündigt, es ausweiten zu wollen, das nächste Testgelände ist Heidelberg.

    Thomas Strobl (CDU), Innenminister des grün-schwarz regierten Baden-Württemberg, nannte das Mannheimer Modell im Mai 2025 einen „nationalen Leuchtturm“. Anlässlich der Verlängerung der Trainingsphase im Jahr 2023 sagte er, es sei „Vorbild für Maßnahmen an Kriminalitätsschwerpunkten im ganzen Land, wenn nicht europaweit.“ Christian Specht (CDU), heute Mannheims Oberbürgermeister, hat die KI-Überwachung im Jahr 2018 als Sicherheitsdezernent auf den Weg gebracht. Er fügte hinzu: „Viele sicherheitspolitische Augen sind gespannt auf uns gerichtet.“

    Zu Beginn der automatisierten Verhaltenskontrolle in Mannheim gab es einigen Protest. Eine Gruppe namens „George-Orwell-Ultras“ riet in einem satirischen Video dazu, sich hinter Frachtcontainern auf dem Alten Messplatz vor der Erfassung durch die Kameras zu schützen. Ein Bündnis linker Gruppen lud zum Silent Dance gegen Überwachung; die lokalen Grünen unterstützten eine Petition dagegen. Heute sind die Grünen in Mannheim weniger kritisch. „Mehr Kameras sollen es nicht werden“, sagt die Kreisvorsitzende Tamara Beckh. Die Videoüberwachung könne ergänzend sinnvoll sein, „wir wollen aber eher auf eine personelle Stärkung der Polizei setzen“.

    Die Gefahr der Ausweitung

    Jackenwetter, Dauerregen. Die Mannheimer Innenstadt ist dennoch sehr belebt an diesem Mittwochvormittag im September 2025. Menschen, die Kapuzen tragen, eilen mit gesenkten Köpfen über den Bahnhofsvorplatz. Tobias Roser steht zwischen ihnen unter seinem Regenschirm und zeigt um sich. „Da, da, da und da“, sagt er. Roser weiß genau, wo die Kameras hängen. Er lebt hier in der Gegend um den Hauptbahnhof und muss sie täglich passieren.

    Roser ist Mitglied der Linksjugend solid, der Jugendorganisation der Partei Die Linke. Er fürchtet, dass die automatisierte Verhaltensanalyse ein großer Schritt hin zu einem Überwachungsstaat ist, „den man dann schlüsselfertig übergibt, wenn die Radikalen an die Macht kommen“. Wenn man einmal mit KI-gestützter Überwachung angefangen habe, läge es nahe, weiter aufzurüsten: etwa mit Technologie, die Gesichter erkennt, Lippen liest oder Menschen am Gang identifiziert.

    Zwei Erweiterungen des Mannheimer Modells sind bereits geplant: Die Software soll in Zukunft bestimmte Gegenstände, etwa Waffen, erkennen. Und wenn sie eine mutmaßliche Straftat entdeckt, können die gefilmten Gesichter bald vom Landeskriminalamt durch eine Gesichtersuchmaschine gejagt werden. Im September 2024 hat die Landesregierung beschlossen, Lizenzen für eine solche Software zu kaufen.

    Die Polizei hat auch nach sieben Jahren keine Ahnung, was die Verhaltenskontrolle bringt

    Das Mannheimer Modell ist auch nach sieben Jahren weit von einem evidenzbasierten Betrieb entfernt. Die Vision seiner Fans sind schwarze Bildschirme, die nur anspringen, wenn die Software einen Alarm generiert. Tatsächlich wird dieses Konzept in der Mannheimer Videoüberwachungszentrale bisher nur auf einem einzelnen Bildschirm erprobt. Daneben gibt es zahlreiche weitere Monitore, auf denen weiter Beamt*innen das Geschehen in der Stadt beobachten. Der versprochene Vorteil für die Privatsphäre ist in der Praxis also nicht gegeben.

    Die Mannheimer Polizei kann oder will auf Anfrage zudem nicht sagen, wie oft die Software angeschlagen hat und wie oft dadurch eine strafbare Handlung entdeckt wurde. „Der für das Projekt ablesbare Erfolg besteht in der stetigen Weiterentwicklung des Systems und kann zum derzeitigen Projektstand nicht mit Kennzahlen dargestellt werden“, schreibt sie.

    Zu Beginn des Projekts hoffte die Mannheimer Polizei noch, das System könne irgendwann auch die Bewegungen bei einem Drogendeal oder Taschendiebstahl erkennen. Das zeigt die auf dem Kanal der Filmakademie Baden-Württemberg veröffentlichte Dokumentation „all eyes on you“. Heute schreibt die Polizei: „Ob das Ziel der Detektion von feinmotorischen Handlungsweisen erreicht werden kann, kann derzeit nicht beantwortet werden.“

    Nach aktuellem Stand läuft das Projekt bis 2026. Eine unabhängige Evaluation ist nicht geplant. Nur das Landespolizeipräsidium im Innenministerium soll das Projekt nach seinem Abschluss begutachten. Der Landesdatenschutzbeauftragte Baden-Württemberg schreibt auf Anfrage von netzpolitik.org, dass die Maßnahme wegen der hohen Eingriffsintensität in Grundrechte eigentlich regelmäßig evaluiert werden müsse.

    Noch steht die Überwachung rechtlich auf dünnem Eis

    Die softwarebasierte Verhaltenserkennung begann mit Kameras am Willy-Brandt-Platz vor dem Mannheimer Hauptbahnhof und am Paradeplatz und wurde dann auf die Kurpfalzstraße – meist Breite Straße genannt –, den Marktplatz und zuletzt den Alten Messplatz ausgedehnt. Die Verwaltung hatte zudem geprüft, ob es nach dem aktuellen Polizeigesetz erlaubt ist, auch am Plankenkopf und auf dem südlichen Bahnhofsvorplatz Kameras aufzustellen, musste die Pläne jedoch verwerfen. „Bei beiden Bereichen konnte kein Kriminalitätsbrennpunkt begründet werden, weshalb die rechtlichen Möglichkeiten für einen Videoschutz nicht vorliegen“, schreibt die Mannheimer Polizei auf Anfrage von netzpolitik.org.

    Rechtliche Voraussetzung für die Überwachung ist ein im Vergleich zum restlichen Stadtgebiet erhöhtes Aufkommen von Straftaten. Sinkt die relative Kriminalitätsbelastung deutlich, müssen die KI-Kameras nach baden-württembergischem Polizeigesetz wieder abgebaut werden. Deshalb musste die Stadt auch die Kameras, die sie ab 2001 aufgestellt hatte, im Jahr 2007 wieder entfernen. Nur der nördliche Bahnhofsvorplatz ist bis heute durchgängig videoüberwacht.

    Die von der Polizei erfasste Straßenkriminalität in den überwachten Gebieten liegt nach einem zwischenzeitlichen Tief wieder auf der Höhe des Jahres vor der Einführung der Videoüberwachung. Die Drogendelikte sind nach Angaben der Polizei zum Teil deutlich zurückgegangen; das entspricht dem Trend in der gesamten Stadt. Besonders aussagekräftig ist die Kriminalitätsbelastung allerdings nicht. Denn die Zahl der erfassten Straftaten steigt automatisch dort, wo die Polizei genauer hinschaut.

    Videoüberwachung nach Gefühl

    Künftig will sich die Polizei in Mannheim bei der Überwachung des öffentlichen Raums durch Kameras nicht einmal mehr an den eigenen Kennzahlen orientieren müssen, sondern sie von der Kriminalitätsentwicklung entkoppeln. Laut Polizei soll ein Rechtsgutachten untersuchen, ob auch „strukturelle Kriminalitätsbrennpunkte“ per Video überwacht werden dürfen. Gemeint sind Orte, die aus Sicht der Polizei durch soziale, wirtschaftliche und infrastrukturelle Faktoren eine „erhöhte Tatgelegenheitsstruktur“ aufweisen – unabhängig davon, ob dort tatsächlich solche Taten erfasst wurden. Das würde der Polizei viel Spielraum geben, um Überwachung an immer mehr Orten zu legitimieren.

    Laut einer Antwort der Stadt Mannheim auf eine Anfrage der Grünen aus dem Jahr 2024 arbeitet die Stadt an einer Novellierung des Polizeigesetzes von Baden-Württemberg mit, um solche „strukturellen Kriminalitätsbrennpunkte“ auch landesweit einzuführen. Somit wäre Videoüberwachung selbst dann möglich, wenn die Zahl der erfassten Straftaten sinkt.

    Dieser Ansatz erinnert an das hessische Polizeigesetz. Dort ist die Rede von„Angsträumen“ und „gefühlten Kriminalitätsschwerpunkten“. Sie zeichnen sich ebenfalls durch „Tatgelegenheitsstrukturen“ aus und würden von der Bevölkerung gemieden, so die Begründung der entsprechenden Änderung des Polizeigesetzes, die im Dezember 2024 verabschiedet wurde.

    Der baden-württembergische Datenschutzbeauftragte warnt davor, Gesetze zu verabschieden, die Gefühle zur Grundlage polizeilicher Maßnahmen machen. Die Aufsichtsbehörde verstehe zwar den Drang, das Sicherheitsgefühl der Bürger*innen ernst zu nehmen. Sie sehe aber Gefahren, wenn der Staat Maßnahmen mit hoher Eingriffsintensität für die Grundrechte mit Gefühlen begründe. „Der Staat muss für seine Bürger_innen berechenbar und sein Handeln nachvollziehbar und vorhersehbar sein. Vor diesem Hintergrund erschließt sich uns nicht, wie man mit der Intention in Freiheitsrechte einzugreifen, Gefühle oder Eindrücke objektivieren und rationalisieren könnte.“

    Worauf die Kameras zielen, will die Polizei geheimhalten

    Während die Polizei in Mannheim den öffentlichen Raum zunehmend durchleuchten möchte, will sie sich selbst nicht in die Karten schauen lassen. Eine Karte mit den genauen Positionen und Ausrichtungen der Kameras will die Behörde auf Anfrage nicht herausgeben – aus „polizeitaktischen Gründen“. Es gibt zwar eine Karte mit rot markierten Überwachungszonen auf der Website der Stadt und eine leicht abweichende mit blau markierten Überwachungszonen auf der Website der Polizei, aber beide weichen von der Realität ab.

    So ist dort beispielsweise die Kurpfalzbrücke nicht markiert. Dabei wurde diese mindestens zeitweise von einer Kamera überwacht. Das hat der Prozess eines Mannes gezeigt, der mit Hilfe der Überwachungsbilder eine Verurteilung wegen Widerstand gegen Vollstreckungsbeamte abwehren konnte. Wieso die Kamera einen Bereich abgebildet hat, der nicht entsprechend gekennzeichnet ist, hat die Polizei bis Redaktionsschluss nicht beantwortet.

    Die Kurpfalzstraße auf Höhe des Paradeplatzes ist auf der Karte der Stadt ebenfalls nicht als überwacht markiert, dabei zeigen mehrere Kameras deutlich darauf. Die Karte der Polizei zählt dieses Areal zur überwachten Zone; ebenso das südliche Ende des Alten Messplatzes. Laut der Karte der Stadt Mannheim ist dieser Bereich von der Überwachung ausgenommen; dabei sagte ein Polizist 2024, dass er zumindest teilweise von Kameras erfasst wird. Eine Sprecherin der Stadt schreibt auf Anfrage, die Karte solle nur einen „groben Überblick“ geben.

    Eine detaillierte Karte mit den Kamera-Ausrichtungen und erfassten Arealen hätte vermutlich auch nur eine kurze Gültigkeit. Im Zuge von Optimierungen komme es gelegentlich vor, dass Kameras nachjustiert werden, schreibt die Polizei auf netzpolitik.org-Anfrage. Protokolle dazu gebe es nicht. Private Immobilien, sowie Areale „die nicht in den videogeschützten Bereich fallen“, würden aber verpixelt.

    Die Software braucht viele Schlägereien

    Eine Hürde bei der Entwicklung der Verhaltenserkennung ist der Mangel an Beispielen für reale Straftaten. Die Software kann nur dann einen Schlag von einem Fistbump unterscheiden, wenn sie beides häufig zu sehen bekommt.

    In der Praxis gibt es in deutschen Innenstädten viel weniger Schlägereien als für KI-Forschende wünschenswert wäre. „Wie sich im Verlauf des Projektes zeigte, stehen leider nur sehr begrenzt öffentliche Daten zur Verfügung“, schreibt die Mannheimer Polizei. Wohl auch deshalb haben Polizist*innen Schlägereien zum KI-Training simuliert. Gestellte Situationen spielen „eine wichtige Rolle“, schreibt das Fraunhofer IOSB, das die Software entwickelt.

    Der Datenwissenschaftler Heiko Paulheim von der Universität Mannheim sieht das kritisch. Wenn die Datengrundlage der Software zum großen Teil aus inszenierten Kämpfen zwischen meist weißen und männlich gelesenen Polizisten bestünde, könne das darauf hinauslaufen, dass die KI bei Frauen und BIPoC weniger zuverlässig funktioniert und öfter zu Unrecht anschlägt.

    Auch auf anderem Wege können marginalisierte Gruppen vermehrt ins Visier der KI-basierten Überwachung geraten. Die Mannheimer Software erkennt beispielsweise auch liegende Menschen – und wer in der Öffentlichkeit liegt, ist oft obdachlos. Bislang darf die Software nur bei Hinweisen auf eine Straftat Alarm schlagen. Die Landesregierung plant aber, den Einsatz der Verhaltenserkennung auch gegen Menschen in einer mutmaßlich hilflosen Lage zu erlauben.

    Wer das Mannheimer Modell zahlt – und wem die Software gehört

    In der Kooperation zwischen Stadt und Polizei Mannheim und dem Fraunhofer IOSB teilen sich die Parteien die Kosten. Die Polizei zahlte 190.000 Euro für Videoarbeitsplätze und Videomanagementsoftware, Speicher- und Serverstruktur. „Personalkosten wurden nicht erhoben“, schreibt sie. Die Stadt zahlte 860.000 Euro für Erwerb, Montage und Verkabelung der Kameras. Das Fraunhofer IOSB finanziert die Software-Entwicklung.

    Die Software des Mannheimer Modells gehört dem Fraunhofer IOSB. Es habe sich vertraglich verpflichtet, auf eine kommerzielle Verwertung „vorerst zu verzichten“, schreibt das Institut an netzpolitik.org. Die Polizei Baden-Württemberg könne die Software, wenn sie marktreif werden sollte, kostenfrei nutzen, schreibt die Mannheimer Polizei.

    Die Trainingsdaten für das Mannheimer Modell liefern Menschen in Mannheim – oftmals nichtsahnend – kostenlos.

    Drogendeals knapp außerhalb des Videobilds

    Der Wilde Wein, der die Fassade der Alten Feuerwache am Alten Messplatz erobert hat, umrankt acht Kameras. Vor ihren Linsen springen und gleiten Skateboarder über selbstgebaute Rampen und Rails, Kinder planschen in den Fontänen eines Brunnens, Menschen konsumieren offen Cannabis und Lachgas – und den Spritzen auf dem Boden zufolge wohl auch mehr.

    So berichtet es der Journalist Manuel Schülke bei einem Spaziergang über den Platz. Er ist Redakteur beim hyperlokalen Nachrichtenportal Neckarstadtblog und hat sich ausgiebig mit der Mannheimer Videoüberwachung beschäftigt. Schülke sagt: „Ich habe meine Zweifel, dass die bringt, was sie soll.“ Zu häufig lese er im Polizeibericht von Straftaten im Überwachungsbereich, bei denen keine Streife rechtzeitig vor Ort war und trotz Videoaufzeichnung Zeug*innen gesucht werden. „Da hat die Abschreckung nicht funktioniert und die anschließende Strafverfolgung ist auch mau“, sagt er.

    Damit die Kameras potenzielle Kriminelle nicht einfach in die Nebenstraßen verdrängen, sind bestimmte Polizist*innen dazu abgestellt, um die videoüberwachten Areale zu patrouillieren. Sie sollen auch eingreifen, wenn eine Kamera eine Straftat filmt.

    Schülke zufolge spielen sich Drogendelikte auf dem Platz oftmals knapp außerhalb des überwachten Bereichs ab, etwa in einem anliegenden Parkhaus oder dort, wo der Platz an die Neckarwiese grenzt. Im November 2024 hat die Polizei in diesem Teilareal eine Razzia gegen Drogenhändler*innen durchgeführt.

    Schülke hatte zur Einführung der Kameras versucht, Beispielbilder zu bekommen, die zeigen, welche Bereiche die Kameras am Platz aufnehmen; die Polizei habe die Antwort aus ermittlungstaktischen Gründen verweigert. „Es gibt da uneinsehbare Areale und die wollen nicht, dass das jemand weiß“, sagt der Journalist.

    Gut einsehbar für die Kameras seien dagegen die Eingänge zu sensitiven Einrichtungen aus dem Gesundheitsbereich, darunter Praxen für Psychotherapie, ein Zentrum für sexuelle Gesundheit und eine psychologische Beratungsstelle für queere Menschen.

    Das denken die Mannheimer*innen über die Überwachung

    Nino (56) steht auf der Kurpfalzstraße nahe des Marktplatzes und meint, die Mannheimer Kameras gut zu kennen. Dann kreist sein Zeigefinger aber doch erst einmal orientierungslos, während er mit der anderen Hand sein Bier festhält. „Ah da“, sagt Nino nach einer Weile und deutet auf eines der Geräte. „Ich finds scheiße“, sagt er. Da ist Nino nicht allein. Fünf Prozent der Mannheimer*innen versuchen laut einer Untersuchung von 2022/23, die überwachten Areale möglichst zu vermeiden.

    Manuela (52) und Karin (77) wollen gerade den Marktplatz überqueren. Manuela sagt, als “Monnemerinnen“ seien sie inzwischen an die Überwachung gewöhnt, aber für sie sei sie nicht nötig. Sie und Karin fühlten sich hier sicher, auch nachts. „Und wenn die noch 1.000 Kameras aufhängen, macht das die Welt auch nicht besser“, sagt Karin. Manuela erinnert an den Polizisten Rouven Laur, der 2024 hier auf dem Marktplatz erstochen wurde. „Wer was machen will, der macht das auch mit Kameras“, sagt sie.

    Manuela, Karin und Nino sind drei von insgesamt zwölf Passant*innen, die wir in Mannheim auf die Kameras angesprochen haben. Die drei wussten von den Kameras, die sie beobachten – die anderen neun aber nicht.

    Das könnte auch an der zurückhaltenden Beschilderung liegen. Die weißen Warntafeln sind so groß wie ein DIN-A3-Papier und hängen ziemlich hoch. Sie sind unauffällig gefärbt und mit viel Text in kleiner Schriftgröße bestückt. Dort stehen Kontaktdaten der Polizei, ihres Datenschutzbeauftragten und der zuständigen Aufsichtsbehörde; Zweck und Rechtsgrundlage der Datenverarbeitung, Betroffenenrechte und Speicherdauer. Daneben ist ein Kamerasymbol im Bierdeckelformat zu sehen. Kein Wort von softwarebasierter Verhaltenskontrolle.

    Interessant ist der Kontrast zu den Schildern „Richtiges Verhalten bei aggressivem Betteln“, die Passant*innen dazu aufrufen, bettelnde Menschen dem Ordnungsamt zu melden. Diese Schilder sind doppelt so groß wie die Kamera-Warnschilder und knallrot.

    Martin Schwarzbeck ist seit 2024 Redakteur bei netzpolitik.org. Er hat Soziologie studiert, als Journalist für zahlreiche Medien gearbeitet, von ARD bis taz, und war zuletzt lange Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriffen hat. Martin interessiert sich für Machtstrukturen und die Beziehungen zwischen Menschen und Staaten und Menschen und Konzernen. Ein Fokus dabei sind Techniken und Systeme der Überwachung, egal ob von Staatsorganen oder Unternehmen. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0. Einige Minuten war der Autor falsch benannt.

    Über Martin Schwarzbeck - netzpolitik:

    Unter der Kennung "Gastautor:innen" fassen wir die unterschiedlichsten Beiträge externer Quellen zusammen, die wir dankbar im Beueler-Extradienst (wieder-)veröffentlichen dürfen. Die Autor*innen, Quellen und ggf. Lizenzen sind, soweit bekannt, jeweils im Beitrag vermerkt und/oder verlinkt.